JP2007133574A - Access controller, access control system and access control method - Google Patents

Access controller, access control system and access control method Download PDF

Info

Publication number
JP2007133574A
JP2007133574A JP2005324918A JP2005324918A JP2007133574A JP 2007133574 A JP2007133574 A JP 2007133574A JP 2005324918 A JP2005324918 A JP 2005324918A JP 2005324918 A JP2005324918 A JP 2005324918A JP 2007133574 A JP2007133574 A JP 2007133574A
Authority
JP
Japan
Prior art keywords
access
feature information
content
subject
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005324918A
Other languages
Japanese (ja)
Inventor
Yutaka Saito
裕 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005324918A priority Critical patent/JP2007133574A/en
Publication of JP2007133574A publication Critical patent/JP2007133574A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Storage Device Security (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To much more efficiently control the access to contents. <P>SOLUTION: An access controller 100 includes a face characteristic information extraction part 141 for extracting face characteristic information from the video of a video storage part 11; an accessibility information setting part 142 for setting accessibility information about a video including the face of the face characteristic information; a subject image acquisition part 151 for acquiring the subject image of a user from a terminal 200 for a user; a face characteristic information extraction part 152 for extracting the face characteristic information of the user from the subject image; an accessibility determination part 153 for retrieving the access flag of video ID associated with the face ID of the face characteristic information of a person matched with the face characteristic information of the user from an access control information management part 143, and for determining the accessibility shown by the retrieved access flag; and an access control execution part 154 for controlling the access of the terminal 200 for a user to the video according to the accessibility. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、被写体を含むコンテンツへのアクセス制御に関するものである。   The present invention relates to access control to content including a subject.

近年、デジタルカメラやデジタルビデオカメラ、インターネット等の普及に伴い、個々のユーザが、大量の写真や映像等のコンテンツ(静止画像、動画像)をISP(Internet Service Provider)等を通じて特定のユーザに公開する機会が増えている。この例として、ユーザが、ホームサーバに旅行等のプライベート写真を登録し、それを関係者(プライベート写真に表示された友人等)にだけ公開する場合があげられる。また、ユーザが、自作のホームページに結婚式のプライベート映像を登録し、それを関係者(プライベート映像に表示された出席者等)にだけ公開したりする場合があげられる。
このような場合、従来は、上記コンテンツの管理者が、そのコンテンツにアクセスするためのアクセスキー、すなわちユーザIDとパスワードを予め設定し、それらをアクセス許可者に通知していた。そして、アクセス許可者は、通知されたユーザIDとパスワードとを用いて、特定のコンテンツにアクセスしていた(たとえば、特許文献1参照)。
In recent years, with the spread of digital cameras, digital video cameras, the Internet, etc., individual users have released a large amount of content such as photos and videos (still images, moving images) to specific users through ISP (Internet Service Provider) etc. Opportunities to do are increasing. As an example of this, there is a case where a user registers a private photograph such as a trip on the home server and makes it available only to the parties concerned (such as friends displayed in the private photograph). In addition, there is a case where a user registers a wedding private video on his homepage and makes it public only to related parties (such as attendees displayed on the private video).
In such a case, conventionally, an administrator of the content has previously set an access key for accessing the content, that is, a user ID and a password, and notifies them to the access authorized person. And the access permitted person accessed specific content using the notified user ID and password (for example, refer patent document 1).

特開2004−259071号公報JP 2004-259071 A

しかしながら、従来においては、コンテンツに依存しないユーザID等の情報をそのコンテンツのアクセスキーに用いるため、ユーザID等の情報の設定作業が生じることとなり、コンテンツへのアクセス制御が効率的ではないという問題があった。
そこで、本発明は、上記した問題を解決するためになされたものであり、その目的は、コンテンツに依存する情報をアクセスキーに用いることにより、コンテンツへのアクセス制御をより効率的に行うことである。
However, conventionally, since information such as a user ID that does not depend on the content is used as the access key for the content, setting work for the information such as the user ID occurs, and the access control to the content is not efficient. was there.
Accordingly, the present invention has been made to solve the above-described problems, and its purpose is to perform access control to content more efficiently by using information dependent on the content as an access key. is there.

上記目的を達成するために、本発明は、被写体を含むコンテンツへのアクセス制御を行うアクセス制御装置であって、上記コンテンツを蓄積するコンテンツ蓄積部から上記コンテンツを読み出し、当該コンテンツに含まれる被写体の特徴情報を抽出するコンテンツ用特徴情報抽出部と、上記コンテンツ用特徴情報抽出部に抽出された被写体の特徴情報を当該被写体ごとに管理する特徴情報管理部と、上記コンテンツ用特徴情報抽出部に抽出された上記特徴情報の被写体を含む上記コンテンツについて、指定されたアクセスの可否を示すアクセス可否情報を設定するアクセス可否情報設定部と、上記アクセス可否情報設定部に設定された上記アクセス可否情報を、当該コンテンツごとに、かつ当該被写体ごとに管理するアクセス制御情報管理部と、を含む。また、ユーザ用端末から、上記コンテンツへのアクセス要求を受け、当該ユーザの被写体画像を取得する被写体画像取得部と、上記被写体画像取得部で取得された上記被写体画像から、当該ユーザについての被写体の特徴情報を抽出するユーザ用特徴情報抽出部と、上記ユーザ用特徴情報抽出部に抽出された上記ユーザの上記特徴情報と、上記特徴情報管理部の上記特徴情報とを比較し、比較により一致する当該特徴情報の被写体に対応づけられた上記コンテンツのアクセス可否情報を上記アクセス制御情報管理部から検索し、検索したアクセス可否情報に示されたアクセスの可否を判断するアクセス可否判断部と、上記アクセス可否判断部に判断されたアクセスの可否に応じた上記コンテンツへのアクセス制御を上記ユーザ用端末に対して実行するアクセス制御実行部と、を含む。   In order to achieve the above object, the present invention provides an access control device that performs access control to content including a subject, reads the content from a content storage unit that stores the content, and selects a subject included in the content. A feature information extraction unit for extracting feature information, a feature information management unit for managing feature information of a subject extracted by the content feature information extraction unit for each subject, and an extraction by the content feature information extraction unit With respect to the content including the subject of the feature information, an access permission information setting unit that sets access permission information indicating whether or not specified access is possible, and the access permission information set in the access permission information setting unit, Access control information management unit that manages each content and each subject , Including the. In addition, a subject image acquisition unit that receives a request to access the content from the user terminal and acquires the subject image of the user, and the subject image acquired by the subject image acquisition unit, The feature information extraction unit for extracting feature information, the feature information of the user extracted by the user feature information extraction unit, and the feature information of the feature information management unit are compared, and they are matched by comparison An access permission determination unit that searches the access control information management unit for access permission information of the content associated with the subject of the feature information, and determines whether access is indicated in the searched access permission information, and the access The access control to the content according to the access permission determined by the permission determination unit is performed on the user terminal. Including an access control execution unit that row.

上記目的を達成するために、本発明は、アクセス制御装置およびユーザ用端末とを含むアクセス制御システムであって、上記アクセス制御装置は、被写体を含むコンテンツを蓄積するコンテンツ蓄積部から上記コンテンツを読み出し、当該コンテンツに含まれる被写体の特徴情報を抽出するコンテンツ用特徴情報抽出部と、上記コンテンツ用特徴情報抽出部に抽出された被写体の特徴情報を当該被写体ごとに管理する特徴情報管理部と、上記コンテンツ用特徴情報抽出部に抽出された上記特徴情報の被写体を含む上記コンテンツについて、指定されたアクセスの可否を示すアクセス可否情報を設定するアクセス可否情報設定部と、上記アクセス可否情報設定部に設定された上記アクセス可否情報を、当該コンテンツごとに、かつ当該被写体ごとに管理するアクセス制御情報管理部と、を有する。さらに、上記アクセス制御装置は、ユーザ用端末から、上記コンテンツへのアクセス要求を受け、当該ユーザの被写体画像を取得する被写体画像取得部と、上記被写体画像取得部で取得された上記被写体画像から、当該ユーザについての被写体の特徴情報を抽出するユーザ用特徴情報抽出部と、上記ユーザ用特徴情報抽出部に抽出された上記ユーザの上記特徴情報と、上記特徴情報管理部の上記特徴情報とを比較し、比較により一致する当該特徴情報の被写体に対応づけられた上記コンテンツのアクセス可否情報を上記アクセス制御情報管理部から検索し、検索したアクセス可否情報に示されたアクセスの可否を判断するアクセス可否判断部と、上記アクセス可否判断部に判断されたアクセスの可否に応じた上記コンテンツへのアクセス制御を上記ユーザ用端末に対して実行するアクセス制御実行部と、を有する。   To achieve the above object, the present invention provides an access control system including an access control device and a user terminal, wherein the access control device reads the content from a content storage unit that stores content including a subject. A content feature information extraction unit that extracts feature information of a subject included in the content, a feature information management unit that manages feature information of the subject extracted by the content feature information extraction unit for each subject, and For the content including the subject of the feature information extracted by the feature information extraction unit for content, set in the access enable / disable information setting unit for setting the access enable / disable information indicating whether or not the specified access is possible, and the access enable / disable information setting unit The information on whether or not the above-mentioned access is permitted for each content and for the subject. Having an access control information management unit for managing the. Further, the access control device receives an access request to the content from a user terminal and acquires a subject image of the user from the subject image acquisition unit and the subject image acquired by the subject image acquisition unit. The feature information extraction unit for user that extracts feature information of the subject for the user, the feature information of the user extracted by the feature information extraction unit for user, and the feature information of the feature information management unit are compared. Then, the access control information management unit searches the access control information management unit for the access permission information of the content associated with the subject of the feature information that matches by the comparison, and determines whether or not access is indicated in the searched access permission information The access control to the content according to the access permission determined by the determination unit and the access permission determination unit Having an access control execution unit to be executed for the user terminal.

上記目的を達成するために、本発明は、被写体を含むコンテンツへのアクセス制御を行うコンピュータに用いられるアクセス制御方法であって、上記コンピュータは、上記コンテンツを蓄積するコンテンツ蓄積部から上記コンテンツを読み出し、当該コンテンツに含まれる被写体の特徴情報を抽出するステップと、上記抽出した被写体の特徴情報を当該被写体ごとに特徴情報管理部に管理するステップと、上記抽出した上記特徴情報の被写体を含む上記コンテンツについて、指定されたアクセスの可否を示すアクセス可否情報を設定するステップと、上記設定した上記アクセス可否情報を、当該コンテンツごとに、かつ当該被写体ごとにアクセス制御情報管理部に管理するステップと、を含む。さらに、上記コンピュータは、ユーザ用端末から、上記コンテンツへのアクセス要求を受け、当該ユーザの被写体画像を取得するステップと、上記取得した上記被写体画像から、当該ユーザについての被写体の特徴情報を抽出するステップと、上記抽出した上記ユーザの上記特徴情報と、上記特徴情報管理部に管理した上記特徴情報とを比較し、比較により一致する当該特徴情報の被写体に対応づけられた上記コンテンツのアクセス可否情報を上記アクセス制御情報管理部から検索し、検索したアクセス可否情報に示されたアクセスの可否を判断するステップと、上記判断したアクセスの可否に応じた上記コンテンツへのアクセス制御を上記ユーザ用端末に対して実行するステップと、を含む。   In order to achieve the above object, the present invention is an access control method used in a computer that controls access to content including a subject, and the computer reads the content from a content storage unit that stores the content. Extracting the feature information of the subject included in the content, managing the feature information of the extracted subject in the feature information management unit for each subject, and the content including the subject of the extracted feature information A step of setting access permission information indicating whether or not designated access is possible, and a step of managing the set access permission information by the access control information management unit for each content and for each subject. Including. Further, the computer receives a request to access the content from a user terminal, acquires a subject image of the user, and extracts subject feature information about the user from the acquired subject image. The step is compared with the extracted feature information of the user and the feature information managed by the feature information management unit, and the access permission information of the content associated with the subject of the feature information that matches by the comparison From the access control information management unit, and determining whether or not the access indicated in the searched access permission information is permitted and controlling the access to the content according to the determined access permission or not to the user terminal. Executing on the device.

本発明によれば、コンテンツに依存する情報をアクセスキーに用いることにより、コンテンツへのアクセス制御をより効率的に行うことができる。   According to the present invention, it is possible to more efficiently control access to content by using content-dependent information as an access key.

以下、本発明の実施形態1ないし実施形態4について図面に基づいて説明する。
(実施形態1)
図1は本発明の実施形態1に係るアクセス制御システム1の機能を示すブロック図である。実施形態1においては、アクセス制御の対象となる映像(コンテンツともいう)が静止画像である場合を例にして説明する。
図1において、アクセス制御システム1は、アクセス制御装置100と、このアクセス制御装置100に接続されたユーザ用端末200とを含んで構成されている。この接続形態としては、インターネットやLAN(Local Area Network)等のネットワークがあげられる。ユーザ用端末200は、たとえば、パーソナルコンピュータや携帯電話等のコンピュータである。アクセス制御装置100は、たとえばホームサーバ等のコンピュータである。図1では、1台のユーザ用端末200が記載されているが、複数台のユーザ用端末200がアクセス制御装置100に接続されているものとする。
Embodiments 1 to 4 of the present invention will be described below with reference to the drawings.
(Embodiment 1)
FIG. 1 is a block diagram showing functions of the access control system 1 according to the first embodiment of the present invention. In the first embodiment, a case where a video (also referred to as content) to be subjected to access control is a still image will be described as an example.
In FIG. 1, the access control system 1 includes an access control device 100 and a user terminal 200 connected to the access control device 100. Examples of this connection form include the Internet and a network such as a LAN (Local Area Network). The user terminal 200 is, for example, a computer such as a personal computer or a mobile phone. The access control device 100 is a computer such as a home server, for example. Although one user terminal 200 is illustrated in FIG. 1, it is assumed that a plurality of user terminals 200 are connected to the access control apparatus 100.

以下、アクセス制御装置100の構成について詳述する。
アクセス制御装置100は、映像蓄積部(コンテンツ蓄積部)11、映像管理部(コンテンツ管理部)12、顔特徴情報管理部13、映像アクセス制御情報生成部14および映像アクセス判断部15を備えている。
映像蓄積部11は、アクセス制御の対象となる映像(被写体である人物を含む)を蓄積する。アクセス制御の対象というのは、特定のユーザからのアクセスの許可あるいは不許可が設定されることを意味する。映像としては、たとえば、デジタルカメラで撮影された写真等(家族旅行等のプライベート写真等)の静止画像がある。なお、ここでいう映像は、ユーザ(ここでは当該映像の管理者)によって撮影されたものであっても、その他のユーザ以外の者から入手されたものであってもよい。
Hereinafter, the configuration of the access control apparatus 100 will be described in detail.
The access control apparatus 100 includes a video storage unit (content storage unit) 11, a video management unit (content management unit) 12, a face feature information management unit 13, a video access control information generation unit 14, and a video access determination unit 15. .
The video storage unit 11 stores video (including a person who is a subject) that is a target of access control. The object of access control means that permission or non-permission of access from a specific user is set. Examples of the video include still images such as photographs taken with a digital camera (private photographs such as family trips). The video referred to here may be taken by a user (here, the manager of the video) or may be obtained from a person other than the user.

映像管理部12は、映像蓄積部11に蓄積された映像を一意に識別するための映像識別情報を管理する。この管理例を図2に示す。
図2では、映像識別情報としての映像IDが、映像管理テーブル121上で、映像データ(単に「映像」ともいう)と一意に関連づけられている。たとえば、「C0001」の映像IDは、映像蓄積部11の映像11aに関連づけられている。なお、映像IDは、映像を一意に識別することが可能であれば、たとえば、映像のタイトル等であってもよい。
The video management unit 12 manages video identification information for uniquely identifying the video stored in the video storage unit 11. An example of this management is shown in FIG.
In FIG. 2, a video ID as video identification information is uniquely associated with video data (also simply referred to as “video”) on the video management table 121. For example, the video ID “C0001” is associated with the video 11 a of the video storage unit 11. Note that the video ID may be, for example, a video title as long as the video can be uniquely identified.

顔特徴情報管理部13は、映像蓄積部11の映像に含まれる人物(被写体)ごとに、その顔特徴情報(被写体の特徴情報)を管理する。この管理例を図3に示す。
図3では、顔特徴情報管理部13は、顔特徴管理テーブル131を有し、この顔特徴管理テーブル131上で、人物の顔画像を一意に識別するための顔ID(つまり被写体)ごとに、後記する顔特徴情報を管理する。なお、顔画像とは、映像内から人物の顔部分を抽出した画像を指す。
このように構成することにより、映像に含まれる人物の顔特徴情報と、当該人物の顔とを対応づけることが可能となる。
The face feature information management unit 13 manages face feature information (subject feature information) for each person (subject) included in the video of the video storage unit 11. An example of this management is shown in FIG.
In FIG. 3, the face feature information management unit 13 has a face feature management table 131, and on the face feature management table 131, for each face ID (that is, a subject) for uniquely identifying a person's face image, Manages facial feature information to be described later. The face image refers to an image obtained by extracting a person's face portion from the video.
With this configuration, it is possible to associate the facial feature information of the person included in the video with the face of the person.

映像アクセス制御情報生成部14は、上記アクセス制御の対象となる映像から、人物の顔特徴情報を抽出する。また、映像アクセス制御情報生成部14は、当該映像へのアクセスの可否を示すアクセスフラグ(アクセス可否情報ともいう)を生成する。
具体的には、図1に示したように、映像アクセス制御情報生成部14は、コンテンツ用顔特徴情報抽出部(コンテンツ用特徴情報抽出部)141、アクセス可否情報設定部142、アクセス制御情報管理部143および抽出基準管理部144を有する。なお、コンテンツ用顔特徴情報抽出部141およびアクセス可否情報設定部142の各々をコンピュータともいう(実施形態1〜4において同じ)。以下、これらの構成について詳述する。
The video access control information generation unit 14 extracts face feature information of a person from the video targeted for access control. In addition, the video access control information generation unit 14 generates an access flag (also referred to as access permission information) indicating whether or not access to the video is possible.
Specifically, as shown in FIG. 1, the video access control information generation unit 14 includes a content face feature information extraction unit (content feature information extraction unit) 141, an access enable / disable information setting unit 142, and access control information management. Unit 143 and extraction criterion management unit 144. Each of the content face feature information extraction unit 141 and the accessibility information setting unit 142 is also referred to as a computer (the same applies to the first to fourth embodiments). Hereinafter, these configurations will be described in detail.

コンテンツ用顔特徴情報抽出部141(顔特徴情報抽出部141ともいう)は、映像蓄積部11から映像を読み出し、当該映像に含まれる人物の顔特徴情報を抽出する。この抽出方法として、たとえば特開2003−187229号公報に開示されている方法を用いる。すなわち、映像中の顔画像の局所領域を切り出し、その局所領域における周波数特徴を抽出する。そして、その周波数特徴をベクトルとする特徴ベクトルを予め規定した部分空間に射影し、射影した特徴ベクトルを抽出する。また、上記抽出方法として、特開2003−296735号公報に開示された方法を用いてもよい。
なお、本実施形態では、顔特徴情報は、たとえば、MPEG(Moving Picture Experts Group)7 ISO/IEC 15938−3:2002/Amd.1の顔記述フォーマットを従って記述するものとするが、これに限られない。
The content face feature information extraction unit 141 (also referred to as a face feature information extraction unit 141) reads a video from the video storage unit 11 and extracts face feature information of a person included in the video. As this extraction method, for example, a method disclosed in Japanese Patent Application Laid-Open No. 2003-187229 is used. That is, a local region of the face image in the video is cut out, and a frequency feature in the local region is extracted. Then, a feature vector having the frequency feature as a vector is projected onto a predetermined partial space, and the projected feature vector is extracted. Further, as the extraction method, a method disclosed in Japanese Patent Application Laid-Open No. 2003-296735 may be used.
In the present embodiment, the facial feature information is described according to the facial description format of MPEG (Moving Picture Experts Group) 7 ISO / IEC 15938-3: 2002 / Amd.1, for example. I can't.

アクセス可否情報設定部142は、顔特徴情報抽出部141に抽出された顔特徴情報の人物を含む映像について、指定されたアクセスの可否を示すアクセスフラグをアクセス制御情報管理部143に設定する。この設定例を図4に示す。
図4の設定例では、アクセス制御情報管理部143は、映像アクセス制御テーブル1431を有し、この映像アクセス制御テーブル1431上で、アクセスフラグを、映像IDおよび顔IDに対応づけて管理している。なお、実施形態において、映像ID、顔IDおよびアクセスフラグをアクセス制御情報ともいう。
The access permission information setting unit 142 sets, in the access control information management unit 143, an access flag indicating whether or not a specified access is possible for the video including the person of the face feature information extracted by the face feature information extraction unit 141. An example of this setting is shown in FIG.
In the setting example of FIG. 4, the access control information management unit 143 has a video access control table 1431, and manages the access flag in association with the video ID and the face ID on the video access control table 1431. . In the embodiment, the video ID, the face ID, and the access flag are also referred to as access control information.

顔IDは、映像IDで指定された映像に含まれる人物の顔を識別するためのIDである。
アクセスフラグは、映像へのアクセスの可否を表す。図4では、アクセスフラグとして、アクセス可能なことを示す「許可」があげられているが、これに限られない。たとえば、アクセス不可能なことを示す「不許可」や、顔IDのユーザのみ対象映像のダウンロードを許可する「ダウンロード許可」等をアクセスフラグとして設定してもよい。
このようにすると、映像に表示される人物に対して、その映像へのアクセス可否を設定することが可能となる。たとえば、「C0001」の映像11aに表示される人物(「F0001」の顔IDをもつもの)の場合、その人物は、その映像11aへのアクセスが可能になっている。
The face ID is an ID for identifying the face of a person included in the video specified by the video ID.
The access flag indicates whether or not the video can be accessed. In FIG. 4, “permission” indicating that access is possible is given as an access flag, but the present invention is not limited to this. For example, “not permitted” indicating that access is impossible, “download permission” allowing only the user with the face ID to download the target video, etc. may be set as the access flag.
In this way, it is possible to set whether or not the person displayed in the video can access the video. For example, in the case of a person (having a face ID of “F0001”) displayed on the video 11a of “C0001”, the person can access the video 11a.

図1に戻って、抽出基準管理部144は、顔特徴情報を抽出するための抽出基準を管理する。抽出基準には、映像中に表される当該顔の領域の大きさ、および、顔の人物の向きがあらかじめ定められているが、これらの内容は後記する。   Returning to FIG. 1, the extraction criterion management unit 144 manages an extraction criterion for extracting facial feature information. In the extraction criteria, the size of the face area represented in the video and the orientation of the face person are determined in advance, and these contents will be described later.

映像アクセス判断部15は、ユーザ用端末200から、映像蓄積部11の映像へのアクセス要求があったとき、顔特徴情報管理部13およびアクセス制御情報管理部143から、その映像へのアクセス可否を判断する。
具体的には、図1に示したように、映像アクセス判断部15は、顔画像取得部(被写体画像取得部)151、ユーザ用特徴情報抽出部152(顔特徴情報抽出部152ともいう)、アクセス可否判断部153およびアクセス制御実行部154を有する。なお、顔画像取得部151、顔特徴情報抽出部152、アクセス可否判断部153およびアクセス制御実行部154の各々をコンピュータともいう(実施形態1〜4において同じ)。以下、これらの構成について詳述する。
When there is a request for access to the video stored in the video storage unit 11 from the user terminal 200, the video access determination unit 15 determines whether the video can be accessed from the face feature information management unit 13 and the access control information management unit 143. to decide.
Specifically, as illustrated in FIG. 1, the video access determination unit 15 includes a face image acquisition unit (subject image acquisition unit) 151, a user feature information extraction unit 152 (also referred to as a face feature information extraction unit 152), An access permission determination unit 153 and an access control execution unit 154 are included. Note that each of the face image acquisition unit 151, the face feature information extraction unit 152, the accessibility determination unit 153, and the access control execution unit 154 is also referred to as a computer (the same applies to the first to fourth embodiments). Hereinafter, these configurations will be described in detail.

顔画像取得部151は、ユーザ用端末200から、映像蓄積部11の映像へのアクセス要求を受け、当該ユーザの顔画像(被写体画像)を取得する。
顔特徴情報抽出部152は、顔画像取得部151で取得された顔画像から、当該ユーザについての顔特徴情報を抽出する。なお、この抽出方法としては、上記した特開2003−187229号公報等に開示された公知の方法を用いる。
The face image acquisition unit 151 receives an access request to the video of the video storage unit 11 from the user terminal 200 and acquires the user's face image (subject image).
The face feature information extraction unit 152 extracts face feature information about the user from the face image acquired by the face image acquisition unit 151. In addition, as this extraction method, the well-known method disclosed by Unexamined-Japanese-Patent No. 2003-187229 mentioned above etc. is used.

アクセス可否判断部153は、顔特徴情報抽出部152に抽出されたユーザの顔特徴情報と、特徴情報管理部13の顔特徴情報とを比較する。また、アクセス可否判断部153は、比較により一致する顔特徴情報の顔IDに対応づけられた映像のアクセスフラグをアクセス制御情報管理部143から検索する。さらに、アクセス可否判断部153は、検索したアクセス可否情報に示されたアクセスの可否(許可または不許可)を判断する。
アクセス制御実行部154は、アクセス可否判断部153に判断されたアクセスの可否に応じたアクセス制御を、上記アクセス要求したユーザ用端末200に対して実行する。たとえば、アクセス制御実行部154は、アクセス可能な場合、当該映像へのアクセスをユーザ用端末200に許可し、他方、アクセス不可能な場合、当該映像へのアクセスを拒否する。
The accessibility determination unit 153 compares the user's face feature information extracted by the face feature information extraction unit 152 with the face feature information of the feature information management unit 13. Further, the access permission determination unit 153 searches the access control information management unit 143 for the access flag of the video associated with the face ID of the matching face feature information by comparison. Further, the access permission determination unit 153 determines whether access is permitted (permitted or not permitted) indicated in the searched access permission information.
The access control execution unit 154 executes access control corresponding to the access permission determined by the access permission determination unit 153 for the user terminal 200 that has requested access. For example, when access is possible, the access control execution unit 154 permits the user terminal 200 to access the video, and when access is impossible, denies access to the video.

なお、アクセス制御装置100の映像蓄積部11および各管理部12、13、143、144は、HDD(Hard DiskDrive)や半導体メモリ、DVD(Digita Versatile Disk)などの記憶装置で実現可能である。また、顔特徴抽出部等の各部141、142、151〜154は、CPUなどの処理装置で実現可能である。処理装置は、記憶装置に記憶されたアクセス制御プログラムに従って実行する。なお、アクセス制御プログラムは、CDーROM等のコンピュータ読み取り可能な記録媒体に記録されていてもよい。あるいは、アクセス制御装置100は、LSIなどにより実現するようにしてもよい。   The video storage unit 11 and the management units 12, 13, 143, and 144 of the access control device 100 can be realized by a storage device such as an HDD (Hard Disk Drive), a semiconductor memory, or a DVD (Digita Versatile Disk). Each unit 141, 142, 151 to 154 such as the face feature extraction unit can be realized by a processing device such as a CPU. The processing device executes according to the access control program stored in the storage device. The access control program may be recorded on a computer-readable recording medium such as a CD-ROM. Alternatively, the access control apparatus 100 may be realized by an LSI or the like.

[アクセスフラグの設定に関する処理]
次に、上記アクセスフラグの設定に関する処理について説明する。
図5は、映像アクセス制御情報生成部14でのアクセスフラグの設定に関する処理を示すフローチャートである。
ステップS11において、顔特徴情報抽出部141は、所定のタイミングで、アクセスフラグの設定対象となる映像の映像IDを映像管理テーブル121(図2参照)から選択する。所定のタイミングは、所定の時間に自動で行うタイミングであってもよいし、あるいはユーザ用端末200からの要求を受けたタイミングであってもよい。
[Processing related to setting access flags]
Next, processing related to the setting of the access flag will be described.
FIG. 5 is a flowchart showing processing relating to setting of an access flag in the video access control information generation unit 14.
In step S11, the face feature information extraction unit 141 selects a video ID of a video for which an access flag is set from the video management table 121 (see FIG. 2) at a predetermined timing. The predetermined timing may be a timing that is automatically performed at a predetermined time, or may be a timing at which a request from the user terminal 200 is received.

ステップS12において、顔特徴情報抽出部141は、上記選択した映像IDに対応する映像を映像蓄積部11から読み出し、その映像から、人物の顔画像を切り出して個人を識別するための顔特徴情報を抽出する。これにより、映像に依存する顔画像の顔特徴情報が抽出される。
なお、本実施形態において、映像に複数の顔が表示されている場合、顔特徴情報抽出部141は、それぞれの顔の顔特徴情報を抽出し、個々の顔特徴情報について、ステップS13以降の処理を行う。
In step S12, the face feature information extraction unit 141 reads a video corresponding to the selected video ID from the video storage unit 11, and extracts facial feature information for identifying a person by cutting out a human face image from the video. Extract. Thereby, the facial feature information of the facial image depending on the video is extracted.
In the present embodiment, when a plurality of faces are displayed on the video, the face feature information extraction unit 141 extracts the face feature information of each face, and the processing after step S13 is performed on each face feature information. I do.

ステップS13において、アクセス可否情報設定部142は、上記抽出した顔特徴情報を表す同一人物が既に顔特徴管理テーブル131(図3参照)に登録されているかを照合する。照合の結果、登録されている場合は(S13のYes)、ステップS14の処理に移行し、登録されていない場合は(S13のNo)、ステップS15の処理に移行する。たとえば、顔特徴情報が顔特徴管理テーブル131に登録済みであれば、同一人物が登録されていると判断される。
ステップS14において、アクセス可否情報設定部142は、登録済みの同一人物の顔IDを顔特徴管理テーブル131から取得する。
In step S13, the access enable / disable information setting unit 142 checks whether the same person representing the extracted face feature information is already registered in the face feature management table 131 (see FIG. 3). As a result of the collation, if registered (Yes in S13), the process proceeds to step S14. If not registered (No in S13), the process proceeds to step S15. For example, if the facial feature information has been registered in the facial feature management table 131, it is determined that the same person is registered.
In step S <b> 14, the access enable / disable information setting unit 142 acquires the registered face ID of the same person from the face feature management table 131.

一方、ステップS15において、アクセス可否情報設定部142は、ステップ12で抽出された顔特徴情報に新規に顔IDを付与し、その顔IDと顔特徴情報とを対応づけて、顔特徴管理テーブル131に登録する。そして、ステップS16において、アクセス可否情報設定部142は、ステップS15で付与した顔IDを顔特徴管理テーブル131から取得し、ステップS17の処理に移行する。   On the other hand, in step S15, the accessibility information setting unit 142 newly assigns a face ID to the face feature information extracted in step 12, associates the face ID with the face feature information, and performs the face feature management table 131. Register with. In step S16, the accessibility information setting unit 142 acquires the face ID assigned in step S15 from the face feature management table 131, and the process proceeds to step S17.

ステップS17において、アクセス可否情報設定部142は、ステップS11で選択された映像IDと、ステップ14またはステップ16で取得した顔IDとに対応するアクセスフラグを映像アクセス制御テーブル147(図4参照)に生成する。生成されたアクセスフラグは、たとえば、あらかじめ指定された「許可」を示すものである。   In step S17, the access enable / disable information setting unit 142 stores an access flag corresponding to the video ID selected in step S11 and the face ID acquired in step 14 or 16 in the video access control table 147 (see FIG. 4). Generate. The generated access flag indicates “permitted” designated in advance, for example.

ステップS18において、アクセス可否情報設定部142は、ステップS12で抽出された映像内の全ての顔特徴情報について、ステップS13にける照合が完了しているかを判断する。そして、未完了の場合(ステップS18のNo)、ステップS13に戻って処理を実行し、他方、完了の場合(ステップS18のYes)、処理を終了する。
このようにして、映像に依存する人物の顔特徴情報を用いて、その映像へのアクセス制御情報(映像ID、顔IDおよびアクセスフラグを含む)が生成されることとなる。
In step S18, the accessibility information setting unit 142 determines whether collation in step S13 has been completed for all face feature information in the video extracted in step S12. If not completed (No in step S18), the process returns to step S13 to execute the process. On the other hand, if completed (Yes in step S18), the process ends.
In this way, access control information (including a video ID, a face ID, and an access flag) for the video is generated using the facial feature information of the person depending on the video.

[アクセス可否の判断に関する処理]
次に、上記アクセスフラグに基づく映像へのアクセス可否の判断に関する処理について説明する。
図6は、映像アクセス判断部15でのアクセス可否の判断に関する処理を示すフローチャートである。
ステップS21において、顔画像取得部151は、ユーザ用端末200から、映像蓄積部11の映像へのアクセス要求が発生した場合(S21のYes)、次のステップS22の処理に移行する。
ステップS22において、顔画像取得部151は、アクセス要求されたユーザ用端末200から、当該ユーザ自身を表す顔画像を取得する。たとえば、取得された顔画像は、ユーザ用端末としての携帯電話(カメラ機能付き)で撮影されたものとするが、これに限られない。また、顔画像取得部151は、ユーザ用端末200を介さず、アクセス制御装置100に接続されたカメラ装置などを介して上記顔画像を取得してもよい。
[Processing related to access permission judgment]
Next, processing relating to determination of whether or not an image can be accessed based on the access flag will be described.
FIG. 6 is a flowchart showing processing relating to the determination of whether or not the video access determination unit 15 can access.
In step S21, the face image acquisition unit 151 proceeds to the processing of the next step S22 when a request for access to the video of the video storage unit 11 is generated from the user terminal 200 (Yes in S21).
In step S22, the face image acquisition unit 151 acquires a face image representing the user himself / herself from the user terminal 200 requested to be accessed. For example, the acquired face image is taken with a mobile phone (with a camera function) as a user terminal, but is not limited thereto. Further, the face image acquisition unit 151 may acquire the face image not via the user terminal 200 but via a camera device connected to the access control device 100.

ステップS23において、顔特徴抽出部152は、取得した顔画像から顔特徴情報を抽出する。
ステップS24において、アクセス可否判断部153は、ステップS23で抽出された顔特徴情報が顔特徴管理テーブル131(図3参照)に存在するかどうかを判断する。具体的には、アクセス可否判断部153は、ステップS23で抽出された顔特徴情報と、顔特徴管理テーブル131で管理されている顔特徴情報とを比較し、比較の結果、双方の顔特徴情報で表された顔の人物が同一であるかを判断する。つまり、アクセス可否判断部153は、アクセス要求してきたユーザが、映像に表示されている本人かどうかという判断を行う。このようにすることにより、映像に依存する人物の顔特徴情報をその映像のアクセスキーとして用いることが可能となる。
In step S23, the face feature extraction unit 152 extracts face feature information from the acquired face image.
In step S24, the accessibility determination unit 153 determines whether the face feature information extracted in step S23 exists in the face feature management table 131 (see FIG. 3). Specifically, the accessibility determination unit 153 compares the facial feature information extracted in step S23 with the facial feature information managed in the facial feature management table 131, and as a result of the comparison, both facial feature information. It is determined whether the faces represented by are the same. That is, the access permission determination unit 153 determines whether the user who has requested access is the person who is displayed in the video. By doing so, it becomes possible to use the facial feature information of a person who depends on the video as an access key for the video.

そして、上記判断の結果、顔特徴情報が顔特徴管理テーブル131に存在する場合(S24のYes)、アクセス可否判断部153は、ステップS25の処理に移行し、他方、存在しない場合は(S24のNo)、ステップS28の処理に移行する。   As a result of the determination, if the face feature information exists in the face feature management table 131 (Yes in S24), the access permission determination unit 153 proceeds to the process of Step S25, and if not, (S24 No), the process proceeds to step S28.

ステップS25においては、アクセス可否判断部153は、顔特徴管理テーブル131(図3参照)から対応する顔ID、すなわちステップ24で存在した顔特徴情報に対応する顔IDを取得し、次のステップS26の処理に移行する。
一方、ステップS28においては、アクセス制御実行部154は、アクセスできる映像が存在しないことを、アクセス要求したユーザ用端末200に通知して処理を終了する。
In step S25, the accessibility determination unit 153 obtains the corresponding face ID from the face feature management table 131 (see FIG. 3), that is, the face ID corresponding to the face feature information existing in step 24, and next step S26. Move on to processing.
On the other hand, in step S28, the access control execution unit 154 notifies the user terminal 200 that requested access that there is no video that can be accessed, and ends the process.

ステップS26において、アクセス可否判断部153は、映像アクセス制御管理テーブル143(図4参照)を参照して、ステップS25で取得した顔IDに対応づけられたアクセス許可の映像IDが存在するかを判断する。具体的には、アクセス可否判断部153は、ステップS25で取得した顔IDのアクセスフラグ(許可を示すもの)に対応づけられた映像IDが、映像アクセス制御管理テーブル143(図4参照)に存在するかを判断する。
つまり、ステップS26では、アクセス可否判断部153は、ステップS23で抽出された顔特徴情報の顔IDに対応づけられた映像IDのアクセスフラグを映像アクセス制御管理テーブル143(図4参照)から検索し、検索したアクセスフラグに示されたアクセスの可否(許可または不許可)を判断することとなる。
In step S26, the access permission determination unit 153 refers to the video access control management table 143 (see FIG. 4) to determine whether there is an access-permitted video ID associated with the face ID acquired in step S25. To do. Specifically, the access permission determination unit 153 has the video ID associated with the face ID access flag (indicating permission) acquired in step S25 in the video access control management table 143 (see FIG. 4). Judge whether to do.
That is, in step S26, the access permission determination unit 153 searches the video access control management table 143 (see FIG. 4) for the access flag of the video ID associated with the face ID of the face feature information extracted in step S23. Thus, it is determined whether or not access (permitted or not permitted) indicated in the retrieved access flag is made.

そして、判断の結果、存在しない場合(S26のNo)、アクセス制御実行部154は、ステップS28の処理に移行し、他方、存在する場合は(S26のYes)、次のステップS27の処理に移行する。
ステップS27において、アクセス制御実行部154は、ステップS26で存在すると判断されたアクセス許可の映像、すなわち、許可を示すアクセスフラグが対応づけられている映像IDのリストをユーザ用端末200に送信して提示する。これにより、ユーザは、ユーザ用端末200を用いて、提示されたリストの中から、所望の映像IDを選択することにより、その映像IDの映像をアクセス制御装置100から取得することが可能となる。
If the result of the determination indicates that the access control execution unit 154 does not exist (No in S26), the access control execution unit 154 proceeds to the process of Step S28, whereas if it exists (Yes in S26), the process proceeds to the process of the next Step S27. To do.
In step S27, the access control execution unit 154 transmits to the user terminal 200 the video of the access permission determined to exist in step S26, that is, the list of video IDs associated with the access flag indicating permission. Present. Accordingly, the user can acquire a video of the video ID from the access control apparatus 100 by selecting a desired video ID from the presented list using the user terminal 200. .

このように実施形態1では、アクセス制御装置100は、映像に映っている人物の顔特徴情報を当該映像へのアクセスキーとして用いるので、映像へのアクセス制御をより効率的に行うことができる。具体的には、映像の管理者とその閲覧者(映像に映っているユーザ)との間で、予めユーザIDやパスワード等のアクセスキーを共有しておかなくても、ユーザの顔特徴情報と映像内の人物の顔特徴情報とに基づいてユーザ認証を行うことで、映像へのアクセス制御を実現する。また、管理者は、閲覧者ごとに、ユーザIDやパスワード等のアクセスキーを設定する手間が省ける。   As described above, in the first embodiment, the access control apparatus 100 uses the facial feature information of the person shown in the video as an access key to the video, so that the access control to the video can be performed more efficiently. Specifically, the facial feature information of the user can be obtained without sharing an access key such as a user ID or a password in advance between the video manager and the viewer (the user shown in the video). Access control to the video is realized by performing user authentication based on the facial feature information of the person in the video. Moreover, the administrator can save the trouble of setting an access key such as a user ID or a password for each viewer.

なお、本実施形態では、アクセス制御実行部154は、アクセス可否判断部153でのアクセスの可否に応じた映像へのアクセス制御として、ステップS27における提示処理やステップS28における通知処理を行う場合について説明したが、これに限られない。たとえば、アクセス制御実行部154は、ステップS27における提示処理に代えて、アクセス許可された映像IDの映像を映像蓄積部11から読み出して、ユーザ用端末200に直接送信してもよい。   In the present embodiment, the access control execution unit 154 describes a case where the presentation process in step S27 and the notification process in step S28 are performed as the access control to the video according to the access permission / inhibition in the access permission determination unit 153. However, it is not limited to this. For example, instead of the presentation process in step S27, the access control execution unit 154 may read the video of the video ID permitted to access from the video storage unit 11 and directly transmit it to the user terminal 200.

[顔特徴情報の他の抽出処理]
次に、上記顔特徴情報の他の抽出処理について説明する。上記実施形態1においては、顔特徴情報抽出部141が映像に含まれる人物の顔をすべて抽出する場合について説明したが、抽出基準管理部144の抽出基準に適合する人物の顔特徴情報のみを抽出するようにしてもよい。この場合の顔特徴情報抽出部141での抽出処理を図7に示す。
図7は、顔特徴情報抽出部での抽出処理を示すフローチャートである。なお、顔特徴情報抽出部141は、図5のステップS12の処理に移行した後、図7のステップS121からステップS127までの処理に移行する。
ステップS121において、顔特徴情報抽出部141は、ステップS11(図5参照)で選択した映像IDの映像から、顔画像を抽出する。
[Other extraction process of facial feature information]
Next, another extraction process of the face feature information will be described. In the first embodiment, the case has been described in which the face feature information extraction unit 141 extracts all human faces included in the video. However, only the face feature information of a person that meets the extraction criterion of the extraction criterion management unit 144 is extracted. You may make it do. FIG. 7 shows an extraction process in the face feature information extraction unit 141 in this case.
FIG. 7 is a flowchart showing the extraction process in the face feature information extraction unit. Note that the face feature information extraction unit 141 proceeds to the process from step S <b> 12 in FIG. 7, and then proceeds to the process from step S <b> 121 to step S <b> 127 in FIG. 7.
In step S121, the face feature information extraction unit 141 extracts a face image from the video with the video ID selected in step S11 (see FIG. 5).

ステップS122において、顔特徴情報抽出部141は、抽出した顔画像の抽出領域、顔の向き(正面率)の情報を抽出基準管理部144に登録する。この登録例を図8に示す。
図8では、抽出基準管理部144は、顔画像抽出判断テーブル1441を有し、この顔画像抽出判断テーブル1441上で、顔ID、顔の抽出領域、顔の向き(正面率)および抽出可否の項目の各値を保持する。なお、顔IDは、前述したとおり、映像内から抽出した顔画像の顔を識別するためのIDである。
In step S122, the face feature information extraction unit 141 registers the extracted face image extraction area and face orientation (front rate) information in the extraction criterion management unit 144. An example of this registration is shown in FIG.
In FIG. 8, the extraction criterion management unit 144 has a face image extraction determination table 1441, and on this face image extraction determination table 1441, the face ID, the face extraction region, the face orientation (front ratio), and whether or not extraction is possible is performed. Holds each value of the item. The face ID is an ID for identifying the face of the face image extracted from the video as described above.

顔の抽出領域は、映像内に表示される顔の領域を示すものであり、二次元座標系の矩形領域を用いて表される。ここでは、たとえば、顔画像の左上座標(x,y)と右下座標(x,y)とを含んで構成されている。
なお、顔の抽出領域は、他の方法で示すようにしてもよい。たとえば、顔の抽出領域は、顔の中心を表す座標とその中心から輪郭までの半径とを用いて示すようにしてもよい。また、映像の領域をあらかじめ複数の領域に区分しておき、その区分された領域の領域番号(あらかじめ付与しておく)を用いて示すようにしてもよい。
顔の向きは、映像に表示される顔が正面を向いているかを表すためのもので、正面率を用いて表される。たとえば、顔が正面を完全に向いている場合、正面率は100%となる。なお、顔の向きは、たとえば、カメラ方向を基準に判断され、特開2002−49912号公報に開示された方法を用いて検出される。
The face extraction area indicates a face area displayed in the video, and is represented using a rectangular area of a two-dimensional coordinate system. Here, for example, the upper left coordinate (x, y) and the lower right coordinate (x, y) of the face image are included.
Note that the face extraction area may be indicated by other methods. For example, the face extraction area may be indicated using coordinates representing the center of the face and a radius from the center to the contour. Alternatively, the video area may be divided into a plurality of areas in advance, and the area numbers of the divided areas (given in advance) may be used for the display.
The face orientation is used to indicate whether the face displayed in the video is facing the front, and is represented using the front ratio. For example, when the face is completely facing the front, the front ratio is 100%. Note that the face orientation is determined based on the camera direction, for example, and is detected using the method disclosed in Japanese Patent Laid-Open No. 2002-49912.

図7に戻って、ステップS123において、顔特徴情報抽出部141は、ステップS122で登録した抽出領域が(20,20)(280,180)以内かつ面積は5000以上(これは抽出基準管理部144の抽出基準の内容)を満たすかどうかを判断する。なお、図8の「T0001」の顔IDの場合、上記面積は、たとえば、図8に示された顔の抽出領域、すなわち、左上座標(20,20)と右下座標(180,130)から、(180−20)に(130−20)を乗じて算出された値となる。
そして、上記判断の結果、上記抽出基準を満たす場合(ステップS123のYes)、顔特徴情報抽出部141は、ステップS121で抽出した顔画像の抽出を抽出OKと判断する(ステップS124)。
他方、上記抽出基準を満たさない場合(ステップS123のNo)、顔特徴情報抽出部141は、ステップS122で登録した顔の正面率が80%以上(これは抽出基準管理部144の抽出基準に定められたパラメータを指す)かどうかを判断する(ステップS125)。そして、上記抽出基準を満たす場合(ステップS125のYes)、顔特徴情報抽出部141は、ステップS124の処理に移行し、他方、満たさない場合(ステップS125のNo)、ステップS121で抽出した顔画像の抽出を抽出NGと判断する(ステップS126)。なお、抽出基準の内容として、面積や正面率があげられているが、これらの組み合わせ(抽出基準に定められたパラメータの値を含む)は自在である。たとえば、正面率のみを抽出基準に定めるようにしてもよい。
Returning to FIG. 7, in step S123, the face feature information extraction unit 141 has the extraction region registered in step S122 within (20, 20) (280, 180) and an area of 5000 or more (this is the extraction criterion management unit 144). Whether or not the content of the extraction criteria is satisfied. In the case of the face ID of “T0001” in FIG. 8, the area is, for example, from the face extraction region shown in FIG. 8, that is, the upper left coordinates (20, 20) and the lower right coordinates (180, 130). , (180-20) multiplied by (130-20).
If the extraction criterion is satisfied as a result of the determination (Yes in step S123), the face feature information extraction unit 141 determines that the extraction of the face image extracted in step S121 is extraction OK (step S124).
On the other hand, when the extraction criterion is not satisfied (No in step S123), the face feature information extraction unit 141 has a face front ratio registered in step S122 of 80% or more (this is set as the extraction criterion of the extraction criterion management unit 144). (Step S125). If the extraction criterion is satisfied (Yes in step S125), the face feature information extraction unit 141 proceeds to the process in step S124. On the other hand, if not satisfied (No in step S125), the face image extracted in step S121. Is extracted NG (step S126). In addition, although the area and the front rate are raised as the contents of the extraction criteria, combinations thereof (including the values of parameters defined in the extraction criteria) are free. For example, only the front rate may be determined as the extraction criterion.

ステップS127において、顔特徴情報抽出部141は、映像内の全ての顔画像について、抽出判断(ステップS121からステップS126までの処理)を完了したかどうかを判断し、完了していない場合(ステップS127のNo)、ステップS121に戻る。他方、完了した場合(ステップS127のYes)、顔特徴情報抽出部141は、図5のステップS12に戻って、抽出OKとなった顔画像について、顔特徴情報を抽出する。これにより、その後のステップS13以降の処理により、抽出基準を満たす顔画像の顔特徴情報のみを用いて、映像アクセス制御テーブル1431(図4参照)が生成されることとなる。   In step S127, the face feature information extraction unit 141 determines whether or not the extraction determination (the processing from step S121 to step S126) has been completed for all the face images in the video. If not (step S127). No), the process returns to step S121. On the other hand, when it is completed (Yes in step S127), the face feature information extraction unit 141 returns to step S12 in FIG. 5 and extracts face feature information for the face image that has been extracted. As a result, the video access control table 1431 (see FIG. 4) is generated by using only the facial feature information of the facial image satisfying the extraction criteria by the processing after step S13.

(実施形態2)
次に、実施形態2について説明する。なお、実施形態1と同様の部分については、実施形態1と同じ符号を用いて重複説明を省略する。
実施形態2では、複数の映像をグループ化し、グループに属する映像単位にアクセス制御を行う点に主な特徴がある。
この場合、映像管理部12(図1参照)は、図9に示す映像グループ管理テーブル122を有し、この映像グループ管理テーブル122上で、映像グループIDと映像IDとを管理する。映像グループIDは、映像のグループを識別するためのIDである。
また、アクセス制御情報管理部143(図1参照)は、図9に示す映像グループアクセス制御テーブル1432を有し、この映像グループアクセス制御テーブル1432上で、映像グループIDと顔IDとアクセスフラグとの項目の各値を管理する。
その他のアクセス制御システム1(アクセス制御装置100、ユーザ用端末200とも)の構成は、実施形態1とほぼ同様である。
(Embodiment 2)
Next, Embodiment 2 will be described. In addition, about the part similar to Embodiment 1, the same code | symbol as Embodiment 1 is used, and duplication description is abbreviate | omitted.
The second embodiment is mainly characterized in that a plurality of videos are grouped and access control is performed for each video unit belonging to the group.
In this case, the video management unit 12 (see FIG. 1) has the video group management table 122 shown in FIG. 9, and manages the video group ID and video ID on the video group management table 122. The video group ID is an ID for identifying a video group.
Further, the access control information management unit 143 (see FIG. 1) has a video group access control table 1432 shown in FIG. 9. On this video group access control table 1432, the video group ID, face ID, and access flag are displayed. Manage each value of the item.
The configuration of the other access control system 1 (both the access control device 100 and the user terminal 200) is substantially the same as that of the first embodiment.

このように構成すると、たとえば図9のテーブル122では、「C0001」と「C0003」の各映像IDに「G0001」の映像グループIDが対応づけられているので、当該映像IDの映像11a、11bを一つのグループにまとめることが可能となる。また、たとえば図9のテーブル1432では、「G0001」の映像グループIDと、「F0001」と「F0002」の各顔ID(それぞれ、映像11a、11bの顔画像についてのもの)と、アクセスフラグ(許可を示すもの)とが対応づけられているので、「G0001」の映像グループIDのグループに属する顔IDのユーザに対して、同じグループの映像へのアクセスを許可することが可能となる。   With this configuration, for example, in the table 122 of FIG. 9, since the video group ID of “G0001” is associated with the video IDs of “C0001” and “C0003”, the videos 11a and 11b of the video ID are displayed. It becomes possible to combine them into one group. For example, in the table 1432 of FIG. 9, the video group ID of “G0001”, the face IDs of “F0001” and “F0002” (respectively for the face images of the videos 11a and 11b), and the access flag (permitted) Therefore, it is possible to permit a user with a face ID belonging to the group of the video group ID “G0001” to access the video of the same group.

[アクセスフラグの設定に関する処理]
図10は、実施形態2におけるアクセスフラグの設定に関する処理を示すフローチャートである。なお、ステップS34〜ステップS37は、図5のステップS13〜ステップS16と同様の処理であるので、それ以外のステップ(S31〜S33、S38、S39)の処理について、詳述する。
ステップS31において、顔特徴情報抽出部141は、複数の映像IDをグループ化した映像グループIDを作成する。具体的には、顔特徴情報抽出部141は、映像グループIDと映像IDとを対応づけて、映像グループ管理テーブル122(図9参照)を作成する。なお、上記映像グループIDとして、例えば、あらかじめ設定された「鈴木さんの結婚披露宴写真集」のような映像のタイトルを用いてもよい。
[Processing related to setting access flags]
FIG. 10 is a flowchart illustrating processing relating to setting of an access flag in the second embodiment. Since steps S34 to S37 are the same as steps S13 to S16 in FIG. 5, the processes of the other steps (S31 to S33, S38, S39) will be described in detail.
In step S31, the face feature information extraction unit 141 creates a video group ID obtained by grouping a plurality of video IDs. Specifically, the face feature information extraction unit 141 creates a video group management table 122 (see FIG. 9) by associating the video group ID with the video ID. As the video group ID, for example, a video title such as “Mr. Suzuki's wedding reception photo book” set in advance may be used.

ステップS32において、顔特徴情報抽出部141は、アクセスフラグの設定対象となる映像グループの映像グループIDを映像グループ管理テーブル122から選択する。映像グループIDの選択方法としては、たとえば、映像の管理者による入力装置(キーボード等)の操作により行われる方法がある。また、映像グループIDが作成されたときに、あらかじめ設定された映像IDを自動的に選択する方法もある。
ステップS33において、顔特徴情報抽出部141は、選択した映像グループIDに対応づけられている全ての映像から顔画像特徴情報を抽出し、ステップS34の処理に移行する。具体的には、顔特徴情報抽出部141は、映像グループIDに対応づけられている全ての映像IDを映像グループ管理テーブル122から抽出する。そして、顔特徴情報抽出部141は、抽出した映像IDの映像を映像蓄積部11から抽出する。さらに、顔特徴情報抽出部141は、抽出した映像から、人物の顔画像を切り出してその人物の顔特徴情報を抽出する。
In step S <b> 32, the face feature information extraction unit 141 selects the video group ID of the video group for which the access flag is to be set from the video group management table 122. As a method for selecting a video group ID, for example, there is a method performed by an operation of an input device (keyboard or the like) by a video manager. There is also a method of automatically selecting a preset video ID when a video group ID is created.
In step S33, the face feature information extracting unit 141 extracts face image feature information from all videos associated with the selected video group ID, and the process proceeds to step S34. Specifically, the face feature information extraction unit 141 extracts all video IDs associated with the video group ID from the video group management table 122. Then, the facial feature information extraction unit 141 extracts the video with the extracted video ID from the video storage unit 11. Furthermore, the face feature information extraction unit 141 extracts a person's face image from the extracted video and extracts the person's face feature information.

ステップS34において、アクセス可否情報設定部142は、抽出した顔特徴情報が既に顔特徴管理テーブル131(図3参照)に登録されているかを判断し、登録されている場合は(ステップS34のYes)、ステップS35の処理に移行し、他方、登録されていない場合は(ステップS34のNo)、ステップS36の処理に移行する。
ステップS35においては、顔特徴情報抽出部141は、顔特徴管理テーブル131に登録されている顔特徴情報の人物(つまり映像内の本人)の顔IDを取得してステップS38の処理に移行する。
一方、ステップS36において、アクセス可否情報設定部142は、当該顔特徴情報に新規の顔IDを付与して顔特徴管理テーブル131に登録する。そして、ステップS37において、顔特徴情報抽出部141は、ステップS36で登録した顔IDを顔特徴管理テーブル131から取得し、ステップS38の処理に移行する。
In step S34, the accessibility information setting unit 142 determines whether the extracted facial feature information has already been registered in the facial feature management table 131 (see FIG. 3). If it has been registered (Yes in step S34). The process proceeds to step S35. On the other hand, if it is not registered (No in step S34), the process proceeds to step S36.
In step S35, the face feature information extraction unit 141 acquires the face ID of the person of the face feature information registered in the face feature management table 131 (that is, the person in the video), and proceeds to the process of step S38.
On the other hand, in step S 36, the accessibility information setting unit 142 assigns a new face ID to the face feature information and registers it in the face feature management table 131. In step S37, the face feature information extraction unit 141 acquires the face ID registered in step S36 from the face feature management table 131, and the process proceeds to step S38.

ステップS38において、アクセス可否情報設定部142は、ステップS32で選択された映像グループIDと、ステップ35またはステップ37で取得した顔IDとに対応づけられたアクセスフラグを映像アクセス制御テーブル1432(図9参照)に生成する。生成されたアクセスフラグは、たとえば、あらかじめ指定された「許可」を示すものである。
ステップS39において、アクセス可否情報設定部142は、ステップS33で抽出した映像内の全ての顔特徴情報について、ステップS34における登録の照合が完了しているかを判断する。そして、未完了の場合(ステップS39のNo)、ステップS34に戻って処理を実行し、他方、完了の場合(ステップS39のYes)、処理を終了する。
このようにして、アクセスフラグがグループ単位に設定されることとなる。
In step S38, the access enable / disable information setting unit 142 sets the access flag associated with the video group ID selected in step S32 and the face ID acquired in step 35 or 37 to the video access control table 1432 (FIG. 9). (See). The generated access flag indicates “permitted” designated in advance, for example.
In step S39, the accessibility information setting unit 142 determines whether registration verification in step S34 has been completed for all face feature information in the video extracted in step S33. If not completed (No in step S39), the process returns to step S34 to execute the process. On the other hand, if completed (Yes in step S39), the process ends.
In this way, the access flag is set for each group.

[アクセス可否の判断に関する処理]
次に、上記アクセスフラグに基づく映像へのアクセス可否の判断に関する処理について図6を参照しながら説明するが、この処理は、実施形態1の場合とほぼ同様の処理のため、実施形態1と異なる処理について説明する。
図6のステップS26において、アクセス可否判断部153は、アクセス許可(アクセスフラグが許可を示すもの)の映像IDがあるかどうかを判断する場合、まず、映像アクセス制御テーブル1432(図9参照)を参照して、ステップS25で取得した顔IDに対してアクセス許可の映像グループIDが存在するかを判断する。そして、アクセス可否判断部153は、存在した映像グループIDに対応する映像IDが映像グループ管理テーブル122にあるかどうかを判断する。
ステップS27において、アクセス制御実行部154は、ステップS26で存在したすべての映像IDのリストをユーザ用端末200に送信して提示する。これにより、ユーザは、アクセス許可された映像グループに属するすべての映像へのアクセスが可能となり、映像へのアクセス制御をより一層、効率的に行うことができる。
[Processing related to access permission judgment]
Next, processing relating to determination of whether or not an image can be accessed based on the access flag will be described with reference to FIG. 6, but this processing is substantially the same as that in the first embodiment, and is different from that in the first embodiment. Processing will be described.
In step S26 of FIG. 6, when the access permission determination unit 153 determines whether there is a video ID for access permission (the access flag indicates permission), first, the video access control table 1432 (see FIG. 9) is used. Referring to this, it is determined whether there is an access-permitted video group ID for the face ID acquired in step S25. Then, the accessibility determination unit 153 determines whether the video group management table 122 has a video ID corresponding to the existing video group ID.
In step S27, the access control execution unit 154 transmits the list of all video IDs existing in step S26 to the user terminal 200 for presentation. As a result, the user can access all the videos belonging to the permitted video group, and the access control to the video can be more efficiently performed.

(実施形態3)
次に、実施形態3について説明する。なお、実施形態1と同様の部分については、実施形態1と同じ符号を用いて重複説明を省略する。
実施形態3においては、アクセス制御の対象となる映像が動画像である点が実施形態1と異なる。
図11は、アクセス可否情報設定部142に設定される映像区間アクセステーブルの一例を示す図である。この映像区間アクセステーブル1433(以下、アクセステーブル1433という)は、映像ID、顔ID、シーンおよびアクセスフラグの項目を対応づけて管理する。ここでいう映像IDは、動画像を識別するためのIDであり、顔IDは、動画像に表示されている人物の顔を識別するためのIDである。
シーンは、動画像の区間を意味するが、これについては後記する。
(Embodiment 3)
Next, Embodiment 3 will be described. In addition, about the part similar to Embodiment 1, the same code | symbol as Embodiment 1 is used, and duplication description is abbreviate | omitted.
The third embodiment is different from the first embodiment in that the video that is subject to access control is a moving image.
FIG. 11 is a diagram illustrating an example of a video section access table set in the access permission / prohibition information setting unit 142. This video section access table 1433 (hereinafter referred to as access table 1433) manages the video ID, face ID, scene, and access flag items in association with each other. The video ID here is an ID for identifying a moving image, and the face ID is an ID for identifying the face of a person displayed in the moving image.
A scene means a section of a moving image, which will be described later.

映像区間アクセステーブル1433について詳述する。図11では、「C0004」の映像ID、「F0001」の顔ID、および「0H20M00S〜0H30M00S」のシーンが、アクセスフラグに対応づけられているが、これは、次のようなことを意味する。すなわち、「C0004」の映像IDをもつ動画像については、「F0001」の顔IDをもつ顔の人物が撮影されているシーン(0時間20分0秒から0時間30分00秒)をその顔のユーザに対して、アクセス許可するということである。これにより、動画像のシーンに撮影されたユーザは、そのシーンのみのアクセスが許可されることとなる。
なお、動画像のシーンを示す記述方式は、上記時間による記述方式だけでなく、再生カウンタや、予め別の方法で区分したシーンを示すシーンタイトルなどの記述方式を用いてもよい。
The video section access table 1433 will be described in detail. In FIG. 11, the video ID of “C0004”, the face ID of “F0001”, and the scenes of “0H20M00S to 0H30M00S” are associated with the access flag. This means the following. That is, for a moving image having a video ID of “C0004”, a scene (0 hour 20 minutes 0 seconds to 0 hours 30 minutes 00 seconds) in which a person with a face ID “F0001” is photographed is represented by the face. It is to allow access to the user. As a result, a user who has taken a scene of a moving image is permitted to access only that scene.
Note that the description method indicating the scene of the moving image is not limited to the description method based on the time, but a description method such as a reproduction counter or a scene title indicating a scene divided in advance by another method may be used.

[アクセスフラグの設定に関する処理]
次に、上記アクセスフラグの設定に関する処理について説明する。
図12は、映像アクセス制御情報生成部14でのアクセスフラグの設定に関する処理を示すフローチャートである。
ステップS41において、顔特徴情報抽出部141は、アクセスフラグの設定対象となる映像(動画像)の映像IDを映像管理テーブル121(図2参照)から選択する。ここでの動画像は、デジタルムービーカメラ等で撮影された映像をMPEG2フォーマットで記録したものとするが、これに限られない。たとえば、MPEG4やMotionJPEG等のフォーマットで記録されたものであってもよい。
[Processing related to setting access flags]
Next, processing related to the setting of the access flag will be described.
FIG. 12 is a flowchart showing processing relating to setting of an access flag in the video access control information generation unit 14.
In step S41, the face feature information extraction unit 141 selects a video ID of a video (moving image) for which an access flag is to be set from the video management table 121 (see FIG. 2). The moving image here is a video recorded by a digital movie camera or the like recorded in the MPEG2 format, but is not limited thereto. For example, it may be recorded in a format such as MPEG4 or MotionJPEG.

ステップS42において、顔特徴情報抽出部141は、MPEG2動画のIピクチャから、人物の顔画像を切り出して個人を識別するための顔特徴情報を抽出する。処理開始時においては、先頭のIピクチャから上記顔特徴情報が抽出される。なお、Iピクチャに複数の人物の顔が映っているときは、それぞれの顔に対して次のステップS43以降の処理を並行して行う。
ステップS43において、顔特徴情報抽出部141は、ステップ42で抽出した顔特徴情報と、その一つ前のIピクチャで抽出された顔特徴情報とを比較し、前のIピクチャで抽出した顔特徴情報とは異なる人物が抽出されたかどうかを判断する。
そして、異なる人物が抽出されたときは(ステップS43のYes)、ステップS44において、顔特徴情報抽出部141は、その抽出した顔特徴情報について、現在処理中のIピクチャの位置をIピクチャ開始位置として、たとえば顔特徴情報管理部13(図1参照)に記憶し、ステップS45の処理に移行する。なお、Iピクチャ開始位置は、たとえば、図11のシーンの開始時間を示す「0H20M00S」である。
In step S42, the face feature information extraction unit 141 extracts face feature information for identifying a person by cutting out a face image of a person from the I picture of the MPEG2 moving image. At the start of processing, the face feature information is extracted from the leading I picture. When a plurality of human faces are shown in the I picture, the processing from the next step S43 is performed on each face in parallel.
In step S43, the face feature information extraction unit 141 compares the face feature information extracted in step 42 with the face feature information extracted in the previous I picture, and the face feature extracted in the previous I picture. It is determined whether a person different from the information has been extracted.
When a different person is extracted (Yes in step S43), in step S44, the face feature information extraction unit 141 determines the position of the I picture currently being processed for the extracted face feature information as the I picture start position. For example, stored in the facial feature information management unit 13 (see FIG. 1), and the process proceeds to step S45. Note that the I picture start position is, for example, “0H20M00S” indicating the start time of the scene in FIG.

他方、異なる人物が抽出されなかったときは(ステップS43のNo)、顔特徴情報抽出部141は、ステップS45の処理に移行する。なお、処理開始時は、一つ前のIピクチャが存在しないため、顔特徴情報抽出部141は、ステップS43、S44を経ずにステップS42からステップS45の処理に移行する。   On the other hand, when a different person has not been extracted (No in step S43), the face feature information extracting unit 141 proceeds to the process in step S45. At the start of processing, since the previous I picture does not exist, the face feature information extraction unit 141 proceeds from step S42 to step S45 without passing through steps S43 and S44.

ステップS45において、顔特徴情報抽出部141は、現在処理中のIピクチャから抽出した顔特徴情報がその次のIピクチャに存在するかを確認する。確認の結果、存在する場合は(ステップS45のYes)、顔特徴情報抽出部141は、ステップS46の処理に移行する。
一方、存在しない場合は(ステップS45のNo)、顔特徴情報抽出部141は、ステップS48の処理に移行する。
In step S45, the face feature information extraction unit 141 confirms whether the face feature information extracted from the currently processed I picture exists in the next I picture. If it exists as a result of the confirmation (Yes in step S45), the face feature information extraction unit 141 proceeds to the process in step S46.
On the other hand, if it does not exist (No in step S45), the face feature information extraction unit 141 proceeds to the process in step S48.

ステップS46において、顔特徴情報抽出部141は、現在処理中のIピクチャの次のIピクチャが存在するかを確認する。そして、存在する場合は(ステップS46のYes)、ステップS47に進み、顔特徴情報抽出部141は、次のIピクチャに処理対象を移動し、当該Iピクチャーについて、ステップS42以降の処理を繰り返す。一方、存在しない場合は(ステップS46のNo)、処理を終了する。   In step S46, the face feature information extraction unit 141 checks whether there is an I picture next to the I picture currently being processed. If it exists (Yes in step S46), the process proceeds to step S47, and the face feature information extraction unit 141 moves the processing target to the next I picture, and repeats the processing from step S42 onward for the I picture. On the other hand, if it does not exist (No in step S46), the process ends.

ステップS48において、顔特徴情報抽出部141は、現在処理中のIピクチャの位置をIピクチャ終了位置として、たとえば顔特徴情報管理部13(図1参照)に記憶し、次のステップS49の処理に移行する。なお、Iピクチャ開始位置は、たとえば、図11のシーンの終了時間を示す「0H30M00S」である。
ステップS49において、アクセス可否情報設定部142は、上記抽出した顔特徴情報が既に顔特徴管理テーブル131(図3参照)に登録されているかを照合する。そして、登録されている場合は(ステップS49のYes)、アクセス可否情報設定部142は、ステップS50の処理に移行し、他方、登録されていない場合は(ステップS49のNo)、ステップS51の処理に移行する。
In step S48, the face feature information extraction unit 141 stores the position of the I picture currently being processed as the I picture end position, for example, in the face feature information management unit 13 (see FIG. 1), and performs the processing in the next step S49. Transition. Note that the I picture start position is, for example, “0H30M00S” indicating the end time of the scene in FIG.
In step S49, the access enable / disable information setting unit 142 collates whether the extracted face feature information is already registered in the face feature management table 131 (see FIG. 3). If it is registered (Yes in step S49), the access enable / disable information setting unit 142 proceeds to the process of step S50. On the other hand, if not registered (No in step S49), the process of step S51 is performed. Migrate to

ステップS50においては、アクセス可否情報設定部142は、顔特徴管理テーブル131から登録済みの顔特徴情報を表す人物(つまりユーザ本人)の顔IDを取得してステップS53の処理に移行する。
一方、ステップS51においては、アクセス可否情報設定部142は、上記抽出した顔特徴情報に新規に顔IDを付与して顔特徴管理テーブル131(図3参照)に登録する。そして、ステップS52において、アクセス可否情報設定部142は、ステップS51で登録した顔IDを顔特徴管理テーブル131から取得してステップS53の処理に移行する。
In step S50, the access enable / disable information setting unit 142 acquires the face ID of the person (that is, the user) representing the registered face feature information from the face feature management table 131, and proceeds to the process of step S53.
On the other hand, in step S51, the accessibility information setting unit 142 newly assigns a face ID to the extracted face feature information and registers it in the face feature management table 131 (see FIG. 3). In step S52, the accessibility information setting unit 142 acquires the face ID registered in step S51 from the face feature management table 131, and proceeds to the process of step S53.

ステップS53において、アクセス可否情報設定部142は、ステップS41で選択された映像ID、ステップS50またはステップS52で取得した顔ID、ステップS1204で記憶されたIピクチャ開始位置、ステップS1208で記憶されたIピクチャ終了位置、およびアクセスフラグをアクセス制御テーブル1443(図11参照)に生成し、ステップS46以降の処理に移行する。なお、Iピクチャ開始位置およびIピクチャ開始位置は、アクセス制御テーブル1443のシーンの値として登録される。本実施形態では、ステップS53で生成されたアクセスフラグは、「許可」が指定されている。これにより、たとえば、動画像内のあるシーンに表示されているユーザ本人は、そのシーンにのみアクセスが許可されることとなる。   In step S53, the accessibility information setting unit 142 selects the video ID selected in step S41, the face ID acquired in step S50 or S52, the I picture start position stored in step S1204, and the I stored in step S1208. The picture end position and the access flag are generated in the access control table 1443 (see FIG. 11), and the process proceeds to step S46 and subsequent steps. The I picture start position and the I picture start position are registered as scene values in the access control table 1443. In the present embodiment, “permitted” is designated as the access flag generated in step S53. Thereby, for example, the user himself / herself displayed in a certain scene in the moving image is permitted to access only that scene.

[アクセス可否の判断に関する処理]
次に、上記アクセスフラグに基づく映像へのアクセス可否の判断に関する処理について図6を参照しながら説明するが、この処理は、実施形態1の場合とほぼ同様の処理のため、実施形態1と異なる処理について説明する。
図6のステップS26において、アクセス可否判断部153は、アクセス制御管理テーブル1433(図11参照)から、ステップS25で取得した顔IDに対してアクセス許可の映像IDが存在するかを判断する。具体的には、アクセス可否判断部153は、ステップS25で取得した顔IDに対応する映像IDについて、許可を示すアクセスフラグがアクセス制御管理テーブル1433(図11参照)に対応づけられているかを判断する。
このようにすると、アクセス制御実行部154は、ステップS26で存在した映像IDのリストをユーザ用端末200に送信して提示する。これにより、ユーザは、ユーザ自身の顔が撮影されている映像のシーンへのアクセスが可能になる。
[Processing related to access permission judgment]
Next, processing relating to determination of whether or not an image can be accessed based on the access flag will be described with reference to FIG. 6, but this processing is substantially the same as that in the first embodiment, and is different from that in the first embodiment. Processing will be described.
In step S26 of FIG. 6, the access permission determination unit 153 determines whether there is an access-permitted video ID for the face ID acquired in step S25 from the access control management table 1433 (see FIG. 11). Specifically, the access permission determination unit 153 determines whether an access flag indicating permission is associated with the access control management table 1433 (see FIG. 11) for the video ID corresponding to the face ID acquired in step S25. To do.
In this way, the access control execution unit 154 transmits the video ID list that existed in step S26 to the user terminal 200 for presentation. Thereby, the user can access the scene of the video in which the user's own face is captured.

[顔特徴情報の他の抽出処理]
次に、上記顔特徴情報の他の抽出処理について説明する。実施形態3においては、顔特徴情報抽出部141が映像(動画像)に含まれる人物の顔をすべて抽出する場合について説明したが、抽出基準管理部144の抽出基準(たとえば、あらかじめ設定された顔の表示時間)に適合する人物の顔特徴情報のみを抽出するようにしてもよい。この場合の顔特徴情報抽出部141での抽出処理を図13に示す。
図13は、顔特徴情報抽出部141での抽出処理を示すフローチャートである。なお、顔特徴情報抽出部141は、図12のステップS48の処理後、後記ステップS481からステップS484までの処理を実行する。
ステップS481において、顔特徴情報抽出部141は、ステップS44(図12参照)で記憶したIピクチャ開始位置と、ステップS48(図12参照)で記憶したIピクチャ終了位置から、顔抽出時間を計測する。ここでいう顔抽出時間(上記抽出基準の内容である顔の表示時間を指す)は、抽出対象となった顔特徴情報の抽出時間を意味し、(Iピクチャ終了位置−Iピクチャ開始位置)から求められる。
[Other extraction process of facial feature information]
Next, another extraction process of the face feature information will be described. In the third embodiment, the case has been described in which the face feature information extraction unit 141 extracts all human faces included in a video (moving image). However, the extraction criterion (for example, a preset face) of the extraction criterion management unit 144 is described. Only the facial feature information of the person that fits the display time) may be extracted. FIG. 13 shows an extraction process in the face feature information extraction unit 141 in this case.
FIG. 13 is a flowchart showing the extraction process in the face feature information extraction unit 141. Note that the face feature information extraction unit 141 executes processes from step S481 to step S484 described later after the process of step S48 of FIG.
In step S481, the face feature information extraction unit 141 measures the face extraction time from the I picture start position stored in step S44 (see FIG. 12) and the I picture end position stored in step S48 (see FIG. 12). . The face extraction time here (referring to the face display time that is the content of the above extraction criterion) means the extraction time of the face feature information that is the extraction target, from (I picture end position-I picture start position). Desired.

ステップS482において、顔特徴情報抽出部141は、計測した顔抽出時間は5秒以上かどうかを判断する。そして、5秒以上の場合(ステップS482のYes)、顔特徴情報抽出部141は、上記抽出した顔画像の抽出を抽出OKと判断し(ステップS483)、ステップS49の処理に移行する。他方、5秒未満の場合(ステップS482のNo)、顔特徴情報抽出部141は、上記抽出した顔画像の抽出を抽出NGと判断し(ステップS484)、図12のステップS46の処理に移行する。
このようにすると、アクセス可否情報設定部142は、ステップS49以降の処理において、5秒以上の顔抽出時間を有した顔特徴情報のみを対象として、アクセス制御テーブル1443(図11参照)を生成することとなる。したがって、動画像内での人物の表示時間が一定時間以上の人物のみにアクセスを許可することが可能となる。
In step S482, the face feature information extraction unit 141 determines whether the measured face extraction time is 5 seconds or longer. If it is longer than 5 seconds (Yes in step S482), the face feature information extraction unit 141 determines that the extracted face image is extracted as OK (step S483), and proceeds to the process of step S49. On the other hand, if it is less than 5 seconds (No in step S482), the face feature information extraction unit 141 determines that the extracted face image is extracted as NG (step S484), and proceeds to the process of step S46 in FIG. .
In this way, the access enable / disable information setting unit 142 generates the access control table 1443 (see FIG. 11) for only the face feature information having a face extraction time of 5 seconds or more in the processing after step S49. It will be. Accordingly, it is possible to permit access only to a person whose display time of the person in the moving image is a predetermined time or longer.

なお、図14の抽出処理では、人物の表示時間を基準に抽出したが、たとえば、図7に示したように、顔の抽出領域や顔の向きを基準に抽出するようにしてもよい。この場合は、図7のステップS121からS127までの処理を図14のステップS42の処理に適用する。このようにすると、顔特徴情報抽出部141は、動画像内で一定の大きさを占める人物や、正面を向いた人物の顔特徴情報のみを抽出することとなる。   In the extraction process of FIG. 14, the extraction is performed based on the display time of the person. However, for example, as illustrated in FIG. 7, the extraction may be performed based on the face extraction region and the face orientation. In this case, the processing from step S121 to step S127 in FIG. 7 is applied to the processing in step S42 in FIG. In this way, the face feature information extraction unit 141 extracts only the face feature information of a person occupying a certain size in the moving image or a person facing the front.

(実施形態4)
次に、実施形態4について説明する。なお、実施形態1〜実施形態4と同様の部分については、それらと同じ符号を用いて重複説明を省略する。
実施形態4においては、顔特徴情報管理部13(図1参照)が、図14に示す顔特徴管理テーブル132上で、図2に示した顔IDおよび顔特徴情報に、ユーザIDを対応づけて管理する点に特徴がある。ユーザIDは、アクセス要求するユーザの識別情報である。図2では、ユーザIDは、記号が用いられているが、たとえば、ユーザの名前、メールアドレス、電話番号等であってもよい。
(Embodiment 4)
Next, Embodiment 4 will be described. In addition, about the part similar to Embodiment 1-4, the duplication description is abbreviate | omitted using the same code | symbol as those.
In the fourth embodiment, the face feature information management unit 13 (see FIG. 1) associates the user ID with the face ID and the face feature information shown in FIG. 2 on the face feature management table 132 shown in FIG. It is characterized by management. The user ID is identification information of a user who requests access. In FIG. 2, a symbol is used for the user ID, but it may be, for example, a user name, a mail address, a telephone number, or the like.

このようにすると、アクセス可否判断部153(図1参照)は、ユーザ用端末200(図1参照)からユーザIDを取得することにより、まず、取得したユーザIDに対応する顔特徴情報の顔IDを顔特徴管理テーブル132から抽出する(図6のS25に相当)。続いて、アクセス可否判断部153は、その顔IDに対応づけられた映像IDのアクセスフラグを映像アクセス制御テーブル1431から検索することとなる(図6のS26に相当)。そして、アクセス制御実行部154(図1参照)が、検索されたアクセスフラグに応じた映像へのアクセス制御をユーザ用端末200に対して実行することとなる(図6のS27、S28に相当)。これにより、ユーザは、自己の顔画像をアクセス制御装置100に送信することなく、ユーザIDの送信という簡易な方法で映像へのアクセス制御を行うことが可能となる。   In this way, the access permission determination unit 153 (see FIG. 1) acquires the user ID from the user terminal 200 (see FIG. 1), so that the face ID of the face feature information corresponding to the acquired user ID is first obtained. Are extracted from the face feature management table 132 (corresponding to S25 in FIG. 6). Subsequently, the access permission determination unit 153 searches the video access control table 1431 for the access flag of the video ID associated with the face ID (corresponding to S26 in FIG. 6). Then, the access control execution unit 154 (see FIG. 1) executes access control to the video for the user terminal 200 according to the searched access flag (corresponding to S27 and S28 in FIG. 6). . Thereby, the user can perform access control to the video by a simple method of transmitting the user ID without transmitting his / her face image to the access control apparatus 100.

[顔特徴情報テーブルの生成処理]
次に、顔特徴情報テーブル132の生成処理について図6を参照しながら説明する。
たとえば、アクセス可否判断部153が、図6のステップS25において顔IDを取得する場合に、ステップS24で取得した顔IDと、ステップS23で抽出された顔特徴情報とにユーザIDを対応づけて、顔特徴情報テーブル132を生成する。対応づけられたユーザIDは、たとえば、アクセス可否判断部153によって付与される。
[Face Feature Information Table Generation Processing]
Next, generation processing of the face feature information table 132 will be described with reference to FIG.
For example, when the access permission determination unit 153 acquires the face ID in step S25 of FIG. 6, the user ID is associated with the face ID acquired in step S24 and the face feature information extracted in step S23. A face feature information table 132 is generated. The associated user ID is given by, for example, the access permission determination unit 153.

[ユーザIDをユーザに提示する処理]
次に、ユーザIDをユーザへ提示する処理について図6を参照しながら説明する。
たとえば、アクセス制御実行部154(図1参照)が、図6のステップS27において映像IDのリストを提示する際に、顔特徴管理テーブル132から読み出したユーザIDをユーザ用端末200に提示する。このようにすると、たとえば、ユーザは、ユーザIDの提示を受けた後(つまり、2回目以降のアクセス要求)においては、そのユーザIDを用いて、映像へのアクセスを行うことが可能となり、有益である。
[Process of presenting user ID to user]
Next, the process of presenting the user ID to the user will be described with reference to FIG.
For example, the access control execution unit 154 (see FIG. 1) presents the user ID read from the face feature management table 132 to the user terminal 200 when presenting the list of video IDs in step S27 of FIG. In this way, for example, after receiving the presentation of the user ID (that is, the second and subsequent access requests), the user can use the user ID to access the video, which is beneficial. It is.

なお、本発明は、実施形態1〜4に限られない。アクセス制御装置100のハードウェア構成およびデータ構造は、本発明の要旨を逸脱しない限り、変更してもよい。たとえば、図1では、アクセス制御装置100を1台の場合で説明したが、複数台のコンピュータを用いて分散処理を行うようにしてもよい。また、アクセス制御装置100の各部11〜15の組み合わせは、自在である。たとえば、顔特徴情報抽出部141が、アクセス可否情報登録部142の機能を兼ね備えるようにしてもよいし、顔特徴情報管理部13が、アクセス制御情報管理部143の機能を兼ね備えるようにしてもよい。   The present invention is not limited to the first to fourth embodiments. The hardware configuration and data structure of the access control apparatus 100 may be changed without departing from the gist of the present invention. For example, although FIG. 1 has been described with a single access control apparatus 100, distributed processing may be performed using a plurality of computers. Moreover, the combination of each part 11-15 of the access control apparatus 100 is free. For example, the face feature information extraction unit 141 may have the function of the access permission information registration unit 142, or the face feature information management unit 13 may have the function of the access control information management unit 143. .

本発明の実施形態1に係るアクセス制御システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the access control system which concerns on Embodiment 1 of this invention. 図1の映像蓄積部および映像管理部の構成例を示す図である。It is a figure which shows the structural example of the video storage part of FIG. 1, and a video management part. 図1の顔特徴情報管理部で保持される顔特徴管理テーブルの一例を示す図である。It is a figure which shows an example of the face feature management table hold | maintained by the face feature information management part of FIG. 図1の映像アクセス制御情報生成部で保持される映像アクセス制御テーブルの一例を示す図である。It is a figure which shows an example of the video access control table hold | maintained at the video access control information generation part of FIG. 実施形態1における映像アクセス制御情報生成部での処理手順を示すフローチャートである。6 is a flowchart illustrating a processing procedure in a video access control information generation unit according to the first embodiment. 実施形態1における映像アクセス判断部での処理手順を示すフローチャートである。4 is a flowchart illustrating a processing procedure in a video access determination unit according to the first embodiment. 図5のステップS22の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S22 of FIG. 顔画像抽出判断テーブルの一例を示す図である。It is a figure which shows an example of a face image extraction judgment table. 実施形態2における映像グループ管理テーブルおよび映像グループアクセス制御テーブルの一例を示す図である。It is a figure which shows an example of the video group management table and video group access control table in Embodiment 2. 実施形態2における映像アクセス制御情報生成部での処理手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure in a video access control information generation unit according to the second embodiment. 映像区間アクセステーブルの一例を示す図である。It is a figure which shows an example of a video area access table. 実施形態3における映像アクセス制御情報生成部での処理手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure in a video access control information generation unit according to the third embodiment. 図12に追加される処理手順を示すフローチャートである。It is a flowchart which shows the process sequence added to FIG. 実施形態4における顔特徴管理テーブルの一例を示す図である。It is a figure which shows an example of the face feature management table in Embodiment 4.

符号の説明Explanation of symbols

1 アクセス制御システム
11 映像蓄積部
12 映像管理部
13 顔特徴情報管理部
100 アクセス制御装置
141 コンテンツ用顔特徴情報抽出部
142 アクセス可否情報設定部
143 アクセス制御情報管理部
144 抽出基準管理部
151 顔画像取得部
152 ユーザ用顔特徴情報抽出部
153 アクセス可否判断部
154 アクセス制御実行部
200 ユーザ用端末

DESCRIPTION OF SYMBOLS 1 Access control system 11 Image | video storage part 12 Image | video management part 13 Face feature information management part 100 Access control apparatus 141 Face feature information extraction part 142 for contents Accessibility information setting part 143 Access control information management part 144 Extraction reference | standard management part 151 Face image Acquisition unit 152 User face feature information extraction unit 153 Access permission determination unit 154 Access control execution unit 200 User terminal

Claims (7)

被写体を含むコンテンツへのアクセス制御を行うアクセス制御装置であって、
前記コンテンツを蓄積するコンテンツ蓄積部から前記コンテンツを読み出し、当該コンテンツに含まれる被写体の特徴情報を抽出するコンテンツ用特徴情報抽出部と、
前記コンテンツ用特徴情報抽出部に抽出された被写体の特徴情報を当該被写体ごとに管理する特徴情報管理部と、
前記コンテンツ用特徴情報抽出部に抽出された前記特徴情報の被写体を含む前記コンテンツについて、指定されたアクセスの可否を示すアクセス可否情報を設定するアクセス可否情報設定部と、
前記アクセス可否情報設定部に設定された前記アクセス可否情報を、当該コンテンツごとに、かつ当該被写体ごとに管理するアクセス制御情報管理部と、
ユーザ用端末から、前記コンテンツへのアクセス要求を受け、当該ユーザの被写体画像を取得する被写体画像取得部と、
前記被写体画像取得部で取得された前記被写体画像から、当該ユーザについての被写体の特徴情報を抽出するユーザ用特徴情報抽出部と、
前記ユーザ用特徴情報抽出部に抽出された前記ユーザの前記特徴情報と、前記特徴情報管理部の前記特徴情報とを比較し、比較により一致する当該特徴情報の被写体に対応づけられた前記コンテンツのアクセス可否情報を前記アクセス制御情報管理部から検索し、検索したアクセス可否情報に示されたアクセスの可否を判断するアクセス可否判断部と、
前記アクセス可否判断部に判断されたアクセスの可否に応じた前記コンテンツへのアクセス制御を前記ユーザ用端末に対して実行するアクセス制御実行部と、
を含むアクセス制御装置。
An access control device for controlling access to content including a subject,
A content feature information extraction unit that reads out the content from a content storage unit that stores the content and extracts feature information of a subject included in the content;
A feature information management unit that manages, for each subject, feature information of the subject extracted by the content feature information extraction unit;
An access enable / disable information setting unit for setting access enable / disable information indicating whether or not specified access is possible for the content including the subject of the feature information extracted by the content feature information extracting unit;
An access control information management unit that manages the access permission information set in the access permission information setting unit for each content and for each subject;
A subject image acquisition unit that receives a request to access the content from a user terminal and acquires a subject image of the user;
A feature information extraction unit for a user that extracts feature information of a subject about the user from the subject image acquired by the subject image acquisition unit;
The feature information of the user extracted by the user feature information extraction unit is compared with the feature information of the feature information management unit, and the content of the content associated with the subject of the feature information that matches by the comparison An access permission determination unit that searches the access control information management unit for access permission information and determines whether or not access is indicated in the searched access permission information;
An access control execution unit that executes access control to the content according to the access permission determined by the access permission determination unit;
Including an access control device.
前記被写体の特徴情報を抽出するための抽出基準を管理する抽出基準管理部をさらに含み、
前記コンテンツ用特徴情報抽出部は、前記抽出基準管理部の前記抽出基準に適合する被写体の特徴情報のみを抽出する、
請求項1に記載のアクセス制御装置。
An extraction criterion management unit for managing an extraction criterion for extracting feature information of the subject;
The content feature information extraction unit extracts only feature information of a subject that meets the extraction criterion of the extraction criterion management unit;
The access control apparatus according to claim 1.
前記コンテンツが静止画像の場合、前記抽出基準には、前記静止画像中に表される当該被写体の領域の大きさ、または前記静止画像中に表される当該被写体の向きの少なくとも一方があらかじめ定められ、
前記コンテンツが動画像の場合、前記抽出基準には、前記動画像中に表される当該被写体の領域の大きさ、前記動画像中に表される当該被写体の向き、または前記動画像中に表される当該被写体の表示時間の少なくとも一方があらかじめ定められている、
請求項2に記載のアクセス制御装置。
When the content is a still image, at least one of the size of the region of the subject represented in the still image or the orientation of the subject represented in the still image is determined in advance as the extraction criterion. ,
When the content is a moving image, the extraction criterion includes the size of the region of the subject represented in the moving image, the orientation of the subject represented in the moving image, or the representation in the moving image. At least one of the display times of the subject is determined in advance,
The access control apparatus according to claim 2.
前記コンテンツ蓄積部の前記コンテンツがグループ指定されている場合、
前記コンテンツ用特徴情報抽出部は、グループ指定されたコンテンツをコンテンツ蓄積部から読み出し、当該各コンテンツに含まれる被写体の特徴情報を抽出し、
前記アクセス可否情報設定部は、前記グループ指定されたコンテンツについて、前記コンテンツ用特徴情報抽出部に抽出された前記アクセス可否情報を設定し、
前記アクセス制御情報管理部は、前記アクセス可否情報設定部に設定された前記アクセス可否情報を、当該グループにも対応づけて管理し、
前記アクセス可否判断部は、前記アクセス制御情報管理部を参照して、前記比較により一致する当該特徴情報の被写体を含む前記コンテンツのグループについてのアクセス可否情報に示されたアクセスの可否を判断し、
前記アクセス制御実行部は、前記アクセス可否判断部に判断された各アクセスの可否に応じたアクセス制御を前記コンテンツのグループごとに実行する、
請求項1ないし請求項3に記載のアクセス制御装置。
When the content of the content storage unit is designated as a group,
The content feature information extraction unit reads group-designated content from the content storage unit, extracts subject feature information included in each content,
The accessibility information setting unit sets the accessibility information extracted by the content feature information extraction unit for the group-designated content,
The access control information management unit manages the access permission information set in the access permission information setting unit in association with the group;
The access permission determination unit refers to the access control information management unit to determine whether or not the access indicated in the access permission information for the group of contents including the subject of the characteristic information that matches by the comparison,
The access control execution unit executes, for each group of contents, access control according to whether or not each access is determined by the access permission determination unit.
The access control apparatus according to claim 1.
前記特徴情報管理部が、前記被写体の特徴情報を、予め付与されているユーザの識別情報に対応づけて管理している場合、
前記アクセス可否判断部は、前記ユーザ用端末から当該ユーザの識別情報を取得することにより、取得したユーザの識別情報に対応する前記被写体の特徴情報を前記特徴情報管理部から抽出して、その特徴情報の被写体に対応づけられた前記コンテンツのアクセス可否情報を前記アクセス制御情報管理部から検索する、
請求項1に記載のアクセス制御装置。
When the feature information management unit manages the feature information of the subject in association with user identification information given in advance,
The access permission determination unit extracts feature information of the subject corresponding to the acquired user identification information from the feature information management unit by acquiring the user identification information from the user terminal, and the feature Search the access control information management unit for access permission information of the content associated with the information subject,
The access control apparatus according to claim 1.
アクセス制御装置およびユーザ用端末とを含み、
前記アクセス制御装置は、
被写体を含むコンテンツを蓄積するコンテンツ蓄積部から前記コンテンツを読み出し、当該コンテンツに含まれる被写体の特徴情報を抽出するコンテンツ用特徴情報抽出部と、
前記コンテンツ用特徴情報抽出部に抽出された被写体の特徴情報を当該被写体ごとに管理する特徴情報管理部と、
前記コンテンツ用特徴情報抽出部に抽出された前記特徴情報の被写体を含む前記コンテンツについて、指定されたアクセスの可否を示すアクセス可否情報を設定するアクセス可否情報設定部と、
前記アクセス可否情報設定部に設定された前記アクセス可否情報を、当該コンテンツごとに、かつ当該被写体ごとに管理するアクセス制御情報管理部と、
ユーザ用端末から、前記コンテンツへのアクセス要求を受け、当該ユーザの被写体画像を取得する被写体画像取得部と、
前記被写体画像取得部で取得された前記被写体画像から、当該ユーザについての被写体の特徴情報を抽出するユーザ用特徴情報抽出部と、
前記ユーザ用特徴情報抽出部に抽出された前記ユーザの前記特徴情報と、前記特徴情報管理部の前記特徴情報とを比較し、比較により一致する当該特徴情報の被写体に対応づけられた前記コンテンツのアクセス可否情報を前記アクセス制御情報管理部から検索し、検索したアクセス可否情報に示されたアクセスの可否を判断するアクセス可否判断部と、
前記アクセス可否判断部に判断されたアクセスの可否に応じた前記コンテンツへのアクセス制御を前記ユーザ用端末に対して実行するアクセス制御実行部と、
を有するアクセス制御システム。
An access control device and a user terminal,
The access control device
A content feature information extraction unit that reads out the content from a content storage unit that stores content including the subject and extracts feature information of the subject included in the content;
A feature information management unit that manages, for each subject, feature information of the subject extracted by the content feature information extraction unit;
An access enable / disable information setting unit for setting access enable / disable information indicating whether or not specified access is possible for the content including the subject of the feature information extracted by the content feature information extracting unit;
An access control information management unit that manages the access permission information set in the access permission information setting unit for each content and for each subject;
A subject image acquisition unit that receives a request to access the content from a user terminal and acquires a subject image of the user;
A feature information extraction unit for a user that extracts feature information of a subject about the user from the subject image acquired by the subject image acquisition unit;
The feature information of the user extracted by the user feature information extraction unit is compared with the feature information of the feature information management unit, and the content of the content associated with the subject of the feature information that matches by the comparison An access permission determination unit that searches the access control information management unit for access permission information and determines whether or not access is indicated in the searched access permission information;
An access control execution unit that executes access control to the content according to the access permission determined by the access permission determination unit;
Having an access control system.
被写体を含むコンテンツへのアクセス制御を行うコンピュータに用いられるアクセス制御方法であって、
前記コンピュータは、
前記コンテンツを蓄積するコンテンツ蓄積部から前記コンテンツを読み出し、当該コンテンツに含まれる被写体の特徴情報を抽出するステップと、
前記抽出した被写体の特徴情報を当該被写体ごとに特徴情報管理部に管理するステップと、
前記抽出した前記特徴情報の被写体を含む前記コンテンツについて、指定されたアクセスの可否を示すアクセス可否情報を設定するステップと、
前記設定した前記アクセス可否情報を、当該コンテンツごとに、かつ当該被写体ごとにアクセス制御情報管理部に管理するステップと、
ユーザ用端末から、前記コンテンツへのアクセス要求を受け、当該ユーザの被写体画像を取得するステップと、
前記取得した前記被写体画像から、当該ユーザについての被写体の特徴情報を抽出するステップと、
前記抽出した前記ユーザの前記特徴情報と、前記特徴情報管理部に管理した前記特徴情報とを比較し、比較により一致する当該特徴情報の被写体に対応づけられた前記コンテンツのアクセス可否情報を前記アクセス制御情報管理部から検索し、検索したアクセス可否情報に示されたアクセスの可否を判断するステップと、
前記判断したアクセスの可否に応じた前記コンテンツへのアクセス制御を前記ユーザ用端末に対して実行するステップと、
を含むアクセス制御方法。

An access control method used in a computer for controlling access to content including a subject,
The computer
Reading the content from a content storage unit for storing the content, and extracting feature information of a subject included in the content;
Managing the extracted feature information of the subject for each subject in a feature information management unit;
Setting accessibility information indicating whether or not designated access is possible for the content including the subject of the extracted characteristic information;
Managing the set accessibility information for each content and for each subject in an access control information management unit;
Receiving a request for access to the content from a user terminal and obtaining a subject image of the user;
Extracting subject characteristic information about the user from the acquired subject image;
The extracted feature information of the user is compared with the feature information managed by the feature information management unit, and the access permission information of the content associated with the subject of the feature information that matches by the comparison is accessed. A step of searching from the control information management unit and determining whether or not access is indicated in the searched access enable / disable information;
Executing access control to the content according to whether or not the determined access is permitted to the user terminal;
An access control method including:

JP2005324918A 2005-11-09 2005-11-09 Access controller, access control system and access control method Pending JP2007133574A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005324918A JP2007133574A (en) 2005-11-09 2005-11-09 Access controller, access control system and access control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005324918A JP2007133574A (en) 2005-11-09 2005-11-09 Access controller, access control system and access control method

Publications (1)

Publication Number Publication Date
JP2007133574A true JP2007133574A (en) 2007-05-31

Family

ID=38155192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005324918A Pending JP2007133574A (en) 2005-11-09 2005-11-09 Access controller, access control system and access control method

Country Status (1)

Country Link
JP (1) JP2007133574A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010160652A (en) * 2009-01-07 2010-07-22 Canon Inc System, method and program for managing file
WO2011037805A3 (en) * 2009-09-25 2011-07-21 Microsoft Corporation Shared face training data
JP2012133747A (en) * 2010-11-30 2012-07-12 Canon Marketing Japan Inc Imaging device, imaging device control method, program and recording medium with program recorded thereon
JP2012213196A (en) * 2012-06-05 2012-11-01 Toshiba Corp Electronic apparatus, face image extraction control method, and program
JP2014081791A (en) * 2012-10-16 2014-05-08 Fuji Xerox Co Ltd Information management system, information management device, information providing device, and program
JP2014238681A (en) * 2013-06-07 2014-12-18 カシオ計算機株式会社 Data processing device, data processing system, data processing method and program
CN106778200A (en) * 2016-11-30 2017-05-31 广东小天才科技有限公司 User terminal unlocking method and device and user terminal

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010160652A (en) * 2009-01-07 2010-07-22 Canon Inc System, method and program for managing file
WO2011037805A3 (en) * 2009-09-25 2011-07-21 Microsoft Corporation Shared face training data
CN102549591A (en) * 2009-09-25 2012-07-04 微软公司 Shared face training data
EP2481005A4 (en) * 2009-09-25 2017-10-04 Microsoft Technology Licensing, LLC Shared face training data
AU2010298554B2 (en) * 2009-09-25 2014-08-14 Microsoft Technology Licensing, Llc Shared face training data
JP2013506196A (en) * 2009-09-25 2013-02-21 マイクロソフト コーポレーション Sharing face training data
JP2014006920A (en) * 2010-11-30 2014-01-16 Canon Marketing Japan Inc Imaging device, imaging device control method, program and recording medium with program recorded thereon
JP2012133747A (en) * 2010-11-30 2012-07-12 Canon Marketing Japan Inc Imaging device, imaging device control method, program and recording medium with program recorded thereon
JP2012213196A (en) * 2012-06-05 2012-11-01 Toshiba Corp Electronic apparatus, face image extraction control method, and program
JP2014081791A (en) * 2012-10-16 2014-05-08 Fuji Xerox Co Ltd Information management system, information management device, information providing device, and program
JP2014238681A (en) * 2013-06-07 2014-12-18 カシオ計算機株式会社 Data processing device, data processing system, data processing method and program
CN106778200A (en) * 2016-11-30 2017-05-31 广东小天才科技有限公司 User terminal unlocking method and device and user terminal
CN106778200B (en) * 2016-11-30 2019-08-13 广东小天才科技有限公司 User terminal unlocking method and device and user terminal

Similar Documents

Publication Publication Date Title
US10027727B1 (en) Facial recognition device, apparatus, and method
US9904723B2 (en) Event based metadata synthesis
US7730036B2 (en) Event-based digital content record organization
JP5374209B2 (en) Content sharing system, content sharing server and program
US8347363B2 (en) Contents retrieval system and contents retrieval method
JP5417848B2 (en) Data recording / reproducing apparatus and data recording / reproducing program
US20090094247A1 (en) Image storage system, device and method
JP2007133574A (en) Access controller, access control system and access control method
US9325691B2 (en) Video management method and video management system
JP2007334696A (en) Data sharing system, communication terminal and server
TW201235882A (en) A system and method to protect user privacy in multimedia uploaded to internet sites
JP5348682B2 (en) Image management apparatus, control method thereof, and program
JP2009099142A (en) Image sharing system and method, and content sharing system and method
US8897484B1 (en) Image theft detector
JP2019049960A (en) Image providing system, image providing program and video providing system
CN108268644A (en) Video searching method, server and video searching system
JP5532180B1 (en) Image processing apparatus and program
JP2010231744A (en) Information processing apparatus, program and image data management method
US8677233B2 (en) Shared document system that manages images including approval information
US20170289630A1 (en) Image management device
JP2007334832A (en) Information processor, conference system, information processing method and information processing program
JP7007022B2 (en) Information processing equipment, information processing methods and programs
JP2013161306A (en) Image management device, control method thereof, and program
JP4343621B2 (en) File management system, file generation device, file acquisition device, authentication device, and program
JP6179328B2 (en) Information processing apparatus and information processing program