WO2018179558A1 - 通信装置、通信システムおよびコンテンツ収集方法 - Google Patents

通信装置、通信システムおよびコンテンツ収集方法 Download PDF

Info

Publication number
WO2018179558A1
WO2018179558A1 PCT/JP2017/039533 JP2017039533W WO2018179558A1 WO 2018179558 A1 WO2018179558 A1 WO 2018179558A1 JP 2017039533 W JP2017039533 W JP 2017039533W WO 2018179558 A1 WO2018179558 A1 WO 2018179558A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
search
interest
information
person
Prior art date
Application number
PCT/JP2017/039533
Other languages
English (en)
French (fr)
Inventor
哲郎 佐藤
上杉 充
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US16/498,921 priority Critical patent/US11574006B2/en
Priority to EP17903329.5A priority patent/EP3605343B1/en
Priority to ES17903329T priority patent/ES2923427T3/es
Publication of WO2018179558A1 publication Critical patent/WO2018179558A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2471Distributed queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/535Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/955Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/55Push-based network services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/63Routing a service request depending on the request content or context
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Definitions

  • the present invention relates to a communication device connected to a content centric network, a communication system including a communication device and a content storage device connected to the content centric network, and a communication device for searching from the content storage device via the content centric network.
  • the present invention relates to a content collection method for collecting content related to
  • the Internet is widely spread.
  • necessary content can be acquired by acquiring the IP address of the server and accessing the server using the IP address.
  • This content-centric network is also called CCN (Contents Centric Network), ICN (Information Centric Network), and NDN (Named Data Network), and collects content stored in devices in the network using content names. It is built to be able to.
  • a content-centric network it is possible to collect necessary content from devices in the network by adding a content name describing character information specifying the necessary content to an interest (message) and transmitting it from the user terminal it can.
  • the collected content includes many things that the user does not want.
  • the collected content (camera image) also includes many pieces of content in which a lost child is not shown.
  • the user terminal it is necessary for the user to select out the content including the image of the child who got lost from the displayed many contents, which requires a great deal of time and effort.
  • the user terminal can also use the face image of the lost child to perform matching processing on the acquired content and select the content including the image of the lost child, but the content If a large number is collected, there is a problem that the process takes a long time.
  • a main object of the present invention is to provide a communication device, a communication system and a content collection method which can be acquired in a short time.
  • a communication apparatus is a communication apparatus connected to a content centric network, comprising: a storage unit for storing content; a reception unit for receiving an interest to which search condition information and search target identification information are added; Search processing for searching for content corresponding to the search condition information from among the content accumulated in the unit, and collating processing for collating the content found in the search processing with the search target identification information; A control unit that acquires content related to a search target, and a transmission unit that transmits the content related to the search target to the communication device that is the source of the content request.
  • the communication system is a communication system including a communication device connected to a content centric network and a content storage device, and the communication device generates an interest to which search condition information and search target identification information are added.
  • performing collation processing for collating the search target identification information and a control unit that acquires content related search target a configuration provided with a transmission section for transmitting content related to the search target to the communication device.
  • a content collection method is the content collection method in which the communication device collects the content related to the search object from the content storage device via the content centric network, and the communication device is the search condition information and the search object An interest to which identification information is added is generated, and the interest is transmitted to the content centric network, and when the content storage device receives the interest, the search condition information is selected from contents stored in the own device. Search processing is performed to search for content corresponding to the search content, and matching processing is performed for matching the content found in the search processing with the search target identification information to obtain content regarding the search target, and content regarding the search target To the communication device, the communication device , A configuration to receive content related to the search target that is transmitted from the content storage apparatus.
  • the present invention it is possible to appropriately acquire the content related to the search object by the matching process using the search object identification information. Furthermore, since the collation processing is performed in parallel by a plurality of communication devices on the content-centric network, the time required for the collation processing can be shortened, and the user can acquire desired content in a short time.
  • a first invention made to solve the above problems is a communication device connected to a content centric network, comprising: a storage unit for storing content; and an interest to which search condition information and search target identification information are added.
  • a search process is performed to search for content corresponding to the search condition information from the reception unit to be received and the content accumulated in the storage unit, and the content found by the search process and the search target identification information
  • a control unit that performs matching processing to match and acquires content related to a search target, and a transmission unit configured to transmit content related to the search target to a communication device that is a content request source.
  • the collation processing is performed in parallel by a plurality of communication devices on the content-centric network, the time required for the collation processing can be shortened, and the user can acquire desired content in a short time.
  • the receiving unit receives the search target identification information and the interest in which the search condition information on the position and time of the content is added to the content name or the incidental information, and the control is performed.
  • the unit is configured to perform the search process based on the search condition information.
  • the receiving unit receives the interest including the image of a person to be searched as the search target identification information, and the control unit performs the matching process using the image.
  • the content including the image of the person to be searched is acquired.
  • the user can acquire the content in which the person who is the search target appears.
  • the reception unit receives the interest including the name of a person to be searched as the search target identification information, and the control unit performs the matching process using the name of the person Thus, the content in which the name of the person to be searched for is described is acquired.
  • the user can acquire the content in which the person who is the search target is described.
  • the receiving unit receives the interest to which the information specifying the condition of the matching process is added, and the control unit is based on the information specifying the condition of the matching process. It is set as the structure which performs the said collation process.
  • the reception unit receives the interest to which information specifying a notification method of the result of the collation process is added, and the control unit specifies a notification method of the result of the collation process.
  • the notification of the result of the matching process is transmitted to the request source of the content based on the information.
  • the communication device can be notified of the result of the matching process by the notification method specified by the user.
  • the control unit performs content accompanying information of the content when the content collating process is performed by the own device. It is configured to be added to the interest and transferred to another communication device.
  • the control unit does not perform the matching process of the content by the own device, and the content together with the interest To the communication device of FIG.
  • the communication device which does not hold the content conforming to the search condition information can perform the matching process of the content, and it is possible to avoid concentration of load on one communication device.
  • control unit is present in the storage unit based on at least one of a load state of the own device, a number of waiting states for collation processing, and a processing capability of the own device. It is configured to determine whether the content matching process is to be performed by the own device.
  • a tenth invention is a communication apparatus connected to a content centric network, the control unit generating an interest to which search condition information and search target identification information are added, and transmitting the interest to the content centric network A transmitting unit, and a receiving unit for receiving content related to a search object acquired by search processing based on the search condition information and collation processing based on the search target identification information in another communication apparatus connected in the content-centric network , And.
  • the content relating to the search target can be appropriately acquired by the matching processing using the information for identifying the search target, and the time required for the matching processing is further shortened.
  • the user can acquire desired content in a short time.
  • An eleventh invention is a communication system including a communication device and a content storage device connected to a content centric network, wherein the communication device generates an interest to which search condition information and search target identification information are added.
  • the content relating to the search target can be appropriately acquired by the matching processing using the information for identifying the search target, and the time required for the matching processing is further shortened.
  • the user can acquire desired content in a short time.
  • the twelfth invention is the content collecting method for collecting the content concerning the search object from the content storage device via the content centric network, wherein the communication device comprises the search condition information and the search object identification information. Generates an interest to which the content is added, transmits the interest to the content-centric network, and the content storage device receives the interest, and the content corresponds to the search condition information from among the content stored in the own device. Search processing for searching the content to be searched, and collating processing for collating the content found in the search processing with the search target identification information to obtain content relating to the search target, and content relating to the search target Transmitting to the communication device, the communication device Tsu and configured to receive content related to the search target that is transmitted from the storage device.
  • the content relating to the search target can be appropriately acquired by the matching processing using the information for identifying the search target, and the time required for the matching processing is further shortened.
  • the user can acquire desired content in a short time.
  • FIG. 1 is an overall configuration diagram of a communication system according to the first embodiment.
  • This communication system includes a user terminal 1 (communication device), a plurality of cameras 2 (imaging device, communication device, content storage device), a server 3 (server device, communication device, content storage device), and a plurality of routers 4 (Transfer device, communication device, content storage device).
  • the user terminal 1, the camera 2, the server 3 and the router 4 are mutually connected via a content centric network.
  • the user terminal 1 is operated by a user (searcher).
  • a user searcher
  • content in which the person to be searched is captured is collected, and a person search is performed to find out the location of the person to be searched.
  • the content may be either a moving image or a still image.
  • the camera 2 shoots around the installation location.
  • a security camera security camera, surveillance camera
  • the camera 2 stores the content (camera image) captured by the own device in the own device.
  • the camera 2 periodically transmits the content (camera image) photographed by the own device to the server 3 in accordance with the state of the network.
  • the server 3 stores the content (camera image) transmitted from each camera 2.
  • the router 4 relays the content when transmitting the content (camera image) from the camera 2 to the server 3. At this time, the received content (camera image) is stored in its own device. Therefore, the content of the transmission source camera 2 is successively stored in the router 4 on the path for transmitting the content from the camera 2 to the server 3. The content stored in the router 4 is deleted when a predetermined period has elapsed.
  • the content-centric network is constructed such that the user terminal 1 can collect content stored in the devices (camera 2, server 3 and router 4) in the network as a content name.
  • the router 4 when an interest (content request message) is transmitted from the user terminal 1 of the content request source, the router 4 receives the interest, and the router 4 transfers the received interest to a nearby device. The transfer of the interest by the router 4 is sequentially repeated, and the interest reaches the camera 2 and the server 3.
  • the user terminal of the content request source selects the content corresponding to the content name added to the interest from the contents stored in the own device. Send to 1.
  • the search condition information and the face image are contents by the user (searcher) designating the search condition and the face image of the person to be searched at the user terminal 1 of the request source of the content. Generates and sends an interest added as a name or interest-related information.
  • the camera 2 and the server 3 receive the interest, they search for the content corresponding to the search condition added to the interest, and then, using the face image added to the interest, to the content found in the search Then, the matching process is performed to acquire the content in which the person to be searched appears, and the content is transmitted to the user terminal 1 of the request source of the content (the transmission source of the interest).
  • the content (camera image) captured by each camera 2 is stored in the router 4, the camera 2 and the server 3, and the verification process is performed in parallel by the router 4, the camera 2 and the server 3. Since the content is stored only in the server 3 and load on the server 3 can be reduced as compared with a system in which the collation processing is performed by the server 3, the content requested by the user terminal 1 can be reduced in a short time. Can be collected by
  • FIG. 2 is a block diagram showing a schematic configuration of the user terminal 1.
  • the user terminal 1 includes a communication unit 11 (reception unit, transmission unit), a control unit 12, a storage unit 13, an input unit 14, and a display unit 15.
  • the communication unit 11 transmits the interest to the content centric network, and receives the content transmitted from the content centric network as a response to the interest.
  • the storage unit 13 stores the program executed by the control unit 12 and the received content.
  • the user performs an input operation for specifying a search condition or a face image of a person to be searched.
  • the display unit 15 displays the content received by the communication unit 11 and the analysis result information generated by the control unit 12.
  • the control unit 12 includes an interest transmission control unit 16 and an analysis processing unit 17.
  • the control unit 12 is configured by a processor, and each unit of the control unit 12 is realized by causing the processor to execute a program stored in the storage unit 13.
  • the interest transmission control unit 16 acquires search condition information input by the user, and acquires a face image of a person to be searched as designated by the user, and the content name including the search condition information and the face image and the interest incidental information Generates an interest to which is added, and transmits the interest from the communication unit 11.
  • the analysis processing unit 17 performs analysis processing on the content received by the communication unit 11, and generates movement route information and the like regarding the route on which the person as the search target has moved.
  • FIG. 3 is a block diagram showing a schematic configuration of the camera 2.
  • the camera 2 includes an imaging unit 21, a communication unit 22 (reception unit, transmission unit), a control unit 23, and a storage unit 24.
  • the imaging unit 21 photographs the periphery of the camera 2 and outputs a photographed image.
  • the communication unit 22 includes a phase for transmitting and receiving interest and content to and from the content-centric network.
  • the storage unit 24 accumulates the content (camera image) generated by the control unit 23.
  • the storage unit 24 also stores a program to be executed by the control unit.
  • the storage unit 24 Since the storage unit 24 has a limited storage capacity, when content for a predetermined time is accumulated, the content is transmitted from the communication unit 22 to the server 3 to secure a free space.
  • the control unit 23 includes a content generation unit 25, a search processing unit 26, a collation processing unit 27, and a notification control unit 28.
  • the control unit 23 is configured by a processor, and each unit of the control unit 23 is realized by causing the processor to execute the program stored in the storage unit 24.
  • the content generation unit 25 generates content (camera image) obtained by adding attribute information including position information (such as shooting location) and time information (such as shooting time) to the captured image output from the imaging unit 21.
  • the attribute information may be managed as data separate from the content, or may be managed as a content name or content-accompanying information.
  • the search processing unit 26 acquires the search condition information described in the content name of the interest, and the content corresponding to the search condition among the contents accumulated in the storage unit 24 Search for
  • the collation processing unit 27 uses the face image of the person to be searched for added to the interest to determine whether the person to be searched for is displayed for the content (camera image) found by the search processing unit 26 Perform the matching process.
  • the notification control unit 28 transmits the content to the request source when the content corresponding to the search condition exists and the content including the person to be the search target is found. Also, if there is content that meets the search condition but no content in which the person to be searched appears is not found, a verification failure notification to that effect is sent to the request source of the content.
  • FIG. 4 is a block diagram showing a schematic configuration of the server 3.
  • the server 3 includes a communication unit 31 (reception unit, transmission unit), a control unit 32, and a storage unit 33.
  • the communication unit 31 includes a face for transmitting / receiving interest and content to / from the content centric network.
  • the storage unit 33 stores the content received by the communication unit 31. Further, the storage unit 33 stores a program to be executed by the control unit 32.
  • the control unit 32 includes a search processing unit 35, a matching processing unit 36, and a notification control unit 37.
  • the control unit 32 is configured by a processor, and each unit of the control unit 32 is realized by causing the processor to execute the program stored in the storage unit 33.
  • the search processing unit 35 acquires the search condition information described in the content name of the interest, and the content corresponding to the search condition among the contents accumulated in the storage unit 33 Search for
  • the collation processing unit 36 uses the face image of the person to be searched for added to the interest to determine whether the person to be searched for is displayed for the content (camera image) found by the search processing unit 35 Perform the matching process.
  • the notification control unit 37 transmits the content to the request source when the content corresponding to the search condition is present and the content including the person to be the search target is found. Also, if there is content that meets the search condition but no content in which the person to be searched appears is not found, a verification failure notification to that effect is sent to the request source of the content.
  • FIG. 5 is a block diagram showing a schematic configuration of the router 4.
  • the router 4 includes a communication unit 41 (reception unit, transmission unit), a control unit 42, and a storage unit 43.
  • the communication unit 41 includes a plurality of faces for transmitting / receiving interest and content to / from the content centric network. In each phase, reception and transfer of interest and reception and transfer of content are performed, for example, when the interest is received in phase 0, the interest is transferred from phase 1. Also, when the content transmitted as a response from the transfer destination of interest is received at phase 1, the content is transferred from the face 0 to the transmission source of interest.
  • the storage unit 43 includes a forwarding information base (FIB), a pending interest table (PIT), and a content store (CS). In addition, the storage unit 43 stores a program executed by a processor that configures the control unit 42.
  • FIB forwarding information base
  • PIT pending interest table
  • CS content store
  • the FIB is routing information (routing table) relating to the transfer of interest, and refers to the FIB to determine the transfer destination of the interest.
  • PIT routing information (routing table) related to transfer of content, and this PIT is referenced to determine the transfer destination face of content.
  • the transfer destination of the content is the transmission source of the interest corresponding to the content (a face that has received the interest).
  • the CS is transmitted as a response from the transfer destination of the interest and accumulates the content received by the face.
  • the router 4 exists on the path for transmitting the content from the camera 2 to the server 3, the router 4 stores the content in the CS.
  • the control unit 42 includes a search processing unit 45, a matching processing unit 46, an interest transfer control unit 47, and a notification control unit 48.
  • the control unit 42 is configured by a processor, and each unit of the control unit 42 is realized by executing a program stored in the storage unit 43.
  • the search processing unit 45 When the search processing unit 45 receives an interest at the face of the communication unit 41, the search processing unit 45 acquires the search condition information described in the content name of the interest, and the search condition is selected from the contents stored in the CS of the storage unit 43. Search for content that corresponds to.
  • the collation processing unit 46 uses the face image of the person to be searched for added to the interest to determine whether the person to be searched for is displayed for the content (camera image) found by the search processing unit 45 Perform the matching process.
  • the interest transfer control unit 47 controls the transfer of interest.
  • the interest is transferred when there is no content corresponding to the search condition in the CS, or when the content corresponding to the search condition does not show a person to be searched.
  • the notification control unit 48 transmits the content to the request source when the content corresponding to the search condition exists and the content including the person to be the search target is found. Also, if there is content that meets the search condition but no content in which the person to be searched appears is not found, a verification failure notification to that effect is sent to the request source of the content.
  • FIG. 6 is an explanatory view showing an example of the configuration of the interest.
  • the interest is composed of a content name and interest incidental information, and the content name describes characters (for example, “security camera image”) representing the content (type) of the content.
  • interest includes search target identification information (face image) for identifying a person to be a search target, and search condition information on search conditions other than characters representing the content (type) of the content. It is added.
  • the search target identification information and the search condition information may be included in the content name, or may be included in the interest incidental information.
  • the content name includes characters representing the content (type) of the content (“security camera image”)
  • the interest additional information includes the search condition information and the search target identification information (Face image) is included.
  • the content name includes characters representing the content (type) of the content (“security camera image”) and the search condition information, and the interest additional information includes the search target identification Information (face image) is included.
  • the content name includes characters representing the content (type) of the content (“security camera image”), search condition information, and search target identification information (face image). I have included it.
  • binary data of the search target identification information may be converted into text data according to the conversion rule of Base64.
  • an identifier indicating that an image is stored is added to the header area of the search target identification information. Further, the data length (Length of Data) of the search target identification information and the size (Length of Length) of the data length are stored in the header area of the search target identification information. In this way, the search target identification information can be added to the interest as binary data.
  • FIG. 7 is an explanatory view showing an example of a content name of interest.
  • characters (“security camera image”) representing the content (type) of the content as search conditions position information, that is, information regarding which position the camera image was taken at, position, time Information, that is, information regarding when the captured camera image is taken, is included in the content name.
  • the facility and the number of floors and the name of the camera 2 are described in the content name as position information.
  • each piece of information is separated by a symbol (#).
  • the entire facility may be targeted or limited to a specific area (for example, toy department) of the facility (for example, department store) without specifying the number of floors of the facility.
  • the time and date of the shooting period (date, shooting start time and shooting end) Time is described.
  • the place name is described as position information in addition to the character information representing the content (type) of the content, and as the time information , Shooting start time and recording time) are described.
  • position information it is possible to expand the whole prefecture or to specify a ground number and limit the range without limiting the city and ward.
  • longitude and latitude are described as position information in addition to character information and time information indicating the content (type) of the content.
  • the information is divided by a symbol (/) that hierarchically locates the content, and in the example shown in FIG. 7F, a security camera image captured by the camera A managed by the police station Can be specified.
  • FIG. 8 is an explanatory view showing an example of registered contents of FIB, PIT and CS.
  • the content name and the interest transfer face are registered in the FIB.
  • transfer of the interest to the face 1 is represented.
  • a content name and an interest reception face are registered.
  • an interest designating a security camera image of camera A is received at face 0
  • an interest designating a security camera image representing camera B is received at face 2
  • the content name, the interest accompanying information, and the storage position (address) of the file data of the content are registered in the CS.
  • FIG. 9 is an explanatory diagram of an example of interest-accompanying information.
  • search condition information position information, time information, etc.
  • search condition information is included in the content name in the example shown in FIG. 7
  • search condition information is included in the interest incidental information in the example shown in FIG.
  • characters representing the content (type) of the content (“security camera image”) are also included in the interest incidental information, but this may be described in the content name.
  • the name and floor number of the facility are described as position information, and as the time information, the date and time (date, year, shooting start time and shooting end time) Have been described.
  • the time may be designated by the interest incidental information.
  • the place name and the name of the camera 2 are described as positional information in the incidental information, and the date and time representing the photographing period (date, photographing start time and photographing as time information) The time is stated.
  • longitude and latitude are described as positional information in the interest incidental information.
  • the attribute (sex, age, size) of the person is described as the search target identification information.
  • the accuracy of the matching result can be enhanced.
  • the camera 2 and the server 3 an attribute of a person is acquired by image recognition for content (camera image).
  • Information attached to the content is added as content incidental information to the content held by the router 4, the camera 2, and the server 3.
  • the router 4, the camera 2, and the server 3 receive the interest incidental information added to the interest, the search condition of the interest incidental information and the content incidental information are collated to search for the content corresponding to the search condition.
  • search condition is included in the interest accompanying information, but the search condition may be included in the content name and another search condition may be included in the interest accompanying information.
  • FIG. 10 is an explanatory diagram of an example of the registered content of the CS.
  • the registration of the CS is performed in the case of the router 4 when the content is received as a response to the interest.
  • the camera 2 it is performed when content is created.
  • the process is performed when content is received from the camera 2.
  • this is also performed when content is transferred from the camera 2 to the server 3.
  • the interest incidental information including the search condition is added to the interest and transmitted.
  • the router 4 receiving the interest searches the CS of the storage unit 43, and the content name is And, by using the interest incidental information including the search condition, it is confirmed whether or not the corresponding content is held.
  • the content is taken out using the storage position (address) of the file data of the content registered in the CS, and the content is transmitted to the transmission source of the interest.
  • the router 4 when receiving the content, registers the content name, the content-accompanying information attached to the content, and the storage position (address) of the file data of the content in the CS.
  • the example shown in FIG. 10A is a case where the target area is a department store (a specific facility), and characters (“security camera image”) representing the content (type) of the content are registered as the content name, and the content is attached As information, position information (the installation place and name of the camera 2) and time information (the date, start time and end time of shooting) are registered.
  • security camera image representing the content (type) of the content
  • position information the installation place and name of the camera 2
  • time information the date, start time and end time of shooting
  • FIG. 10B An example shown in FIG. 10B is a case where the target area is an area, and characters (“security camera image”) representing the content (type) of the content and the name of the camera 2 are registered as the content name, As content-accompanying information, position information (latitude and longitude indicating the installation location of the camera 2) and time information (date, start time, and end time of shooting) are registered.
  • security camera image representing the content (type) of the content and the name of the camera 2 are registered as the content name
  • position information latitude and longitude indicating the installation location of the camera 2
  • time information date, start time, and end time of shooting
  • FIG. 11 is a flowchart showing the operation procedure of the user terminal 1.
  • the interest transmission control unit 16 acquires a face image of a person to be searched as designated by the user (searcher) (ST101). Further, search condition information (position information, time information, etc.) input by the user is acquired (ST 102). Next, an interest added with search condition information and a content name (such as “security camera image”) including face image and interest incidental information is generated, and the interest is transmitted to the content centric network (ST 103).
  • the process returns to the acquisition of search condition information (ST102), and the user changes the search condition At the same time, after acquiring new search condition information, the interest is transmitted again (ST103). At this time, the search condition is changed such as expanding the range of the place designated as the position information or expanding the range of the period designated as the time information.
  • the analysis processing unit 17 performs analysis processing on the received content (ST105). Then, as a result of the analysis processing, that is, information on the person to be searched is generated, and the information is displayed on the display unit 15 and presented to the user (ST106).
  • the plurality of contents are arranged in time series based on time information (shooting time) of each content, and a search is performed based on position information (shooting location) of each content
  • the movement route information on the route on which the target person has moved is generated. At this time, if there is conflicting content as the moving path of the person from the shooting time or shooting location of the content, the content is excluded.
  • the place where the person to be searched is currently staying is estimated, and the probability that the person to be searched is present is calculated. For example, when a lost child stays at the same place for a long time, as in the case where a lost child walks and is resting at the toy department, it can be estimated that the child is still staying at that place. Also, for example, when the person who is the target of the search appears in the last content (camera image), it can be estimated that the person is outside the department store.
  • a collation failure notification indicating that the content in which the person to be searched appears is not found is the content request source.
  • the display unit 15 displays the current staying place of the person as the search target estimated and the probability of being present in the place.
  • the camera 2 for capturing the place where the person to be searched is estimated is specified, the camera 2 is instructed to transmit the current image, and the image of the estimated place is displayed on the display unit 15 in real time . Thereby, the user can confirm whether or not the person who is the search target is present at the estimated location.
  • analysis processing is performed to analyze the received content and generate various information, but the received content (camera image) may be simply displayed on the display unit 15. In this case, the contents may be displayed in chronological order.
  • the analysis processing may be performed by an analysis device (information processing device) different from the user terminal 1 that transmits the interest and receives the content.
  • FIG. 12 is a flow chart showing an operation procedure at the time of receiving an interest of the router 4.
  • the search processing unit 45 uses the search condition designated by the interest, that is, the content name of interest or the information accompanying interest.
  • the content (camera image) corresponding to the included search condition (for example, “security camera image” or the like) is searched from the CS of the storage unit 43 (ST 202). At this time, the search may be performed based on perfect match, but may be performed based on partial match.
  • the interest transfer control unit 47 refers to the FIB of the storage unit 43 and transfers the interest, for example, an adjacent
  • the router 4 and the server 3 are determined, and interest is transferred from the transfer destination face (for example, face 1) (ST 204).
  • the face for example, face 0
  • the transmission source of interest is registered in the PIT of the storage unit 43.
  • the interest transfer control unit 47 collates the content corresponding to the search condition, that is, the face image of a person
  • the content name of the content is added to the interest along with the content accompanying information that is the attribute information (position information, time information, etc.) of the content and transferred (ST 205).
  • the matching processing unit 46 uses the face image of the person to be searched for added to the interest to check whether the person to be searched for is shown in the content (camera image) found in the search. (ST206).
  • a face image of a person is extracted from content to be subjected to the matching process, the face image of the person and the face image added to the interest are compared, and whether or not the same person is not It may be determined.
  • the content is transmitted from the face (for example, face 0) of the content request source (ST208).
  • the notification control unit 48 when the content in which the person who is the search target is not found is not found (No in ST207), in the notification control unit 48, the content corresponding to the search condition exists but the content in which the person who is the search target is A verification failure notification to the effect that there is no content is transmitted from the face (e.g., face 0) of the content request source (ST 209).
  • the content name and the content accompanying information to be subjected to the matching process are added to the interest and transferred.
  • This process is a countermeasure for that it takes time for the collation process, and when the collation process does not take much time, the result of the collation process is obtained, and then the image of the person to be searched for in the collation process is obtained.
  • the result that there is no content to be included may be added to the interest and transferred together with the content name and the content incidental information.
  • the matching process when there is content including an image of a person to be searched, there is no need to transfer the interest in order to transmit the content to the request source.
  • the router 4 receiving the interest can avoid collating the content with the same content name and content incidental information content .
  • the plurality of routers 4 may hold the same content because the routers 4 on the transfer path from the camera 2 to the server 3 may have the same content.
  • the router 4 existing on the route between the terminal requesting the interest and the router 4 or the server 3 responding to the interest or the camera 2 has the same content. Since different terminals connected to the network may request the same content at different times, the routers 4 responding to interest may be different.
  • the device such as the other router 4 of the transfer destination does not need to collate the content of the identification information. It is possible to avoid that the matching process for the same content is performed redundantly with an apparatus such as the router 4.
  • the content attachment information is included in the address and the other
  • the router can not collate the range of the same position.
  • the range of time designated as interest is wide and the camera image is only an image of a part of the time, the content attached information is included in the interest to obtain the same time range.
  • the verification process is not performed on the camera image, and the verification process can be performed only on camera images of other times.
  • the content (camera image) in which the person to be searched for is shown is found
  • the content is transmitted to the request source of the content, but the content on which the person to be searched is reflected is found
  • a notification of successful collation may be sent to the request source of the content.
  • content attribute information such as position information and time information
  • the collation failure notification is transmitted to the request source of the content.
  • the notification may not be transmitted particularly.
  • the operation at the time of interest reception of the camera 2 and the server 3 is substantially the same as that of the router 4 (see FIG. 12), but is different from that of the router 4 in that interest transfer is not performed.
  • the camera 2 and the server 3 search the content (camera image) corresponding to the search condition designated by the interest from the CS. Then, when the content corresponding to the search condition is present in the CS, the face image added to the interest is used to perform a collating process as to whether or not the person to be the search target is shown. Then, when the content in which the person to be the search target appears is found as a result of the matching process, the content is transmitted to the user terminal 1 of the request source of the content. On the other hand, when the content in which the person who is the search target appears is not found, the collation failure notification is transmitted to the user terminal 1 of the request source of the content.
  • the content (camera image) including the image of the person to be searched for is added to the router 4 and the camera 2 by adding the face image of the person to be searched for to the interest and transmitting it. And although it collected from the server 3 and performed the person search which finds out the specific person who becomes search object, various persons can be found out by this person search.
  • a person search can be performed for the purpose of searching for a lost child.
  • the lost child may be shown in the image of the camera 2 installed in the facility. Therefore, by collecting the content (camera image) by such a camera 2, the whereabouts of the child who got lost can be estimated, and also it can be grasped along what route the child moved.
  • person search can be performed in an application for searching for a victim such as a family.
  • a victim such as a family.
  • the victims walk along roads and roads to evacuate to a shelter, the victims may be seen in the image of the camera 2 that photographs roads and shelters. Therefore, by collecting contents (camera images) with such a camera 2, where shelters are evacuated by the disaster victims (evacuation sites) and by what route (evacuation routes) ) Can be grasped.
  • a person search can be performed for the purpose of searching for a criminal. Since a criminal escapes using a road from a crime scene, a criminal may be reflected in the image of the camera 2 which photographs the road around the crime scene and the like. Therefore, by collecting the content (camera image) by such a camera 2, it is possible to grasp what route the escaper escapes (the escape route).
  • the router 4 when the router 4, the camera 2 and the server 3 hold the content (camera image) corresponding to the search condition designated by the interest, the collation processing is performed on the content.
  • the matching processing of the content corresponding to the search condition is not performed by the own device, and the content is compared Request the processing to another nearby device.
  • the content matching the search condition when the content matching the search condition is not collated by the own device, the content is transmitted to the other device together with the interest.
  • Other devices receive the content and interest, and perform matching processing on the content. As a result, even if the content corresponding to the search condition is not held by another device, the matching process can be performed.
  • the request destination of the matching process may be unspecified, it may be a specific device, for example, the user terminal 1 of the request source of the content.
  • the content corresponding to the search condition is transmitted to the user terminal 1 together with the interest, and the user terminal 1 collates the received content.
  • FIG. 13 is a flowchart showing an operation procedure at the time of receiving an interest of the router 4.
  • reception of interest (ST201) and search of content (ST202) are performed.
  • the search when the content corresponding to the search condition exists in CS (Yes in ST203), next, it is determined whether or not the matching process is to be performed by the own device (ST211).
  • the content corresponding to the search condition that is, the content to be collated is added to the other device along with the interest (for example, the user who requested the content Transmit to terminal 1) (ST 212).
  • the matching process is performed by the own device (Yes in ST211)
  • the content corresponding to the search condition that is, the content name and content incidental information of the content to be matched is added to the interest and transferred. (ST205).
  • the subsequent steps are the same as in the first embodiment (see FIG. 12).
  • the transfer of interest (ST 204) performed when there is no content corresponding to the search condition in CS (No in ST 203) is the same as that in the first embodiment.
  • the determination as to whether or not the matching process is to be performed by the own apparatus is performed based on the number of cases in which the matching process is in the waiting state in the own apparatus. That is, when a plurality of interests are received, content matching processing is performed in the order of acceptance, but at this time, if another interest is received before the matching processing of the content corresponding to one interest is completed, the waiting state of the matching processing It becomes. If the number of cases (waiting status for matching processing) waiting for such matching processing is equal to or more than a predetermined number, the self apparatus does not perform the matching processing. Further, the number of waiting for collation processing is compared between the own device and another device, and when there is a device whose number of waiting for collation processing is smaller than that of the own device, the collation processing is left to that device.
  • the determination as to whether or not the matching process is to be performed by the own apparatus is performed based on the processing capabilities of the own apparatus and the other apparatus. That is, the processing capability is compared between the own device and another device, and when there is a device having a higher processing capability than the own device, the collation processing is left to that device.
  • the matching process may be shared between the own device and another device. For example, when four pieces of content corresponding to the search condition are found, the collation processing of the two contents is performed by the own device, the remaining two contents are transmitted to the other device together with the interest, and the collation processing of the two contents is performed. Let other devices do it.
  • the processing capability of the own device or the interest rate or content is It is preferable to notify by adding information on the load status and the number of waiting for collation processing, and to share information on the processing capacity, the load status, and the number of waiting for collation processing among neighboring devices. Also, messages dedicated to information sharing may be exchanged periodically.
  • the information related to the processing capacity is, for example, information related to the presence or absence of a GPU (Graphics Processing Unit) that executes the matching process at high speed.
  • FIG. 14 is an entire configuration diagram of a communication system according to a second embodiment.
  • the content (camera image) in which the person to be searched for is captured is collected based on the face image (image information) of the person to be searched for.
  • the content (for example, the evacuation person safety list) in which the person to be the search target is posted is collected.
  • This content (refugee safety list) includes information on the name of the shelter, the name of the person who has evacuated to the shelter, the health status and the degree of injury, etc.
  • This content (refuge safety list) The user (searcher) can grasp the evacuation site where the person who is the search target is staying, and perform the safety confirmation by acquiring.
  • the communication system includes a user terminal 1, a plurality of shelter terminals 5 (communication devices, content storage devices), a server 3, and a router 4.
  • the user terminal 1 is operated by a user (searcher).
  • the shelter terminal 5 is installed at a shelter, and creates content (refuge safety list), and the content is periodically transmitted from the shelter terminal 5 to the server 3.
  • the server 3 manages the evacuation situation of each evacuation site, and holds the contents (refugee safety status list) of each evacuation site transmitted from the evacuation terminal 5.
  • the router 4 relays the transmission of content from the shelter terminal 5 to the server 3, and the router 4 located on the route for transmitting the content from the shelter terminal 5 to the server 3 is a sender terminal of the transmission source Hold the content of 5.
  • the user inputs the search condition and the name of the person to be searched, adds the search condition and the name of the person to be searched to the interest, and transmits it.
  • the shelter terminal 5 and the server 3 receive the interest, they search for content corresponding to the search condition (refugee safety list) specified by the interest, and then the name of the person added to the interest (The search process is performed on the content found in the search using the search target identification information) to obtain the content (refugee safety list) in which the person to be searched is described, and the content is It transmits to the user terminal 1 of a request origin (transmission origin of an interest).
  • the shelter terminal 5 abbreviate
  • FIG. 15 is an explanatory diagram of an example of the content name.
  • character information indicating the content (type) of content and search condition information are included in the content name.
  • the place name is described in the content name as the position information in addition to the characters (refugee safety list) representing the content (type) of the content.
  • the content update time is described as time information in the content name. Since the number of evacuees gradually increases at the evacuation center, if the evacuee safety list is old, the search target person may not be listed, and in this case, the new evacuee safety list is updated to be transmitted Specify time
  • FIG. 16 is an explanatory diagram of an example of interest incidental information.
  • search condition information position information, time information, etc.
  • search target identification information or search condition information position information and time information
  • characters representing the content (type) of the content (“refugee safety list”) are also included in the incidental information, but this may be described in the content name.
  • the name of the person to be searched is described in the interest accompanying information as the search target identification information.
  • the place name is described as the position information in the interest incidental information.
  • the process of checking whether the person's name is described in the content (safety list) is not performed.
  • the attribute (sex, age, size) of the person is described in the interest accompanying information.
  • the content to be transmitted can be narrowed down by specifying the attribute of the person.
  • the name may not be displayed on the evacuation person safety list, so the attribute of the person is not specified. You may specify only.
  • FIG. 17 is a flow chart showing an operation procedure at the time of receiving an interest of the router 4.
  • the search processing unit 45 When the router 4 receives an interest at the face (for example, face 0) of the communication unit 41 (ST301), the search processing unit 45 first uses the search condition designated by the interest, that is, the content name of interest or the information accompanying interest.
  • the content (evacuee safety status list) corresponding to the included search condition (for example, the evacuee safety status list or the like) is searched from the CS of the storage unit 43 (ST 302). At this time, the search may be performed based on perfect match, but may be performed based on partial match.
  • the interest transfer control unit 47 refers to the FIB of the storage unit 43 and transfers the interest, for example, an adjacent The router 4 and the server 3 are determined, and the interest is transferred from the transfer destination face (for example, face 1) (ST 304). At this time, the face (for example, face 0) of the transmission source of interest is registered in the PIT of the storage unit 43.
  • the content name corresponding to the search condition ie, the content name of the content to be collated is selected.
  • the content-accompanying information that is the attribute information (position information, time information, etc.) of the content and transferred (ST 305).
  • the collation processing unit 46 using the name of the person to be searched for added to the interest, whether the name of the person to be searched for is described in the content (refugee safety list) found in the search Check processing (ST306).
  • the content in which the name of the person to be searched is described is found as a result of the matching process (Yes in ST 307), the content is transmitted from the face (for example, face 0) of the request source of the content ( ST 308).
  • the notification control unit 48 has content corresponding to the search condition.
  • the collation failure notification that the content in which the name is described can not be found is transmitted from the face (for example, face 0) of the request source of the content (ST 309).
  • the content when the content (evacuee safety status list) in which the name of the person to be searched is described is found, the content is transmitted to the request source of the content. That is, a part related to a person to be searched may be extracted from the content, and only a part of the content may be transmitted to the request source of the content. Thereby, the privacy of persons other than the person who is the search target can be protected.
  • the collation failure notification is transmitted to the request source of the content, but in particular, the notification is not transmitted. It is also good.
  • the user terminal 1 first acquires the name of a person to be searched for and the search condition information (such as position information and time information) designated by the user (searcher), and the name or search condition information of the person to be searched for To generate an interest to which a content name (e.g., a "vacuum safety list") and interest-related information are added, and transmits the interest to the content-centric network.
  • the content (evacuee safety status list) corresponding to the transmitted interest is received, the content is displayed on the display unit 15 and presented to the user.
  • the user searcher
  • the user can confirm that the name of the person to be searched is described in the content, so that the user can grasp in which shelter the person to be searched is.
  • the state of a person health state, degree of injury, etc.
  • the user can grasp the state of the person who is the search target.
  • a plurality of contents (evacuee safety list) having different contents are received. For example, when only a name is added to interest as information for identifying a person and transmitted, the content of another person with the same name may be received. In this case, if attribute information of a person is described in the content, it is possible to determine the person's evacuation site by judging whether the person is the person or another person based on the attribute information. In addition, even when a person who is a search target changes a shelter, a plurality of contents may be received. In this case, the latest shelter can be grasped based on the content update time.
  • the search condition position information or time information
  • the search condition is changed such as expanding the range of the place designated as the position information or expanding the range of the period designated as the time information.
  • the search condition is changed such as expanding the range of the place designated as the position information or expanding the range of the period designated as the time information.
  • the operation at the time of interest reception of the shelter terminal 5 and the server 3 is substantially the same as that of the router 4 (see FIG. 17), but is different from that of the router 4 in that interest transfer is not performed.
  • the shelter terminal 5 and the server 3 search the content of the search condition specified by the interest (refuge safety list) from the CS. Then, when the content corresponding to the search condition is present in the CS, a collating process is performed to determine whether the person to be searched is described in the content, using the name of the person added to the interest. Then, when the content in which the person to be the search target is described is found as a result of the matching process, the content is transmitted to the user terminal 1 of the request source of the content. On the other hand, when the content in which the person who is the search target appears is not found, the collation failure notification is transmitted to the user terminal 1 of the request source of the content.
  • the camera 2 and the server 3 hold the content corresponding to the search condition, when the predetermined condition is satisfied, the content collating process corresponding to the search condition is not performed by the own device, and the content collating process is requested to another nearby device.
  • FIG. 18 is a flow chart showing an operation procedure at the time of receiving an interest of the router 4.
  • reception of interest (ST301) and search of content (ST302) are performed.
  • the content name of the content corresponding to the search condition that is, the content to be collated is added to the interest and transferred (ST305).
  • the subsequent steps are similar to those of the second embodiment (see FIG. 17).
  • the transfer of interest (ST 304) performed when there is no content corresponding to the search condition in CS (No in ST 303) is the same as in the second embodiment.
  • search target identification information a face image or a name of a person
  • search condition information such as position information and time information
  • various information other than the search target identification information and the search condition information is added to the interest as interest incidental information and transmitted.
  • FIG. 19 is an explanatory diagram of an example of interest incidental information.
  • a search condition (all match, partial match) when searching for content by content name is specified.
  • property collation which performs determination of whether it is the same person by the property (possession), such as a bag, is also possible. Further, in the case of performing voice verification, it is assumed that the camera 2 has a function of recording voice. In addition, when performing voice verification, voice data of a person to be searched is added to interest. In addition, when performing clothes collation or property collation, an image of clothes or property of a person to be searched is added to interest.
  • a threshold value of similarity (0% or more, 80% or more, 90% or more, etc.) is specified as the condition of collation processing when it is judged whether or not the same person is in the collation processing. .
  • the format (jpg, gif, png) of the content image is specified.
  • collation failure notification indicating that the content in which the person to be the search target is shown can not be found (collation processing NG notification, collation result NG disregard). Further, instead of transmitting the content in which the person to be searched for is displayed, it is specified whether or not only the verification success notification indicating that the content in which the person to be searched for is displayed is found (notice of the collation result).
  • the content corresponding to the search condition designated by the interest is transferred to another device for collation
  • it is specified whether or not the other apparatus performs the comparison process ("transfer interest").
  • the pet performs an odor verification that uses the smell to determine whether it is a location to be searched or not, and a pet that determines whether to be a pet (animal) to be searched. It is configured to specify the lost object image matching in which the image matching and the determination as to whether or not it is the lost object to be searched are performed using the image of the lost object.
  • odor matching When odor matching is to be performed, odor data of a place to be searched is added to interest.
  • pet image matching is to be performed, an image of a pet to be searched is added to interest.
  • the lost object image collation is performed, the image of the lost object to be searched is added to the interest.
  • attribute data of a person to be searched in the item of attribute data are designated as attribute data of a person to be searched in the item of attribute data.
  • attribute estimation for estimating the attribute of a person detected in the content (camera image) is performed, and collation processing is performed to determine whether or not the same person is based on the estimation result. Is done.
  • the matching based on this attribute can be appropriately combined with face image matching and the like.
  • the attribute data of the person who is the search target is added to the interest.
  • the content when transmitting the content, it is specified whether the content (camera image) is to be encrypted or not.
  • the content can be decrypted and displayed only at the user terminal 1 of the content request source, and the privacy of the person can be protected.
  • the public key corresponding to the secret key held by the user terminal 1 may be added to the interest and transmitted from the user terminal 1, and the router 4, the camera 2 and the server 3 transmitting the content Encrypts and sends the content using the key.
  • Encrypting the face image can protect the privacy of the person in the face image.
  • a key for decrypting the encrypted face image is distributed in advance to the router 4, the camera 2 and the server 3, and the user terminal 1 encrypts the face image, adds it to the interest and transmits it.
  • the router 4, the camera 2, and the server 3 decrypt the face image added to the received interest by using a key distributed in advance, and perform collation processing.
  • the public key of the router 4, the camera 2 and the server 3 may be acquired by the user terminal 1, and a face image encrypted with the public key may be added to the interest and transmitted.
  • the embodiment has been described as an example of the technology disclosed in the present application.
  • the technology in the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, and the like have been made.
  • the router, the camera, and the server are provided and the content corresponding to the interest is transmitted from these devices
  • the device that holds the content (camera image or the like) transmitted from the camera or the like
  • a database for managing for example, a server
  • a so-called RN is provided, and the user terminal notifies the user terminal of the device holding the content by inquiring the RN. It is also good.
  • the communication apparatus, the communication system, and the content collection method according to the present invention can appropriately acquire the content related to the search target by the collation processing using the information for identifying the search target, and further reduce the time required for the collation processing.
  • the communication device is useful as a content collection method or the like for collecting content related to a search target from a content storage device via a content centric network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】探索対象を識別する情報を用いた照合処理により、探索対象に関するコンテンツを適切に取得でき、さらに、照合処理に要する時間を短縮して、ユーザが所望のコンテンツを短時間で取得できるようにする。 【解決手段】ルータなどの通信装置が、コンテンツ中心ネットワークからインタレストを受信すると、自装置に蓄積されたコンテンツの中から、インタレストで指定された検索条件に該当するコンテンツを検索する検索処理を行い、この検索処理で見つかったコンテンツと、インタレストに付加された探索対象識別情報(顔画像)とを照合する照合処理を行って、探索対象に関するコンテンツを取得して、そのコンテンツをコンテンツの要求元の通信装置に送信する。

Description

通信装置、通信システムおよびコンテンツ収集方法
 本発明は、コンテンツ中心ネットワークに接続された通信装置、コンテンツ中心ネットワークに接続された通信装置およびコンテンツ蓄積装置を備える通信システム、および通信装置が、コンテンツ中心ネットワークを介してコンテンツ蓄積装置から、探索対象に関するコンテンツを収集するコンテンツ収集方法に関するものである。
 現在、インターネットが広く普及している。このインターネットでは、サーバに蓄積されたコンテンツをユーザ端末で取得する場合、サーバのIPアドレスを入手して、そのIPアドレスを用いてサーバにアクセスすることで、必要なコンテンツを取得することができる。
 一方、現在のインターネットに代わる技術として、コンテンツ中心ネットワークの技術が知られている(特許文献1参照)。このコンテンツ中心ネットワークは、CCN(Contents Centric Network)、ICN(Information Centric Network)、NDN(Named Data Network)とも呼ばれており、ネットワーク内の装置に蓄積されたコンテンツを、コンテンツ名を用いて収集することができるように構築されている。
特開2015-212935号公報
 さて、コンテンツ中心ネットワークでは、必要なコンテンツを特定する文字情報を記載したコンテンツ名をインタレスト(メッセージ)に付加してユーザ端末から送信することで、必要なコンテンツをネットワーク内の装置から収集することができる。しかしながら、収集したコンテンツには、ユーザが望まないものも多数含まれる。
 例えば、デパートに設置されたセキュリティカメラの画像を用いて、デパートで迷子になった子供を探し出す場合、コンテンツ名に、「セキュリティカメラ画像」の文字と、迷子になった子供が滞在していたと想定される場所や時刻などの文字を記載して、インタレストを送信することが考えられる。この場合、収集したコンテンツ(カメラ画像)には、迷子になった子供が映っていないコンテンツも多数含まれる。
 このため、ユーザ端末では、ユーザが、表示した多数のコンテンツの中から、迷子になった子供の画像が含まれるコンテンツを選び出す必要があり、大変な手間を要する。また、ユーザ端末で、迷子になった子供の顔画像を用いて、取得したコンテンツに対して照合処理を行って、迷子になった子供の画像が含まれるコンテンツを選び出すこともできるが、コンテンツが多数収集されると、処理に長時間を要するという問題があった。
 そこで、本発明は、探索対象を識別する情報を用いた照合処理により、探索対象に関するコンテンツを適切に取得することができ、さらに、照合処理に要する時間を短縮して、ユーザが所望のコンテンツを短時間で取得することができる通信装置、通信システムおよびコンテンツ収集方法を提供することを主な目的とする。
 本発明の通信装置は、コンテンツ中心ネットワークに接続された通信装置であって、コンテンツを蓄積する記憶部と、検索条件情報および探索対象識別情報が付加されたインタレストを受信する受信部と、前記記憶部に蓄積されたコンテンツの中から、前記検索条件情報に該当するコンテンツを検索する検索処理を行い、この検索処理で見つかった前記コンテンツと前記探索対象識別情報とを照合する照合処理を行って、探索対象に関するコンテンツを取得する制御部と、前記探索対象に関するコンテンツを、コンテンツの要求元の通信装置に送信する送信部と、を備える構成とする。
 また、本発明の通信システムは、コンテンツ中心ネットワークに接続された通信装置およびコンテンツ蓄積装置を備える通信システムであって、前記通信装置は、検索条件情報および探索対象識別情報が付加されたインタレストを生成する制御部と、前記インタレストを前記コンテンツ中心ネットワークに送信する送信部と、前記コンテンツ蓄積装置から送信される探索対象に関するコンテンツを受信する受信部と、を備え、前記コンテンツ蓄積装置は、コンテンツを蓄積する記憶部と、前記検索条件情報および前記探索対象識別情報が付加されたインタレストを受信する受信部と、前記記憶部に蓄積されたコンテンツの中から、前記検索条件情報に該当するコンテンツを検索する検索処理を行い、この検索処理で見つかった前記コンテンツと前記探索対象識別情報とを照合する照合処理を行って、探索対象に関するコンテンツを取得する制御部と、前記探索対象に関するコンテンツを前記通信装置に送信する送信部と、を備える構成とする。
 また、本発明のコンテンツ収集方法は、通信装置が、コンテンツ中心ネットワークを介してコンテンツ蓄積装置から、探索対象に関するコンテンツを収集するコンテンツ収集方法であって、前記通信装置が、検索条件情報および探索対象識別情報が付加されたインタレストを生成して、そのインタレストを前記コンテンツ中心ネットワークに送信し、前記コンテンツ蓄積装置が、前記インタレストを受信すると、自装置に蓄積されたコンテンツの中から、前記検索条件情報に該当するコンテンツを検索する検索処理を行い、この検索処理で見つかった前記コンテンツと前記探索対象識別情報とを照合する照合処理を行って、探索対象に関するコンテンツを取得して、その探索対象に関するコンテンツを前記通信装置に送信し、前記通信装置が、前記コンテンツ蓄積装置から送信される前記探索対象に関するコンテンツを受信する構成とする。
 本発明によれば、探索対象識別情報を用いた照合処理により、探索対象に関するコンテンツを適切に取得することができる。さらに、照合処理が、コンテンツ中心ネットワーク上の複数の通信装置で並行して行われるため、照合処理に要する時間を短縮して、ユーザが所望のコンテンツを短時間で取得することができる。
第1実施形態に係る通信システムの全体構成図 ユーザ端末1の概略構成を示すブロック図 カメラ2の概略構成を示すブロック図 サーバ3の概略構成を示すブロック図 ルータ4の概略構成を示すブロック図 インタレストの構成の一例を示す説明図 インタレストのコンテンツ名の一例を示す説明図 ルータ4の記憶部43のFIB、PITおよびCSの登録内容の一例を示す説明図 インタレスト付随情報の一例を示す説明図 図9に示した例の場合のCSの登録内容の一例を示す説明図 ユーザ端末1の動作手順を示すフロー図 ルータ4のインタレスト受信時の動作手順を示すフロー図 第1実施形態の変形例に係るルータ4のインタレスト受信時の動作手順を示すフロー図 第2実施形態に係る通信システムの全体構成図 第2実施形態に係るコンテンツ名の一例を示す説明図 第2実施形態に係るインタレスト付随情報の一例を示す説明図 第2実施形態に係るルータ4のインタレスト受信時の動作手順を示すフロー図 第2実施形態の変形例に係るルータ4のインタレスト受信時の動作手順を示すフロー図 第3実施形態に係るインタレスト付随情報の一例を示す説明図
 前記課題を解決するためになされた第1の発明は、コンテンツ中心ネットワークに接続された通信装置であって、コンテンツを蓄積する記憶部と、検索条件情報および探索対象識別情報が付加されたインタレストを受信する受信部と、前記記憶部に蓄積されたコンテンツの中から、前記検索条件情報に該当するコンテンツを検索する検索処理を行い、この検索処理で見つかった前記コンテンツと前記探索対象識別情報とを照合する照合処理を行って、探索対象に関するコンテンツを取得する制御部と、前記探索対象に関するコンテンツを、コンテンツの要求元の通信装置に送信する送信部と、を備える構成とする。
 これによると、探索対象識別情報を用いた照合処理により、探索対象に関するコンテンツを適切に取得することができる。さらに、照合処理が、コンテンツ中心ネットワーク上の複数の通信装置で並行して行われるため、照合処理に要する時間を短縮して、ユーザが所望のコンテンツを短時間で取得することができる。
 また、第2の発明は、前記受信部は、前記探索対象識別情報とともに、前記コンテンツの位置および時間に関する検索条件情報が、前記コンテンツ名またはインタレスト付随情報に付加されたインタレストを受信し、前記制御部は、前記検索条件情報に基づいて前記検索処理を行う構成とする。
 これによると、照合処理の対象となるコンテンツを検索処理により適切に絞り込むことができる。
 また、第3の発明は、前記受信部は、前記探索対象識別情報として、探索対象となる人物の画像を含む前記インタレストを受信し、前記制御部は、前記画像を用いた前記照合処理により、探索対象となる人物の画像が含まれる前記コンテンツを取得する構成とする。
 これによると、探索対象となる人物が映るコンテンツをユーザが取得することができる。
 また、第4の発明は、前記受信部は、前記探索対象識別情報として、探索対象となる人物の名前を含む前記インタレストを受信し、前記制御部は、前記人物の名前を用いた前記照合処理により、探索対象となる人物の名前が記載された前記コンテンツを取得する構成とする。
 これによると、探索対象となる人物が記載されたコンテンツをユーザが取得することができる。
 また、第5の発明は、前記受信部は、前記照合処理の条件を指定する情報が付加された前記インタレストを受信し、前記制御部は、前記照合処理の条件を指定する情報に基づいて、前記照合処理を行う構成とする。
 これによると、ユーザが指定した条件で、照合処理を通信装置に行わせることができる。
 また、第6の発明は、前記受信部は、前記照合処理の結果の通知方法を指定する情報が付加された前記インタレストを受信し、前記制御部は、前記照合処理の結果の通知方法を指定する情報に基づいて、前記照合処理の結果の通知を前記コンテンツの要求元に送信する構成とする。
 これによると、ユーザが指定した通知方法で、照合処理の結果の通知を通信装置に行わせることができる。
 また、第7の発明は、前記制御部は、前記検索条件情報に該当するコンテンツが前記記憶部に存在し、当該コンテンツの照合処理を自装置で行う場合には、当該コンテンツのコンテンツ付随情報をインタレストに付加して他の通信装置に転送する構成とする。
 これによると、複数の通信装置で同一のコンテンツに対する照合処理が重複して行われることを避けることができる。
 また、第8の発明は、前記制御部は、前記検索条件情報に該当するコンテンツが前記記憶部に存在する場合でも、当該コンテンツの照合処理を自装置で行わずに、当該コンテンツをインタレストとともに他の通信装置に送信する構成とする。
 これによると、検索条件情報に適合するコンテンツを保持しない通信装置でも、当該コンテンツの照合処理ができるようになり、1つの通信装置に負荷が集中することを避けることができる。
 また、第9の発明は、前記制御部は、自装置の負荷状態と、照合処理の待ち状態の件数と、自装置の処理能力との少なくともいずれかに基づいて、前記記憶部に存在する前記コンテンツの照合処理を自装置で行うか否かを判定する構成とする。
 これによると、コンテンツの照合処理を自装置で行うか否かの判定を適切に行うことができる。
 また、第10の発明は、コンテンツ中心ネットワークに接続された通信装置であって、検索条件情報および探索対象識別情報が付加されたインタレストを生成する制御部と、前記インタレストを前記コンテンツ中心ネットワークに送信する送信部と、前記コンテンツ中心ネットワーク内に接続された他の通信装置において前記検索条件情報に基づく検索処理および前記探索対象識別情報に基づく照合処理により取得した探索対象に関するコンテンツを受信する受信部と、を備える構成とする。
 これによると、第1の発明と同様に、探索対象を識別する情報を用いた照合処理により、探索対象に関するコンテンツを適切に取得することができ、さらに、照合処理に要する時間を短縮して、ユーザが所望のコンテンツを短時間で取得することができる。
 また、第11の発明は、コンテンツ中心ネットワークに接続された通信装置およびコンテンツ蓄積装置を備える通信システムであって、前記通信装置は、検索条件情報および探索対象識別情報が付加されたインタレストを生成する制御部と、前記インタレストを前記コンテンツ中心ネットワークに送信する送信部と、前記コンテンツ蓄積装置から送信される探索対象に関するコンテンツを受信する受信部と、を備え、前記コンテンツ蓄積装置は、コンテンツを蓄積する記憶部と、前記検索条件情報および前記探索対象識別情報が付加されたインタレストを受信する受信部と、前記記憶部に蓄積されたコンテンツの中から、前記検索条件情報に該当するコンテンツを検索する検索処理を行い、この検索処理で見つかった前記コンテンツと前記探索対象識別情報とを照合する照合処理を行って、探索対象に関するコンテンツを取得する制御部と、前記探索対象に関するコンテンツを前記通信装置に送信する送信部と、を備える構成とする。
 これによると、第1の発明と同様に、探索対象を識別する情報を用いた照合処理により、探索対象に関するコンテンツを適切に取得することができ、さらに、照合処理に要する時間を短縮して、ユーザが所望のコンテンツを短時間で取得することができる。
 また、第12の発明は、通信装置が、コンテンツ中心ネットワークを介してコンテンツ蓄積装置から、探索対象に関するコンテンツを収集するコンテンツ収集方法であって、前記通信装置が、検索条件情報および探索対象識別情報が付加されたインタレストを生成して、そのインタレストを前記コンテンツ中心ネットワークに送信し、前記コンテンツ蓄積装置が、前記インタレストを受信すると、自装置に蓄積されたコンテンツの中から、前記検索条件情報に該当するコンテンツを検索する検索処理を行い、この検索処理で見つかった前記コンテンツと前記探索対象識別情報とを照合する照合処理を行って、探索対象に関するコンテンツを取得して、その探索対象に関するコンテンツを前記通信装置に送信し、前記通信装置が、前記コンテンツ蓄積装置から送信される前記探索対象に関するコンテンツを受信する構成とする。
 これによると、第1の発明と同様に、探索対象を識別する情報を用いた照合処理により、探索対象に関するコンテンツを適切に取得することができ、さらに、照合処理に要する時間を短縮して、ユーザが所望のコンテンツを短時間で取得することができる。
 以下、本発明の実施の形態を、図面を参照しながら説明する。
(第1実施形態)
 図1は、第1実施形態に係る通信システムの全体構成図である。
 この通信システムは、ユーザ端末1(通信装置)と、複数のカメラ2(撮像装置、通信装置、コンテンツ蓄積装置)と、サーバ3(サーバ装置、通信装置、コンテンツ蓄積装置)と、複数のルータ4(転送装置、通信装置、コンテンツ蓄積装置)と、を備えている。ユーザ端末1、カメラ2、サーバ3およびルータ4は、コンテンツ中心ネットワークを介して相互に接続されている。
 ユーザ端末1は、ユーザ(探索者)が操作するものである。本実施形態では、探索対象となる人物の顔画像を用いて、探索対象となる人物が映るコンテンツ(カメラ画像)を収集して、探索対象となる人物の居場所を見つける人物探索を行う。なお、コンテンツ(カメラ画像)は動画、静止画のどちらでもよい。
 カメラ2は、設置場所の周辺を撮影する。本実施形態では、セキュリティカメラ(防犯カメラ、監視カメラ)とする。また、カメラ2は、自装置で撮影したコンテンツ(カメラ画像)を自装置に蓄積する。また、カメラ2は、自装置で撮影したコンテンツ(カメラ画像)をネットワークの状況にあわせて定期的にサーバ3に送信する。
 サーバ3は、各カメラ2から送信されるコンテンツ(カメラ画像)を蓄積する。
 ルータ4は、カメラ2からサーバ3にコンテンツ(カメラ画像)を送信する際にコンテンツの中継を行う。このとき、受信したコンテンツ(カメラ画像)を自装置に蓄積する。したがって、カメラ2からサーバ3にコンテンツを送信する経路上のルータ4には、送信元のカメラ2のコンテンツが次々に蓄積される。なお、ルータ4に蓄積されたコンテンツは、所定の期間が経過すると削除される。
 コンテンツ中心ネットワークは、ネットワーク内の装置(カメラ2、サーバ3およびルータ4)に蓄積されたコンテンツを、ユーザ端末1がコンテンツ名で収集することができるように構築されたものである。
 このコンテンツ中心ネットワークでは、コンテンツの要求元のユーザ端末1からインタレスト(コンテンツ要求メッセージ)を送信すると、そのインタレストをルータ4が受信し、ルータ4は、受信したインタレストを近隣の装置に転送し、このルータ4によるインタレストの転送が順次繰り返されて、カメラ2やサーバ3にインタレストが到達する。
 ルータ4、カメラ2およびサーバ3では、インタレストを受信すると、そのインタレストに付加されたコンテンツ名に該当するコンテンツを、自装置に蓄積されたコンテンツの中から選択して、コンテンツの要求元のユーザ端末1に送信する。
 ここで、本実施形態では、コンテンツの要求元のユーザ端末1で、ユーザ(探索者)が、検索条件や探索対象となる人物の顔画像を指定することで、検索条件情報および顔画像がコンテンツ名やインタレスト付随情報として付加されたインタレストを生成して送信する。
 ルータ4、カメラ2およびサーバ3では、インタレストを受信すると、インタレストに付加された検索条件に該当するコンテンツを検索し、次に、インタレストに付加された顔画像を用いて、検索で見つかったコンテンツに対して照合処理を行って、探索対象となる人物が映るコンテンツを取得して、そのコンテンツを、コンテンツの要求元(インタレストの送信元)のユーザ端末1に送信する。
 このように本実施形態では、各カメラ2で撮影されたコンテンツ(カメラ画像)が、ルータ4、カメラ2およびサーバ3に蓄積され、このルータ4、カメラ2およびサーバ3で照合処理が並行して行われるため、コンテンツがサーバ3にのみ蓄積されて、照合処理をサーバ3で行うシステムと比較して、サーバ3の負荷を軽減することができ、また、ユーザ端末1で要求したコンテンツを短時間で収集することができる。
 次に、ユーザ端末1の概略構成について説明する。図2は、ユーザ端末1の概略構成を示すブロック図である。
 ユーザ端末1は、通信部11(受信部、送信部)と、制御部12と、記憶部13と、入力部14と、表示部15と、を備えている。
 通信部11は、コンテンツ中心ネットワークにインタレストを送信し、そのインタレストの応答としてコンテンツ中心ネットワークから送信されるコンテンツを受信する。
 記憶部13は、制御部12で実行するプログラムおよび受信したコンテンツを記憶する。
 入力部14は、検索条件や探索対象となる人物の顔画像などを指定する入力操作をユーザが行う。表示部15は、通信部11で受信したコンテンツや、制御部12で生成した解析結果情報を表示する。
 制御部12は、インタレスト送信制御部16と、解析処理部17と、を備えている。この制御部12は、プロセッサで構成され、制御部12の各部は、記憶部13に記憶されたプログラムをプロセッサで実行することで実現される。
 インタレスト送信制御部16は、ユーザが入力した検索条件情報を取得するとともに、ユーザが指定した探索対象となる人物の顔画像を取得して、検索条件情報および顔画像を含むコンテンツ名およびインタレスト付随情報が付加されたインタレストを生成して、そのインタレストを通信部11から送信する。
 解析処理部17は、通信部11で受信したコンテンツに対して解析処理を行い、探索対象とした人物が移動した経路に関する移動経路情報などを生成する。
 次に、カメラ2の概略構成について説明する。図3は、カメラ2の概略構成を示すブロック図である。
 カメラ2は、撮像部21と、通信部22(受信部、送信部)と、制御部23と、記憶部24と、を備えている。
 撮像部21は、カメラ2の周辺を撮影して、撮影画像を出力する。
 通信部22は、コンテンツ中心ネットワークとの間でインタレストおよびコンテンツの送受信を行うフェースを備えている。
 記憶部24は、制御部23で生成したコンテンツ(カメラ画像)を蓄積する。また、記憶部24は、制御部で実行するプログラムを記憶する。
 なお、記憶部24は、記憶容量に制限があるため、所定時間分のコンテンツが蓄積されると、そのコンテンツを通信部22からサーバ3に送信して、空き容量を確保する。
 制御部23は、コンテンツ生成部25と、検索処理部26と、照合処理部27と、通知制御部28と、を備えている。この制御部23は、プロセッサで構成され、制御部23の各部は、記憶部24に記憶されたプログラムをプロセッサで実行することで実現される。
 コンテンツ生成部25は、撮像部21から出力された撮影画像に、位置情報(撮影場所など)や時間情報(撮影時刻など)などを含む属性情報を付加したコンテンツ(カメラ画像)を生成する。なお、属性情報は、コンテンツとは別のデータとして管理されるようにしてもよく、また、コンテンツ名やコンテンツ付随情報として管理されるようにしてもよい。
 検索処理部26は、通信部22でインタレストを受信すると、そのインタレストのコンテンツ名に記載された検索条件情報を取得して、記憶部24に蓄積されたコンテンツの中から、検索条件に該当するコンテンツを検索する。
 照合処理部27は、インタレストに付加された探索対象となる人物の顔画像を用いて、検索処理部26で見つかったコンテンツ(カメラ画像)を対象にして、探索対象となる人物が映っているか否かの照合処理を行う。
 通知制御部28は、検索条件に該当するコンテンツが存在し、探索対象となる人物が映るコンテンツが見つかった場合は、そのコンテンツを要求元に送信する。また、検索条件に該当するコンテンツが存在するが、探索対象となる人物が映るコンテンツが見つからなかった場合は、その旨の照合失敗通知を、コンテンツの要求元に送信する。
 次に、サーバ3の概略構成について説明する。図4は、サーバ3の概略構成を示すブロック図である。
 サーバ3は、通信部31(受信部、送信部)と、制御部32と、記憶部33と、を備えている。
 通信部31は、コンテンツ中心ネットワークとの間でインタレストおよびコンテンツの送受信を行うフェースを備えている。
 記憶部33は、通信部31で受信したコンテンツを蓄積する。また、記憶部33は、制御部32で実行するプログラムを記憶する。
 制御部32は、検索処理部35と、照合処理部36と、通知制御部37と、を備えている。この制御部32は、プロセッサで構成され、制御部32の各部は、記憶部33に記憶されたプログラムをプロセッサで実行することで実現される。
 検索処理部35は、通信部31でインタレストを受信すると、そのインタレストのコンテンツ名に記載された検索条件情報を取得して、記憶部33に蓄積されたコンテンツの中から、検索条件に該当するコンテンツを検索する。
 照合処理部36は、インタレストに付加された探索対象となる人物の顔画像を用いて、検索処理部35で見つかったコンテンツ(カメラ画像)を対象にして、探索対象となる人物が映っているか否かの照合処理を行う。
 通知制御部37は、検索条件に該当するコンテンツが存在し、検索対象となる人物が映るコンテンツが見つかった場合は、コンテンツを要求元に送信する。また、検索条件に該当するコンテンツが存在するが、探索対象となる人物が映るコンテンツが見つからなかった場合は、その旨の照合失敗通知を、コンテンツの要求元に送信する。
 次に、ルータ4の概略構成について説明する。図5は、ルータ4の概略構成を示すブロック図である。
 ルータ4は、通信部41(受信部、送信部)と、制御部42と、記憶部43と、を備えている。
 通信部41は、コンテンツ中心ネットワークとの間でインタレストおよびコンテンツの送受信を行う複数のフェースを備えている。各フェースでは、インタレストの受信および転送と、コンテンツの受信および転送と、が行われ、例えば、フェース0でインタレストを受信すると、そのインタレストをフェース1から転送する。また、インタレストの転送先から応答として送信されるコンテンツをフェース1で受信すると、そのコンテンツをフェース0からインタレストの送信元に転送する。
 記憶部43は、FIB(forwarding information base)と、PIT(pending interest table)と、CS(content store)と、を備えている。また、記憶部43は、制御部42を構成するプロセッサで実行されるプログラムを記憶する。
 FIBは、インタレストの転送に関する経路情報(ルーティングテーブル)であり、このFIBを参照して、インタレストの転送先を決定する。
 PITは、コンテンツの転送に関する経路情報(ルーティングテーブル)であり、このPITを参照して、コンテンツの転送先フェースを決定する。なお、このコンテンツの転送先は、コンテンツに対応するインタレストの送信元(インタレストを受信したフェース)である。
 CSは、インタレストの転送先から応答として送信されてフェースで受信したコンテンツを蓄積する。なお、カメラ2からサーバ3にコンテンツを送信する経路上にルータ4が存在する場合には、ルータ4はそのコンテンツをCSに蓄積する。
 制御部42は、検索処理部45と、照合処理部46と、インタレスト転送制御部47と、通知制御部48と、を備えている。この制御部42は、プロセッサで構成され、制御部42の各部は、記憶部43に記憶されたプログラムを実行することで実現される。
 検索処理部45は、通信部41のフェースでインタレストを受信すると、そのインタレストのコンテンツ名に記載された検索条件情報を取得して、記憶部43のCSに蓄積されたコンテンツの中から、検索条件に該当するコンテンツを検索する。
 照合処理部46は、インタレストに付加された探索対象となる人物の顔画像を用いて、検索処理部45で見つかったコンテンツ(カメラ画像)を対象にして、探索対象となる人物が映っているか否かの照合処理を行う。
 インタレスト転送制御部47は、インタレストの転送を制御する。本実施形態では、検索条件に該当するコンテンツがCSに存在しない場合や、検索条件に該当するコンテンツでも探索対象となる人物が映っていない場合に、インタレストを転送する。
 通知制御部48は、検索条件に該当するコンテンツが存在し、探索対象となる人物が映るコンテンツが見つかった場合は、そのコンテンツを要求元に送信する。また、検索条件に該当するコンテンツが存在するが、探索対象となる人物が映るコンテンツが見つからなかった場合は、その旨の照合失敗通知を、コンテンツの要求元に送信する。
 次に、インタレストの構成について説明する。図6は、インタレストの構成の一例を示す説明図である。
 インタレストは、コンテンツ名およびインタレスト付随情報で構成され、コンテンツ名に、コンテンツの内容(種類)を表す文字(例えば「セキュリテカメラィ画像」)が記載される。また、本実施形態では、インタレストに、探索対象となる人物を識別するための探索対象識別情報(顔画像)と、コンテンツの内容(種類)を表す文字以外の検索条件に関する検索条件情報と、が付加される。この探索対象識別情報および検索条件情報は、コンテンツ名に含めるようにしてもよく、また、インタレスト付随情報に含めるようにしてもよい。
 図6(A-1)に示す例では、コンテンツ名に、コンテンツの内容(種類)を表す文字(「セキュリテカメラィ画像」)を含め、インタレスト付随情報に、検索条件情報と、探索対象識別情報(顔画像)とを含めるようにしている。
 図6(A-2)に示す例では、コンテンツ名に、コンテンツの内容(種類)を表す文字(「セキュリテカメラィ画像」)と、検索条件情報とを含め、インタレスト付随情報に、探索対象識別情報(顔画像)とを含めるようにしている。
 図6(A-3)に示す例では、コンテンツ名に、コンテンツの内容(種類)を表す文字(「セキュリテカメラィ画像」)と、検索条件情報と、探索対象識別情報(顔画像)とを含めるようにしている。
 なお、コンテンツ名に探索対象識別情報を含める場合には、例えば、探索対象識別情報のバイナリデータをBase64の変換ルールに従ってテキストデータに変換するようにするとよい。
 図6(B)に示す例では、探索対象識別情報のヘッダ領域に、画像が格納されることを表す識別子を付ける。また、探索対象識別情報のヘッダ領域に、探索対象識別情報のデータ長(Length of Data)、およびデータ長のサイズ(Length of Length)が格納される。このようにすると、探索対象識別情報をバイナリデータのままインタレストに付加することができる。
 次に、インタレストのコンテンツ名に必要な情報を付加する例について説明する。図7は、インタレストのコンテンツ名の一例を示す説明図である。
 図7に示す例では、検索条件として、コンテンツの内容(種類)を表す文字(「セキュリティカメラ画像」)と、位置情報、すなわち、どの位置で撮影されたカメラ画像であるかに関する情報や、時間情報、すなわち、いつ撮影されたカメラ画像であるかに関する情報などを、コンテンツ名に含めるようにしている。
 図7(A)に示す例では、コンテンツ名に、コンテンツの内容(種類)を表す文字(「セキュリティカメラ画像」)のみが記載されている。
 図7(B)に示す例では、コンテンツ名に、コンテンツの内容(種類)を表す文字の他に、位置情報として、施設および階数とカメラ2の名前とが記載されている。なお、コンテンツ名では、各情報が記号(#)で区切られている。また、施設の階数を指定せずに、施設全体を対象としたり、施設(例えばデパート)の特定のエリア(例えばおもちゃ売り場)に限定したりするようにしてもよい。
 図7(C)に示す例では、コンテンツ名に、コンテンツの内容(種類)を表す文字情報および位置情報に加えて、時間情報として、撮影期間の日時(年月日、撮影開始時刻および撮影終了時刻)が記載されている。
 図7(D)に示す例では、コンテンツ名に、コンテンツの内容(種類)を表す文字情報の他に、位置情報として地名が記載され、また、時間情報として、撮影期間の日時(年月日、撮影開始時刻および録画時間)が記載されている。なお、位置情報では、市区町を限定せずに、県全体に拡大したり、地番まで指定して範囲を限定したりするようにしてもよい。
 図7(E)に示す例では、コンテンツ名に、コンテンツの内容(種類)を表す文字情報および時間情報の他に、位置情報として経度および緯度が記載されている。
 図7(F)に示す例では、コンテンツ名に、コンテンツの内容(種類)を表す文字情報の他に、カメラを管理している組織またはコンテンツの管理組織(警察署)の名前と、カメラ2の名前とが記載されている。このコンテンツ名では、コンテンツの所在を階層化する記号(/)で情報が区切られており、図7(F)に示す例では、警察署が管理しているカメラAで撮影されたセキュリティカメラ画像を指定することができる。
 次に、ルータ4の記憶部43のFIB、PITおよびCSの登録内容について説明する。図8は、FIB、PITおよびCSの登録内容の一例を示す説明図である。
 図8(A)に示すように、FIBには、コンテンツ名と、インタレスト転送フェースとが登録される。この図8(A)に示す例では、セキュリティカメラ画像を要求するインタレストを受信した場合に、フェース1にインタレストを転送することを表す。
 図8(B)に示すように、PITには、コンテンツ名と、インタレスト受信フェース(コンテンツ転送フェース)とが登録される。この図8(B)に示す例では、カメラAのセキュリティカメラ画像を指定したインタレストをフェース0にて受信したこと、また、カメラBのセキュリティカメラ画像を指定したインタレストをフェース2にて受信したことを表す。
 図8(C)に示すように、CSには、コンテンツ名と、インタレスト付随情報と、コンテンツのファイルデータの保存位置(アドレス)とが登録される。
 次に、インタレスト付随情報に必要な情報を付加する例について説明する。図9は、インタレスト付随情報の一例を示す説明図である。
 図7に示した例では、検索条件情報(位置情報や時間情報など)をコンテンツ名に含めるようにしたが、図9に示す例では、検索条件情報をインタレスト付随情報に含めるようにしている。
 なお、図9に示す例では、コンテンツの内容(種類)を表す文字(「セキュリティカメラ画像」)もインタレスト付随情報に含まれるが、これは、コンテンツ名に記載するようにしてもよい。
 図9(A)に示す例では、インタレスト付随情報に、位置情報として施設の名前および階数が記載され、時間情報として、撮影期間を表す日時(年月日、撮影開始時刻および撮影終了時刻)が記載されている。ユーザ端末1でコンテンツを受信したときに、受信したコンテンツの前後の時間帯のコンテンツをさらに取得したい場合があり、この場合、インタレスト付随情報で時間を指定すればよい。
 図9(B)に示す例では、インタレスト付随情報に、位置情報として地名とカメラ2の名前とが記載され、また、時間情報として、撮影期間を表す日時(年月日、撮影開始時刻および撮影時間)が記載されている。
 図9(C)に示す例では、インタレスト付随情報に、時間情報の他に、位置情報として、経度および緯度が記載されている。
 図9(D)に示す例では、インタレスト付随情報に、位置情報の他に、探索対象識別情報として、人物の属性(性別、年齢、背格好)が記載されている。このように人物の属性を指定することで、照合結果の精度を高めることができる。この場合、ルータ4、カメラ2およびサーバ3において、コンテンツ(カメラ画像)に対する画像認識により人物の属性を取得する。
 なお、ルータ4、カメラ2、サーバ3に保持されるコンテンツには、コンテンツに付随する情報がコンテンツ付随情報として付加されている。ルータ4、カメラ2、サーバ3では、インタレストに付加されたインタレスト付随情報を受信すると、インタレスト付随情報の検索条件とコンテンツ付随情報とを照合して、検索条件に該当するコンテンツを検索する。
 また、図9に示す例では、検索条件をインタレスト付随情報に含めるようにしたが、検索条件をコンテンツ名に含めるとともに、別の検索条件をインタレスト付随情報に含めるようにしてもよい。
 次に、図9に示した例の場合のCSの登録内容について説明する。図10は、CSの登録内容の一例を示す説明図である。CSの登録は、ルータ4の場合はインタレストの応答としてコンテンツを受信したときに行われる。またカメラ2の場合はコンテンツを作成したときに行われる。またサーバ3の場合はカメラ2からコンテンツを受信したときに行われる。またルータ4の場合は、カメラ2からサーバ3にコンテンツが転送されるときにも行われる。
 図9に示した例では、検索条件を含むインタレスト付随情報をインタレストに付加して送信するようにしており、この場合、インタレストを受信したルータ4は、記憶部43のCSを検索し、コンテンツ名と、検索条件を含むインタレスト付随情報を用いて、該当するコンテンツを保持していないか確認する。該当するコンテンツを保持している場合には、CSに登録されているコンテンツのファイルデータの保存位置(アドレス)を用いてコンテンツを取り出し、インタレストの送信元にコンテンツを送信する。
 図10に示した例では、ルータ4はコンテンツを受信したときにCSにコンテンツ名と、コンテンツに付随したコンテンツ付随情報と、コンテンツのファイルデータの保存位置(アドレス)を登録する。
 図10(A)に示す例は、対象エリアがデパート(特定の施設)の場合であり、コンテンツ名として、コンテンツの内容(種類)を表す文字(「セキュリティカメラ画像」)が登録され、コンテンツ付随情報として、位置情報(カメラ2の設置場所および名前)と、時間情報(撮影の年月日、開始時刻および終了時刻)とが登録されている。
 図10(B)に示す例は、対象エリアが地域の場合であり、コンテンツ名として、コンテンツの内容(種類)を表す文字(「セキュリティカメラ画像」)と、カメラ2の名前とが登録され、コンテンツ付随情報として、位置情報(カメラ2の設置場所を表す緯度および経度)と、時間情報(撮影の年月日、開始時刻および終了時刻)とが登録されている。
 次に、ユーザ端末1の動作について説明する。図11は、ユーザ端末1の動作手順を示すフロー図である。
 ユーザ端末1では、まず、インタレスト送信制御部16において、ユーザ(探索者)が指定した探索対象となる人物の顔画像を取得する(ST101)。また、ユーザが入力した検索条件情報(位置情報および時間情報など)を取得する(ST102)。次に、検索条件情報および顔画像を含むコンテンツ名(「セキュリティカメラ画像」など)やインタレスト付随情報が付加されたインタレストを生成して、そのインタレストをコンテンツ中心ネットワークに送信する(ST103)。
 そして、送信したインタレストに対応するコンテンツ(カメラ画像)を所定時間内に受信できない場合には(ST104でNo)、検索条件情報の取得(ST102)に戻り、ユーザに検索条件を変更する操作を行わせて、新たな検索条件情報を取得した上で、インタレストを再度送信する(ST103)。このとき、位置情報として指定する場所の範囲を拡大したり、時間情報として指定する期間の範囲を拡大したりするなどの検索条件の変更が行われる。
 一方、所定時間内にコンテンツ(カメラ画像)を受信した場合には(ST104でYes)、解析処理部17において、受信したコンテンツに対して解析処理を行う(ST105)。そして、解析処理の結果、すなわち、探索対象となる人物に関する情報を生成して、その情報を、表示部15に表示してユーザに提示する(ST106)。
 解析処理(ST105)では、複数のコンテンツを受信すると、各コンテンツの時間情報(撮影時刻)に基づいて、複数のコンテンツを時系列に並べ、各コンテンツの位置情報(撮影場所)に基づいて、探索対象とした人物が移動した経路に関する移動経路情報を生成する。このとき、コンテンツの撮影時刻や撮影場所から人物の移動経路として矛盾するコンテンツがあれば、そのコンテンツを除外する。
 次に、探索対象とした人物の移動経路情報に基づいて、探索対象とした人物が現在滞在する場所を推定し、探索対象とした人物がその場所に存在する確率を算出する。例えば、迷子がおもちゃ売り場で歩き疲れて休んでいる場合のように、長時間同じ場所に滞在している場合には、その場所にまだ滞在していると推定することができる。また、例えば、最後のコンテンツ(カメラ画像)に、探索対象とした人物がデパートから出て行くところが映っている場合には、デパートの外にいると推定することができる。
 なお、本実施形態では、インタレストで指定した検索条件に該当するコンテンツ(カメラ画像)が存在するが、探索対象となる人物が映ったコンテンツが見つからなかった旨の照合失敗通知が、コンテンツの要求元のユーザ端末1に送信されるようにしており、この照合失敗通知をユーザ端末1が受信した場合も、検索条件を変更して、インタレストを再度送信する。
 次に、解析結果として、推定した探索対象とした人物の現在の滞在場所、およびその場所に存在する確率を表示部15に表示する。
 また、推定した探索対象とした人物の滞在場所を撮影するカメラ2を特定して、そのカメラ2に現在の映像の送信を指示して、推定した場所の映像をリアルタイムで表示部15に表示させる。これにより、ユーザは、推定した場所に探索対象とした人物が現在もいるか否かを確認することができる。
 なお、本実施形態では、受信したコンテンツを解析して各種の情報を生成する解析処理を行うようにしたが、受信したコンテンツ(カメラ画像)を単に表示部15に表示するようにしてもよい。この場合、コンテンツを時系列に並べて表示するとよい。
 また、解析処理は、インタレストの送信およびコンテンツの受信を行うユーザ端末1とは別の解析装置(情報処理装置)で行うようにしてもよい。
 次に、ルータ4のインタレスト受信時の動作について説明する。図12は、ルータ4のインタレスト受信時の動作手順を示すフロー図である。
 ルータ4では、まず、インタレストを通信部41のフェース(例えばフェース0)で受信すると(ST201)、検索処理部45において、インタレストで指定された検索条件、すなわち、インタレストのコンテンツ名やインタレスト付随情報に含まれる検索条件(例えば「セキュリティカメラ画像」など)に該当するコンテンツ(カメラ画像)を記憶部43のCSの中から検索する(ST202)。このとき、完全一致で検索すればよいが、部分一致で検索するようにしてもよい。
 なお、他のルータ4などで照合処理がなされるコンテンツについては、ST202で検索をする必要がない。この場合は、検索条件に、他のルータ4で照合処理がなされるコンテンツのコンテンツ付随情報が含まれるため、このコンテンツ付随情報のコンテンツは検索せずに処理を終了してよい。
 そして、検索の結果、検索条件に該当するコンテンツがCSに存在しない場合には(ST203でNo)、インタレスト転送制御部47において、記憶部43のFIBを参照して、インタレストの転送先、例えば隣接するルータ4やサーバ3などを決定して、その転送先のフェース(例えばフェース1)からインタレストを転送する(ST204)。このとき、記憶部43のPITにインタレストの送信元のフェース(例えばフェース0)を登録する。
 一方、検索条件に該当するコンテンツがCSに存在する場合には(ST203でYes)、次に、インタレスト転送制御部47において、検索条件に該当するコンテンツ、すなわち、人物の顔画像の照合処理を行うコンテンツのコンテンツ名を、コンテンツの属性情報(位置情報や時間情報など)であるコンテンツ付随情報とともにインタレストに付加して転送する(ST205)。
 次に、照合処理部46において、インタレストに付加された探索対象となる人物の顔画像を用いて、検索で見つかったコンテンツ(カメラ画像)に探索対象となる人物が映っているか否かの照合処理を行う(ST206)。この照合処理では、例えば、照合処理の対象となるコンテンツから人物の顔画像を抽出して、その人物の顔画像と、インタレストに付加された顔画像とを照合して、同一人物が否かを判定すればよい。
 そして、照合処理の結果、探索対象となる人物が映るコンテンツが見つかった場合には(ST207でYes)、そのコンテンツを、コンテンツの要求元のフェース(例えばフェース0)から送信する(ST208)。
 一方、探索対象となる人物が映るコンテンツが見つからなかった場合には(ST207でNo)、通知制御部48において、検索条件に該当するコンテンツが存在するが、探索対象となる人物が映るコンテンツが見つからなかった旨の照合失敗通知を、コンテンツの要求元のフェース(例えばフェース0)から送信する(ST209)。
 このように本実施形態では、照合処理を開始する前に、インタレストに照合処理を行うコンテンツ名とコンテンツ付随情報を付加して転送する。この処理は、照合処理に時間を要することが考えられるための対処であり、照合処理にあまり時間がかからない場合には照合処理の結果が出てから、照合処理で探索対象となる人物の画像を含むコンテンツがないという結果もコンテンツ名とコンテンツ付随情報とあわせてインタレストに付加して転送してもよい。照合処理の結果、探索対象の人物の画像を含むコンテンツがある場合は、要求元にコンテンツを送信するため、インタレストを転送する必要はない。
 照合処理をおこなうコンテンツ名とコンテンツ付随情報をインタレストに付加して転送すると、そのインタレストを受信したルータ4は同じコンテンツ名およびコンテンツ付随情報のコンテンツに対して照合処理をすることを回避することができる。複数のルータ4が同じコンテンツを保持する可能性があるのは、カメラ2からサーバ3の転送経路上のルータ4は同じコンテンツを持っている可能性があるためである。また、インタレストを要求した端末とそのインタレストに応答したルータ4またはサーバ3またはカメラ2との間の経路上に存在するルータ4は同じコンテンツを持っている可能性があるためである。ネットワークに接続する複数の異なる端末が同じコンテンツを異なる時間に要求することもあるため、インタレストに応じるルータ4はそれぞれ異なることが考えられる。
 インタレストに照合処理を行っているコンテンツ名及びコンテンツ付随情報を含めることにより、転送先の他のルータ4などの装置は、当該識別情報のコンテンツは照合処理をしなくてよいので、自装置と他のルータ4などの装置とで、同一のコンテンツに対する照合処理が重複して行われることを回避することができる。
 例えば、位置情報の場合では、インタレストに指定している位置の範囲が広くて、照合処理するカメラ画像がその範囲の一部でしかない場合、インタレスとにコンテンツ付属情報を含めることで、他のルータは同じ位置の範囲は照合処理しないことが可能となる。また、例えば、時間の場合では、インタレストに指定している時間の範囲が広くて、カメラ画像がその一部の時間の画像だけの場合、インタレストにコンテンツ付属情報を含めることで、同じ時間範囲のカメラ画像に対しては照合処理をせず、それ以外の時間のカメラ画像にだけ照合処理を行うことが可能となる。
 なお、本実施形態では、探索対象となる人物が映るコンテンツ(カメラ画像)が見つかった場合に、そのコンテンツをコンテンツの要求元に送信するようにしたが、探索対象となる人物が映るコンテンツが見つかった旨の照合成功通知をコンテンツの要求元に送信するようにしてもよい。このとき、照合成功通知に、コンテンツの属性情報(位置情報や時間情報など)を付加することで、探索対象となる人物の状況をユーザが把握することができる。
 また、本実施形態では、探索対象となる人物が映るコンテンツが見つからなかった場合に、照合失敗通知をコンテンツの要求元に送信するようにしたが、特に通知を送信しないようにしてもよい。
 次に、カメラ2およびサーバ3のインタレスト受信時の動作について説明する。
 カメラ2およびサーバ3のインタレスト受信時の動作は、ルータ4の場合(図12参照)と略同様であるが、インタレストの転送を行わない点が、ルータ4の場合と異なっている。
 すなわち、カメラ2およびサーバ3では、インタレストを受信すると、インタレストで指定された検索条件に該当するコンテンツ(カメラ画像)をCSの中から検索する。そして、検索条件に該当するコンテンツがCSに存在する場合には、インタレストに付加された顔画像を用いて、探索対象となる人物が映っているか否かの照合処理を行う。そして、照合処理の結果、探索対象となる人物が映るコンテンツが見つかった場合には、そのコンテンツをコンテンツの要求元のユーザ端末1に送信する。一方、探索対象となる人物が映るコンテンツが見つからなかった場合には、照合失敗通知をコンテンツの要求元のユーザ端末1に送信する。
 以上のように、本実施形態では、探索対象となる人物の顔画像をインタレストに付加して送信することで、探索対象となる人物の画像が含まれるコンテンツ(カメラ画像)をルータ4、カメラ2およびサーバ3から集めて、探索対象となる特定の人物を見つけ出す人物探索を行うようにしたが、この人物探索により、様々な人物を見つけ出すことができる。
 例えば、迷子を探索する用途で人物探索を行うことができる。デパートなどの施設で子供が迷子になった場合、施設内に設置されたカメラ2の画像に迷子になった子供が映っている場合がある。そこで、このようなカメラ2によるコンテンツ(カメラ画像)を収集することで、迷子になった子供の居場所を推測することができ、また、どのような経路で移動したかを把握することができる。
 また、家族などの被災者を探索する用途で人物探索を行うことができる。被災地では、被災者が道や道路を歩いて避難所に避難することから、道路や避難所などを撮影するカメラ2の画像に被災者が映っている場合がある。そこで、このようなカメラ2によるコンテンツ(カメラ画像)を収集することで、被災者がどこの避難所に避難しているのか(避難場所)、また、どのような経路で避難したか(避難経路)を把握することができる。
 また、犯人を探索する用途で人物探索を行うことができる。犯人は、犯行現場から道路を使って逃走することから、犯行現場の周辺の道路などを撮影するカメラ2の画像に犯人が映っている場合がある。そこで、このようなカメラ2によるコンテンツ(カメラ画像)を収集することで、犯人がどのような経路で逃走しているのか(逃走経路)を把握することができる。
(第1実施形態の変形例)
 次に、第1実施形態の変形例について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。
 第1実施形態では、ルータ4、カメラ2およびサーバ3が、インタレストで指定された検索条件に該当するコンテンツ(カメラ画像)を保持している場合に、そのコンテンツに対する照合処理を行うようにしたが、本変形例では、検索条件に該当するコンテンツを保持している場合でも、所定の条件が成立する場合には、検索条件に該当するコンテンツの照合処理を自装置で行わず、そのコンテンツの照合処理を近隣の別の装置に依頼するようにする。
 特に、本変形例では、検索条件に該当するコンテンツを自装置で照合処理を行わない場合に、そのコンテンツをインタレストとともに他の装置に送信する。他の装置は、コンテンツおよびインタレストを受信すると、コンテンツに対して照合処理を行う。これにより、検索条件に該当するコンテンツを他の装置が保持していない場合でも、照合処理を行うことができる。
 なお、照合処理の依頼先は、不特定としてもよいが、特定の装置、例えばコンテンツの要求元のユーザ端末1としてもよい。この場合、検索条件に該当するコンテンツをインタレストとともにユーザ端末1に送信して、ユーザ端末1で、受信したコンテンツの照合処理が行われる。
 次に、第1実施形態の変形例に係るルータ4のインタレスト受信時の動作について説明する。図13は、ルータ4のインタレスト受信時の動作手順を示すフロー図である。
 本変形例では、第1実施形態(図12参照)と同様に、インタレストの受信(ST201)、およびコンテンツの検索(ST202)を行う。
 そして、検索の結果、検索条件に該当するコンテンツがCSに存在する場合には(ST203でYes)、次に、照合処理を自装置で実施するか否かを判定する(ST211)。ここで、照合処理を自装置で実施しない場合には(ST211でNo)、検索条件に該当するコンテンツ、すなわち、照合処理の対象となるコンテンツをインタレストとともに他の装置(例えばコンテンツの要求元のユーザ端末1)に送信する(ST212)。
 一方、照合処理を自装置で実施する場合には(ST211でYes)、検索条件に該当するコンテンツ、すなわち、照合処理の対象となるコンテンツのコンテンツ名およびコンテンツ付随情報をインタレストに付加して転送する(ST205)。以降は、第1実施形態(図12参照)と同様である。また、検索条件に該当するコンテンツがCSに存在しない場合(ST203でNo)に行われるインタレストの転送(ST204)も、第1実施形態と同様である。
 次に、ST211における照合処理を自装置で実施するか否かに関する判定方法について説明する。
 まず、照合処理を自装置で実施するか否かに関する判定を、自装置の制御部(プロセッサ)の負荷に基づいて行う。すなわち、自装置の制御部42の負荷を計測して、その負荷が所定の基準より大きい場合には、自装置で照合処理を行わないようにする。また、自装置と他装置との間で負荷状態を比較して、自装置より負荷が小さい装置がある場合に、その装置に照合処理を任せる。
 また、照合処理を自装置で実施するか否かに関する判定を、自装置で照合処理の待ち状態となっている件数に基づいて行う。すなわち、複数のインタレストを受信した場合、受付順にコンテンツの照合処理を行うが、このとき、1つのインタレストに対応するコンテンツの照合処理が終了する前に別のインタレストを受信すると、照合処理の待ち状態となる。このような照合処理の待ち状態となっている件数(照合処理待ち件数)が所定数以上であれば、自装置で照合処理を行わないようにする。また、自装置と他装置との間で照合処理待ち件数を比較して、自装置より照合処理待ち件数が少ない装置がある場合に、その装置に照合処理を任せる。
 また、照合処理を自装置で実施するか否かに関する判定を、自装置および他装置の処理能力に基づいて行う。すなわち、自装置と他装置との間で処理能力を比較して、自装置より処理能力の高い装置がある場合に、その装置に照合処理を任せる。
 なお、照合処理を自装置と他装置とで分担するようにしてもよい。例えば、検索条件に該当するコンテンツが4つ見つかった場合、2つのコンテンツの照合処理を自装置で行い、残りの2つのコンテンツをインタレストとともに他装置に送信して、その2つのコンテンツの照合処理を他装置に行わせる。
 また、自装置と他装置との間で、処理能力や負荷状態や照合処理待ち件数を比較する場合には、インタレストやコンテンツを送信する際に、そのインタレストやコンテンツに、自装置の処理能力や負荷状態や照合処理待ち件数に関する情報を付加して通知して、近隣の装置の間で、処理能力や負荷状態や照合処理待ち件数に関する情報を共有するようにするとよい。また、情報共有のための専用のメッセージを定期的に交換するようにしてもよい。なお、処理能力に関する情報としては、照合処理を高速に実行するGPU(Graphics Processing Unit)の搭載の有無に関する情報などである。また、負荷状態や照合処理待ち件数では、最新の情報が交換されるようにするとよい。
(第2実施形態)
 次に、第2実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図14は、第2実施形態に係る通信システムの全体構成図である。
 第1実施形態では、探索対象となる人物の顔画像(画像情報)に基づいて、探索対象となる人物が映るコンテンツ(カメラ画像)を収集するようにしたが、本実施形態では、探索対象となる人物の名前(探索対象識別情報、文字情報)に基づいて、探索対象となる人物が掲載されたコンテンツ(例えば、避難者安否リスト)を収集するようにする。このコンテンツ(避難者安否リスト)には、避難所の名前、避難所に避難している人物の名前、健康状態や負傷の程度などに関する情報が含まれており、このコンテンツ(避難者安否リスト)を取得することで、探索対象となる人物が滞在する避難場所をユーザ(探索者)が把握して、安否確認を行うことができる。
 本実施形態に係る通信システムは、ユーザ端末1と、複数の避難所端末5(通信装置、コンテンツ蓄積装置)と、サーバ3と、ルータ4と、を備えている。
 ユーザ端末1は、ユーザ(探索者)が操作するものである。避難所端末5は、避難所に設置されて、コンテンツ(避難者安否リスト)を作成するものであり、避難所端末5からコンテンツが定期的にサーバ3に送信される。サーバ3は、各避難所の避難者状況を管理するものであり、避難所端末5から送信される各避難所のコンテンツ(避難者安否リスト)を保持する。ルータ4は、避難所端末5からサーバ3へのコンテンツの送信を中継するものであり、避難所端末5からサーバ3にコンテンツを送信する経路上に位置するルータ4は、送信元の避難所端末5のコンテンツを保持する。
 コンテンツの要求元のユーザ端末1では、ユーザが検索条件および探索対象となる人物の名前を入力して、その検索条件および探索対象となる人物の名前をインタレストに付加して送信する。
 ルータ4、避難所端末5およびサーバ3では、インタレストを受信すると、インタレストで指定された検索条件(避難者安否リスト)に該当するコンテンツを検索し、次に、インタレストに付加された人物の名前(探索対象識別情報)を用いて、検索で見つかったコンテンツに対して照合処理を行って、探索対象となる人物が記載されたコンテンツ(避難者安否リスト)を取得して、そのコンテンツを、コンテンツの要求元(インタレストの送信元)のユーザ端末1に送信する。
 なお、避難所端末5は、カメラ2(図3参照)から撮像部21を省略し、避難者安否リストを作成するための入力部および表示部を備えた構成となる。
 次に、第2実施形態に係るコンテンツ名について説明する。図15は、コンテンツ名の一例を示す説明図である。
 図15に示す例では、コンテンツの内容(種類)を表す文字情報や、検索条件情報(位置情報や時間情報など)をコンテンツ名に含めるようにしている。
 図15(A)に示す例では、コンテンツ名に、コンテンツの内容(種類)を表す文字(避難者安否リスト)のみが記載されている。
 図15(B)に示す例では、コンテンツ名に、コンテンツの内容(種類)を表す文字(避難者安否リスト)の他に、位置情報として、地名が記載されている。
 また、図15(C)に示す例では、コンテンツ名に、コンテンツの内容(種類)を表す文字や位置情報に加えて、時間情報として、コンテンツの更新時間が記載されている。避難所では避難者が徐々に増えるため、避難者安否リストが古い場合には、探索対象となる人物が記載されていない場合があり、この場合、新しい避難者安否リストが送信されるように更新時間を指定する。
 次に、第2実施形態に係るインタレスト付随情報について説明する。図16は、インタレスト付随情報の一例を示す説明図である。
 図15に示した例では、検索条件情報(位置情報や時間情報など)をコンテンツ名に含めるようにしたが、図16に示す例では、探索対象識別情報や検索条件情報(位置情報および時間情報)をインタレスト付随情報に含めるようにしている。
 なお、図16に示す例では、コンテンツの内容(種類)を表す文字(「避難者安否リスト」)もインタレスト付随情報に含まれるが、これは、コンテンツ名に記載するようにしてもよい。
 図16(A)に示す例では、インタレスト付随情報に、探索対象識別情報として、探索対象となる人物の名前が記載されている。
 図16(B)に示す例では、インタレスト付随情報に、位置情報として、地名が記載されている。この場合、インタレスト付随情報に探索対象となる人物の名前が記載されていないため、コンテンツ(避難者安否リスト)に人物の名前が記載されているか否かの照合処理は行われない。
 図16(C)に示す例では、インタレスト付随情報に、探索対象となる人物の名前と、地名とが記載されている。
 図16(D)に示す例では、インタレスト付随情報に、探索対象となる人物の名前および地名に加えて、人物の属性(性別、年齢、背格好)が記載されている。人物の名前だけでは、同姓同名の別人と区別されずにコンテンツが送信されるが、人物の属性を指定することで、送信されるコンテンツを絞り込むことができる。なお、意識が無く名前が不明な人物や、まだ自分の名前を伝えることができない子供の場合に避難者安否リストに名前が掲載されないこともあるため、人物の名前を指定せずに人物の属性のみを指定するようにしてもよい。
 図16(E)に示す例では、インタレスト付随情報に、探索対象となる人物の名前および地名に加えて、コンテンツの更新時間が記載されている。これにより、送信されるコンテンツを新しいものに絞り込むことができる。
 次に、第2実施形態に係るルータ4のインタレスト受信時の動作について説明する。図17は、ルータ4のインタレスト受信時の動作手順を示すフロー図である。
 ルータ4では、まず、インタレストを通信部41のフェース(例えばフェース0)で受信すると(ST301)、検索処理部45において、インタレストで指定された検索条件、すなわち、インタレストのコンテンツ名やインタレスト付随情報に含まれる検索条件(例えば「避難者安否リスト」など)に該当するコンテンツ(避難者安否リスト)を記憶部43のCSの中から検索する(ST302)。このとき、完全一致で検索すればよいが、部分一致で検索するようにしてもよい。
 なお、他のルータ4などで照合処理がなされるコンテンツについては、ST302で検索をする必要がない。この場合は、検索条件に、他のルータ4で照合処理がなされるコンテンツのコンテンツ付随情報が含まれるため、このコンテンツ付随情報のコンテンツは検索せずに処理を終了してよい。
 そして、検索の結果、検索条件に該当するコンテンツがCSに存在しない場合には(ST303でNo)、インタレスト転送制御部47において、記憶部43のFIBを参照して、インタレストの転送先、例えば隣接するルータ4やサーバ3などを決定して、その転送先のフェース(例えばフェース1)からインタレストを転送する(ST304)。このとき、記憶部43のPITにインタレストの送信元のフェース(例えばフェース0)を登録する。
 一方、検索条件に該当するコンテンツがCSに存在する場合には(ST303でYes)、次に、インタレスト転送制御部47において、検索条件に該当するコンテンツ、すなわち、照合処理を行うコンテンツのコンテンツ名を、コンテンツの属性情報(位置情報や時間情報など)であるコンテンツ付随情報とともにインタレストに付加して転送する(ST305)。
 次に、照合処理部46において、インタレストに付加された探索対象となる人物の名前を用いて、検索で見つかったコンテンツ(避難者安否リスト)に探索対象となる人物の名前が記載されているか否かの照合処理を行う(ST306)。
 そして、照合処理の結果、探索対象となる人物の名前が記載されたコンテンツが見つかった場合には(ST307でYes)、そのコンテンツを、コンテンツの要求元のフェース(例えばフェース0)から送信する(ST308)。
 一方、探索対象となる人物の名前が記載されたコンテンツが見つからなかった場合には(ST307でNo)、通知制御部48において、検索条件に該当するコンテンツが存在するが、探索対象となる人物の名前が記載されたコンテンツが見つからなかった旨の照合失敗通知を、コンテンツの要求元のフェース(例えばフェース0)から送信する(ST309)。
 なお、本実施形態では、探索対象となる人物の名前が記載されたコンテンツ(避難者安否リスト)が見つかった場合に、そのコンテンツをコンテンツの要求元に送信するようにしたが、コンテンツの一部、すなわち、探索対象となる人物に関する部分をコンテンツから抽出して、そのコンテンツの一部のみをコンテンツの要求元に送信するようにしてもよい。これにより、探索対象となる人物以外の人物のプライバシーを保護することができる。
 また、本実施形態では、探索対象となる人物の名前が記載されたコンテンツが見つからなかった場合に、照合失敗通知をコンテンツの要求元に送信するようにしたが、特に通知を送信しないようにしてもよい。
 次に、第2実施形態に係るユーザ端末1の動作(図示せず)について説明する。
 ユーザ端末1では、まず、ユーザ(探索者)が指定した探索対象となる人物の名前や検索条件情報(位置情報および時間情報など)を取得して、探索対象となる人物の名前や検索条件情報を含むコンテンツ名(「避難者安否リスト」など)やインタレスト付随情報が付加されたインタレストを生成して、そのインタレストをコンテンツ中心ネットワークに送信する。
 そして、送信したインタレストに対応するコンテンツ(避難者安否リスト)を受信すると、そのコンテンツを表示部15に表示してユーザに提示する。これにより、探索対象とした人物の名前がコンテンツに記載されていることをユーザ(探索者)が確認することで、探索対象とした人物がどの避難所にいるかをユーザが把握することができる。また、コンテンツに人物の状態(健康状態や負傷の程度など)が記載されていれば、探索対象とした人物の状態をユーザが把握することができる。
 また、内容が異なる複数のコンテンツ(避難者安否リスト)を受信する場合がある。例えば、人物を特定する情報として名前のみをインタレストに付加して送信した場合、同一の名前の別人に関するコンテンツを受信することもある。この場合、コンテンツに人物の属性情報が記載されていれば、その属性情報に基づいて、本人か別人かを判断して、本人の避難所を把握することができる。また、探索対象とした人物が避難所を変更した場合にも、複数のコンテンツを受信することがある。この場合、コンテンツの更新時間に基づいて、最新の避難所を把握することができる。
 また、送信したインタレストに対応するコンテンツを所定時間内に受信しない場合は、検索条件(位置情報や時間情報)を変更して、インタレストを再度送信する。すなわち、位置情報として指定する場所の範囲を拡大したり、時間情報として指定する期間の範囲を拡大したりするなどの検索条件の変更を行う。また、インタレストで指定した検索条件に該当するコンテンツ(避難者安否リスト)が存在するが、探索対象となる人物の名前が記載されたコンテンツが見つからなかった旨の照合失敗通知を受信した場合も、検索条件を変更して、インタレストを再度送信する。
 次に、第2実施形態に係る避難所端末5およびサーバ3のインタレスト受信時の動作(図示せず)について説明する。
 避難所端末5およびサーバ3のインタレスト受信時の動作は、ルータ4の場合(図17参照)と略同様であるが、インタレストの転送を行わない点が、ルータ4の場合と異なっている。
 すなわち、避難所端末5およびサーバ3では、インタレストを受信すると、インタレストで指定された検索条件に該当するコンテンツ(避難者安否リスト)をCSの中から検索する。そして、検索条件に該当するコンテンツがCSに存在する場合には、インタレストに付加された人物の名前を用いて、探索対象となる人物がコンテンツに記載されているか否かの照合処理を行う。そして、照合処理の結果、探索対象となる人物が記載されたコンテンツが見つかった場合には、そのコンテンツをコンテンツの要求元のユーザ端末1に送信する。一方、探索対象となる人物が映るコンテンツが見つからなかった場合には、照合失敗通知をコンテンツの要求元のユーザ端末1に送信する。
(第2実施形態の変形例)
 次に、第2実施形態の変形例について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。
 本変形例では、第1実施形態の変形例と同様に、ルータ4、カメラ2およびサーバ3が、検索条件に該当するコンテンツを保持している場合でも、所定の条件が成立する場合には、検索条件に該当するコンテンツの照合処理を自装置で行わず、そのコンテンツの照合処理を近隣の別の装置に依頼するようにする。
 次に、第2実施形態の変形例に係るルータ4のインタレスト受信時の動作について説明する。図18は、ルータ4のインタレスト受信時の動作手順を示すフロー図である。
 本変形例では、第2実施形態(図17参照)と同様に、インタレストの受信(ST301)、およびコンテンツの検索(ST302)を行う。
 そして、検索の結果、検索条件に該当するコンテンツがCSに存在する場合には(ST303でYes)、次に、照合処理を自装置で実施するか否かを判定する(ST311)。ここで、照合処理を自装置で実施しない場合には(ST311でNo)、検索条件に該当するコンテンツ、すなわち、照合処理の対象となるコンテンツをインタレストとともに他の装置(例えばコンテンツの要求元のユーザ端末1)に送信する(ST312)。
 一方、照合処理を自装置で実施する場合には(ST311でYes)、検索条件に該当するコンテンツ、すなわち、照合処理の対象となるコンテンツのコンテンツ名をインタレストに付加して転送する(ST305)。以降は、第2実施形態(図17参照)と同様である。また、検索条件に該当するコンテンツがCSに存在しない場合(ST303でNo)に行われるインタレストの転送(ST304)も、第2実施形態と同様である。
(第3実施形態)
 次に、第3実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。
 前記の実施形態では、探索対象となる人物を識別するための探索対象識別情報(人物の顔画像や名前)や、検索条件情報(位置情報および時間情報など)を、インタレストに付加して送信するようにしたが、本実施形態では、探索対象識別情報や検索条件情報以外の様々な情報を、インタレスト付随情報としてインタレストに付加して送信するようにする。
 次に、第3実施形態に係るインタレスト付随情報について説明する。図19は、インタレスト付随情報の一例を示す説明図である。
 図19(A),(B)に示す例では、インタレスト付随情報に、位置情報および時間情報の他に、検索処理の条件、照合処理の条件、コンテンツ(カメラ画像)の画像形式、および照合結果の通知方法などに関する種々の情報が記載されている。
 コンテンツ名検索方法の項目では、検索処理の条件として、コンテンツ名でコンテンツを検索する際の検索条件(全部一致、部分一致)が指定される。
 照合処理の項目では、照合処理の条件として、同一人物か否かの判定を顔画像で行う顔画像照合に加えて、同一人物か否かの判定を音声で行う音声照合や、同一人物か否かの判定を服装で行う服装照合が指定される。このように、顔画像照合以外の照合を組み合わせることで、照合の精度を高めることができる。
 なお、同一人物か否かの判定を、カバンなどの持ち物(所持品)で行う持ち物照合も可能である。また、音声照合を行う場合には、カメラ2が音声を録音する機能を備えたものとする。また、音声照合を行わせる場合には、探索対象となる人物の音声データをインタレストに付加する。また、服装照合や持ち物照合を行わせる場合には、探索対象となる人物の服装や持ち物の画像をインタレストに付加する。
 照合条件の項目では、照合処理の条件として、照合処理で同一人物か否かの判定を行う際の類似度のしきい値(50%以上、80%以上、90%以上など)が指定される。
 画像形式の項目では、コンテンツの画像の形式(jpg,gif,png)が指定される。
 照合結果通知方法の項目では、探索対象となる人物が映るコンテンツが見つからなかった旨の照合失敗通知を行うか否か(照合処理NG通知、照合結果NG無視)が指定される。また、探索対象となる人物が映るコンテンツを送信する代わりに、探索対象となる人物が映るコンテンツが見つかった旨の照合成功通知のみを行うか否か(照合結果のみ通知)が指定される。
 また、照合結果通知方法の項目では、第1実施形態の変形例や第2実施形態の変形例で説明したように、インタレストで指定した検索条件に該当するコンテンツを他の装置に転送して照合処理を行わせる構成で、このような他装置による照合処理を行うか否か(「インタレストを転送」)が指定される。
 図19(C)に示す例では、図19(A),(B)に示す例と同様に、照合処理の項目で、照合処理で同一人物か否かの判定を行う際の類似度のしきい値が指定され、また、照合処理の方法(顔画像照合、服装照合、持ち物照合など)が指定される。
 さらに、図19(C)に示す例では、探索対象となる場所か否かの判定を匂いで行う匂い照合や、探索対象となるペット(動物)か否かの判定をペットの画像で行うペット画像照合や、探索対象となる紛失物か否かの判定を紛失物の画像で行う紛失物画像照合を指定するようにしている。
 なお、匂い照合を行わせる場合には、探索対象となる場所の匂いデータをインタレストに付加する。また、ペット画像照合を行わせる場合には、探索対象となるペットの画像をインタレストに付加する。また、紛失物画像照合を行わせる場合には、探索対象となる紛失物の画像をインタレストに付加する。
 また、図19(C)に示す例では、属性データの項目で、探索対象となる人物の属性データとして、性別、年齢および身長などが指定される。この場合、コンテンツ(カメラ画像)で検出された人物の属性を推定する属性推定(性別推定、年齢推定、身長推定)が行われ、その推定結果に基づいて同一人物か否かを判定する照合処理が行われる。この属性に基づく照合は顔画像照合などと適宜に組み合わせることができる。なお、属性データを用いた照合を行わせる場合には、探索対象となる人物の属性データをインタレストに付加する。
 また、図19(C)に示す例では、コンテンツを送信する際に、コンテンツ(カメラ画像)を暗号化するか否かが指定される。コンテンツを暗号化すると、コンテンツの要求元のユーザ端末1でのみコンテンツを復号して表示させることができ、人物のプライバシーを保護することができる。この場合、例えば、ユーザ端末1が保持する秘密鍵に対応する公開鍵をインタレストに付加してユーザ端末1から送信すればよく、コンテンツを送信するルータ4、カメラ2およびサーバ3では、受信した公開鍵を用いてコンテンツを暗号化して送信する。
 また、図19(C)に示す例では、インタレストに付加する顔画像を暗号化するか否かが指定される。顔画像を暗号化すると、顔画像の人物のプライバシーを保護することができる。この場合、例えば、暗号化した顔画像を復号する鍵を予めルータ4、カメラ2およびサーバ3に配布しておき、ユーザ端末1において、顔画像を暗号化してインタレストに付加して送信する。ルータ4、カメラ2、サーバ3では、受信したインタレストに付加された顔画像を、予め配布された鍵を用いて復号して照合処理を行う。なお、ルータ4、カメラ2およびサーバ3の公開鍵をユーザ端末1が取得して、その公開鍵で暗号化した顔画像をインタレストに付加して送信するようにしてもよい。
 以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
 例えば、前記の実施形態では、ルータ、カメラおよびサーバを備え、これらの装置から、インタレストに対応するコンテンツを送信するようにしたが、カメラなどから送信されるコンテンツ(カメラ画像など)を保持する装置(例えばサーバ)とコンテンツ名とを対応付けて管理するデータベース、いわゆるRN(ランデブーノード)を設けて、そのRNにユーザ端末が問い合わせることで、コンテンツを保持する装置をユーザ端末に通知するようにしてもよい。
 本発明に係る通信装置、通信システムおよびコンテンツ収集方法は、探索対象を識別する情報を用いた照合処理により、探索対象に関するコンテンツを適切に取得することができ、さらに、照合処理に要する時間を短縮して、ユーザが所望のコンテンツを短時間で取得することができる効果を有し、コンテンツ中心ネットワークに接続された通信装置、コンテンツ中心ネットワークに接続された通信装置およびコンテンツ蓄積装置を備える通信システム、および通信装置が、コンテンツ中心ネットワークを介してコンテンツ蓄積装置から、探索対象に関するコンテンツを収集するコンテンツ収集方法などとして有用である。
1 ユーザ端末(通信装置)
2 カメラ(通信装置、コンテンツ蓄積装置)
3 サーバ(通信装置、コンテンツ蓄積装置)
4 ルータ(通信装置、コンテンツ蓄積装置)
5 避難所端末(通信装置、コンテンツ蓄積装置)
11 通信部
12 制御部
13 記憶部
22 通信部
23 制御部
24 記憶部
31 通信部
32 制御部
33 記憶部
41 通信部
42 制御部
43 記憶部

Claims (12)

  1.  コンテンツ中心ネットワークに接続された通信装置であって、
     コンテンツを蓄積する記憶部と、
     検索条件情報および探索対象識別情報が付加されたインタレストを受信する受信部と、
     前記記憶部に蓄積されたコンテンツの中から、前記検索条件情報に該当するコンテンツを検索する検索処理を行い、この検索処理で見つかった前記コンテンツと前記探索対象識別情報とを照合する照合処理を行って、探索対象に関するコンテンツを取得する制御部と、
     前記探索対象に関するコンテンツを、コンテンツの要求元の通信装置に送信する送信部と、
    を備えることを特徴とする通信装置。
  2.  前記受信部は、前記探索対象識別情報とともに、前記コンテンツの位置および時間に関する検索条件情報が、前記コンテンツ名またはインタレスト付随情報に付加されたインタレストを受信し、
     前記制御部は、前記検索条件情報に基づいて前記検索処理を行うことを特徴とする請求項1に記載の通信装置。
  3.  前記受信部は、前記探索対象識別情報として、探索対象となる人物の画像を含む前記インタレストを受信し、
     前記制御部は、前記画像を用いた前記照合処理により、探索対象となる人物の画像が含まれる前記コンテンツを取得することを特徴とする請求項1に記載の通信装置。
  4.  前記受信部は、前記探索対象識別情報として、探索対象となる人物の名前を含む前記インタレストを受信し、
     前記制御部は、前記人物の名前を用いた前記照合処理により、探索対象となる人物の名前が記載された前記コンテンツを取得することを特徴とする請求項1に記載の通信装置。
  5.  前記受信部は、前記照合処理の条件を指定する情報が付加された前記インタレストを受信し、
     前記制御部は、前記照合処理の条件を指定する情報に基づいて、前記照合処理を行うことを特徴とする請求項1に記載の通信装置。
  6.  前記受信部は、前記照合処理の結果の通知方法を指定する情報が付加された前記インタレストを受信し、
     前記制御部は、前記照合処理の結果の通知方法を指定する情報に基づいて、前記照合処理の結果の通知を前記コンテンツの要求元に送信することを特徴とする請求項1に記載の通信装置。
  7.  前記制御部は、前記検索条件情報に該当するコンテンツが前記記憶部に存在し、当該コンテンツの照合処理を自装置で行う場合には、当該コンテンツのコンテンツ付随情報をインタレストに付加して他の通信装置に転送することを特徴とする請求項1に記載の通信装置。
  8.  前記制御部は、前記検索条件情報に該当するコンテンツが前記記憶部に存在する場合でも、当該コンテンツの照合処理を自装置で行わずに、当該コンテンツをインタレストとともに他の通信装置に送信することを特徴とする請求項1に記載の通信装置。
  9.  前記制御部は、自装置の負荷状態と、照合処理の待ち状態の件数と、自装置の処理能力との少なくともいずれかに基づいて、前記記憶部に存在する前記コンテンツの照合処理を自装置で行うか否かを判定することを特徴とする請求項8に記載の通信装置。
  10.  コンテンツ中心ネットワークに接続された通信装置であって、
     検索条件情報および探索対象識別情報が付加されたインタレストを生成する制御部と、
     前記インタレストを前記コンテンツ中心ネットワークに送信する送信部と、
     前記コンテンツ中心ネットワーク内に接続された他の通信装置において前記検索条件情報に基づく検索処理および前記探索対象識別情報に基づく照合処理により取得した探索対象に関するコンテンツを受信する受信部と、
    を備えることを特徴とする通信装置。
  11.  コンテンツ中心ネットワークに接続された通信装置およびコンテンツ蓄積装置を備える通信システムであって、
     前記通信装置は、
     検索条件情報および探索対象識別情報が付加されたインタレストを生成する制御部と、
     前記インタレストを前記コンテンツ中心ネットワークに送信する送信部と、
     前記コンテンツ蓄積装置から送信される探索対象に関するコンテンツを受信する受信部と、
    を備え、
     前記コンテンツ蓄積装置は、
     コンテンツを蓄積する記憶部と、
     前記検索条件情報および前記探索対象識別情報が付加されたインタレストを受信する受信部と、
     前記記憶部に蓄積されたコンテンツの中から、前記検索条件情報に該当するコンテンツを検索する検索処理を行い、この検索処理で見つかった前記コンテンツと前記探索対象識別情報とを照合する照合処理を行って、探索対象に関するコンテンツを取得する制御部と、
     前記探索対象に関するコンテンツを前記通信装置に送信する送信部と、
    を備えることを特徴とする通信システム。
  12.  通信装置が、コンテンツ中心ネットワークを介してコンテンツ蓄積装置から、探索対象に関するコンテンツを収集するコンテンツ収集方法であって、
     前記通信装置が、
     検索条件情報および探索対象識別情報が付加されたインタレストを生成して、そのインタレストを前記コンテンツ中心ネットワークに送信し、
     前記コンテンツ蓄積装置が、
     前記インタレストを受信すると、自装置に蓄積されたコンテンツの中から、前記検索条件情報に該当するコンテンツを検索する検索処理を行い、この検索処理で見つかった前記コンテンツと前記探索対象識別情報とを照合する照合処理を行って、探索対象に関するコンテンツを取得して、その探索対象に関するコンテンツを前記通信装置に送信し、
     前記通信装置が、
     前記コンテンツ蓄積装置から送信される前記探索対象に関するコンテンツを受信することを特徴とするコンテンツ収集方法。
PCT/JP2017/039533 2017-03-29 2017-11-01 通信装置、通信システムおよびコンテンツ収集方法 WO2018179558A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/498,921 US11574006B2 (en) 2017-03-29 2017-11-01 Communication device, communication system, and content collection method
EP17903329.5A EP3605343B1 (en) 2017-03-29 2017-11-01 Communication device, communication system, and content collection method
ES17903329T ES2923427T3 (es) 2017-03-29 2017-11-01 Dispositivo de comunicación, sistema de comunicación y procedimiento de recopilación de contenido

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017064275A JP6373437B1 (ja) 2017-03-29 2017-03-29 通信装置、通信システムおよびコンテンツ収集方法
JP2017-064275 2017-03-29

Publications (1)

Publication Number Publication Date
WO2018179558A1 true WO2018179558A1 (ja) 2018-10-04

Family

ID=63165784

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/039533 WO2018179558A1 (ja) 2017-03-29 2017-11-01 通信装置、通信システムおよびコンテンツ収集方法

Country Status (5)

Country Link
US (1) US11574006B2 (ja)
EP (1) EP3605343B1 (ja)
JP (1) JP6373437B1 (ja)
ES (1) ES2923427T3 (ja)
WO (1) WO2018179558A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110446162A (zh) * 2019-07-13 2019-11-12 恒大智慧科技有限公司 一种路由器防丢方法及***、计算机可读存储介质

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7145589B2 (ja) 2017-06-14 2022-10-03 清水建設株式会社 情報提供システム
KR102427595B1 (ko) * 2018-05-28 2022-07-29 인스티튜트 오브 어쿠스틱스, 차이니스 아카데미 오브 사이언스 정보 제어망 메시지 전달 방법
JP7032350B2 (ja) 2019-04-15 2022-03-08 パナソニックi-PROセンシングソリューションズ株式会社 人物監視システムおよび人物監視方法
JP7360279B2 (ja) * 2019-09-06 2023-10-12 パナソニックホールディングス株式会社 情報収集方法、通信制御装置、およびコンテンツ蓄積装置
JP7503411B2 (ja) 2020-03-31 2024-06-20 パナソニックホールディングス株式会社 情報収集方法およびコンテンツ蓄積装置
WO2021044922A1 (ja) 2019-09-06 2021-03-11 パナソニック株式会社 情報収集方法、通信制御装置、および情報収集者装置
CN114936317A (zh) * 2022-04-29 2022-08-23 上海花千树信息科技有限公司 一种基于图像内容分析的婚恋交友推荐方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013000165A1 (en) * 2011-06-30 2013-01-03 France Telecom Research & Development Beijing Company Limited Data routing
JP2014063401A (ja) * 2012-09-21 2014-04-10 Sogo Keibi Hosho Co Ltd 施設管理システム及び施設管理方法
JP2015212935A (ja) 2014-05-01 2015-11-26 パロ アルト リサーチ センター インコーポレイテッド 情報指向ネットワークのための説明可能な(accountable)コンテンツストア
JP2016100886A (ja) * 2014-11-26 2016-05-30 日本電信電話株式会社 通信システム及び方法
JP2016201758A (ja) * 2015-04-14 2016-12-01 パナソニックIpマネジメント株式会社 施設内人物捜索支援装置、施設内人物捜索支援システムおよび施設内人物捜索支援方法
JP2017055380A (ja) * 2015-09-09 2017-03-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 通信方法、中継装置及び通信システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7802084B2 (en) * 2003-11-26 2010-09-21 Hewlett-Packard Development Company, L.P. System and method for management and installation of operating system images for computers
US8923293B2 (en) * 2009-10-21 2014-12-30 Palo Alto Research Center Incorporated Adaptive multi-interface use for content networking
CN102687140B (zh) * 2009-12-30 2016-03-16 诺基亚技术有限公司 用于有助于基于内容的图像检索的方法和装置
US9442942B2 (en) * 2011-10-20 2016-09-13 Nokia Technologies Oy Method, apparatus and computer program product for dynamic and visual object search interface
US9749384B2 (en) * 2012-10-24 2017-08-29 Panasonic Intellectual Property Management Co., Ltd. Communication system, reception terminal, transmission terminal, and flow rate control method
US9111143B2 (en) * 2013-09-27 2015-08-18 At&T Mobility Ii Llc Method and apparatus for image collection and analysis
US10701038B2 (en) * 2015-07-27 2020-06-30 Cisco Technology, Inc. Content negotiation in a content centric network

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013000165A1 (en) * 2011-06-30 2013-01-03 France Telecom Research & Development Beijing Company Limited Data routing
JP2014063401A (ja) * 2012-09-21 2014-04-10 Sogo Keibi Hosho Co Ltd 施設管理システム及び施設管理方法
JP2015212935A (ja) 2014-05-01 2015-11-26 パロ アルト リサーチ センター インコーポレイテッド 情報指向ネットワークのための説明可能な(accountable)コンテンツストア
JP2016100886A (ja) * 2014-11-26 2016-05-30 日本電信電話株式会社 通信システム及び方法
JP2016201758A (ja) * 2015-04-14 2016-12-01 パナソニックIpマネジメント株式会社 施設内人物捜索支援装置、施設内人物捜索支援システムおよび施設内人物捜索支援方法
JP2017055380A (ja) * 2015-09-09 2017-03-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 通信方法、中継装置及び通信システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3605343A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110446162A (zh) * 2019-07-13 2019-11-12 恒大智慧科技有限公司 一种路由器防丢方法及***、计算机可读存储介质

Also Published As

Publication number Publication date
EP3605343A1 (en) 2020-02-05
US20200050627A1 (en) 2020-02-13
ES2923427T3 (es) 2022-09-27
EP3605343A4 (en) 2020-09-30
EP3605343B1 (en) 2022-06-01
US11574006B2 (en) 2023-02-07
JP2018169645A (ja) 2018-11-01
JP6373437B1 (ja) 2018-08-15

Similar Documents

Publication Publication Date Title
WO2018179558A1 (ja) 通信装置、通信システムおよびコンテンツ収集方法
US7236798B2 (en) Systems and methods for object location notification
US9980111B2 (en) Mobile terminal device, call-to-action system, call-to-action method, call-to-action program, and safety verification system
JP6531341B2 (ja) 情報処理装置、サーバ、記憶媒体、および制御方法
JP6977328B2 (ja) 顔認証装置、人物追跡システム、人物追跡方法、および、人物追跡プログラム
JP2019092052A (ja) 通信装置、通信システムおよび移動体追跡方法
JP2016051980A (ja) 画像共有サーバ、画像共有システム、及び撮像装置
JP2012186674A (ja) 監視カメラシステム
JP2015173307A (ja) 携帯端末装置、情報処理システム、携帯端末装置の情報処理方法、およびプログラム
KR101793630B1 (ko) 스마트기기 간의 협업 방법 및 클라우드 서버
JP6504896B2 (ja) 情報処理装置、情報処理方法及び画像転送システム
JP2009075916A (ja) 人物捜索システム及び人物捜索方法
JP6702402B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JP5150572B2 (ja) プライバシー保護システム及びプライバシー保護方法
JP5743017B2 (ja) 画像管理装置及びプログラム
JP2009086736A (ja) サーバ装置
JP5592525B2 (ja) 行動管理システム及び行動管理プログラム
JP7145589B2 (ja) 情報提供システム
JP4633558B2 (ja) 蓄積システム、複写制御装置、蓄積指示装置、取得制御装置、icタグ情報の蓄積方法及びコンピュータプログラム並びに記録媒体
JP7392264B2 (ja) 情報処理装置及び顔認識システム
JP2019200535A (ja) 移動情報活用装置および移動情報活用方法
JP7428191B2 (ja) 監視システム、監視装置、監視方法、およびプログラム
US20160316177A1 (en) Camera terminal device, thin-client server device, camera system, and control method for the same
KR20190133337A (ko) 캐릭터 단말을 이용한 방문지 관련 서비스 보안 처리 장치 및 방법
JP2006293924A (ja) 情報配信システム及び情報配信方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17903329

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017903329

Country of ref document: EP

Effective date: 20191029