WO2013182101A1 - 目标人的确定方法、装置及移动终端 - Google Patents

目标人的确定方法、装置及移动终端 Download PDF

Info

Publication number
WO2013182101A1
WO2013182101A1 PCT/CN2013/078185 CN2013078185W WO2013182101A1 WO 2013182101 A1 WO2013182101 A1 WO 2013182101A1 CN 2013078185 W CN2013078185 W CN 2013078185W WO 2013182101 A1 WO2013182101 A1 WO 2013182101A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image data
person
matching
feature information
Prior art date
Application number
PCT/CN2013/078185
Other languages
English (en)
French (fr)
Inventor
陈硕
Original Assignee
中兴通讯股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中兴通讯股份有限公司 filed Critical 中兴通讯股份有限公司
Publication of WO2013182101A1 publication Critical patent/WO2013182101A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Definitions

  • Target person determination method device and mobile terminal
  • the present invention relates to the field of communications, and in particular to a method, device, and mobile terminal for determining a target person.
  • the invention provides a method, a device and a mobile terminal for determining a target person, so as to overcome the problems of low efficiency, inconvenience and inaccuracy in the prior art tracing method.
  • a method for determining a target person including: acquiring first feature information of a person in image data; and the first feature information and a target obtained in advance The second feature information of the person is matched; determining whether the person in the image data is the target person according to the matching result.
  • the first feature information includes: first face information of a person in the image data; and the second feature information includes: second face information of the target person.
  • determining whether the person in the image data is the target person according to the matching result includes: determining whether a matching degree of the first face information and the second face information meets a preset condition; A condition is set to determine that the person in the image data is the target person.
  • the method further includes: the first feature information further includes first location information of the person in the image data, and if the person in the image data is determined to be the target person, sending the report to the server First feature information of a person in the image data and first position information of a person in the image data.
  • the second feature information further includes: second location information of the target person; matching the first feature information with the second feature information, including: the first location information and the location The second location information is matched; determining whether the first location information has an intersection with the second location information; if there is an intersection, matching the first facial information with the second facial information.
  • the method further includes: determining, according to the determination result, a matching data set, where the matching data set is intersected with the first location information The set of the target person; matching the first face information with the second face information comprises: the first face information and the second face of the target person in the matching data set Information is matched.
  • acquiring the first feature information of the person in the image data includes: detecting whether there is new image data in the storage device, and if there is a new image, acquiring the first image from the newly added image data The facial information; and/or, the image data is directly acquired by the imaging device, and the first facial information is acquired from the acquired image data.
  • the method further includes: sending a request to the server, requesting to acquire the second feature information; and receiving the server according to the Said second feature information returned by the request; and/or directly receiving the second feature information pushed by the server.
  • the method further includes: displaying the determination result and/or the matching result to the user.
  • a determining apparatus for a target person including: an acquiring module, configured to acquire first feature information of a person in the image data; and a matching module, configured to set the first The feature information is matched with the second feature information of the target person obtained in advance; and the determining module is configured to determine, according to the matching result of the matching module, whether the person in the image data is the target person.
  • the acquiring module is configured to acquire a first facial message of a person in the image data Interest.
  • the determining module includes: a first determining unit, configured to determine whether a matching degree of the first facial information and the second facial information in the second feature information meets a preset condition; And the unit is configured to determine that the person in the image data is the target person if the determination result of the first determining unit is that the preset condition is met.
  • the device further includes: a reporting module, configured to send, to the server, the first feature of reporting the person in the image data, if the determination result of the first determining unit is that the preset condition is met Information and first location information of a person in the image data.
  • a reporting module configured to send, to the server, the first feature of reporting the person in the image data, if the determination result of the first determining unit is that the preset condition is met Information and first location information of a person in the image data.
  • the matching module includes: a first matching unit, configured to match the first location information with the second location information of the second feature information; and a second determining unit, configured to determine the Whether the first location information and the second location information intersect; the second matching unit is configured to: when the determination result of the second determining unit is that there is an intersection, the first facial information and the The second face information is matched.
  • the matching module further includes: a second determining unit, configured to determine, according to a determination result of the second determining unit, a matching data set, where the matching data set is intersected with the first location information The set of the target persons; the second matching unit is configured to match the first face information with the second face information of the target person in the matching data set.
  • the acquiring module includes: a first acquiring unit, configured to detect whether there is new image data in the storage device, and if there is a new image, obtain the first image from the newly added image data
  • the second acquisition unit is configured to directly acquire image data by the imaging device, and acquire the first facial information from the acquired image data.
  • a mobile terminal comprising the determining means of any of the above-mentioned target persons provided by the present invention.
  • the first feature information of the person in the image data is acquired, the first feature information is matched with the second feature information of the target person obtained in advance, and the person in the image data is determined as the target person according to the matching result.
  • FIG. 1 is a schematic diagram of a target person's determination system in accordance with an embodiment of the present invention
  • FIG. 2 is a structural block diagram of a determining device of a target person according to an embodiment of the present invention
  • FIG. 3 is a flow chart of a method of determining a target person according to an embodiment of the present invention.
  • FIG. 5 is a flowchart of a method for determining a target person according to Embodiment 2 of the present invention. Preferred embodiment of the invention
  • a database of the target person may be established, and information of the target person may be stored, for example, image data of the target person, information of a location where the target person may appear, and the like.
  • the target person information is pushed to the mobile terminal having the camera and the geographic positioning system, and the mobile terminal analyzes the information of the person and the target person in the captured image data, and determines whether the person in the image data captured by the mobile terminal is the target according to the analysis result. people.
  • FIG. 1 is a schematic diagram of a target person's determination system according to an embodiment of the present invention.
  • the system includes a server and a mobile terminal.
  • Establishing a target person information database on the server side storing the information of the target person
  • the mobile terminal acquires the information of the target person from the server, and analyzes the information of the person in the image data in the mobile terminal, and determines the mobile terminal according to the result of the analysis. Whether the person in the image data is the target person.
  • the mobile terminal obtains the tracing database information on the server through the wireless connection.
  • Each data item of the tracing database can include feature information of the person to be sought, as well as location and other related information that may be present, synchronized to the local tracing database.
  • the mobile terminal can be configured to automatically analyze the photographed photos in the background after the photograph is saved, for example, using facial recognition technology, geographic location technology, pattern recognition technology, etc., to compare the information of the person in the photo with the data in the local tracing database. A matching is performed, and it is determined whether the person in the image data in the mobile terminal is the target person according to the matching result.
  • the mobile terminal can send the tracing result to the server through a wireless connection. Moreover, the mobile terminal can promptly search for results to the user (for example, sound, vibration, text, graphic display, etc.).
  • a determining device for a target person is provided.
  • the device mainly includes: an obtaining module 10, a matching module 20, and a determining module 30.
  • the obtaining module 10 is configured to acquire first feature information of a person in the image data.
  • the matching module 20 is connected to the acquiring module 10, and configured to perform the first feature information and the second feature information of the target person obtained in advance.
  • the matching module 30 is connected to the matching module 20 and configured to determine whether the person in the image data is the target person according to the matching result of the matching module.
  • the first feature information acquired by the obtaining module 10 may include first face information of a person in the image data.
  • Matching the first feature information with the second feature information by the matching module 20 may refer to matching the first face information with the second facial feature of the second feature information of the target person.
  • the determining module 30 may determine whether the person in the image data is the target person based on the matching result of the first face information and the second face information.
  • the determining module 30 may include: a first determining unit, configured to determine whether a matching degree of the second facial information in the first facial information and the second feature information meets a preset condition; The first determining unit is configured to determine that the person in the image data is the target person if the determination result of the first determining unit is that the preset condition is satisfied.
  • the person search result can also be reported to the server.
  • the first feature information of the person in the image data further includes first location information.
  • the position at which the image data is captured is obtained by the positioning device, from
  • the apparatus of the embodiment of the present invention may further include: a reporting module, configured to send a report to the server if the determination result of the first determining unit is that the preset condition is met.
  • the reported information may further include a matching result and the like.
  • the second feature information may further include second location information of the target person, and the location information may be location information that may be present by the target person.
  • the matching module may include: a first matching unit configured to match the first location information with the second location information of the second feature information; and the second determining unit is configured to determine Whether the first location information and the second location information overlap; the second matching unit is configured to match the first facial information with the second facial information if the determination result of the second determining unit is that there is an intersection.
  • the matching module may further include: a second determining unit, configured to determine, according to a determination result of the second determining unit, a matching data set, where the matching data set is a set of target persons that intersect with the first location information;
  • the matching unit is configured to match the first face information with the second face information of the target person in the matching data set.
  • the acquiring module 10 may directly acquire image data by using an image capturing device, and acquire first face information of a person in the image data from the acquired image data.
  • the obtaining module 10 can also detect whether there is new image data in the storage device in real time or at a time, and if so, obtain the first face information from the newly added image data.
  • the obtaining module may include: a first acquiring unit configured to detect whether there is new image data in the storage device, and if there is a newly added image, obtain the newly added image data.
  • the first facial information; and/or the second acquiring unit is configured to directly acquire the image data by the imaging device, and acquire the first facial information from the acquired image data.
  • the second feature information of the target person may be acquired from the server.
  • a request may be sent to the server, requesting to acquire the second feature information, and receiving second feature information returned by the server according to the request, for example, the user may set the target person information of interest, for example, , the user only obtains the information of the target person in his or her area, and the like.
  • the second feature information pushed by the server may be directly received, and the server may periodically push the second feature information of the target person.
  • the method further includes: displaying the determination result and/or the matching result to the user.
  • a mobile terminal comprising the determining device of any of the above-mentioned target persons according to the embodiment of the present invention.
  • a method for determining a target person is also provided.
  • FIG. 3 is a flowchart of a method for determining a target person according to an embodiment of the present invention. As shown in FIG. 3, the method mainly includes steps S302 to S306.
  • Step S302 The mobile terminal acquires first feature information of a person in the image data.
  • the first feature information may include: first face information of a person in the image data.
  • the image data can be directly acquired by the image capturing device, and the first face information of the person in the image data can be obtained from the acquired image data.
  • the new image data can be detected in the storage device in real time or at a time, and if so, the new image data is updated.
  • the first facial information is acquired in the increased image data.
  • the first feature information may further include: first location information of the person in the image data.
  • first location information of the person in the image data For example, the position at which the image data is captured is acquired by the positioning device, thereby determining the position of the person in the image data.
  • Step S304 The mobile terminal matches the first feature information with the second feature information of the target person obtained in advance.
  • the second feature information may include: second face information of the target person. Matching the first feature information with the second feature information includes: matching the first face information with the second face information.
  • the second feature information may further include: second location information of the target person; matching the first feature information with the second feature information includes: matching the first location information with the second location information; determining the first Whether the location information intersects with the second location information; if there is an intersection, the first face information is matched with the second face information.
  • the range of matching can be narrowed to provide matching efficiency.
  • the mobile terminal may be determined according to the foregoing judgment result. And a matching data set, wherein the matching data set is a set of target persons that intersect with the first location information, and matches the first facial information with the second facial information of the target person in the matching data set.
  • Step S306 the mobile terminal determines, according to the matching result, whether the person in the image data is the target person.
  • the mobile terminal may determine whether the matching degree of the first facial information and the second facial information meets the preset condition; if the preset condition is met, determine that the person in the image data is the target person.
  • the matching degree threshold is set in advance, and the matching degree threshold may be set in the user segment or in the server. If the matching degree reaches the matching degree threshold, it is determined that the person in the image data is the target person.
  • the mobile terminal sends the first feature information of the person in the reported image data and the first location information of the person in the image data to the server in the case of determining the person targeted in the image data.
  • the mobile terminal may further send a request to the server to obtain the second feature information. Receiving the second feature information returned by the server according to the request. The mobile terminal can also directly receive the second feature information pushed by the server.
  • the method further includes: displaying the determination result and/or the matching result to the user.
  • the mobile terminal acquires the first feature information of the person in the image data, matches the first feature information with the second feature information of the target person obtained in advance, and determines, according to the matching result, whether the person in the image data is
  • the target person solves the problems existing in the existing tracing method and improves the accuracy and effectiveness of tracing.
  • the mobile terminal according to whether the mobile terminal supports location location, it is divided into two types: “including geographic location matching” and “excluding geographical location matching”.
  • the mobile terminal supports location location as an example for description.
  • the mobile terminal actively (timed or manually) acquires data from the server, or passively receives.
  • the information pushed by the server is added to the local tracing database, and each piece of data can include the photo of the target person and the geographical location that may appear.
  • FIG. 4 is a flowchart of a method for determining a target person according to Embodiment 1 of the present invention. As shown in FIG. 4, the method includes steps S402 to S420.
  • Step S406 The mobile terminal automatically analyzes the photo to perform face recognition.
  • Step S408 The mobile terminal determines whether there is a face image in the photo. If yes, step S410 is performed, and if no, the process ends.
  • Step S410 The mobile terminal determines the current location by using a geographic location positioning function.
  • Step S412 The mobile terminal searches for a tracing database by geographic location.
  • Step S414 The mobile terminal determines whether a matching data set is obtained, and if yes, performs step S416, and if not, ends.
  • Step S416 The mobile terminal identifies the face and the matching data set to perform face matching, and determines the similarity.
  • Step S418 The mobile terminal determines whether the similarity meets the preset condition, and if yes, performs the step
  • Step S420 The mobile terminal ends the matching result on the end of the month.
  • the information of the " ⁇ " on the mobile terminal may include: a photo and a geographical location at the time and matching information, such as a mobile terminal mobile number.
  • the mobile terminal does not support the location location as an example.
  • the mobile terminal actively (timingly or manually) obtains data from the server, or passively receives the data pushed by the server. , join the local tracing database, each piece of data can include the photo of the target person and the geographical location that may appear.
  • FIG. 5 is a flowchart of a method for determining a target person according to Embodiment 2 of the present invention. As shown in FIG. 5, the method includes steps S502 to S514. Step S502 to step S504, after the mobile terminal takes a picture, the photo is stored.
  • Step S506 The mobile terminal automatically analyzes the photo to perform face recognition.
  • Step S508 the mobile terminal determines whether there is a face image in the photo, and if yes, performs step S510, and if not, ends.
  • Step S510 The mobile terminal identifies the face and the data set in the database to perform face matching, and determines the similarity.
  • Step S512 The mobile terminal determines whether the similarity meets the preset condition, and if yes, performs step S514, and if not, ends.
  • Step S514 the mobile terminal ends the matching result on the service end.
  • the information on the mobile terminal can include: photo and current geographic location and matching information, mobile terminal mobile number, and the like.
  • the basic information of the elderly (including the name of the elderly, photos, lost location, time, family contact, etc.) is entered into the tracing database of the server. Since photos usually only need to reflect basic facial features, high-pixel photos are not required, so the amount of data in one piece of data is not too large. Even in the database, other descriptions of facial information can be used instead of pictures or photos, as well as the ability to support pattern matching operations.
  • the mobile phone with the target person's confirmation device installed contains a local tracing database.
  • This database can be set by the user to focus on a specific range of tracing information. For example, focus only on the lost information of the city, or focus on the tracing information released in the past week, or focus only on wanted information with high rewards. This can reduce the data footprint of the local tracing database and improve the speed of local matching. Specific users, such as public security personnel, can set up to focus on all tracing information.
  • the related information of the mobile phone or by the mobile phone user to manually synchronize with the database, thereby obtaining the missing elderly information.
  • the mobile phone user who installed the target person's confirmation device takes photos at stations, scenic spots, shopping malls, etc. After the user uses the mobile phone to take a photo event, the mobile phone can automatically call the target person's confirmation device in the background, without affecting the user's normal use of the mobile phone. In the case of functions, face recognition, geographic location information acquisition, information matching, and judgment are automatically performed.
  • the current mobile phone user can be explicitly prompted. Therefore, the mobile phone user can immediately ask the elderly to confirm and report the information to the police or family members, thereby effectively completing the search. Instead of explicitly prompting, the result of judging "find suspicious object" and related information (such as geographic location, original photo of the photo, mobile phone number of the information submission terminal) can be reported to the server. Confirmed by the police or family members.
  • the tracing task is completed.
  • the data is deleted from the server's tracing database and synchronized to the local tracing database in the mobile phone by active or passive means to prevent false positives.
  • the first feature information of the person in the image data is acquired, the first feature information is matched with the second feature information of the target person obtained in advance, and the person in the image data is determined according to the matching result.
  • the target person it solves the existing problems of the tracing method and improves the accuracy and effectiveness of tracing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Telephonic Communication Services (AREA)
  • Image Analysis (AREA)

Abstract

一种目标人的确定方法、装置及移动终端。其中,目标人的确定方法包括:获取图像数据中的人的第一特征信息;将第一特征信息与预先得到的目标人的第二特征信息进行匹配;根据匹配结果确定图像数据中的人是否为目标人。本发明实施例解决了现有的寻人方式存在的问题,提高了寻人的准确性、有效性。

Description

目标人的确定方法、 装置及移动终端
技术领域
本发明涉及通信领域, 具体而言, 涉及一种目标人的确定方法、 装置及 移动终端。
背景技术
在现实生活中, 经常需要寻人。 例如, 寻找被拐卖人、 走失的亲人, 被 通缉的犯罪嫌疑人等。 目前的寻人方式(例如, 张贴海报、 登报、 电视寻人等) 由于寻人信息 传播面小、 信息来源少, 加上人口的流动性比较大, 寻人的难度往往很大。
针对相关技术中寻人方式效率低、 不方便、 不准确等问题, 目前尚未提 出有效的解决方案。
发明内容
本发明提供了一种目标人的确定方法、 装置及移动终端, 以克服现有技 术中寻人方式存在效率低、 不方便、 不准确的问题。
为了解决上述问题, 根据本发明实施例的一个方面, 提供了一种目标人 的确定方法, 包括: 获取图像数据中的人的第一特征信息; 将所述第一特征 信息与预先得到的目标人的第二特征信息进行匹配; 根据匹配结果确定所述 图像数据中的人是否为所述目标人。
可选地, 所述第一特征信息包括: 所述图像数据中的人的第一面部信息; 所述第二特征信息包括: 所述目标人的第二面部信息。 可选地,根据匹配结果确定所述图像数据中的人是否为所述目标人包括: 判断所述第一面部信息与所述第二面部信息的匹配程度是否满足预设条件; 如果满足预设条件, 确定所述图像数据中的人为所述目标人。
可选地,还包括: 第一特征信息还包括图像数据中的人的第一位置信息, 在确定所述图像数据中的人为所述目标人的情况下, 向服务端发送上报所述 图像数据中的人的第一特征信息以及所述图像数据中的人的第一位置信息。 可选地, 所述第二特征信息还包括: 所述目标人的第二位置信息; 将所 述第一特征信息与所述第二特征信息进行匹配包括: 将所述第一位置信息与 所述第二位置信息进行匹配; 判断所述第一位置信息是否与所述第二位置信 息存在交集; 如果存在交集, 将所述第一面部信息与所述第二面部信息进行 匹配。
可选地, 判断所述第一位置信息是否与所述第二位置信息存在交集之后 还包括: 根据判断结果确定匹配数据集, 其中, 所述匹配数据集为与所述第 一位置信息存在交集的所述目标人的集合; 将所述第一面部信息与所述第二 面部信息进行匹配包括: 将所述第一面部信息与所述匹配数据集中的所述目 标人的第二面部信息进行匹配。
可选地, 获取图像数据中的人的第一特征信息包括: 检测存储装置中是 否有新增的图像数据, 如果有新增的图像, 从所述新增的图像数据中获取所 述第一面部信息; 和 /或, 通过摄像装置直接获取图像数据, 从所述获取的图 像数据中获取所述第一面部信息。
可选地, 将所述第一特征信息与预先得到的目标人的第二特征信息进行 匹配之前还包括: 向服务端发送请求, 请求获取所述第二特征信息; 接收所 述服务端根据所述请求返回的所述第二特征信息; 和 /或, 直接接收所述服务 端推送的所述第二特征信息。
可选地,根据匹配结果确定所述图像数据中的人是否为所述目标人之后, 还包括: 向用户展示确定结果和 /或所述匹配结果。
根据本发明实施例的另一个方面, 还提供了一种目标人的确定装置, 包 括: 获取模块, 设置为获取图像数据中的人的第一特征信息; 匹配模块, 设 置为将所述第一特征信息与预先得到的目标人的第二特征信息进行匹配; 确 定模块, 设置为根据所述匹配模块的匹配结果确定所述图像数据中的人是否 为所述目标人。
可选地, 所述获取模块, 设置为获取所述图像数据中的人的第一面部信 息。
可选地, 所述确定模块包括: 第一判断单元, 设置为判断所述第一面部 信息与所述第二特征信息中的第二面部信息的匹配程度是否满足预设条件; 第一确定单元, 设置为在所述第一判断单元的判断结果为满足预设条件的情 况下, 确定所述图像数据中的人为所述目标人。
可选地, 所述装置还包括: 上报模块, 设置为在所述第一判断单元的判 断结果为满足预设条件的情况下, 向服务端发送上报所述图像数据中的人的 第一特征信息以及所述图像数据中的人的第一位置信息。
可选地, 所述匹配模块包括: 第一匹配单元, 设置为将所述第一位置信 息与所述第二特征信息中的第二位置信息进行匹配; 第二判断单元, 设置为 判断所述第一位置信息是否与所述第二位置信息存在交集; 第二匹配单元, 设置为在所述第二判断单元的判断结果为存在交集的情况下, 将所述第一面 部信息与所述第二面部信息进行匹配。
可选地, 所述匹配模块还包括: 第二确定单元, 设置为根据所述第二判 断单元的判断结果确定匹配数据集, 其中, 所述匹配数据集为与所述第一位 置信息存在交集的所述目标人的集合; 所述第二匹配单元, 设置为将所述第 一面部信息与所述匹配数据集中的所述目标人的第二面部信息进行匹配。
可选地, 所述获取模块包括: 第一获取单元, 设置为检测存储装置中是 否有新增的图像数据, 如果有新增的图像, 从所述新增的图像数据中获取所 述第一面部信息; 和 /或, 第二获取单元, 设置为通过摄像装置直接获取图像 数据, 从所述获取的图像数据中获取所述第一面部信息。
根据本发明实施例的又一个方面, 提供了一种移动终端, 包括本发明提 供的上述任一目标人的确定装置。
通过本发明实施例, 获取图像数据中的人的第一特征信息, 将第一特征 信息与预先得到的目标人的第二特征信息进行匹配, 根据匹配结果确定图像 数据中的人是否为目标人, 解决了现有的寻人方式存在的问题, 提高了寻人 的准确性、 有效性。
附图概述
图 1是根据本发明实施例的目标人的确定***的示意图;
图 2是根据本发明实施例的目标人的确定装置的结构框图;
图 3是根据本发明实施例的目标人的确定方法的流程图;
图 4是根据本发明实施例一的目标人的确定方法的流程图;
图 5是根据本发明实施例二的目标人的确定方法的流程图。 本发明的较佳实施方式
下文中将结合附图对本发明的实施例进行详细说明。 需要说明的是, 在 不冲突的情况下, 本申请中的实施例及实施例中的特征可以相互任意组合。
针对现有的寻人方式存在的问题, 考虑到移动终端的大量使用, 形成了 一个广泛的互相连接的移动网络, 并且网络的终端节点大都有摄像和定位功 能。 在本发明实施例中, 利用移动终端构成的网络进行寻人, 将比传统寻人 方式更方便, 更有效率, 也更准确。
在本发明实施例中, 可以建立目标人的数据库, 存储目标人的信息, 例 如, 目标人的图像数据, 目标人可能出现的位置的信息等。 将目标人信息推 送给拥有摄像和地理定位***的移动终端, 移动终端对拍摄的图像数据中的 人与目标人的信息进行分析, 根据分析结果确定移动终端拍摄的图像数据中 的人是否为目标人。
图 1是根据本发明实施例的目标人的确定***的示意图, 如图 1所示, 该***包括服务端和移动终端。 在服务端建立目标人信息数据库, 存储目标 人的信息, 移动终端从服务端获取目标人的信息, 并与移动终端中的图像数 据中的人的信息进行分析, 根据分析的结果确定移动终端中的图像数据中的 人是否为目标人。 移动终端通过无线连接获取服务端上的寻人数据库信息。 寻人数据库的 每条数据项可以包括要寻找的人的特征信息, 以及和可能出现的位置以及其 他相关信息, 同步到本地寻人数据库。 移动终端可设置为在拍照保存后自动 在后台分析拍摄下来的照片, 例如, 利用面部识别技术、 地理位置定位技术、 模式识别技术等,将照片中的人的信息和本地寻人数据库中的数据进行匹配, 根据匹配结果确定移动终端中的图像数据中的人是否为目标人。
在本发明实施例中, 移动终端可以通过无线连接将寻人结果发送到服务 端。 并且, 移动终端时可以实时提示向用户 (例如, 声音、 振动、 文字和图 形显示等)寻人结果。
下面对本发明实施例进行详细描述。
根据本发明实施例, 提供了一种目标人的确定装置。
图 2是根据本发明实施例的目标人的确定装置的结构框图,如图 2所示, 该装置主要包括: 获取模块 10、 匹配模块 20和确定模块 30。 其中, 获取模 块 10, 设置为获取图像数据中的人的第一特征信息; 匹配模块 20, 与获取模 块 10相连接,设置为将第一特征信息与预先得到的目标人的第二特征信息进 行匹配; 确定模块 30, 与匹配模块 20相连接, 设置为根据匹配模块的匹配 结果确定图像数据中的人是否为目标人。
在本发明实施例的一种实施方式中,获取模块 10所获取的第一特征信息 可以包括图像数据中的人的第一面部信息。 匹配模块 20将第一特征信息与第 二特征信息进行匹配可以是指将第一面部信息与目标人的第二特征信息中的 第二面部特征进行匹配。确定模块 30可以根据第一面部信息与第二面部信息 的匹配结果确定图像数据中的人是否为目标人。 在本发明实施例的一个实施 方式中, 确定模块 30可以包括: 第一判断单元, 设置为判断第一面部信息与 第二特征信息中的第二面部信息的匹配程度是否满足预设条件; 第一确定单 元, 设置为在第一判断单元的判断结果为满足预设条件的情况下, 确定图像 数据中的人为目标人。
在图像数据中的人为目标人的情况下, 还可以向服务端上报寻人结果。 在本发明实施例的一个实施方式中, 图像数据中的人的第一特征信息中还包 括第一位置信息。 例如, 通过定位装置获取拍摄图像数据时所在的位置, 从 而确定图像数据中的人的位置, 此时, 本发明实施例的装置还可以包括: 上 报模块, 设置为在第一判断单元的判断结果为满足预设条件的情况下, 向服 务端发送上报图像数据中的人的第一特征信息以及图像数据中的人的第一位 置信息。 可选地, 上报的信息还可以包括匹配结果等。
第二特征信息还可以包含目标人的第二位置信息, 该位置信息可以是目 标人可能出现的位置信息。 在目标人的确定过程中, 可以仅将第一位置信息 与第二位置信息存在交集的目标人的第二特征信息进行匹配。 在本发明实施 例的一个实施方式中, 匹配模块可以包括: 第一匹配单元, 设置为将第一位 置信息与第二特征信息中的第二位置信息进行匹配; 第二判断单元, 设置为 判断第一位置信息是否与第二位置信息存在交集; 第二匹配单元, 设置为在 第二判断单元的判断结果为存在交集的情况下, 将第一面部信息与第二面部 信息进行匹配。
可选的, 匹配模块还可以包括: 第二确定单元, 设置为根据第二判断单 元的判断结果确定匹配数据集, 该匹配数据集为与第一位置信息存在交集的 目标人的集合; 第二匹配单元, 设置为将第一面部信息与匹配数据集中的目 标人的第二面部信息进行匹配。
在本发明实施例中, 获取模块 10可以通过摄像装置直接获取图像数据, 从获取的图像数据中获取图像数据中的人的第一面部信息。获取模块 10也可 以实时或定时检测存储装置中是否有新增的图像数据, 如果有, 则从新增的 图像数据中获取第一面部信息。 在本发明实施例的一个实施方式中, 获取模 块可以包括: 第一获取单元,设置为检测存储装置中是否有新增的图像数据, 如果有新增的图像, 从新增的图像数据中获取第一面部信息; 和 /或, 第二获 取单元, 设置为通过摄像装置直接获取图像数据, 从获取的图像数据中获取 第一面部信息。
将第一特征信息与预先得到的目标人的第二特征信息进行匹配之前, 可 以从服务端获取目标人的第二特征信息。在本发明实施例的一个实施方式中, 可以向服务器发送请求, 请求获取第二特征信息, 并接收服务端根据请求返 回的第二特征信息, 例如, 用户可以设置其关注的目标人信息, 例如, 用户 仅获取其所在区域的目标人的信息等。在本发明实施例的另一个实施方式中, 可以直接接收服务端推送的第二特征信息, 服务端可以定时推送目标人的第 二特征信息。 在本发明实施例中, 根据匹配结果确定图像数据中的人是否为目标人之 后, 还包括: 向用户展示确定结果和 /或匹配结果。
根据本发明实施例, 还提供了一种移动终端, 包括本发明实施例的上述 任一目标人的确定装置。
根据本发明实施例, 还提供了一种目标人的确定方法。
图 3是根据本发明实施例的目标人的确定方法的流程图, 如图 3所示, 该方法主要包括步骤 S302至步骤 S306。
步骤 S302 , 移动终端获取图像数据中的人的第一特征信息。
在本发明实施例中, 第一特征信息可以包括: 图像数据中的人的第一面 部信息。 可以通过摄像装置直接获取图像数据, 从获取的图像数据中获取图 像数据中的人的第一面部信息也可以实时或定时检测存储装置中是否有新增 的图像数据, 如果有, 则从新增的图像数据中获取第一面部信息。
可选的, 第一特征信息还可以包括: 图像数据中的人的第一位置信息。 例如, 通过定位装置获取拍摄图像数据时所在的位置, 从而确定图像数据中 的人的位置。
步骤 S304 , 移动终端将第一特征信息与预先得到的目标人的第二特征信 息进行匹配。
在本发明实施例中, 第二特征信息可以包括: 目标人的第二面部信息。 将第一特征信息与第二特征信息进行匹配包括: 将第一面部信息与第二面部 信息进行匹配。
可选的, 第二特征信息可以还包括: 目标人的第二位置信息; 将第一特 征信息与第二特征信息进行匹配包括: 将第一位置信息与第二位置信息进行 匹配; 判断第一位置信息是否与第二位置信息存在交集; 如果存在交集, 将 第一面部信息与第二面部信息进行匹配。 通过本优选实施方式, 可以缩小匹 配的范围, 从而提供匹配效率。 在本发明实施例的一个实施方式中, 移动终端可以根据上述判断结果确 定匹配数据集, 该匹配数据集为与第一位置信息存在交集的目标人的集合, 将第一面部信息与匹配数据集中的目标人的第二面部信息进行匹配。
步骤 S306, 移动终端根据匹配结果确定图像数据中的人是否为目标人。 在本发明实施例中, 移动终端可以判断第一面部信息与第二面部信息的 匹配程度是否满足预设条件; 如果满足预设条件, 确定图像数据中的人为目 标人。 例如, 预先设置匹配程度阔值, 该匹配程度阔值可以在用户段设置, 也可以在服务端设置。 如果匹配程度达到匹配程度阔值, 则确定图像数据中 的人为目标人。
可选的, 移动终端在确定图像数据中的人为目标人的情况下, 向服务端 发送上报图像数据中的人的第一特征信息以及所述图像数据中的人的第一位 置信息。
在本发明实施例的一个实施方式中, 移动终端将第一特征信息与预先得 到的目标人的第二特征信息进行匹配之前, 还可以向服务端发送请求, 请求 获取所述第二特征信息; 接收服务端根据请求返回的所述第二特征信息。 移 动终端也可以直接接收服务端推送的第二特征信息。
移动终端根据匹配结果确定图像数据中的人是否为目标人之后,还包括: 向用户展示确定结果和 /或匹配结果。
通过本发明实施例, 移动终端获取图像数据中的人的第一特征信息, 将 第一特征信息与预先得到的目标人的第二特征信息进行匹配, 根据匹配结果 确定图像数据中的人是否为目标人, 解决了现有的寻人方式存在的问题, 提 高了寻人的准确性、 有效性。
下面通过具体实例对上述方法进行详细描述。
在本发明实施例中, 根据移动终端是否支持位置定位, 分为 "含地理位 置匹配" 和 "不含地理位置匹配" 两种。
实施例一
在本发明实施例一中, 以移动终端支持位置定位为例进行描述, 在本发 明实施例中, 移动终端主动 (定时或手动)从服务端获取资料, 或被动接收 服务端推送过来的资料, 加入本地寻人数据库, 每条数据可以包括目标人的 照片和可能出现的地理位置。
图 4是根据本发明实施例一的目标人的确定方法的流程图,如图 4所示, 该方法包括步骤 S402至步骤 S420。
步骤 S402至步骤 S404 , 移动终端拍照后, 存储照片。
步骤 S406 , 移动终端自动对照片进行分析, 进行人脸识别。
步骤 S408 , 移动终端确定照片中是否存在人脸图像, 如果是, 执行步骤 S410 , 如果否, 结束。
步骤 S410 , 移动终端通过地理位置定位功能, 确定当前位置。
步骤 S412 , 移动终端按地理位置搜索寻人数据库。
步骤 S414 ,移动终端判断是否获得匹配数据集,如果是,执行步骤 S416 , 如果否, 结束。
步骤 S416 , 移动终端将识别到人脸与匹配数据集进行人脸匹配, 确定相 似度。
步骤 S418 , 移动终端判断相似度是否满足预设条件, 如果是, 执行步骤
S420 , 如果否, 结束。
步骤 S420 , 移动终端将匹配结果上^艮月良务端, 结束。
移动终端上"^艮的信息可以包括: 照片和当时地理位置以及匹配信息, 以 移动终端手机号码等。
实施例二
在本发明实施例二中, 以移动终端不支持位置定位为例进行描述, 在本 发明实施例中, 移动终端主动 (定时或手动)从服务端获取资料, 或被动接 收服务端推送过来的资料, 加入本地寻人数据库, 每条数据可以包括目标人 的照片和可能出现的地理位置。
图 5是根据本发明实施例二的目标人的确定方法的流程图,如图 5所示, 该方法包括步骤 S502至步骤 S514。 步骤 S502至步骤 S504 , 移动终端拍照后, 存储照片。
步骤 S506 , 移动终端自动对照片进行分析, 进行人脸识别。
步骤 S508 , 移动终端确定照片中是否存在人脸图像, 如果是, 执行步骤 S510 , 如果否, 结束。
步骤 S510 , 移动终端将识别到人脸与数据库中的数据集进行人脸匹配, 确定相似度。
步骤 S512 , 移动终端判断相似度是否满足预设条件, 如果是, 执行步骤 S514 , 如果否, 结束。
步骤 S514 , 移动终端将匹配结果上^艮^良务端, 结束。
移动终端上 的信息可以包括: 照片和当时地理位置以及匹配信息, 以 移动终端手机号码等。
下面以寻找一个走失老人为例描述发明实施例的一个典型的应用案例。 发现老人走失后, 亲属将老人的基本信息传递给服务端的管理者, 一般 由公安机构或居委会等行政或社会服务部门担当。
老人的基本信息 (可以包括老人姓名、 照片、 走失地点、 时间、 家属联 系方式等)被录入到服务端的寻人数据库。 由于照片通常只需要体现基本的 面部特征, 不需要高像素照片, 因此一条数据的数据量不会太大。 甚至数据 库中也可以用面部信息的其他描述方式来代替图片或照片, 同样可以支持模 式匹配运算的要求。
安装了目标人的确认装置的手机包含一个本地寻人数据库。 这个数据库 可以由用户设置, 关注特定范围的寻人信息。 例如, 只关注本城市的走失老 人信息, 或者只关注最近一周发布的寻人信息, 或者只关注具有高额悬赏的 通缉犯信息等。 这样可以减小本地寻人数据库的数据占用空间, 提高本地匹 配运算速度。 而特定的用户, 例如公安部门人员, 可以设置关注所有寻人信 息。
相关信息的手机, 或者由手机用户通过手动方式与数据库同步, 从而获取到 该失踪老人信息。 安装了目标人的确认装置的手机用户在车站、 景点、 商场等地方进行拍 照, 当用户使用手机进行拍照活动后, 手机都可以自动在后台调用目标人的 确认装置, 在不影响用户正常使用手机功能的情况下, 自动进行面部识别、 地理位置信息获取、 信息匹配和判断等工作。
当判断 "找到可疑对象" 时, 可以显式地提示当前手机用户。 于是手机 用户可以立即上前询问老人确认, 并将信息报告给警方或家属, 从而有效地 完成寻找工作。 也可以不显式提示, 而是将判断 "找到可疑对象" 的结果和 相关信息 (例如地理位置、 照片原始图像、 信息提交终端的手机号码)上报 服务端。 由警方或家属分析确认。
一旦该失踪老人被找到, 寻人任务完成。 则该条数据从服务端寻人数据 库中删除, 并通过主动或被动方式同步到手机中的本地寻人数据库, 防止误 报。
本领域普通技术人员可以理解上述方法中的全部或部分步骤可通过程序 来指令相关硬件完成, 上述程序可以存储于计算机可读存储介质中, 如只读 存储器、 磁盘或光盘等。 可选地, 上述实施例的全部或部分步骤也可以使用 一个或多个集成电路来实现。 相应地, 上述实施例中的各模块 /单元可以釆用 硬件的形式实现, 也可以釆用软件功能模块的形式实现。 本发明实施例不限 制于任何特定形式的硬件和软件的结合。
以上实施例仅用以说明本申请的技术方案而非限制, 仅仅参照较佳实施 例对本申请进行了详细说明。 本领域的普通技术人员应当理解, 可以对本申 请的技术方案进行修改或者等同替换, 而不脱离本申请技术方案的精神和范 围, 均应涵盖在本申请的权利要求范围当中。
工业实用性 通过本发明实施例, 获取图像数据中的人的第一特征信息, 将第一特征 信息与预先得到的目标人的第二特征信息进行匹配, 根据匹配结果确定图像 数据中的人是否为目标人, 解决了现有的寻人方式存在的问题, 提高了寻人 的准确性、 有效性。

Claims

权 利 要 求 书
1、 一种目标人的确定方法, 包括:
获取图像数据中的人的第一特征信息;
将所述第一特征信息与预先得到的目标人的第二特征信息进行匹配; 根据匹配结果确定所述图像数据中的人是否为所述目标人。
2、 根据权利要求 1所述的方法, 其中, 所述第一特征信息包括: 所述图 像数据中的人的第一面部信息; 所述第二特征信息包括: 所述目标人的第二 面部信息。
3、 根据权利要求 2所述的方法,其中,根据匹配结果确定所述图像数据 中的人是否为所述目标人的步骤包括:
判断所述第一面部信息与所述第二面部信息的匹配程度是否满足预设条 件;
如果满足预设条件, 确定所述图像数据中的人为所述目标人。
4、 根据权利要求 3所述的方法, 其中
所述第一特征信息还包括图像数据中的人的第一位置信息;
所述方法还包括:
在确定所述图像数据中的人为所述目标人的情况下, 向服务端发送上报 所述图像数据中的人的第一特征信息以及所述图像数据中的人的第一位置信 息。
5、 根据权利要求 4所述的方法, 其中, 所述第二特征信息还包括: 所述 目标人的第二位置信息; 将所述第一特征信息与所述第二特征信息进行匹配 的步骤包括:
将所述第一位置信息与所述第二位置信息进行匹配;
判断所述第一位置信息是否与所述第二位置信息存在交集;
如果存在交集, 将所述第一面部信息与所述第二面部信息进行匹配。
6、 根据权利要求 5所述的方法,判断所述第一位置信息是否与所述第二 位置信息存在交集的步骤后还包括:
根据判断结果确定匹配数据集, 所述匹配数据集为与所述第一位置信息 存在交集的所述目标人的集合;
将所述第一面部信息与所述第二面部信息进行匹配的步骤包括: 将所述 第一面部信息与所述匹配数据集中的所述目标人的第二面部信息进行匹配。
7、 根据权利要求 2至 4中任一项所述的方法, 其中, 获取图像数据中的 人的第一特征信息的步骤包括:
检测存储装置中是否有新增的图像数据, 如果有新增的图像, 从所述新 增的图像数据中获取所述第一面部信息; 和 /或
通过摄像装置直接获取图像数据, 从所述获取的图像数据中获取所述第 一面部信息。
8、 根据权利要求 1至 4中任一项所述的方法,其中,将所述第一特征信 息与预先得到的目标人的第二特征信息进行匹配的步骤前还包括:
向服务端发送请求, 请求获取所述第二特征信息; 接收所述服务端根据 所述请求返回的所述第二特征信息; 和 /或
直接接收所述服务端推送的所述第二特征信息。
9、 根据权利要求 1至 4中任一项所述的方法,根据匹配结果确定所述图 像数据中的人是否为所述目标人的步骤后还包括:
向用户展示确定结果和 /或所述匹配结果。
10、 一种目标人的确定装置, 包括:
获取模块, 设置为获取图像数据中的人的第一特征信息;
匹配模块, 设置为将所述第一特征信息与预先得到的目标人的第二特征 信息进行匹配;
确定模块, 设置为根据所述匹配模块的匹配结果确定所述图像数据中的 人是否为所述目标人。
11、 根据权利要求 10所述的装置, 其中, 所述获取模块所获取的第一特 征信息包括所述图像数据中的人的第一面部信息。
12、 根据权利要求 11所述的装置, 其中, 所述确定模块包括: 第一判断单元, 设置为判断所述第一面部信息与所述第二特征信息中的 第二面部信息的匹配程度是否满足预设条件; 第一确定单元, 设置为在所述第一判断单元的判断结果为满足预设条件 的情况下, 确定所述图像数据中的人为所述目标人。
13、 根据权利要求 12所述的装置,其中, 所述第一特征信息还包括图像 数据中的人的第一位置信息, 所述装置还包括: 上报模块, 设置为在所述第 一判断单元的判断结果为满足预设条件的情况下, 向服务端发送上报所述图 像数据中的人的第一特征信息以及所述图像数据中的人的第一位置信息。
14、 根据权利要求 13所述的装置, 其中, 所述匹配模块包括: 第一匹配单元, 设置为将所述第一位置信息与所述第二特征信息中的第 二位置信息进行匹配;
第二判断单元, 设置为判断所述第一位置信息是否与所述第二位置信息 存在交集;
第二匹配单元, 设置为在所述第二判断单元的判断结果为存在交集的情 况下, 将所述第一面部信息与所述第二面部信息进行匹配。
15、 根据权利要求 14所述的装置, 其中,
所述匹配模块还包括: 第二确定单元, 设置为根据所述第二判断单元的 判断结果确定匹配数据集, 其中, 所述匹配数据集为与所述第一位置信息存 在交集的所述目标人的集合;
所述第二匹配单元将所述第一面部信息与所述第二面部信息进行匹配, 是指: 所述第二匹配单元将所述第一面部信息与所述匹配数据集中的所述目 标人的第二面部信息进行匹配。
16、 根据权利要求 11至 13中任一项所述的装置, 其中, 所述获耳4莫块 包括:
第一获取单元, 设置为检测存储装置中是否有新增的图像数据, 如果有 新增的图像数据, 从所述新增的图像数据中获取所述第一面部信息; 和 /或 第二获取单元, 设置为通过摄像装置直接获取图像数据, 从所述获取的 图像数据中获取所述第一面部信息。
17、 一种移动终端, 包括权利要求 10至 16中任一项所述的目标人的确 定装置。
PCT/CN2013/078185 2012-12-19 2013-06-27 目标人的确定方法、装置及移动终端 WO2013182101A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201210554578.2 2012-12-19
CN2012105545782A CN103051705A (zh) 2012-12-19 2012-12-19 目标人的确定方法、装置及移动终端

Publications (1)

Publication Number Publication Date
WO2013182101A1 true WO2013182101A1 (zh) 2013-12-12

Family

ID=48064199

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2013/078185 WO2013182101A1 (zh) 2012-12-19 2013-06-27 目标人的确定方法、装置及移动终端

Country Status (2)

Country Link
CN (1) CN103051705A (zh)
WO (1) WO2013182101A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10181168B2 (en) 2014-03-31 2019-01-15 Hitachi Kokusa1 Electric, Inc. Personal safety verification system and similarity search method for data encrypted for confidentiality
CN111723618A (zh) * 2019-03-21 2020-09-29 浙江莲荷科技有限公司 信息处理方法及装置

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103051705A (zh) * 2012-12-19 2013-04-17 中兴通讯股份有限公司 目标人的确定方法、装置及移动终端
CN104580121B (zh) * 2013-10-28 2019-03-15 腾讯科技(深圳)有限公司 寻人/人员信息匹配推送的方法、***、客户端和服务器
CN103632141A (zh) * 2013-11-28 2014-03-12 小米科技有限责任公司 一种识别人物的方法、装置及终端设备
CN103744895A (zh) * 2013-12-24 2014-04-23 深圳先进技术研究院 一种居民身份信息的获取方法及装置
CN103945001A (zh) * 2014-05-05 2014-07-23 百度在线网络技术(北京)有限公司 一种图片分享方法及装置
CN104901867B (zh) * 2015-04-30 2017-11-14 广东欧珀移动通信有限公司 消息交互方法和相关装置及通信***
CN105222774B (zh) * 2015-10-22 2019-04-16 Oppo广东移动通信有限公司 一种室内定位方法及用户终端
CN106897726A (zh) * 2015-12-21 2017-06-27 北京奇虎科技有限公司 失踪人口的寻找方法和装置
CN106960172A (zh) * 2016-01-08 2017-07-18 中兴通讯股份有限公司 人员识别处理方法、装置及***
CN107221151A (zh) * 2016-03-21 2017-09-29 滴滴(中国)科技有限公司 基于图像识别的接单司机识别乘客的方法及装置
CN105869015A (zh) * 2016-03-28 2016-08-17 联想(北京)有限公司 一种信息处理方法及***
CN107295294A (zh) * 2016-03-30 2017-10-24 杭州海康威视数字技术股份有限公司 一种智能寻人方法、装置及***
CN106203514B (zh) * 2016-07-12 2019-02-12 腾讯科技(深圳)有限公司 图像识别回调通知的方法和装置
CN106375380A (zh) * 2016-08-27 2017-02-01 蔡璟 一种基于走失信息搜索走失物的智能大数据管理***
CN106681000B (zh) * 2016-11-22 2020-09-11 宇龙计算机通信科技(深圳)有限公司 一种增强现实注册装置及其方法
CN106528864A (zh) * 2016-11-30 2017-03-22 天脉聚源(北京)科技有限公司 一种智能运输的方法及装置
CN107278369B (zh) * 2016-12-26 2020-10-27 深圳前海达闼云端智能科技有限公司 人员查找的方法、装置及通信***
CN107172198A (zh) * 2017-06-27 2017-09-15 联想(北京)有限公司 一种信息处理方法、装置及***
WO2019095221A1 (zh) * 2017-11-16 2019-05-23 深圳前海达闼云端智能科技有限公司 人物搜寻方法、装置、终端及云端服务器
CN108039007A (zh) * 2017-12-26 2018-05-15 北斗七星(重庆)物联网技术有限公司 一种安防方法及装置
CN108038468A (zh) * 2017-12-26 2018-05-15 北斗七星(重庆)物联网技术有限公司 一种基于人脸识别的安防终端
CN110555876B (zh) * 2018-05-30 2022-05-03 百度在线网络技术(北京)有限公司 用于确定位置的方法和装置
CN110223493A (zh) * 2019-05-29 2019-09-10 李成 一种基于大数据的走失人员互助寻找***及方法
CN113990104A (zh) * 2021-10-19 2022-01-28 马瑞利汽车零部件(芜湖)有限公司 车辆对外界的识别***及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101093542A (zh) * 2006-02-15 2007-12-26 索尼株式会社 查询***、成像装置、查询装置、信息处理方法及其程序
CN101989300A (zh) * 2010-10-15 2011-03-23 江苏省莱科信息技术有限公司 失踪人员寻找***和寻找失踪人员的实现方法
CN102521621A (zh) * 2011-12-16 2012-06-27 上海合合信息科技发展有限公司 基于图像匹配与地理位置信息来获取信息的方法及***
CN103051705A (zh) * 2012-12-19 2013-04-17 中兴通讯股份有限公司 目标人的确定方法、装置及移动终端
CN103186590A (zh) * 2011-12-30 2013-07-03 牟颖 一种通过手机获取在逃通缉人员身份信息的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002314984A (ja) * 2001-04-09 2002-10-25 Fuji Photo Film Co Ltd 監視カメラシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101093542A (zh) * 2006-02-15 2007-12-26 索尼株式会社 查询***、成像装置、查询装置、信息处理方法及其程序
CN101989300A (zh) * 2010-10-15 2011-03-23 江苏省莱科信息技术有限公司 失踪人员寻找***和寻找失踪人员的实现方法
CN102521621A (zh) * 2011-12-16 2012-06-27 上海合合信息科技发展有限公司 基于图像匹配与地理位置信息来获取信息的方法及***
CN103186590A (zh) * 2011-12-30 2013-07-03 牟颖 一种通过手机获取在逃通缉人员身份信息的方法
CN103051705A (zh) * 2012-12-19 2013-04-17 中兴通讯股份有限公司 目标人的确定方法、装置及移动终端

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10181168B2 (en) 2014-03-31 2019-01-15 Hitachi Kokusa1 Electric, Inc. Personal safety verification system and similarity search method for data encrypted for confidentiality
CN111723618A (zh) * 2019-03-21 2020-09-29 浙江莲荷科技有限公司 信息处理方法及装置

Also Published As

Publication number Publication date
CN103051705A (zh) 2013-04-17

Similar Documents

Publication Publication Date Title
WO2013182101A1 (zh) 目标人的确定方法、装置及移动终端
US10692505B2 (en) Personal assistant application
KR101636488B1 (ko) 얼굴 인식을 이용하여 애드 혹 네트워크를 설정하는 방법
US8392957B2 (en) Automatic content tagging, such as tagging digital images via a wireless cellular network using metadata and facial recognition
JP6531341B2 (ja) 情報処理装置、サーバ、記憶媒体、および制御方法
KR101759454B1 (ko) 사진을 공유하는 방법, 장치, 프로그램 및 기록매체
WO2017117879A1 (zh) 人员识别处理方法、装置及***
US10952041B2 (en) Control device and method for processing a service using a plurality of sensor devices in a distributed manner while suppressing a communication load
TW201516939A (zh) 查詢使用者標識的方法及裝置、獲取使用者標識的方法及裝置與即時通訊中添加好友的方法及裝置
TW201104587A (en) System and method for automatic tagging of a digital image
JP5947196B2 (ja) 撮影サービスシステム及び撮影制御方法
JP2012247841A (ja) 近隣人物特定装置、近隣人物特定方法、近隣人物特定プログラム及び近隣人物特定システム
JP2012247840A (ja) 近隣人物特定装置、近隣人物特定方法、近隣人物特定プログラム及び近隣人物特定システム
CN105956091A (zh) 扩展信息获取方法及装置
US20130130711A1 (en) Portable electronic device and method of providing location-based information associated with an image
JP2013219666A (ja) 情報共有システム、照合装置、端末装置、情報共有方法及び情報共有プログラム
JP2015233204A (ja) 画像記録装置及び画像記録方法
JP2013077110A (ja) サーバ装置、プログラム及び通信システム
JP2009075916A (ja) 人物捜索システム及び人物捜索方法
TW201138465A (en) Image capturing device and method for dynamic tracing a specified object using image capturing devices
JP6354848B2 (ja) センサ管理システム、センサ管理装置、センサ装置、センサ管理方法およびプログラム
JP2020009087A (ja) 情報収集サーバ、情報収集システム、及び情報収集方法
TWI465942B (zh) 車輛查詢系統
Abbas et al. A hybrid alert system for deaf people using context-aware computing and image processing
JP6429531B2 (ja) 画像共有システム及び画像共有方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13801123

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13801123

Country of ref document: EP

Kind code of ref document: A1