WO2020149441A1 - 이미지의 보안 방법 및 이를 수행하는 전자 장치 - Google Patents

이미지의 보안 방법 및 이를 수행하는 전자 장치 Download PDF

Info

Publication number
WO2020149441A1
WO2020149441A1 PCT/KR2019/001157 KR2019001157W WO2020149441A1 WO 2020149441 A1 WO2020149441 A1 WO 2020149441A1 KR 2019001157 W KR2019001157 W KR 2019001157W WO 2020149441 A1 WO2020149441 A1 WO 2020149441A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
electronic device
biometric data
biometric
information
Prior art date
Application number
PCT/KR2019/001157
Other languages
English (en)
French (fr)
Inventor
포포브아르템
포포브올렉산드르
컬라코브알렉세이
아스트라한세브안드리
쉬허올렉산드르
타타리노바율리아
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP19909669.4A priority Critical patent/EP3913569A4/en
Publication of WO2020149441A1 publication Critical patent/WO2020149441A1/ko
Priority to US17/378,032 priority patent/US20210342967A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0028Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/08Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
    • H04L9/0816Key establishment, i.e. cryptographic processes or cryptographic protocols whereby a shared secret becomes available to two or more parties, for subsequent use
    • H04L9/0819Key transport or distribution, i.e. key establishment techniques where one party creates or otherwise obtains a secret value, and securely transfers it to the other(s)
    • H04L9/0822Key transport or distribution, i.e. key establishment techniques where one party creates or otherwise obtains a secret value, and securely transfers it to the other(s) using key encryption key
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/08Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
    • H04L9/0861Generation of secret information including derivation or calculation of cryptographic keys or passwords
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/08Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
    • H04L9/0861Generation of secret information including derivation or calculation of cryptographic keys or passwords
    • H04L9/0866Generation of secret information including derivation or calculation of cryptographic keys or passwords involving user or device identifiers, e.g. serial number, physical or biometrical information, DNA, hand-signature or measurable physical characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/467Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0051Embedding of the watermark in the spatial domain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0052Embedding of the watermark in the frequency domain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • G06V40/53Measures to keep reference information secret, e.g. cancellable biometrics

Definitions

  • the present disclosure relates to an image security method and an electronic device performing the image security method. Specifically, the present disclosure relates to a method for securing an image including biometric data.
  • display devices for displaying visual content may store photographed visual content in a display device or may be stored on a web wired or wirelessly connected to the display device.
  • display devices for displaying visual content may store photographed visual content in a display device or may be stored on a web wired or wirelessly connected to the display device.
  • the Internet or social network service is activated, a large number of images or videos are being updated on the web in real time.
  • Visual contents uploaded to the Internet through a social network service or the like may include information related to the privacy of an individual who can identify a user.
  • the visual content uploaded through a social network service often includes biometric data that can identify an individual, such as an individual's face image, iris image, or fingerprint image.
  • a method of setting security of an image and a method of canceling security of an image may be provided.
  • a method of setting security of an image including biometric data and an electronic device performing the same may be provided.
  • a security setting method of an image including biometric data includes an operation of searching an area including biometric data in a first image; Detecting a biometric image corresponding to the biometric data in the searched region; Encoding the detected biological image; And synthesizing a watermark for blocking access to the biometric data, the first image, and the encoded biometric image to generate a second image.
  • the watermark may be generated by using the biometric data and a preset encryption key in at least one of a spatial domain and a frequency domain.
  • the operation of retrieving the region including the biometric data is image learning by outputting location information for identifying the region containing the biometric data and the retrieved region. Searching the area using a model; It may further include.
  • the operation of detecting the biometric image may include determining a type of the biometric data included in the searched region; And detecting the biological image for each type of the determined biological data. It may further include.
  • the operation of detecting the biometric image may include obtaining predetermined user identification information; And detecting a biometric image matching the obtained user identification information in the searched region. It may further include.
  • the operation of encoding the biological image may include determining an encoding parameter for encoding the biological image based on the type of the biological data; And encoding the biometric image using the determined encoding parameter. It may further include.
  • the encoding parameter may be pre-stored in a memory in an electronic device that performs a security setting method of an image including the biometric data, or may be embedded in the first image.
  • the operation of encoding the biological image may include encoding the detected biological image using an encoding learning model that is previously learned based on the history of detecting the biological image from the first image; It may further include.
  • the biometric data may include at least one of iris information, face information, fingerprint information, voice information, palmistry information, electrocardiogram information, electroencephalogram information, vein information, and ear shape information.
  • the method may include sharing the second image with a database external to an electronic device that performs a security setting method for an image including the biometric data; It may further include.
  • the first image includes a memory in an electronic device performing a security setting method of an image including the biometric data, a wired or wireless connection with the electronic device, and a display panel for displaying the image. It can be obtained from at least one of a different electronic device and a database in which a plurality of images outside the electronic device are stored.
  • the operation of encoding the biological image may encode the detected biological image while maintaining the same visual information of the biological image.
  • the method for releasing the security of an image including biometric data includes an operation of searching for a region including the biometric data in a second image; Detecting a biometric image corresponding to the biometric data in the searched region; Decoding the detected biological image; And generating a first image using a watermark for blocking access to the biometric data, the decoded biometric image, and the second image.
  • the watermark may be detected from the second image and decoded in advance using a pre-decryption key.
  • the electronic device for setting the security of the image includes a communication interface; A memory that stores one or more instructions; And at least one processor that controls the electronic device by executing the one or more instructions. Including, and the processor, Search for a region containing the biometric data in the first image, detects a biometric image corresponding to the biometric data in the searched region, encodes the detected biometric image, the biometric A second image may be generated by combining a watermark for blocking access to data, the first image, and the encoded biometric image.
  • the watermark may be generated by using the biometric data and a preset encryption key in at least one of a spatial domain and a frequency domain.
  • the processor searches for the region using an image learning model that outputs location information for identifying the region including the biometric data and the retrieved region. Can.
  • the electronic device for releasing the security of the image includes a communication interface; A memory that stores one or more instructions; And at least one processor that controls the electronic device by executing the one or more instructions. Including, the processor searches the region containing the biometric data in the second image, detects the biometric image corresponding to the biometric data in the searched region, decodes the detected biometric image, and the biometric data
  • a first image may be generated using a watermark for blocking access to the decoded biometric image and the second image.
  • the watermark may be detected from the second image and decoded in advance using a preset decryption key.
  • biometric data from visual content including biometric data may be prevented.
  • FIG. 1 is a diagram schematically illustrating a method of setting security of an image by an electronic device according to an embodiment.
  • FIG. 2 is a diagram for explaining the possibility of exploitation of biometric data exposed from visual content.
  • FIG. 3 is a flowchart illustrating a method of setting security of an image performed by an electronic device according to an embodiment.
  • FIG. 4 is a diagram for explaining in detail a method of setting security of an image performed by an electronic device according to an embodiment.
  • FIG. 5 is a diagram for explaining a method of setting security of an image including iris information by an electronic device according to another embodiment.
  • FIG. 6 is a diagram for explaining in detail how a electronic device sets security of an image including iris information according to an embodiment.
  • FIG. 7 is a diagram for explaining a process of generating a second image by combining a first image and a watermark according to an embodiment.
  • FIG. 8 is a diagram for describing a method of setting security of an image including fingerprint information by an electronic device according to another embodiment.
  • FIG. 9 is a diagram for a detailed description of a method of setting security of an image including fingerprint information by an electronic device according to an embodiment.
  • FIG. 10 is a diagram for explaining a method of setting security of an image including vein information by an electronic device according to another embodiment.
  • FIG. 11 is a diagram for describing a method of setting security of an image including face information by an electronic device according to another embodiment.
  • FIG. 12 is a diagram for explaining a method of setting security of an image including face information by an electronic device according to another embodiment.
  • FIG. 13 is a diagram for explaining in detail a method of setting security of an image including face information by an electronic device according to an embodiment.
  • FIG. 14 is a diagram for explaining a method of setting security of an image including information regarding an ear shape by an electronic device according to another embodiment.
  • 15 is a diagram for explaining in detail how a electronic device sets security of an image including information on ear shape according to an embodiment.
  • 16 is a flowchart illustrating a method for releasing security of an image including biometric data performed by an electronic device according to an embodiment.
  • 17 is a diagram for explaining in detail a method of releasing security of an image performed by an electronic device according to an embodiment.
  • FIG. 18 is a diagram for describing a method for an electronic device to release security of an image including iris information according to another embodiment.
  • 19 is a diagram illustrating a method of releasing security of an image including fingerprint information by an electronic device according to another embodiment.
  • 20 is a diagram for describing a method for an electronic device to release security of an image including vein information according to another embodiment.
  • 21 is a diagram for describing a method of releasing security of an image including face information by an electronic device according to another embodiment.
  • 22 is a diagram for explaining a method of releasing security of an image including face information by an electronic device according to another embodiment.
  • 23 is a diagram for explaining a method of releasing security of an image including information regarding ear shape according to another embodiment.
  • 24 is a diagram for describing a method of setting security of an image including a plurality of biometric data by an electronic device according to an embodiment.
  • 25 is a diagram for describing a method for an electronic device to release security of an image including a plurality of biometric data, according to an embodiment.
  • 26 is a block diagram of an electronic device performing a method of setting security of an image including biometric data and a method of canceling security of an image according to an embodiment.
  • 27 is a block diagram illustrating an electronic device performing a method of setting security of an image including biometric data and a method of canceling security of an image according to another embodiment.
  • 28 is a diagram for describing types of biometric data included in an image processed by an electronic device according to an embodiment.
  • 29 is a diagram for explaining a method of setting or canceling security of an image by an electronic device using a server according to an embodiment.
  • FIG. 30 is a block diagram of a server according to an embodiment.
  • a security setting method for an image including biometric data comprising: searching an area including the biometric data in a first image; Detecting a biometric image corresponding to the biometric data in the searched region; Encoding the detected biological image; And generating a second image by synthesizing the watermark for blocking access to the biometric data, the first image, and the encoded biometric image.
  • the watermark according to an embodiment may be generated by using the biometric data and a preset encryption key in at least one of a spatial-domain and a frequency domain.
  • an operation of searching for an area including the biometric data is an image learning model that outputs location information for identifying an area including the biometric data and the searched area when the first image is input. Searching the area using the; It may further include.
  • the operation of detecting the biometric image may include determining the type of the biometric data included in the searched region; And detecting the biological image for each type of the determined biological data. It may further include.
  • the operation of detecting the biometric image may include obtaining predetermined user identification information; And detecting a biometric image matching the obtained user identification information in the searched region. It may further include.
  • the encoding of the biological image may include determining an encoding parameter for encoding the biological image based on the type of the biological data; And encoding the biometric image using the determined encoding parameter. It may further include.
  • the encoding parameter according to an embodiment may be previously stored in a memory in an electronic device that performs a security setting method of an image including the biometric data, or embedded in the first image.
  • the biometric data may include at least one of iris information, face information, fingerprint information, palmistry information, vein information, and information on ear shape.
  • a method of setting a security of an image including the biometric data includes: sharing the second image with a database external to an electronic device performing a method of setting the security of the image including the biometric data; It may further include.
  • the first image includes a memory in an electronic device performing a security setting method of an image including the biometric data, a wired or wireless connection with the electronic device, and a display panel for displaying an image It may be obtained from at least one of another electronic device and a database in which a plurality of images outside the electronic device are stored.
  • a method for releasing an image containing biometric data comprising: searching an area including the biometric data in a second image; Detecting a biometric image corresponding to the biometric data in the searched region; Decoding the detected biological image; And generating a first image using a watermark for blocking access to the biometric data, the decoded biometric image, and the second image.
  • the watermark according to an embodiment may be detected from the second image and decoded in advance using a pre-decryption key.
  • An electronic device for setting the security of an image comprising: a communication interface; A memory that stores one or more instructions; And at least one processor that controls the electronic device by executing the one or more instructions. And, the at least one processor searches a region including the biometric data in a first image, detects a biometric image corresponding to the biometric data in the searched region, and encodes the detected biometric image.
  • a watermark for blocking access to the biometric data, the first image and the encoded biometric image may be synthesized to generate a second image.
  • the watermark according to an embodiment may be generated by using the biometric data and a preset encryption key in at least one of a spatial-domain and a frequency domain.
  • An electronic device for releasing the security of an image comprising: a communication interface; A memory that stores one or more instructions; And at least one processor that controls the electronic device by executing the one or more instructions. And, the at least one processor searches for a region including the biometric data in a second image, detects a biometric image corresponding to the biometric data in the searched region, decodes the detected biometric image, An electronic device for generating a first image using a watermark for blocking access to the biometric data, the decoded biometric image, and the second image may be provided.
  • FIG. 1 is a diagram schematically illustrating a method of setting security of an image by an electronic device according to an embodiment.
  • the electronic device 1000 may prevent exposure of the biometric data from the image including the biometric data by performing a security setting method of the image containing the biometric data. Leakage of biometric data described herein may mean access to biometric data of a hacker who wants to exploit the biometric data.
  • the security method of the image may include a security setting method of the image and a security cancellation method of the image.
  • the general electronic devices 3000 blur the partial images 115 and 117 corresponding to the biological image from the image 112 including face information, iris information, and the like, thereby outputting the image. (114, 116) were generated, and exposure of data was prevented through visual distortion of the biological image (eg, blurring the biological image or changing the contour of the biological image).
  • the general electronic device 3000 blurs the biometric image, there is a problem in that visual information is changed in the image to transmit the same visual content or the visual quality is deteriorated.
  • the electronic device 1000 maintains the quality of the image because the visual information of the biological image can be kept the same when encoding the biological image in order to prevent exposure of the biological data from the image.
  • the output image 104 generated by encoding the biological image detected from the original image by the electronic device 1000 according to an embodiment, and synthesizing the encoded biological image, watermark, and original image is visually different from the original image. Because there is no difference, the user cannot recognize the difference between the original image 102 and the output image 104.
  • the visual information described in this specification may include information about the pixel value of pixels in the image, the arrangement pattern of pixels, the pixel value, and the brightness, contrast, and shadow of the image determined based on the arrangement pattern of pixels, but is not limited thereto. It does not work.
  • the electronic device 1000 synthesizing the encoded biometric image, watermark, and original image may correspond to a process of obfuscating the original image.
  • the electronic device 1000 may obfuscate the biological image included in the first image, thereby making it impossible for an unauthorized person to acquire, detect, and reproduce biological data from the first image.
  • the electronic device 1000 may obstruct unauthorized person access to the biometric data included in the first image by obfuscating the biometric image included in the first image.
  • the electronic device 1000 synthesizing the encoded biometric image, watermark, and original image may correspond to a process of embedding the encoded biometric image and watermark in the original image.
  • the electronic device 1000 may be implemented in various forms.
  • the electronic device 1000 described herein includes a display panel, a digital camera, a mobile terminal, a smart phone, a laptop computer, a tablet PC, an electronic book terminal, digital Broadcast terminal, PDA (Personal Digital Assistants), PMP (Portable Multimedia Player), navigation, TV, TV set-top box, digital single-lens reflex camera (digital single-lens reflex camera) or a phone camera, but may be limited to this It is not.
  • the electronic device 1000 described in this specification may be a wearable device.
  • Wearable devices include accessory devices (e.g. watches, rings, cuff bands, ankle bands, necklaces, glasses, contact lenses), head-mounted devices (HMD), fabric or garment-integrated devices (e.g. Electronic clothing), a body-attached device (eg, a skin pad), or a bio-implantable device (eg, an implantable circuit).
  • accessory devices e.g. watches, rings, cuff bands, ankle bands, necklaces, glasses, contact lenses
  • HMD head-mounted devices
  • fabric or garment-integrated devices e.g. Electronic clothing
  • a body-attached device eg, a skin pad
  • a bio-implantable device eg, an implantable circuit
  • FIG. 2 is a diagram for explaining the possibility of exploitation of biometric data exposed from visual content.
  • Visual contents uploaded to the Internet through a social network service or the like may include information related to the privacy of an individual who can identify a user.
  • the visual content uploaded through a social network service often includes biometric data that can identify an individual, such as an individual's face image, iris image, or fingerprint image.
  • the visual content on the Internet or the web includes high-quality biometric data to obtain personal identification information, and is photographed in real time by photographing an object.
  • an image also includes high-quality biometric data capable of acquiring personal identification information.
  • FIG. 3 is a flowchart illustrating a method of setting security of an image performed by an electronic device according to an embodiment.
  • the electronic device 1000 may search for an area including biometric data in the first image. For example, when acquiring a first image including face information, the electronic device 1000 may search for a face region in the first image using the Eigenface algorithm. According to another embodiment, when the first image is input, the electronic device 1000 uses the image learning model to output the location information for identifying the region including the biometric data and the retrieved region as the output. You can search the area. Since the image learning model used by the electronic device 1000 can be optimized based on the biometric data history included in the image or image, the electronic device 1000 can effectively search for an area including biometric data in the image.
  • the location information output by the image learning model may include information about coordinates of a pixel in an image.
  • the image learning model may be learned based on a history of an image input in the past, and the electronic device 1000 may further use an image learning model previously learned based on the history of the image. It is possible to search an area containing accurate biometric data.
  • the electronic device 1000 may search a region including biometric data from the first image using a deep learning algorithm having a deep neural network structure having multiple layers. Deep learning can basically be formed into a deep neural network structure with multiple layers.
  • Neural networks used by electronic devices according to the present disclosure may include, but are not limited to, convolutional neural networks (DNNs), deep neural networks (DNNs), recurrent neural networks (RNNs), and bidirectional recurrent deep neural networks (BRDNNs). Does not.
  • the neural network used by the electronic device 1000 may be a structure in which a fully-connected layer is connected to a CNN structure in which a convolution layer and a pooling layer are repeatedly used.
  • a first image acquired by the electronic device 1000 is connected to a memory in the electronic device 1000 performing a security setting method of an image including the biometric data, and is wired or wirelessly connected to the electronic device.
  • the first image acquired by the electronic device 1000 may be obtained from a web database connected to the electronic device, a social network service (sns), a photo bank, a home library, or a streaming video service.
  • the electronic device 1000 may detect a biological image in the searched region.
  • the electronic device 1000 may search for an area including biometric data and detect a biometric image corresponding to the biometric data in the searched area.
  • the biological image may include at least one of a face image, a fingerprint image, a vein print image, an ear shape image, and a palmist image.
  • the electronic device 1000 may detect a biological image in the searched region using an image segmentation algorithm.
  • the electronic device 1000 may determine the type of biological data included in the searched area, and detect a biological image for each type of the determined biological data. For example, when the first image includes face information and fingerprint information, the electronic device 1000 determines a category of biometric data included in the first image as face data and fingerprint data, and A corresponding biometric image and a biometric image corresponding to fingerprint data may be detected, respectively.
  • the electronic device 1000 may acquire predetermined user identification information and detect a biometric image matching user identification information obtained in an area including biometric data. For example, the electronic device 1000 uses a user identification information capable of identifying a specific user, and among the biometric images of a plurality of users included in the first image, the biometric image of the user matching the obtained user identification information Only can be detected. That is, the electronic device 1000 may prevent exposure of biometric data of a specific user by encoding the biometric image corresponding to the biometric data of the specific user.
  • the electronic device 1000 may detect the biometric image using a pre-trained image learning model that outputs the biometric image.
  • the pre-trained image learning model that outputs the biometric image as an output may be optimized based on the biometric data history of the image or image, so that the electronic device 1000 effectively extracts the biometric image from the first image. Can be detected.
  • the electronic device 1000 may encode the detected biological image. For example, the electronic device 1000 determines the type of biometric data included in the first image, determines the encoding parameter for encoding the biometric image based on the determined type of biometric data, and determines the determined encoding parameter. Can be used to encode the biological image. According to an embodiment, the electronic device 1000 determines at least one of the encoding parameter and the encoding metric based on the type of the biometric data, and encodes the biological image using at least one of the determined encoding parameter and the encoding metric. can do.
  • the encoding parameter may vary depending on the type of biometric data.
  • the encoding parameter may be stored in memory in the electronic device 1000 that performs a security setting method of an image including biometric data, or may be embedded with the biometric data in the first image.
  • the encoding parameter is a random variable for specifying a Gabor filter for extracting the iris feature, and a Doughman's integral differential operator if the first image contains iris information. Integral variables and differential variables for determining may be included.
  • the electronic device 1000 may generate a second image by synthesizing the watermark, the first image, and the encoded biometric image.
  • the electronic device 1000 may synthesize the watermark, the first image, and the encoded biometric image in at least one domain of a spatial domain and a frequency domain.
  • the spatial domain may be a domain in which the brightness and pixel value of a pixel whose position is specified by two-dimensional coordinates in an image are variables
  • the frequency domain is a wavelet transform or a discrete cosine transform. It may be a domain having a frequency based on a cosine transform as a variable.
  • the watermark may be generated by using the biometric data and a preset encryption key in at least one of a spatial-domain and a frequency domain.
  • the method for setting the security of an image performed by the electronic device 1000 may be performed while the electronic device 1000 searches for visual content including an image or an image, but the electronic device 1000 may perform a visual setting. It may be performed after all content search is finished.
  • each step of the security setting method of an image performed by the electronic device 1000 may be performed through different services stored in the plurality of electronic devices 1000.
  • the electronic device 1000 may perform a security setting method of the image illustrated in FIG. 3 on the captured picture. That is, the first image may include a photo or image taken in real time. Also, the electronic device 1000 may apply a security setting method of an image to an image as well as an image. That is, the electronic device 1000 may perform obfuscation to prevent exposure of biometric data even for an image acquired during a video call.
  • the method of setting a security of an image including biometric data performed by the electronic device 1000 may be performed at a window system level, but an application program level stored in the electronic device 1000 ( application level).
  • the second image generated by the electronic device 1000 may be shared with a database external to the electronic device that performs a security setting method of an image including biometric data.
  • FIG. 4 is a diagram for explaining in detail a method of setting security of an image performed by an electronic device according to an embodiment.
  • Step S410 may correspond to S320 of FIG. 3, so a detailed description thereof will be omitted.
  • Step S420 may correspond to S320 of FIG. 3, so a detailed description thereof will be omitted.
  • Step S430 may correspond to S330 of FIG. 3, so a detailed description thereof will be omitted.
  • the electronic device 1000 may generate a watermark using the biometric data included in the first image and a preset encryption key.
  • the electronic device 1000 may generate a watermark by encrypting information on at least one biometric characteristic determined from biometric data included in the first image using a preset encryption key.
  • a watermark may be generated using at least one of a spatial-domain and a frequency domain using the biometric data and a preset encryption key.
  • a watermark is a technology mainly used for copyright protection of content, such as invisibility, robustness, clarity, and security
  • a watermark is copyright information, ownership information, original content information, and forgery of the content. It may include information for confirming.
  • the electronic device 1000 may prevent leakage of biological data from the original image while maintaining the same visual information of the original image by synthesizing the watermark with the original image.
  • the encryption key may be stored in a memory in the electronic device 1000 performing a security setting method of an image, or may be stored in a server connected to the electronic device 1000 by wire or wirelessly.
  • the electronic device 1000 detects the fingerprint image, generates HCP (High Curvature Points) from the detected fingerprint image, and generates the generated hcp points. It is possible to generate a watermark by encrypting the characteristics of a user using a preset encryption key.
  • HCP High Curvature Points
  • the electronic device 1000 may generate a second image by synthesizing the watermark, the first image, and the encoded biometric image.
  • the electronic device 1000 may synthesize a watermark, a first image, and a coded biometric image in at least one of a spatial domain or a frequency domain.
  • the electronic device 1000 may synthesize the watermark, the first image, and the encoded biometric image through pixel-wise operations.
  • FIG. 5 is a diagram for explaining a method of setting security of an image including iris information by an electronic device according to another embodiment.
  • the electronic device 1000 may acquire a first image.
  • the electronic device 1000 may acquire a first image from a memory in the electronic device 1000 or a first image from a server or other electronic device connected to the electronic device 1000 through a wired or wireless connection.
  • the electronic device 1000 may acquire a first image by photographing objects around the electronic device in real time. The first image may be generated by dividing an image photographed by the electronic device 1000 at predetermined time intervals.
  • the electronic device 1000 may detect the iris boundary and center from the first image. For example, the electronic device 1000 may detect the iris boundary and center from each of the left and right eyes of the person included in the first image. In S506, the electronic device 1000 may detect the pupil boundary and center from the first image. The electronic device 1000 may determine the pupil boundary, the pupil center, the iris boundary, and the iris center of each of the left and right eyes, and detect the iris image using the determined pupil boundary, pupil center, iris boundary, and iris center.
  • the electronic device 1000 may generate a feature map. For example, the electronic device 1000 may determine an iris feature from the iris image using the detected iris boundary, iris center, pupil boundary, and pupil center, and generate a feature map using the determined iris feature.
  • the iris features include the center of the iris garden, the radius of the iris garden, the diameter of the iris garden, the radius of the iris garden, the center of the park, the radius of the park, the diameter of the park, the radius of the park, It may include information on at least one of the difference between the radius of the iris garden and the park, and the ratio between the radius of the park and the radius of the park.
  • the feature map generated by the electronic device 1000 using the determined iris feature is the center of the iris circle in each pixel or a predetermined domain of the iris image, the radius of the iris circle, the diameter of the iris circle, the radius of the iris circle, It can contain information about at least one of the center of the park, the radius of the park, the diameter of the park, the radius of the park, the difference between the radius of the iris and the park, and the ratio between the radius of the park and the radius of the iris. have.
  • the electronic device 1000 may normalize the generated feature map.
  • normalizing the generated feature map by the electronic device 1000 may be defined as converting pixels of the generated feature map from polar coordinates to linear coordinates.
  • the process of normalizing the feature map generated by the electronic device 1000 may correspond to the process of normalizing the iris image. That is, the electronic device 1000 may normalize the iris image by converting the pixels of the iris image from a Cartesian to a generalized coordinate system.
  • the electronic device 1000 may encode the normalized iris image.
  • the electronic device 1000 may encode the iris image by using at least one of a convolution transform and a wavelet transform.
  • the electronic device 1000 may filter the iris image before encoding the normalized iris image.
  • the electronic device 1000 may filter the iris image using at least one of a Gabor filter and a Haar filter.
  • the electronic device 1000 may determine a specter between the original iris image and the filtered iris image.
  • the specter according to the present disclosure may mean a spectral difference between an unfiltered iris image and a filtered iris image.
  • the electronic device 1000 may generate a watermark by encrypting the specter between the unfiltered iris image and the filtered iris image using a preset encryption key.
  • the electronic device may embed the watermark in the first image.
  • the electronic device may insert a watermark into the first image by changing the brightness and pixel values of the pixels included in the first image.
  • the electronic device 1000 may insert the watermark into the first image by adding the watermark data converted into the frequency domain to the biometric data included in the first image converted into the frequency domain.
  • the electronic device 1000 may denormalize the normalized iris image.
  • the electronic device 1000 may inversely normalize the iris image by converting pixels of the normalized iris image from a generalized coordinate system to a Cartesian.
  • the electronic device 1000 may embed the coded iris image into the first image.
  • the electronic device 1000 may generate a second image using the encoded iris image and the first image in which the watermark is embedded.
  • the process of the electronic device 1000 synthesizing the watermark, the coded iris image, and the first image may correspond to a process of embedding the watermark and the coded iris image in the first image.
  • FIG. 6 is a diagram for explaining in detail how a electronic device sets security of an image including iris information according to an embodiment.
  • the electronic device 1000 may obtain an original image.
  • the original image acquired by the electronic device 1000 may include an iris image corresponding to iris information.
  • the electronic device 1000 may normalize the obtained original image.
  • Step S604 may correspond to S510 of FIG. 5, so a detailed description thereof will be omitted.
  • the electronic device 1000 may obtain a 1D (One dimension) Original signal from the normalized image.
  • the electronic device 1000 may filter the acquired 1D Original signal.
  • the electronic device 1000 may filter the 1D Original signal obtained using at least one of a gabor filter and a haar filter.
  • the filtering of the 1D Original signal obtained using at least one of a Gabor filter and a haar filter by the electronic device 1000 may correspond to a process of extracting an iris feature from the original image.
  • the electronic device 1000 may correct the original image using the obtained filtered 1D signal. According to an embodiment, the electronic device 1000 may correct at least a part of the original image using the filtered 1D signal. In S612, the electronic device 1000 may generate a mixed image by synthesizing the modified image from the original image and the original image. In S614, the electronic device 1000 may split the iris image from the generated mixed image. The electronic device 1000 may divide the iris image using a preset image segmentation algorithm.
  • the electronic device 1000 may detect the iris feature from the divided iris image.
  • the iris feature may include information on geometric parameters according to the pupil location and the iris location in the iris image, and information on the iris texture.
  • the electronic device 1000 may generate an iris code by encoding the detected iris feature.
  • the electronic device 1000 may generate a similarity parameter by comparing the generated iris code with a target code.
  • the similarity parameter may include a hamming distance.
  • Hamming distance is a distance function that indicates how many different symbols are in the same position in two strings of the same length, especially in the case of binary code, the Hamming distance is the number of mismatch bits between each binary code to be compared. Number.
  • the electronic device 1000 may encode the Hamming distance generated as a result of comparing the iris code and the reference code, and may encode the biometric image included in the original image using the encoded Hamming distance.
  • FIG. 7 is a diagram for explaining a process of generating a second image by combining a first image and a watermark according to an embodiment.
  • the electronic device 1000 may generate a watermark using biometric data and an encryption key included in the image.
  • the electronic device 1000 may generate a second image by synthesizing the watermark, the encoded biometric image, and the first image.
  • the watermark generated by the electronic device 1000 may be scaled with the same standard as the first image 702, and the scaled watermark may be synthesized with the first image 702.
  • the electronic device 1000 may synthesize watermarks in all areas of the first image 702, but may also synthesize watermarks in at least a partial area of the first image.
  • the electronic device 1000 determines a watermark pattern based on the biometric data included in the image and a preset encryption key, and generates the watermark, the encoded biometric image, and the watermark generated according to the determined watermark pattern.
  • a second image may be generated by synthesizing the first image.
  • the visual information of the first image may be kept the same. Accordingly, the visual information of the second image generated by the electronic device 1000 may be the same as the visual information of the first image.
  • the watermark generated by the electronic device 1000 may include a modified parameter or an original depth map of a random smart depth map.
  • the watermark may include parameters indicating distortion of the surrounding area.
  • the watermark generated by the electronic device 1000 is in a spatial domain (for example, a change in the brightness ratio of an image) or a transformation domain (for example, a wavelet domain or a variant of a discrete cosine transform coefficient). , It can be embedded in the first image.
  • the electronic device 1000 may perform an encryption and decryption process of a watermark in a secure world where security is secured.
  • FIG. 8 is a diagram for describing a method of setting security of an image including fingerprint information by an electronic device according to another embodiment.
  • the electronic device 1000 may acquire a first image.
  • the first image acquired by the electronic device 1000 may include a fingerprint image corresponding to fingerprint information.
  • the electronic device 1000 may binarize the acquired first image. For example, the electronic device 1000 may simplify the first image into black and white by referring to the directional information of the shadow included in the first image including the fingerprint image.
  • the electronic device 1000 may use at least one algorithm of Otsu Adaptive Threshold, Bradley Local Threshold, Bernsen Threshold, and Maximum Entropy Threshold.
  • the electronic device 1000 may detect an upper core from the first image.
  • the electronic device 1000 may detect feature points and curves from the first image.
  • the electronic device 1000 may include a ridge, a valley, an ending point, a bifurcation, a lower core, and a lift ) And the minutia point, which is the point where the structure of the ridge changes, can be obtained from the first image.
  • the ridge may indicate a portion that appears as a line in the fingerprint, a portion that rises like a mountain range, and the valley may mean a portion between the ridge and the ridge.
  • the end point may indicate that the ridge is broken, and the branch point may indicate a point where the ridge is split.
  • the central point may indicate a portion where the bend is the largest upward, and the lower central point may represent a portion where the bend is downward, and the delta may mean that the ridge flow of the fingerprint is collected in three directions.
  • the electronic device 1000 may generate High Curvature Pints (HCP) from the generated curve. For example, the electronic device 1000 detects a plurality of feature points from the generated curve, generates a feature vector using the detected feature points, and determines the curvature of the curve using the angles of the generated feature vectors. Can. The electronic device 1000 may generate, as Hcp points, points in which the amount of change in the curvature is greater than or equal to a preset threshold based on the determined amount of change in curvature of the curve.
  • HCP High Curvature Pints
  • the electronic device 1000 may determine the hcp characteristic using the generated Hcp points. For example, the electronic device 1000 may determine the amount of change in curvature between hcp points, the distance between hcp points, and the location of hcp points using hcp points.
  • the hcp characteristic may include information on the amount of change in curvature between hcp points, the distance between hcp points, and the location of hcp points.
  • the electronic device 1000 may generate a watermark by encrypting the determined hcp characteristic using a preset encryption key.
  • Step S812 of FIG. 8 may correspond to S516 of FIG. 5.
  • the electronic device 1000 may embed the generated watermark in the first image.
  • the embedding of the generated watermark in the first image by the electronic device 1000 may correspond to a process of synthesizing the watermark and the first image.
  • the electronic device 1000 may convert the determined Hcp characteristic.
  • the electronic device 1000 may convert the hcp characteristic according to a predetermined encoding parameter.
  • the electronic device 1000 may convert hcp characteristics by changing positions of at least one hcp point among hcp points generated by using an encoding parameter.
  • the electronic device 1000 may encode the converted hcp characteristics. For example, the electronic device 1000 may generate a fingerprint code by encoding the transformed hcp characteristic, and encode the fingerprint image using the generated fingerprint code. In S822, the electronic device 1000 may embed the encoded fingerprint image into the first image. In S824, the electronic device 1000 may generate a second image by embedding the encoded fingerprint image and watermark in the first image.
  • FIG. 9 is a diagram for a detailed description of a method of setting security of an image including fingerprint information by an electronic device according to an embodiment.
  • the electronic device 1000 may encode a fingerprint image in various ways.
  • the electronic device 1000 may detect a feature point from the fingerprint image.
  • the electronic device 1000 may generate a feature vector using the detected feature points.
  • the electronic device 1000 may generate feature vectors by randomly selecting (RANDOM) at least some of the generated feature points.
  • the electronic device 1000 may generate all feature vectors that can be generated from the generated feature points.
  • the electronic device 1000 may linearly transform the generated feature vectors using Linear Equation.
  • Y is a transformed characteristic vector
  • X represents a characteristic vector before transformation.
  • a and b are linear parameters
  • the electronic device 1000 may convert the feature vector using preset linear parameters and noise parameters.
  • the electronic device 1000 may convert fingerprint characteristics by converting the feature vector determined from the fingerprint image.
  • the linear parameter and the noise parameter may correspond to the encoding parameter of step S330 of FIG. 3.
  • the electronic device 1000 may transform feature vectors using a Homography matrix.
  • the electronic device 1000 may detect a feature point in S922 and generate a feature vector using the feature point detected in S924.
  • the electronic device may generate a Homography matrix using feature vectors and matrix transformation components.
  • Y is a transformed fingerprint characteristic matrix
  • X represents a fingerprint characteristic matrix before transformation.
  • H represents a Homography matrix.
  • the electronic device 1000 may generate a fingerprint characteristic matrix using the feature vector determined from the fingerprint image, and the electronic device 1000 may convert the fingerprint characteristic matrix by matrix multiplying the generated fingerprint characteristic matrix and the Homography matrix. .
  • the electronic device 1000 may convert the fingerprint characteristics of the fingerprint image by converting the fingerprint characteristics matrix.
  • the homography matrix may include a rotation component and a translation component.
  • the electronic device 1000 may convert fingerprint characteristics by detecting hcp points from the fingerprint image, determining hcp characteristics from the detected hcp points, and converting the determined hcp characteristics. For example, in S932, the electronic device 1000 may detect a curve from the fingerprint image. In S934, the electronic device 1000 may detect the Hcp point from the detected curve. Step S934 may correspond to S808 of FIG. 8.
  • Y is a transformed Hcp feature vector
  • X represents a Hcp feature vector before transformation
  • a, b and c are linear parameters
  • the electronic device 1000 may convert the HCP characteristic vector using Equation (3). That is, the electronic device 1000 may convert the Hcp characteristic vector using preset linear parameters and noise parameters. According to an embodiment, the electronic device 1000 may convert fingerprint characteristics by converting the Hcp characteristic vector determined from the fingerprint image.
  • the linear parameter and the noise parameter of Equation 3 may correspond to the encoding parameter of step S330 of FIG. 3.
  • FIG. 10 is a diagram for explaining a method of setting security of an image including vein information by an electronic device according to another embodiment.
  • the electronic device may acquire a first image.
  • the first image acquired by the electronic device 1000 may include a vein image corresponding to vein information.
  • the electronic device 1000 may binarize the obtained first image.
  • the electronic device 1000 may simplify the first image into black and white by referring to the directional information of the shadow included in the first image including the vein image.
  • the electronic device 1000 may use at least one algorithm of Otsu Adaptive Threshold, Bradley Local Threshold, Bernsen Threshold, and Maximum Entropy Threshold.
  • the electronic device 1000 may detect a center point from the first image.
  • the electronic device 1000 may detect a feature point from the first image.
  • the electronic device 1000 may generate a feature vector using the detected feature points and center points.
  • the feature point detected by the electronic device may include a Minutia point.
  • the generation ring feature vector by the electronic device 1000 may include coordinates of at least one feature point and information about an angle formed by the feature point.
  • the electronic device 1000 may generate all feature vectors that can be generated from the detected feature points, but randomly selects some feature points among the feature points and uses only the feature points randomly selected. You can also create In S1010, the electronic device 1000 may determine the Homography matrix using the detected feature points. Step S1010 may correspond to S926 of FIG. 9.
  • the electronic device 1000 may determine the vein characteristics of the feature vectors using the determined feature vectors. For example, the electronic device 1000 may determine the distance between the feature points, the location of the feature points, the curvature between the feature vectors, and the angle difference between the feature vectors using the determined feature vectors.
  • the vein characteristic may include a distance between feature points, a location of feature points, a curvature between feature vectors, and an angle difference between feature vectors.
  • the electronic device 1000 may determine a vein characteristic of the homography matrix using the determined Homography matrix.
  • the vein characteristic of the homography matrix may correspond to the vein characteristic of step S1012.
  • the electronic device 1000 may generate a watermark using an encryption key. For example, the electronic device 1000 may generate a watermark by encrypting the determined feature vector and vein characteristics represented by the feature vectors using an encryption key. In S1018, the electronic device 1000 may generate a watermark using an encryption key. For example, the electronic device 1000 may generate a watermark by encrypting the determined homography matrix and vein characteristics indicated by the homography matrix using an encryption key.
  • the electronic device 1000 may convert the vein characteristics of the feature vectors.
  • the process in which the electronic device 1000 converts the vein characteristics of the feature vectors may correspond to the process in which the electronic device 1000 converts the fingerprint characteristics of the feature vectors.
  • the electronic device 1000 may convert vein characteristics represented by the feature vectors by transforming the feature vectors using preset linear parameters and noise parameters.
  • the electronic device 1000 may convert the vein characteristics of the homography matrix.
  • the process in which the electronic device 1000 converts the vein characteristics of the homography matrix may correspond to the process in which the electronic device 1000 converts the fingerprint characteristics of the homography matrix.
  • the electronic device 1000 may generate a vein characteristic matrix using the feature points determined from the vein image, and convert the vein characteristic matrix by matrix multiplying the generated vein characteristic matrix and a homography matrix.
  • the electronic device 1000 may convert the vein characteristics of the vein image by transforming the vein characteristic matrix.
  • the electronic device 1000 may embed the feature vector and the watermark generated by encrypting the vein characteristics represented by the feature vectors into the first image.
  • the embedding of the generated watermark in the first image by the electronic device 1000 may correspond to a process of synthesizing the watermark and the first image.
  • the electronic device may embed the watermark generated by encrypting the homography matrix and the vein characteristics indicated by the homography matrix into the first image.
  • the electronic device 1000 may embed the coded vein image into the first image.
  • the vein image is encoded by encoding the vein characteristics of the transformed feature vectors and the vein characteristics of the transformed homography matrix. can do.
  • the electronic device 1000 encodes the encoded vein image, the feature vector, and the watermark generated by encrypting the vein characteristics represented by the feature vectors, and the watermark generated by encrypting the vein characteristics represented by the homography matrix and the watermark generated. By combining, a second image can be generated.
  • the electronic device 1000 determines a feature vector and a homography matrix from the vein image, generates a watermark from each of the feature vector and the homography matrix, and a plurality of watermarks generated for each of the feature vector and the homography matrix A second image may be generated using.
  • FIG. 11 is a diagram for describing a method of setting security of an image including face information by an electronic device according to another embodiment.
  • the electronic device 1000 may acquire a first image.
  • the first image acquired by the electronic device 1000 may include a face image corresponding to face information.
  • the electronic device 1000 may detect a first keypoint from the acquired first image.
  • the electronic device 1000 may use Harris Corner corner detection, Scale Invariant Feature Transform (SIFT), FAST algorithm, or the like, but is not limited thereto.
  • the electronic device 1000 may detect a second feature point for depth map detection.
  • the electronic device 1000 may generate a random smart depth map (RSDM) using the detected second feature point.
  • the random smart depth map may include depth information of an area around the second feature point detected by the electronic device 1000.
  • the electronic device 1000 may generate a watermark using the second feature point of the random smart depth map.
  • the electronic device 1000 may generate a watermark by encrypting face characteristics represented by the second feature points of the random smart depth map using an encryption key.
  • the electronic device 1000 may detect a feature point around the distortion area. For example, the electronic device 1000 may determine a light-shadow characteristic of the distortion region in the face image by detecting feature points around the matrix-based, distortion region. The electronic device 1000 may also generate a watermark by encrypting the shadow characteristic of the distortion region in the face image and the facial characteristic represented by the detected second feature point using an encryption key.
  • the electronic device 1000 may embed the generated watermark in the first image.
  • the embedding of the generated watermark in the first image by the electronic device 1000 may correspond to a process of synthesizing the watermark and the first image.
  • the electronic device 1000 may convert the determined light-shadow characteristics.
  • the electronic device 1000 may convert face characteristics by converting the determined light-shadow characteristics.
  • the electronic device 1000 may encode the transformed face characteristics.
  • the electronic device 1000 may encode a face image by determining a facial characteristic (eg, a shadow characteristic) from the facial image in the first image, transforming the determined facial characteristic, and encoding the converted facial characteristic.
  • the electronic device 1000 may embed the coded face image into the first image.
  • the embedding of the encoded face image in the first image by the electronic device 1000 may correspond to a process of synthesizing the encoded face image and the first image.
  • the electronic device 1000 may generate a second image by embedding the watermark and the encoded face image into the first image.
  • FIG. 12 is a diagram for explaining a method of setting security of an image including face information by the electronic device 1000 according to another embodiment.
  • Step S1202 may correspond to S1102 of FIG. 11, so a detailed description thereof will be omitted.
  • the electronic device 1000 may detect the first feature point using an image learning model that outputs location information of the feature point for determining the feature point from the face image.
  • the electronic device 1000 may detect the first feature point from the face image using the learning unit 1202 connected to the database 1204 in which the learning model pre-trained based on the plurality of face images is stored. Can.
  • the electronic device 1000 may detect a second feature point for depth map detection.
  • the electronic device 1000 may generate a random smart depth map by using the learning unit 1202 learning the pre-trained learning model stored in the database 1204.
  • the electronic device 1000 may detect the second feature point using the random smart depth map (RSDM).
  • the random smart depth map used by the electronic device 1000 may have a reversible characteristic in watermark extraction and decoding.
  • the electronic device 1000 may detect the second feature point and generate a random smart depth map using the detected second feature point.
  • the electronic device 1000 may detect a feature point using at least one of a Harris Corner corner detection, a Scale Invariant Feature Transform (SIFT), and a FAST algorithm, but is not limited thereto.
  • the random smart depth map may include depth information of an area around the second feature point detected by the electronic device 1000.
  • the electronic device 1000 may detect a second feature point and determine a sparse matrix or a skew-symmetric matrix for a Hamming distance between the detected second feature points. have. Based on the sparse matrix or the asymmetric matrix, the maximum value of the Hamming distance can be defined, and the level of distortion between the second feature points can be determined. The electronic device 1000 may convert the shadow characteristic of the distortion region surrounding the second feature point using the maximum value of the Hamming distance and the distortion level between the second feature points.
  • the electronic device 1000 may embed the generated watermark in the first image.
  • the embedding of the generated watermark in the first image by the electronic device 1000 may correspond to a process of synthesizing the first image and the watermark.
  • the electronic device 1000 may convert light-shadow characteristics. For example, the electronic device 1000 may use one of the detected first feature points and second feature points to determine one of the facial features, and convert the determined characteristic.
  • the electronic device 1000 may encode a face image.
  • the electronic device 1000 may transform the face characteristic by converting the determined shadow characteristic to a light-shadow characteristic, and encode the face image by encoding the converted facial characteristic.
  • the electronic device 1000 may embed the coded face image into the first image.
  • the electronic device 1000 may correspond to a process of synthesizing the encoded face image and the first image.
  • the electronic device 1000 may generate a second image by embedding the encoded face image and watermark in the first image.
  • the electronic device 1000 embedding the coded face image and the watermark into the first image may correspond to a process of synthesizing the coded face image, the watermark and the first image.
  • FIG. 13 is a diagram for explaining in detail a method of setting security of an image including face information by an electronic device according to an embodiment.
  • the electronic device 1000 may detect a face image from the first image. According to an embodiment, the electronic device 1000 may detect a face image using at least one of a genetic algorithm and an eigenface algorithm. In S1304, the electronic device 1000 may detect a facial feature point from the detected face image. For example, the electronic device 1000 may detect a feature point using at least one of a Harris Corner corner detection, a Scale Invariant Feature Transform (SIFT), and a FAST algorithm, but is not limited thereto.
  • SIFT Scale Invariant Feature Transform
  • the electronic device 1000 may detect a feature point for generating a depth map. According to an embodiment, the electronic device 1000 may search for a specific area around the detected feature point and set a surrounding area distortion within the searched specific area. According to an embodiment, the distortion region may include information on a difference in depth of each unit. In S1308, the electronic device may detect feature points around the set distortion area. For example, the electronic device 1000 may encode a face image by detecting a feature point in a distortion region, transforming the facial characteristic represented by the detected feature point, and encoding the transformed face characteristic.
  • the electronic device 1000 may detect a feature point by using a random smart depth map (RSDM).
  • RSDM random smart depth map
  • the electronic device 1000 may distort the shadow characteristics indicated by the feature points detected by the random smart depth map.
  • feature points on the random smart depth map detected by the electronic device 1000 include pixel values, and thus, distortion regions around the detected feature points represent pixel values (eg, an average of pixel values in a region) in a region unit.
  • the electronic device 1000 may distort the shading characteristics of the face image by changing the pixel values of each region.
  • FIG. 14 is a diagram for explaining a method of setting security of an image including information regarding an ear shape by an electronic device according to another embodiment.
  • the electronic device 1000 may acquire a first image.
  • the first image acquired by the electronic device 1000 may include an ear image corresponding to information about the ear shape.
  • the electronic device 1000 may detect an edge indicating an ear shape in the ear image.
  • the electronic device 1000 may detect an edge representing the shape of the ear in the ear image using a Force Field Transform algorithm.
  • the electronic device 1000 may apply an isotropic force to neighboring pixels in an omnidirectional direction, such that one pixel included in the first image is proportional to the pixel intensity and half proportional to the square of the distance of the pixel.
  • An edge representing an ear in an ear image may be detected using (force field).
  • the electronic device 1000 may detect the intensity of the force field in the first image. For example, the electronic device 1000 may determine a net force by adding all the forces that a specific pixel receives by a force field generated by surrounding pixels within a force field formed by each of the pixel cells. For example, when pixels of x1, x2, and x3 are positioned around a specific pixel x0, the force received by x1 received by a particular pixel x0 is p1, the force received by x2 pixels is p2, and the force received by x3 pixels is It can be expressed as p3. According to an embodiment, the force received by a specific pixel in the force field is a force vector, and may have a magnitude and a direction. The electronic device 1000 may determine the net force received by the pixel x0 by vectorizing all the forces p1, p2, and p3 received by the pixel x0.
  • the electronic device 1000 may determine the force field line matrix. For example, the electronic device 1000 detects the intensity of the force field, connects the net force received by each pixel, generates field lines running to the well, and uses the generated field lines to force field The line matrix can be determined.
  • the electronic device 1000 may generate an encryption key.
  • the encryption key used by the electronic device 1000 may be previously stored in a memory in the electronic device.
  • the electronic device 1000 may determine an encryption method.
  • the electronic device 1000 may determine at least one of a Feistel structure and an S-P network as an encryption method.
  • the electronic device 100 may calculate a dome matrix using the detected force field strength, encryption key, and determined encryption method.
  • a dome matrix is a dome-shaped matrix, and may be generated using an encryption key, a well and a ridge in a force field transformed first image.
  • the electronic device 1000 may encode a dome matrix and a force field line matrix.
  • the ear shape characteristics may be transformed by determining the characteristics of the ear shape indicated by the dome matrix and the force field line matrix, and transforming the characteristics of the determined ear shape.
  • the electronic device 1000 may encode the ear image by encoding characteristics of the transformed ear shape.
  • the electronic device 1000 may embed the coded ear image into the first image.
  • the electronic device 1000 when the electronic device 1000 embeds the encoded ear image into the first image, it may correspond to a process of synthesizing the encoded ear image and the first image.
  • the electronic device 1000 may generate a second image by synthesizing the encoded ear image and the first image.
  • 15 is a diagram for explaining in detail how a electronic device sets security of an image including information on ear shape according to an embodiment.
  • the electronic device 1000 may detect the force field strength. Step S1504 may correspond to 1408 of FIG. 14, so a detailed description thereof will be omitted.
  • the electronic device 1000 may generate a force field line, a well, and a ridge using the detected force field strength. For example, the electronic device 1000 detects the intensity of the force field and connects the net force received by each pixel to generate field lines, wells, and ridges leading to the wells. Can. Since S1508 may correspond to 1416 of FIG. 14, detailed description will be omitted.
  • 16 is a flowchart illustrating a method for releasing security of an image including biometric data performed by an electronic device according to an embodiment.
  • the electronic device 1000 may search an area including biometric data in the second image.
  • the second image is an image generated by synthesizing a watermark, a first image, and a coded biometric image, and may be an image having an image security setting to prevent leakage of biometric data. Since step S1610 may correspond to step S310 of FIG. 3, detailed description will be omitted.
  • the electronic device 1000 may detect a biological image in the searched area.
  • the electronic device 1000 may determine the type of biometric data included in the searched region, and detect the biometric image for each type of the determined biometric data.
  • Step S1620 may correspond to S320 of FIG. 3, so a detailed description thereof will be omitted.
  • the electronic device 1000 may decode the detected biometric image. For example, the electronic device 1000 may determine the type of biometric data included in the second image, and may decode the biometric image based on the determined decoding parameter based on the determined biometric data type. According to an embodiment of the present disclosure, the electronic device 1000 determines at least one of the decoding parameter and the decoding metric based on the type of biometric data, and decodes the biological image using at least one of the determined decoding parameter and the decoding metric. can do.
  • the electronic device 1000 may generate a first image using a watermark for blocking access to biometric data, a decoded biometric image, and a second image. According to an embodiment, when the electronic device 1000 generates the first image using the watermark, the decoded biometric image, and the second image, the obfuscation process of the obfuscated second image is canceled (de- obfuscated).
  • a watermark used by the electronic device 1000 to generate a first image may be detected from the second image and decoded in advance using a pre-decryption key.
  • the electronic device 1000 may generate a first image using the decoded watermark, the decoded biometric image, and the second image.
  • 17 is a diagram for explaining in detail a method of releasing security of an image performed by an electronic device according to an embodiment.
  • step S1710 the electronic device 1000 may search for an area including biometric data in the second image.
  • Step S1710 may correspond to S1610 of FIG. 16, so a detailed description thereof will be omitted.
  • Step S1720 may correspond to S1620 of FIG. 16, so a detailed description thereof will be omitted.
  • the electronic device 1000 may detect a watermark from the second image. For example, the electronic device 1000 may perform a de-embedding process to detect a watermark embedded in the second image.
  • the electronic device 1000 may decode the detected biometric image. Step S1740 may correspond to S1630 of FIG. 16, so a detailed description thereof will be omitted.
  • the electronic device 1000 may decrypt the detected watermark using a preset decryption key. For example, the watermark detected by the electronic device 1000 from the second image is encrypted using a preset encryption key, and the electronic device 1000 recognizes the biometric data included in the watermark. The watermark can be decrypted using the set decryption key.
  • the electronic device 1000 may generate a first image using the decoded watermark, the decoded biometric image, and the second image.
  • the electronic device 1000 may generate a second image by synthesizing the decoded watermark, the decoded biometric image, and the second image.
  • the electronic device 1000 synthesizing the decoded watermark, the decoded biometric image, and the second image may correspond to a process of embedding the decoded watermark, the decoded biometric image, and the second image in a spatial domain or a frequency domain. Can.
  • FIG. 18 is a diagram for describing a method for an electronic device to release security of an image including iris information according to another embodiment.
  • the electronic device 1000 may acquire a second image.
  • the second image acquired by the electronic device 1000 may include an encoded biometric image, an encoded watermark, and a first image (eg, an original image).
  • a first image eg, an original image.
  • the electronic device 1000 may detect a watermark from the second image.
  • the watermark may be embedded in the second image and encoded with a preset encryption key.
  • the detected watermark may be previously stored in a memory in the electronic device 1000.
  • the electronic device 1000 may decrypt the detected watermark using a preset decryption key.
  • the decryption key may be previously stored in a memory in an electronic device that is secured, but may be received from a database of another electronic device or network connected to the electronic device 1000.
  • the electronic device 1000 may detect the iris boundary and center from the second image.
  • the electronic device 1000 may detect a pupil boundary and a pupil center from the second image.
  • the electronic device 1000 determines a pupil boundary, a pupil center, an iris boundary, and an iris center of each of the left and right eyes included in the second image, and determines the determined pupil boundary, pupil center, iris boundary, and iris center The iris image can be detected using.
  • the electronic device 1000 may generate a feature map. For example, the electronic device 1000 may determine an iris feature from the iris image using the detected iris boundary, iris center, pupil boundary, and pupil center, and generate a feature map using the determined iris feature.
  • the iris features include the center of the iris garden, the radius of the iris garden, the diameter of the iris garden, the radius of the iris garden, the center of the park, the radius of the park, the diameter of the park, the radius of the park, It may include information on at least one of the difference between the radius of the iris garden and the park, and the ratio between the radius of the park and the radius of the park.
  • Step S1814 may correspond to S508 in FIG. 5, so a detailed description thereof will be omitted.
  • the electronic device 1000 may normalize the generated feature map.
  • normalizing the generated feature map by the electronic device 1000 may be defined as converting pixels of the generated feature map from a Cartesian coordinate system to a general coordinate system.
  • the electronic device 1000 may decode the normalized iris image. For example, the electronic device 1000 may decode by using at least one of a convolution transform and a wavelet transform.
  • the electronic device 1000 may determine a specter between the original iris image and the filtered iris image.
  • the specter according to the present disclosure may mean a spectral difference between an unfiltered iris image and a filtered iris image.
  • the electronic device 1000 may denormalize the normalized iris image.
  • the electronic device 1000 may inversely normalize the iris image by converting pixels of the normalized iris image from a generalized coordinate system to a Cartesian.
  • the electronic device 1000 may embed the decoded iris image into the second image.
  • the electronic device 1000 may generate a first image using the decoded iris image, the decoded watermark, and the second image.
  • 19 is a diagram illustrating a method of releasing security of an image including fingerprint information by an electronic device according to another embodiment.
  • the electronic device 1000 may acquire a second image.
  • the second image acquired by the electronic device 1000 may include a fingerprint image corresponding to fingerprint information.
  • the electronic device 1000 may binarize the acquired first image.
  • the electronic device 1000 may detect a watermark from the second image. S1904 may correspond to step S1804 of FIG. 18, so a detailed description thereof will be omitted. In S1906, the electronic device 1000 may decrypt the watermark using the decryption key. S1906 may correspond to S1808 of FIG. 18, so a detailed description thereof will be omitted.
  • the electronic device 1000 may detect an upper core from the second image.
  • the electronic device 1000 may detect feature points and curves from the second image.
  • the electronic device 1000 may include a ridge, a valley, an ending point, a bifurcation, a lower core, and a lift ) And the minutia point, which is the point where the structure of the ridge is changed, can be obtained from the second image.
  • the electronic device 1000 may generate High Curvature Pints (HCP) from the generated curve. For example, the electronic device 1000 detects a plurality of feature points from the generated curve, generates a feature vector using the detected feature points, and determines the curvature of the curve using the angles of the generated feature vectors.
  • HCP High Curvature Pints
  • the electronic device 1000 may determine the hcp characteristic using the generated Hcp points. For example, the electronic device 1000 may determine the amount of change in curvature between hcp points, the distance between hcp points, and the location of hcp points using hcp points.
  • the hcp characteristic may include information on the amount of change in curvature between hcp points, the distance between hcp points, and the location of hcp points.
  • the electronic device 1000 may decode the determined hcp characteristic. For example, the electronic device 1000 may generate a fingerprint code by decoding the hcp characteristic, and decode the encoded fingerprint image using the generated fingerprint code. In S1018, the electronic device 1000 may embed the decrypted fingerprint image into the second image. In S1920, the electronic device 1000 may generate a first image by embedding the decoded fingerprint image and watermark in the second image.
  • 20 is a diagram for describing a method for an electronic device to release security of an image including vein information according to another embodiment.
  • the electronic device 1000 may acquire a second image.
  • the second image acquired by the electronic device 1000 may include a vein image corresponding to vein information.
  • the electronic device 1000 may binarize the acquired second image.
  • the electronic device 1000 may detect a watermark from the acquired second image.
  • S2004 may correspond to step S1804 of FIG. 18, so a detailed description thereof will be omitted.
  • the electronic device 1000 may decrypt the detected watermark using the decryption key.
  • the electronic device 1000 may detect a center point from the second image.
  • the electronic device 1000 may detect a feature point from the second image.
  • the electronic device 1000 may generate a feature vector using the detected feature points and center points.
  • the feature point detected by the electronic device may include a Minutia point.
  • the generation vector feature vector generated by the electronic device 1000 may include coordinates of at least one feature point and information about an angle formed by the feature point.
  • the electronic device 1000 may generate all feature vectors that can be generated from the detected feature points, but randomly selects some feature points among the feature points and uses only the feature points randomly selected. You can also create
  • the electronic device 1000 may determine a homography matrix using the detected feature points.
  • the electronic device 1000 may determine the characteristics of the homography matrix indicated by the homography matrix.
  • the electronic device 1000 may determine characteristics of the feature vectors indicated by the determined feature vectors.
  • the characteristics of the homography matrix and feature vectors determined by the electronic device 1000 may represent fingerprint characteristics of the fingerprint image.
  • the electronic device 1000 may embed the decoded vein image into the second image.
  • the electronic device 1000 may decode the fingerprint image by decoding the fingerprint characteristic indicated by the characteristics of the homography matrix and feature vectors.
  • the process of the electronic device 1000 embedding the decoded vein image into the second image may correspond to a process of synthesizing the decoded vein image and the second image.
  • the electronic device 1000 may generate a first image using the decoded vein image, the decoded watermark, and the second image.
  • the electronic device 1000 generating the first image using the decoded vein image, the decoded watermark, and the second image is a process of de-obfuscated the obfuscated second image. Can be countered.
  • 21 is a diagram for describing a method of releasing security of an image including face information by an electronic device according to another embodiment.
  • the electronic device 1000 may acquire a second image.
  • the second image acquired by the electronic device 1000 may include a face image corresponding to face information.
  • the electronic device 1000 may detect a watermark from the second image.
  • S2104 may correspond to step S1804 of FIG. 18, so a detailed description thereof will be omitted.
  • the electronic device 1000 may detect a first keypoint from the acquired first image.
  • the electronic device 1000 may use Harris Corner corner detection, Scale Invariant Feature Transform (SIFT), FAST algorithm, or the like, but is not limited thereto.
  • SIFT Scale Invariant Feature Transform
  • FAST algorithm FAST algorithm
  • the electronic device 1000 may detect a second feature point for depth map detection.
  • the electronic device 1000 may generate a random smart depth map (RSDM) using the detected second feature point.
  • the random smart depth map may include depth information of an area around the second feature point detected by the electronic device 1000.
  • the electronic device 1000 may detect a feature point around the distortion area.
  • the distortion region may include information regarding a difference in shadow characteristics of pixels in the face image determined based on the first feature point and the second feature point.
  • the distortion region may be generated in units of second feature points, and a plurality of feature points may be included in the distortion region generated in units of second feature points.
  • the electronic device 1000 may determine a light-shadow characteristic of the distortion region in the face image by detecting feature points around the matrix-based, distortion region.
  • the electronic device 1000 may decode the face image by decoding the determined shadow characteristics.
  • the electronic device 1000 may embed the decoded face image into the second image.
  • the electronic device 1000 embedding the decoded face image into the second image may correspond to a process of synthesizing the decoded face image and the second image.
  • the electronic device 1000 may generate the first image by synthesizing the decoded face image and the second image.
  • the electronic device 1000 may generate a first image by synthesizing the decoded face image, the decoded watermark, and the second image.
  • 22 is a diagram for explaining a method of releasing security of an image including face information by an electronic device according to another embodiment.
  • the electronic device 1000 may acquire a second image.
  • the second image acquired by the electronic device 1000 may include a face image corresponding to face information.
  • the electronic device 1000 may detect a watermark from the second image. S2204 may correspond to S1804 of FIG. 18, so a detailed description thereof will be omitted.
  • the electronic device 1000 may detect a first feature point for identifying an image of the face from the second image.
  • the electronic device 1000 may detect the first feature point using an image learning model that outputs location information of the feature point for determining the feature point from the face image.
  • the electronic device 1000 may detect the first feature point from the face image using the learning unit 1202 connected to the database 1204 in which the learning model pre-trained based on the plurality of face images is stored. Can.
  • the electronic device 1000 may restore the depth map using the detected watermark.
  • the electronic device 1000 may detect the second feature point using the recovered depth map.
  • the random smart depth map used by the electronic device 1000 may have a reversible characteristic in watermark extraction and decoding.
  • the electronic device 1000 may determine the light and shadow characteristics of the face image using the detected first and second feature points.
  • the electronic device 1000 may decode the face image.
  • the electronic device 1000 may convert face characteristics by converting the determined shadow characteristics, and decode face images by decoding the converted facial characteristics.
  • the electronic device 1000 may determine a decoding parameter and convert the shadow characteristics using the determined decoding parameter.
  • the electronic device 1000 may embed the decoded face image into the second image.
  • the electronic device 1000 may generate the first image by embedding the decoded face image in the second image.
  • the electronic device 1000 may generate a first image by synthesizing the decoded face image, the decoded watermark, and the second image.
  • the decoding parameter may include variables for determining the size, direction, and vector noise of feature vectors determined from the face image.
  • 23 is a diagram for explaining a method of releasing security of an image including information regarding ear shape according to another embodiment.
  • the electronic device 1000 may acquire a second image.
  • the second image acquired by the electronic device 1000 may include an ear image corresponding to information about the ear shape.
  • the electronic device 1000 may detect an edge representing an ear shape in the ear image.
  • the electronic device 1000 may detect an edge representing the shape of the ear in the ear image using a Force Field Transform algorithm.
  • the electronic device 1000 detects an edge from the ear image by using the learning unit 2302 connected to the database 2304 in which the learning model pre-trained based on the plurality of ear images is stored. It might be.
  • the electronic device 1000 may detect the intensity of the force field in the second image. For example, the electronic device 1000 may determine a net force by adding all the forces that a specific pixel receives by a force field generated by surrounding pixels within a force field formed by each of the pixel cells. S2306 may correspond to step S1408 of FIG. 14, so a detailed description thereof will be omitted.
  • the electronic device 1000 may generate a decryption key.
  • the decryption key used by the electronic device 1000 may be stored in advance in a memory secured in the electronic device, or may be embedded in a second image acquired by the electronic device.
  • the electronic device 1000 may determine a decoding method. According to an embodiment, the determination of the decryption method by the electronic device 1000 may correspond to a process of expanding the determined decryption key (Key-Expansion).
  • the electronic device 100 may calculate a dome matrix using the detected force field strength, encryption key, and determined encryption method.
  • a dome matrix is a dome-shaped matrix, and may be generated using an encryption key, a well and a ridge in a force field transformed first image.
  • the electronic device 1000 may decode the dome matrix and the force field line matrix.
  • the ear shape characteristics may be transformed by determining the characteristics of the ear shape indicated by the dome matrix and the force field line matrix, and transforming the characteristics of the determined ear shape.
  • the electronic device 1000 may decode the ear image by decoding characteristics related to the transformed ear shape.
  • the electronic device 1000 may embed the decoded ear image into the second image.
  • the embedding of the decoded ear image into the second image by the electronic device 1000 may correspond to a process of synthesizing the decoded ear image and the second image.
  • the electronic device 1000 may generate a first image using the decoded ear image and the second image.
  • 24 is a diagram for describing a method of setting security of an image including a plurality of biometric data by an electronic device according to an embodiment.
  • the first image acquired by the electronic device 1000 may include a plurality of biometric data.
  • the electronic device 1000 may detect a plurality of biometric images included in the first image for each type of biometric data, and perform an image security setting method for each biometric image detected for each type of biometric data.
  • the electronic device 1000 includes a processor that performs a method of setting the security of the iris image, a processor that performs a method of setting the security of the face image, and a processor that performs a method of setting the security of the ear image. And the like.
  • the electronic device 1000 may determine whether an iris image is detected in the first image. In S2412, if the electronic device 1000 determines that an iris image has been detected, in S2413, the electronic device 1000 may perform a security setting method of the image for the iris image.
  • the electronic device 1000 may determine whether a face image is detected in the first image. In S2414, if the electronic device 1000 determines that a face image has been detected, in S2415, the electronic device 1000 may perform a security setting method of the image for the face image.
  • the electronic device 1000 may determine whether the ear image is detected in the first image. In S2416, if the electronic device 1000 determines that the ear image has been detected, in S2417, the electronic device 1000 may perform a security setting method of the image for the ear image.
  • the electronic device 1000 may determine whether a fingerprint image is detected in the first image. In S2418, if the electronic device 1000 determines that a fingerprint image has been detected, in S2419, the electronic device 1000 may perform a security setting method of the image for the fingerprint image.
  • the electronic device 1000 may determine whether a vein image is detected in the first image. In S2420, if the electronic device 1000 determines that a vein image has been detected, in S2421, the electronic device 1000 may perform a security setting method of the image for the vein image.
  • the electronic device 1000 may determine whether another biological image is detected in the first image. In S2422, if the electronic device 1000 determines that another biometric image is detected, in S2423, the electronic device 1000 may perform a security setting method of the image for the other biometric image. However, in S2422, if it is determined that no other biometric image has been detected, the electronic device 1000 may end the process of performing the image security setting method. That is, the type of biometric information that the electronic device 1000 can use to set the security of an image is not limited.
  • the electronic device 1000 may determine the priority of the biological images to be detected and detect the biological image according to the determined priority.
  • the priority of the biological images to be detected by the electronic device 1000 may be set in advance by a user of the electronic device.
  • 25 is a diagram for describing a method for an electronic device to release security of an image including a plurality of biometric data, according to an embodiment.
  • the second image acquired by the electronic device 1000 may include a plurality of biometric data.
  • the electronic device 1000 may detect a plurality of biometric images included in the second image for each type of biometric data, and perform an image security release method for each biometric image detected for each type of biometric data.
  • the electronic device 1000 may include a processor that performs a method of releasing the security of the iris image, a processor that performs a method of releasing the security of the face image, and a processor that performs a method of releasing the security of the ear image. And the like.
  • the electronic device 1000 may determine whether a vein image is detected in the second image. In S2502, if the electronic device 1000 determines that a vein image has been detected, in S2503, the electronic device 1000 may perform a method of relieving the image of the vein image.
  • the electronic device 1000 may determine whether a fingerprint image is detected in the second image. In S2504, when the electronic device 1000 determines that a fingerprint image has been detected, in S2505, the electronic device 1000 may perform a method for releasing the security of the image for the fingerprint image.
  • the electronic device 1000 may determine whether the ear image is detected in the second image. In S2506, if the electronic device 1000 determines that the ear image has been detected, in S2507, the electronic device 1000 may perform a method of releasing the image security for the ear image.
  • the electronic device 1000 may determine whether a face image is detected in the second image. In S2508, if the electronic device 1000 determines that a face image has been detected, in S2509, the electronic device 1000 may perform a method of releasing the security of the image of the face image.
  • the electronic device 1000 may determine whether an iris image is detected in the second image. In S2510, if the electronic device 1000 determines that an iris image has been detected, in S2511, the electronic device 1000 may perform a method of releasing the image security for the iris image.
  • the electronic device 1000 may determine whether another biological image is detected in the second image. In S2512, if the electronic device 1000 determines that another biometric image has been detected, in S2513, the electronic device 1000 may cancel the security setting of the image for the other biometric image. However, in S2512, if it is determined that no other biometric image has been detected, the electronic device 1000 may end the process of performing the image security cancellation method. That is, the type of biometric information that the electronic device 1000 can use to release the security of the image is not limited.
  • the electronic device 1000 may determine the priority of the biological images to be detected and detect the biological image according to the determined priority.
  • the priority of the biological images to be detected by the electronic device 1000 may be set in advance by a user of the electronic device.
  • the electronic device 1000 performs a security setting method of an image and a security cancellation method of an image
  • the priority of biometric image detection may be different.
  • the biometric image may be detected in the order of the iris image, the face image, and the ear image, but the electronic device 1000 performs the security release method of the image. When doing so, the biometric image may be detected in the order of ear image, face image, and iris image.
  • 26 and 27 are block diagrams illustrating an electronic device performing a method of setting security of an image including biometric data and a method of canceling security of an image including biometric data according to an embodiment.
  • the electronic device 1000 may include a processor 1300, a communication interface 1500, and a memory 1700. However, not all of the illustrated components are essential components. The electronic device 1000 may be implemented by more components than the illustrated components, and the electronic device 1000 may also be implemented by fewer components.
  • the electronic device 1000 includes a sensing unit in addition to a user input unit 1100, an output unit 1200, a processor 1300, and a communication interface 1500. 1400, an A/V input unit 1600, and a memory 1700 may be further included.
  • the user input unit 1100 refers to a means for a user to input data for controlling the electronic device 1000.
  • the user input unit 1100 includes a key pad, a dome switch, and a touch pad (contact capacitive type, pressure resistive film type, infrared sensing type, surface ultrasonic conduction type, integral type) Tension measurement method, piezo effect method, etc.), a jog wheel, a jog switch, and the like, but are not limited thereto.
  • the user input unit 1100 may receive a user input for selecting at least one biometric data among a plurality of biometric data included in the first image obtained by the electronic device 1000.
  • the electronic device 1000 may encode only biometric images corresponding to the selected biometric data based on the user input.
  • the output unit 1200 may output an audio signal, a video signal, or a vibration signal, and the output unit 1200 may include a display unit 1210, an audio output unit 1220, and a vibration motor 1230. have.
  • the display unit 1210 includes a screen for displaying and outputting information processed by the electronic device 1000. Also, the screen can display an image. For example, at least a portion of the screen may display at least a portion of the first image and a second image generated using the obfuscated first image.
  • the audio output unit 1220 outputs audio data received from the communication unit 1500 or stored in the memory 1700. Also, the sound output unit 1220 outputs sound signals related to functions (for example, call signal reception sound, message reception sound, and notification sound) performed by the electronic device 1000.
  • functions for example, call signal reception sound, message reception sound, and notification sound
  • the processor 1300 typically controls the overall operation of the electronic device 1000.
  • the processor 1300 by executing programs stored in the memory 1700, the user input unit 1100, the output unit 1200, the sensing unit 1400, the communication unit 1500, the A/V input unit 1600 ) Etc. can be controlled overall.
  • the processor 1300 may perform functions of the electronic device 1000 illustrated in FIGS. 1 to 25 by executing programs stored in the memory 1700.
  • the processor 1300 may control the user input unit 1100 to receive a user's text, image, and video input.
  • the processor 1300 may control the microphone 1620 to receive a user's voice input.
  • the processor 1300 may execute an application that performs an operation of the electronic device 1000 based on the user input, and may control to receive the user input through the executed application.
  • the processor 1300 searches a region including the biometric data in a first image, detects a biometric image corresponding to the biometric data in the searched region, encodes the detected biometric image, and relates to the biometric data.
  • a communication interface and a memory may be controlled to generate a second image by synthesizing the watermark for blocking access, the first image, and the encoded biometric image.
  • the processor 1300 may train a neural network by inputting training data into the neural network. For example, the processor 1300 inputs training data into a plurality of training models (image training models) stored in the memory 1700 or the server 2000 to display an area including biometric data in the first image or the second image. You can train the output neural network. That is, when the first image is input, the processor 1300 may search the region using an image learning model that outputs the region including the biometric data and the location information for identifying the searched region as output.
  • image training models image training models
  • the processor 1300 may determine the type of the biometric data included in the searched area, and detect the biometric image for each type of the determined biometric data. Also, the processor 1300 may determine encoding parameters for encoding the biological image based on the type of the biological data, and encode the biological image using the determined encoding parameters. In addition, the processor 1300 may encode the detected biological image using an encoding learning model that is pre-trained based on the history of detecting the biological image from the first image.
  • the processor 1300 may control the communication interface 1500 to share the second image with a database external to an electronic device that performs a security setting method of an image including biometric data.
  • the processor 1300 may encode the detected biological image while maintaining the same visual information of the biological image.
  • the processor 1300 may accurately detect a biometric image corresponding to the biometric data included in the first image or the second image by using a plurality of image learning models stored in the memory 1700 or the server 2000. .
  • the processor 1300 searches a region including the biometric data in a second image, detects a biometric image corresponding to the biometric data in the searched region, and decodes the detected biometric image And, a first image may be generated using a watermark for blocking access to the biometric data, the decoded biometric image, and the second image.
  • the decryption key used by the processor 1300 in generating the first image may be detected from the second image and may be previously decrypted using the preset decryption key.
  • the sensing unit 1400 may detect a state of the electronic device 1000 or a state around the electronic device 1000 and transmit the sensed information to the processor 1300.
  • the sensing unit 1400 generates some of specification information of the electronic device 1000, status information of the electronic device 1000, surrounding environment information of the electronic device 1000, user status information, and user device usage history information. Can be used.
  • the sensing unit 1400 includes a magnetic sensor 1410, an acceleration sensor 1420, a temperature/humidity sensor 1430, an infrared sensor 1440, a gyroscope sensor 1450, and a position sensor (Eg, GPS) 1460, an air pressure sensor 1470, a proximity sensor 1480, and an RGB sensor (illuminance sensor) 1490, but may include at least one.
  • a position sensor Eg, GPS
  • an air pressure sensor 1470 a proximity sensor 1480
  • RGB sensor luminance sensor
  • the communication unit 1500 may include one or more components that allow the electronic device 1000 to communicate with other devices (not shown) and the server 2000.
  • Another device may be a computing device such as the electronic device 1000 or a sensing device, but is not limited thereto.
  • the communication unit 1500 may include a short-range communication unit 1510, a mobile communication unit 1520, and a broadcast reception unit 1530.
  • the short-range wireless communication unit 1510 includes a Bluetooth communication unit, a Bluetooth Low Energy (BLE) communication unit, a Near Field Communication unit, a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, and an infrared ray ( IrDA, an infrared data association (WDA) communication unit, a WFD (Wi-Fi Direct) communication unit, a UWB (ultra wideband) communication unit, an Ant+ communication unit, and the like, but are not limited thereto.
  • BLE Bluetooth Low Energy
  • Wi-Fi Wireless Fidelity
  • the mobile communication unit 1520 transmits and receives a wireless signal to and from at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice signal, a video call signal, or a text/multimedia message.
  • the broadcast receiving unit 1530 receives a broadcast signal and/or broadcast related information from the outside through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the electronic device 1000 may not include the broadcast receiving unit 1530.
  • the communication unit 1500 transmits the first image acquired by the electronic device 1000 to the server 2000 or receives the second image generated using the obfuscated first image from the server 2000 You may.
  • the communication unit 1500 may receive an image or the like stored in another electronic device 1000 connected to the electronic device 1000, or transmit an image stored in a memory in the electronic device 1000 to another electronic device. It might be.
  • the communication unit 1500 may transmit the identifier (eg, URL, metadata) of the first image to the server 2000 or another electronic device.
  • the A/V (Audio/Video) input unit 1600 is for inputting an audio signal or a video signal, which may include a camera 1610 and a microphone 1620.
  • the camera 1610 may obtain a video frame such as a still image or a video through an image sensor in a video call mode or a shooting mode.
  • the image captured through the image sensor may be processed through the processor 1300 or a separate image processing unit (not shown).
  • the microphone 1620 receives external sound signals and processes them as electrical voice data.
  • the microphone 1620 may receive an acoustic signal from an external device or user.
  • the microphone 1620 may receive a user's voice input.
  • the microphone 1620 may use various noise removal algorithms to remove noise generated in the process of receiving an external sound signal.
  • the memory 1700 may store a program for processing and controlling the processor 1300, and may store data input to or output from the electronic device 1000. Also, the memory 1700 may store an image and a result of searching for an image stored in the memory 1700. The memory 1700 may store information related to images stored in the electronic device 1000 in the electronic device 1000. For example, the memory 1700 searches for an area including a preset encryption key, a preset decryption key, encoding parameters, decryption parameters, an encryption method, a decryption method, an image segmentation algorithm, and biometric data, and stores the An image learning model or the like for detecting a corresponding biological image may be stored.
  • the memory 1700 may further store information regarding a neural network learned based on a plurality of images or images, layers for specifying the structure of the neural network, and weights between the layers.
  • the memory 1700 may further store not only the learned neural network, but also the acquired original image, an image with obfuscation applied to the original image, and an image with deobfuscation cancellation applied to the obfuscated image.
  • the memory 1700 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.), RAM (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (ROM, Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk , It may include at least one type of storage medium of the optical disk. Programs stored in the memory 1700 may be classified into a plurality of modules according to their functions, for example, a UI module 1710, a touch screen module 1720, and a notification module 1730. .
  • the UI module 1710 may provide specialized UIs, GUIs, and the like interlocked with the electronic device 1000 for each application.
  • the touch screen module 1720 may detect a touch gesture on the user's touch screen and transfer information regarding the touch gesture to the processor 1300.
  • the touch screen module 1720 according to some embodiments may recognize and analyze a touch code.
  • the touch screen module 1720 may be configured with separate hardware including a controller.
  • the notification module 1730 may generate a signal for notifying the occurrence of an event in the electronic device 1000. Examples of events generated in the electronic device 1000 include call signal reception, message reception, key signal input, and schedule notification.
  • the notification module 1730 may output a notification signal in the form of a video signal through the display unit 1210, or may output a notification signal in the form of an audio signal through the sound output unit 1220, or the vibration motor 1230. It is also possible to output a notification signal in the form of a vibration signal.
  • the electronic device 1000 acquires a first image including biometric data, encodes the obtained first image, and synthesizes the encoded biometric image, watermark, and first image to generate a second image.
  • a first image including biometric data By generating, it is also possible to perform obfuscation, in which exposure of biological data included in the first image is prevented.
  • the electronic device 1000 acquires an image including biometric data in which a plurality of images are arranged in time series, detects an image corresponding to the biometric data from the obtained image, encodes the detected image, and encodes the image.
  • the method of releasing the security of the image performed by the electronic device 1000 on the encoded image may correspond to de-obfuscation of the image.
  • 28 is a diagram for describing types of biometric data included in an image processed by an electronic device according to an embodiment.
  • the first image encoded by the electronic device 1000 may include one or more biometric data.
  • the first image encoded by the electronic device 10000 may include iris information, face information, fingerprint information, palmist information, vein information, ear shape information, and other biometric information.
  • the electronic device 1000 determines the type of the respective biometric data and detects the biometric image according to the determined type of the biometric data in order to determine whether biometric data is included in the acquired first image or the second image.
  • the image learning model can be stored in memory.
  • the electronic device 1000 may store various types of biometric information 2814 in a memory using a preset identification code 2812.
  • 29 is a diagram for explaining a method of setting or canceling security of an image by an electronic device using a server according to an embodiment.
  • the electronic device 1000 may set or release security of an image using a server. For example, in S2912, the electronic device 1000 may acquire a first image including biometric data. In S2914, the electronic device 1000 may determine whether biometric data is included in the first image. In S2916, if it is determined that the first image includes biometric data, the electronic device 1000 may transmit the first image to the server 2000.
  • the server 2000 may generate a second image by obfuscating the first image including the biometric data.
  • the server 2000 may generate the second image by performing the same method as the method for setting the security of the image performed by the electronic device 1000 of FIG. 3.
  • the server 2000 may transmit the generated second image to the electronic device 1000. That is, the electronic device 1000 may receive the obfuscated image from the server 2000. In S2922, the electronic device 1000 may output the received second image.
  • the electronic device 1000 may perform a method of releasing the security of the image using the server 2000.
  • the electronic device 1000 may receive the obfuscated second image and transmit the received second image to the server 2000 to prevent exposure of the biometric data.
  • the server 2000 may generate the first image by receiving the obfuscated second image and de-obfuscate the received second image.
  • the server 2000 may transmit the generated first image to the electronic device 1000.
  • the electronic device 1000 may output the first image, which is the obfuscation process received from the server.
  • FIG. 30 is a block diagram of a server according to an embodiment.
  • the server 2000 may include a communication unit 2100, a database (Data Base, 2200 ), and a processor 2300.
  • the communication unit 2100 may include one or more components that enable communication with the electronic device 1000.
  • the communication unit 2100 may receive the first image from the electronic device 1000 or transmit the second image generated by encoding the first image as the first image.
  • the DB 2200 includes an image learning model for detecting a region including biometric data in a first image and a biometric image corresponding to the biometric data, an encoding parameter for encoding an image, a decoding parameter for decoding an image, and The set encryption key and the preset decryption key can be stored.
  • the DB 2200 may store an image learning model for searching an area including biometric data in a first image, and a learning model for detecting a biometric image in the first image. Also, the DB 2200 may further store information related to images stored in the electronic device 1000. The DB 2200 may further store an original image that is not obfuscated and an image that is obfuscated.
  • the processor 2300 typically controls the overall operation of the server 2000.
  • the processor 2300 may overall control the DB 2200 and the communication unit 2100 by executing programs stored in the DB 2200 of the server 2000.
  • the processor 2300 may perform some of the operations of the electronic device 1000 in FIGS. 1 to 25 by executing programs stored in the DB 2200.
  • the processor 2300 searches the region including the biometric data from the first image, detects the biometric image corresponding to the biometric data in the searched region, encodes the detected biometric image, and blocks access to the biometric data
  • a second image may be generated by synthesizing a watermark, a first image, and a coded biometric image.
  • the processor 2300 searches a region including the biometric data in a second image, detects a biometric image corresponding to the biometric data in the searched region, decodes the detected biometric image, and stores the biometric image in the biometric data.
  • a first image may be generated using a watermark for blocking access, the decoded biometric image, and the second image.
  • Computer readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media.
  • Computer readable media may include both computer storage media and communication media.
  • Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
  • the “part” may be a hardware component such as a processor or circuit, and/or a software component executed by a hardware component such as a processor.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioethics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 개시는 이미지의 보안을 설정하는 방법에 관한 것이다. 구체적으로 생체 데이터를 포함하는 이미지의 보안 설정 방법에 있어서, 제1 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하는 동작; 상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하는 동작; 상기 검출된 생체 이미지를 부호화하는 동작; 및 상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 제1 이미지 및 상기 부호화된 생체 이미지를 합성하여 제2 이미지를 생성하는 동작; 을 포함하는 방법이 개시된다.

Description

이미지의 보안 방법 및 이를 수행하는 전자 장치
본 개시는 이미지의 보안 방법 및 이미지의 보안 방법을 수행하는 전자 장치에 관한 것이다. 구체적으로, 본 개시는 생체 데이터를 포함하는 이미지의 보안 방법에 관한 것이다.
최근 기술의 발전으로 시각적 컨텐츠를 디스플레이 하기 위한 디스플레이 장치들은 촬영한 시각적 컨텐츠들을 디스플레이 장치 내에 저장하거나, 디스플레이 장치와 유선 또는 무선으로 연결된 웹상에 저장할 수 있다. 또한, 인터넷 또는 소셜 네트워크 서비스가 활성화 되면서 많은 수의 이미지 또는 영상들이 실시간으로 웹에 업데이트 되고 있다.
소셜 네트워크 서비스 등을 통하여 인터넷에 업로드 되는 시각적 컨텐츠들은 사용자를 식별할 수 있는 개인의 프라이버시와 관련된 정보들을 포함할 수 있다. 예를 들어, 소셜 네트워크 서비스 등을 통하여 업로드된 시각적 컨텐츠에는 개인의 얼굴 이미지, 홍채 이미지, 지문 이미지 등과 같이 개개인을 식별할 수 있는 생체 데이터들이 포함되는 경우가 많다.
최근, 고화질의 시각적 컨텐츠를 촬영할 수 있는 장치들이 개발되면서, 인터넷 또는 웹상 시각적 컨텐츠들은 개인의 식별 정보를 획득할 수 있을 정도로, 고화질의 생체 데이터를 포함하고 있으며, 인터넷 기술이 발달함에 따라 고화질의 시각적 컨텐츠들은 시간적, 공간적 제약을 넘어서 실시간으로 많은 사람들에게 공유될 수 있다.
생체 데이터를 포함하는 고화질의 시각적 컨텐츠로부터 해커들은 개개인을 식별할 수 있는 개인 식별 정보를 획득할 수 있고, 획득된 개인 식별 정보를 이용하여 개인의 휴대폰, 은행 계좌에 불법적으로 액세스할 수 있다. 따라서, 개인의 생체 데이터를 포함하는 시각적 컨텐츠로부터 개인의 식별 정보 누출을 방지하기 위한 시각적 컨텐츠의 처리 기술이 요구되고 있다.
개시된 실시 예에 따르면, 이미지의 보안을 설정하는 방법 및 이미지의 보안을 해제하는 방법이 제공될 수 있다.
또한, 일 실시 예에 의하면, 생체 데이터를 포함하는 이미지의 보안을 설정하는 방법 및 이를 수행하는 전자 장치가 제공될 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 일 실시 예에 따른 생체 데이터를 포함하는 이미지의 보안 설정 방법은 제1 이미지에서 생체 데이터를 포함하는 영역을 검색하는 동작; 상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하는 동작; 상기 검출된 생체 이미지를 부호화하는 동작; 및 상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 제1 이미지 및 상기 부호화된 생체 이미지를 합성하여 제2 이미지를 생성하는 동작을 포함할 수 있다.
일 실시 예에 따라, 상기 워터 마크는 공간 도메인(spatial-domain) 및 주파수 도메인(frequency domain) 중 적어도 하나의 도메인에서, 상기 생체 데이터 및 기 설정된 암호화 키를 이용하여 생성될 수 있다.
일 실시 예에 따라, 상기 생체 데이터를 포함하는 영역을 검색하는 동작은 상기 제1 이미지가 입력되는 경우, 상기 생체 데이터를 포함하는 영역 및 상기 검색된 영역을 식별하기 위한 위치 정보를 출력으로 하는 이미지 학습 모델을 이용하여 상기 영역을 검색하는 동작; 을 더 포함할 수 있다.
일 실시 예에 따라, 상기 생체 이미지를 검출하는 동작은 상기 검색된 영역에 포함된 상기 생체 데이터의 종류를 결정하는 동작; 및 상기 결정된 생체 데이터의 종류 별 상기 생체 이미지를 검출하는 동작; 을 더 포함할 수 있다.
일 실시 예에 따라, 상기 생체 이미지를 검출하는 동작은 소정의 사용자 식별 정보를 획득하는 동작; 및 상기 검색된 영역에서 상기 획득된 사용자 식별 정보에 매칭되는 생체 이미지를 검출하는 동작; 을 더 포함할 수 있다.
일 실시 예에 따라, 상기 생체 이미지를 부호화하는 동작은 상기 생체 데이터의 종류에 기초하여, 상기 생체 이미지를 부호화 하기 위한 부호화 매개 변수를 결정하는 동작; 및 상기 결정된 부호화 매개 변수를 이용하여 상기 생체 이미지를 부호화하는 동작; 을 더 포함할 수 있다.
일 실시 예에 따라, 상기 부호화 매개 변수는 상기 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행하는 전자 장치 내의 메모리에 미리 저장되거나, 상기 제1 이미지에 임베딩 될 수 있다.
일 실시 예에 따라, 상기 생체 이미지를 부호화하는 동작은 상기 제1 이미지로부터 상기 생체 이미지가 검출된 이력을 기초로 미리 학습되는 부호화 학습 모델을 이용하여 상기 검출된 생체 이미지를 부호화 하는 동작; 을 더 포함할 수 있다.
일 실시 예에 따라, 상기 생체 데이터는 홍채 정보, 얼굴 정보, 지문 정보, 음성 정보, 손금 정보, 심전도 정보, 뇌전도 정보, 정맥 정보 및 귀 형태에 관한 정보 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따라 상기 방법은, 상기 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행하는 전자 장치 외부의 데이터 베이스와 상기 제2 이미지를 공유하는 동작; 을 더 포함할 수 있다.
일 실시 예에 따라, 상기 제1 이미지는 상기 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행하는 전자 장치 내의 메모리, 상기 전자 장치와 유선 또는 무선으로 연결되고, 이미지를 디스플레이 하기 위한 디스플레이 패널을 포함하는 다른 전자 장치 및 상기 전자 장치 외부의 복수의 이미지들이 저장되는 데이터 베이스 중 적어도 하나로부터 획득될 수 있다.
일 실시 예에 따라, 상기 생체 이미지를 부호화하는 동작은 상기 생체 이미지의 시각 정보들을 동일하게 유지하면서, 상기 검출된 생체 이미지를 부호화할 수 있다.
또한, 상기 기술적 과제를 해결하기 위한 또 다른 실시 예에 따라, 생체 데이터를 포함하는 이미지의 보안 해제 방법은 제2 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하는 동작; 상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하는 동작; 상기 검출된 생체 이미지를 복호화하는 동작; 및 상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 복호화된 생체 이미지 및 상기 제2 이미지를 이용하여 제1 이미지를 생성하는 동작을 포함할 수 있다.
일 실시 예에 따라, 상기 워터 마크는 상기 제2 이미지로부터 검출되고, 기 복호화키를 이용하여 미리 복호화 될 수 있다.
또한, 상기 기술적 과제를 해결하기 위한 본 개시의 또 다른 실시 예에 따라, 이미지의 보안을 설정하는 전자 장치는 통신 인터페이스; 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행함으로써 상기 전자 장치를 제어하는 적어도 하나의 프로세서; 를 포함하고, 상기 프로세서는, 제1 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하고, 상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하고, 상기 검출된 생체 이미지를 부호화하고, 상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 제1 이미지 및 상기 부호화된 생체 이미지를 합성하여 제2 이미지를 생성할 수 있다.
일 실시 예에 따라, 상기 워터 마크는 공간 도메인(spatial-domain) 및 주파수 도메인(frequency domain) 중 적어도 하나의 도메인에서, 상기 생체 데이터 및 기 설정된 암호화 키를 이용하여 생성될 수 있다.
일 실시 예에 따라, 상기 프로세서는 상기 제1 이미지가 입력되는 경우, 상기 생체 데이터를 포함하는 영역 및 상기 검색된 영역을 식별하기 위한 위치 정보를 출력으로 하는 이미지 학습 모델을 이용하여 상기 영역을 검색할 수 있다.
또한, 상기 기술적 과제를 해결하기 위한 또 다른 실시 예에 따라, 이미지의 보안을 해제하는 전자 장치는 통신 인터페이스; 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행함으로써 상기 전자 장치를 제어하는 적어도 하나의 프로세서; 를 포함하고, 상기 프로세서는 제2 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하고, 상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하고, 상기 검출된 생체 이미지를 복호화하고, 상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 복호화된 생체 이미지 및 상기 제2 이미지를 이용하여 제1 이미지를 생성할 수 있다.
일 실시 예에 따라, 상기 워터 마크는 상기 제2 이미지로부터 검출되고, 기 설정된 복호화키를 이용하여 미리 복호화 될 수 있다.
또한, 상기 기술적 과제를 해결하기 위한 또 다른 실시 예에 따라, 제1 이미지에서 생체 데이터를 포함하는 영역을 검색하는 동작; 상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하는 동작; 상기 검출된 생체 이미지를 부호화하는 동작; 및 상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 제1 이미지 및 상기 부호화된 생체 이미지를 합성하여 제2 이미지를 생성하는 동작을 수행하도록 하는 명령어들을 포함하는, 컴퓨터 프로그램을 제공할 수 있다.
본 개시에 따른 전자 장치에 따르면, 생체 데이터를 포함하는 시각적 컨텐츠로부터 생체 데이터의 노출을 방지할 수 있다.
도 1은 일 실시 예에 따른, 전자 장치가 이미지의 보안을 설정하는 방법을 개략적으로 설명하기 위한 도면이다.
도 2는 시각적 컨텐츠로부터 노출되는 생체 데이터의 악용 가능성을 설명하기 위한 도면이다.
도 3은 일 실시 예에 따른 전자 장치가 수행하는 이미지의 보안을 설정하는 방법을 나타내는 흐름도이다.
도 4는 일 실시 예에 따른 전자 장치가 수행하는 이미지의 보안을 설정하는 방법을 세부적으로 설명하기 위한 도면이다.
도 5는 또 다른 실시 예에 따른 전자 장치가 홍채 정보를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 전자 장치가 홍채 정보를 포함하는 이미지의 보안을 설정하는 방법을 세부적으로 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 제1 이미지 및 워터 마크를 합성하여 제2 이미지를 생성하는 과정을 설명하기 위한 도면이다.
도 8은 또 다른 실시 예에 따른 전자 장치가 지문 정보를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 전자 장치가 지문 정보를 포함하는 이미지의 보안을 설정하는 방법을 구체적으로 설명하기 위한 도면이다.
도 10은 또 다른 실시 예에 따른 전자 장치가 정맥 정보를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
도 11은 또 다른 실시 예에 따른 전자 장치가 얼굴 정보를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
도 12는 또 다른 실시 예에 따른 전자 장치가 얼굴 정보를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
도 13은 일 실시 예에 따른 전자 장치가 얼굴 정보를 포함하는 이미지의 보안을 설정하는 방법을 세부적으로 설명하기 위한 도면이다.
도 14는 또 다른 실시 예에 따른 전자 장치가 귀 형태에 관한 정보를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
도 15는 일 실시 예에 따른 전자 장치가 귀 형태에 관한 정보를 포함하는 이미지의 보안을 설정하는 방법을 세부적으로 설명하기 위한 도면이다.
도 16은 일 실시 예에 따른 전자 장치가 수행하는 생체 데이터를 포함하는 이미지의 보안 해제 방법을 나타내는 흐름도이다.
도 17은 일 실시 예에 따른 전자 장치가 수행하는 이미지의 보안을 해제하는 방법을 세부적으로 설명하기 위한 도면이다.
도 18은 또 다른 실시 예에 따른 전자 장치가 홍채 정보를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
도 19는 또 다른 실시 예에 따른 전자 장치가 지문 정보를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
도 20은 또 다른 실시 예에 따른 전자 장치가 정맥 정보를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
도 21은 또 다른 실시 예에 따른 전자 장치가 얼굴 정보를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
도 22는 또 다른 실시 예에 따른 전자 장치가 얼굴 정보를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
도 23은 또 다른 실시 예에 따른 전자 장치가 귀 형태에 관한 정보를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
도 24는 일 실시 예에 따른 전자 장치가 복수의 생체 데이터를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
도 25는 일 실시 예에 따른 전자 장치가 복수의 생체 데이터를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
도 26은 일 실시 예에 따른 생체 데이터를 포함하는 이미지의 보안을 설정하는 방법 및 이미지의 보안을 해제하는 방법을 수행하는 전자 장치를 나타내는 블록도이다.
도 27은 또 다른 실시 예에 따른 생체 데이터를 포함하는 이미지의 보안을 설정하는 방법 및 이미지의 보안을 해제하는 방법을 수행하는 전자 장치를 나타내는 블록도이다.
도 28은 일 실시 예에 따른 전자 장치가 처리하는 이미지에 포함된 생체 데이터의 종류를 설명하기 위한 도면이다.
도 29는 일 실시 예에 따른 전자 장치가 서버를 이용하여 이미지의 보안을 설정하거나 해제하는 방법을 설명하기 위한 도면이다.
도 30은 일 실시 예에 따른 서버의 블록도를 나타내는 도면이다.
일 실시 예에 따른 생체 데이터를 포함하는 이미지의 보안 설정 방법에 있어서, 제1 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하는 동작; 상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하는 동작; 상기 검출된 생체 이미지를 부호화하는 동작; 및 상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 제1 이미지 및 상기 부호화된 생체 이미지를 합성하여 제2 이미지를 생성하는 동작을 포함하는 방법이 제공될 수 있다.
일 실시 예에 따른 상기 워터 마크는 공간 도메인(spatial-domain) 및 주파수 도메인(frequency domain) 중 적어도 하나의 도메인에서, 상기 생체 데이터 및 기 설정된 암호화 키를 이용하여 생성될 수 있다.
일 실시 예에 따른 상기 생체 데이터를 포함하는 영역을 검색하는 동작은 상기 제1 이미지가 입력되는 경우, 상기 생체 데이터를 포함하는 영역 및 상기 검색된 영역을 식별하기 위한 위치 정보를 출력으로 하는 이미지 학습 모델을 이용하여 상기 영역을 검색하는 동작; 을 더 포함할 수 있다.
일 실시 예에 따른 상기 생체 이미지를 검출하는 동작은 상기 검색된 영역에 포함된 상기 생체 데이터의 종류를 결정하는 동작; 및 상기 결정된 생체 데이터의 종류 별 상기 생체 이미지를 검출하는 동작; 을 더 포함할 수 있다.
일 실시 예에 따른 상기 생체 이미지를 검출하는 동작은 소정의 사용자 식별 정보를 획득하는 동작; 및 상기 검색된 영역에서 상기 획득된 사용자 식별 정보에 매칭되는 생체 이미지를 검출하는 동작; 을 더 포함할 수 있다.
일 실시 예에 따른 상기 생체 이미지를 부호화하는 동작은 상기 생체 데이터의 종류에 기초하여, 상기 생체 이미지를 부호화 하기 위한 부호화 매개 변수를 결정하는 동작; 및 상기 결정된 부호화 매개 변수를 이용하여 상기 생체 이미지를 부호화하는 동작; 을 더 포함할 수 있다.
일 실시 예에 따른 상기 부호화 매개 변수는 상기 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행하는 전자 장치 내의 메모리에 미리 저장되거나, 상기 제1 이미지에 임베딩 될 수 있다.
일 실시 예에 따른 상기 생체 데이터는 홍채 정보, 얼굴 정보, 지문 정보, 손금 정보, 정맥 정보 및 귀 형태에 관한 정보 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따른 상기 생체 데이터를 포함하는 이미지의 보안 설정 방법은 상기 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행하는 전자 장치 외부의 데이터 베이스와 상기 제2 이미지를 공유하는 동작; 을 더 포함할 수 있다.
일 실시 예에 따른 상기 제1 이미지는 상기 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행하는 전자 장치 내의 메모리, 상기 전자 장치와 유선 또는 무선으로 연결되고, 이미지를 디스플레이 하기 위한 디스플레이 패널을 포함하는 다른 전자 장치 및 상기 전자 장치 외부의 복수의 이미지들이 저장되는 데이터 베이스 중 적어도 하나로부터 획득될 수 있다.
일 실시 예에 따른 생체 데이터를 포함하는 이미지의 보안 해제 방법에 있어서, 제2 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하는 동작; 상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하는 동작; 상기 검출된 생체 이미지를 복호화하는 동작; 및 상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 복호화된 생체 이미지 및 상기 제2 이미지를 이용하여 제1 이미지를 생성하는 동작을 포함하는 방법이 제공될 수 있다.
일 실시 예에 따른 상기 워터 마크는 상기 제2 이미지로부터 검출되고, 기 복호화키를 이용하여 미리 복호화 될 수 있다.
일 실시 예에 따른 이미지의 보안을 설정하는 전자 장치에 있어서, 통신 인터페이스; 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행함으로써 상기 전자 장치를 제어하는 적어도 하나의 프로세서; 를 포함하고, 상기 적어도 하나의 프로세서는, 제1 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하고, 상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하고, 상기 검출된 생체 이미지를 부호화하고, 상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 제1 이미지 및 상기 부호화된 생체 이미지를 합성하여 제2 이미지를 생성할 수 있다.
일 실시 예에 따른 상기 워터 마크는 공간 도메인(spatial-domain) 및 주파수 도메인(frequency domain) 중 적어도 하나의 도메인에서, 상기 생체 데이터 및 기 설정된 암호화 키를 이용하여 생성될 수 있다.
일 실시 예에 따른 이미지의 보안을 해제하는 전자 장치에 있어서, 통신 인터페이스; 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행함으로써 상기 전자 장치를 제어하는 적어도 하나의 프로세서; 를 포함하고, 상기 적어도 하나의 프로세서는 제2 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하고, 상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하고, 상기 검출된 생체 이미지를 복호화하고, 상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 복호화된 생체 이미지 및 상기 제2 이미지를 이용하여 제1 이미지를 생성하는 전자 장치가 제공될 수 있다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명의 일 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 일 실시 예에 따른, 전자 장치가 이미지의 보안을 설정하는 방법을 개략적으로 설명하기 위한 도면이다.
일 실시 예에 의하면, 전자 장치(1000)는 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행함으로써, 생체 데이터를 포함하는 이미지로부터 생체 데이터의 노출을 방지할 수 있다. 본 명세서에서 기술되는 생체 데이터의 노출(leakage)는 생체 데이터를 악용하려는 해커의 생체 데이터에 대한 접근(access)을 의미할 수 있다. 일 실시 예에 의하면, 이미지의 보안 방법은 이미지의 보안 설정 방법과 이미지의 보안 해제 방법을 포함할 수 있다.
고화질의 시각적 컨텐츠를 촬영할 수 있는 장치들이 개발되면서, 인터넷 또는 웹상 시각적 컨텐츠들은 개인의 식별 정보를 획득할 수 있을 정도로, 고화질의 생체 데이터를 포함하고 있으며, 해커들은 생체 데이터를 포함하는 고화질의 시각적 컨텐츠로부터 개개인을 식별할 수 있는 개인 식별 정보를 무단으로 획득할 수 있는 문제점이 있었다.
이러한 문제를 해결하기 위하여, 일반적인 전자 장치(3000)들은 얼굴 정보, 홍채 정보 등을 포함하는 이미지(112)에서 생체 이미지에 대응하는 부분 이미지(115, 117)를 블러링(Blurring)처리함으로써 출력 이미지(114, 116)를 생성하였고, 생체 이미지의 시각적 왜곡(예컨대, 생체 이미지를 흐리게 처리 또는 생체 이미지의 윤곽을 변경)을 통하여 데이터의 노출을 방지하였다. 다만, 일반적인 전자 장치(3000)가 생체 이미지를 블러링 처리하는 경우, 이미지에 시각 정보들이 변경되어 동일한 시각적 내용을 전달할 수 없거나 시각적 품질이 떨어지는 문제점이 있다.
이와는 달리, 일 실시 예에 의한 전자 장치(1000)는 이미지로부터 생체 데이터의 노출을 방지하기 위하여, 생체 이미지를 부호화 시, 생체 이미지의 시각 정보들을 동일하게 유지 할 수 있기 때문에, 이미지의 품질을 유지하면서 동시에 생체 데이터의 노출을 방지할 수 있는 효과가 있다. 즉, 일 실시 예에 의한 전자 장치(1000)가 원본 이미지로부터 검출된 생체 이미지를 부호화하고, 부호화된 생체 이미지, 워터 마크 및 원본 이미지를 합성하여 생성한 출력 이미지(104)는 원본 이미지와 시각적으로 차이가 없기 때문에, 사용자는 원본 이미지(102)와 출력 이미지(104)의 차이를 인지할 수 없다.
본 명세서에서 기술되는 시각 정보들은 이미지 내 픽셀들의 픽셀 값, 픽셀들의 배치 패턴, 픽셀 값 및 픽셀들의 배치 패턴에 기초하여 결정되는 이미지의 명도, 명암, 음영에 대한 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다.
일 실시 예에 의하면, 전자 장치(1000)가 부호화된 생체 이미지, 워터 마크 및 원본 이미지를 합성하는 것은 원본 이미지를 난독 처리(Obfuscation)하는 과정에 대응될 수 있다. 예를 들어, 전자 장치(1000)는 제1 이미지에 포함된 생체 이미지를 난독 처리함(Obfuscation)으로써, 권한 없는 자가 제1 이미지로부터 생체 데이터의 획득, 검출, 재생이 불가하도록 할 수 있다. 또한, 전자 장치(1000)는 제1 이미지에 포함된 생체 이미지를 난독 처리함으로써 제1 이미지에 포함된 생체 데이터에 대한 권한 없는 자의 접근(access)을 차단할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)가 부호화된 생체 이미지, 워터 마크 및 원본 이미지를 합성하는 것은 원본 이미지에 부호화된 생체 이미지 및 워터 마크를 임베딩(embedding)하는 과정에 대응될 수 있다.
일 실시 예에 따른 전자 장치(1000)는 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 전자 장치(1000)는, 디스플레이 패널을 포함하는, 디지털 카메라, 모바일 단말, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자북 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, TV, TV셋톱 박스, 디지털 싱글 렌즈 반사 카메라(digital single-lens reflex camera) 또는 폰 카메라등이 있을 수 있으나, 이에 한정되는 것은 아니다.
본 명세서에서 기술되는 전자 장치(1000)는 사용자에 의해 착용될 수 있는 장치(wearable device)일 수 있다. 웨어러블 디바이스는 액세서리 형 장치(예컨대, 시계, 반지, 팔목 밴드, 발목 밴드, 목걸이, 안경, 콘택트 렌즈), 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형 장치(예: 전자 의복), 신체 부착형 장치(예컨대, 스킨 패드(skin pad)), 또는 생체 이식형 장치(예: implantable circuit) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.
도 2는 시각적 컨텐츠로부터 노출되는 생체 데이터의 악용 가능성을 설명하기 위한 도면이다.
소셜 네트워크 서비스 등을 통하여 인터넷에 업로드 되는 시각적 컨텐츠들은 사용자를 식별할 수 있는 개인의 프라이버시와 관련된 정보들을 포함할 수 있다. 예를 들어, 소셜 네트워크 서비스 등을 통하여 업로드된 시각적 컨텐츠에는 개인의 얼굴 이미지, 홍채 이미지, 지문 이미지 등과 같이 개개인을 식별할 수 있는 생체 데이터들이 포함되는 경우가 많다.
최근, 고화질의 시각적 컨텐츠를 촬영할 수 있는 장치들이 개발되면서, 인터넷 또는 웹상 시각적 컨텐츠들은 개인의 식별 정보를 획득할 수 있을 정도로, 고화질의 생체 데이터를 포함하고 있으며, 대상을 촬영함으로써 실시간으로 획득되는 촬영 영상도 개인의 식별 정보를 획득할 수 있을 정도의 고화질의 생체 데이터를 포함하는 경우가 많다.
타인의 생체 데이터를 무단으로 획득하고자 하는 해커들은 사진을 촬영하는 타인의 폰으로부터 획득되는 이미지(202), 소셜 네트워크 서비스(SNS)를 통하여 웹상에 업로드된 이미지(204), 화상 통화를 수행하는 타인의 폰으로부터 획득되는 영상(206) 또는 TV에서 방송되는 영상(208)으로부터 생체 데이터를 획득할 수 있다. 또한, 해커들은 획득된 타인의 생체 데이터를 이용하여 타인의 모바일 폰에 액세스(212) 하거나, 타인의 은행 계좌에 액세스(214)할 수도 있다.
도 3은 일 실시 예에 따른 전자 장치가 수행하는 이미지의 보안을 설정하는 방법을 나타내는 흐름도이다.
S310에서, 전자 장치(1000)는 제1 이미지에서 생체 데이터를 포함하는 영역을 검색할 수 있다. 예를 들어, 전자 장치(1000)는 얼굴 정보를 포함하는 제1 이미지를 획득하는 경우, Eigenface 알고리즘을 이용하여 제1 이미지에서 얼굴 영역을 검색할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 상기 제1 이미지가 입력되는 경우, 상기 생체 데이터를 포함하는 영역 및 상기 검색된 영역을 식별하기 위한 위치 정보를 출력으로 하는 이미지 학습 모델을 이용하여 상기 영역을 검색할 수 있다. 전자 장치(1000)가 이용하는 이미지 학습 모델은 이미지 또는 영상에 포함된 생체 데이터 이력에 기초하여 최적화 될 수 있기 때문에, 전자 장치(1000)는 효과적으로 이미지에서 생체 데이터를 포함하는 영역을 검색할 수 있다.
일 실시 예에 의하면, 이미지 학습 모델이 출력하는 위치 정보는 이미지상 피셀의 좌표에 관한 정보를 포함할 수 있다. 또 다른 실시 예에 의하면, 이미지 학습 모델은 과거 입력되는 이미지의 이력(history)에 기초하여 학습될 수 있고, 전자 장치(1000)는 이미지의 이력에 기초하여 미리 학습된 이미지 학습 모델을 이용하여 더 정확한 생체 데이터를 포함하는 영역을 검색할 수 있다.
예를 들어, 전자 장치(1000)는 여러 계층을 가진 깊은 신경망(Neural Network) 구조를 가지는 딥러닝 알고리즘을 이용하여 제1 이미지로부터 생체 데이터를 포함하는 영역을 검색할 수 있다. 딥러닝은 기본적으로 여러 계층을 가진 깊은 신경망(deep neural network) 구조로 형성될 수 있다. 본 개시에 따른 전자 장치가 이용하는 신경망은 합성곱 신경망(Convolutional Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)을 포함할 수 있으나, 이에 한정되지 않는다. 일 실시 예에 의하면, 전자 장치(1000)가 이용하는 신경망은 컨벌루션 레이어와 풀링 레이어(pooling layer)가 반복 사용되는 CNN 구조에 풀리 커넥티드 레이어(fully-connected)가 연결된 구조일 수 있다.
일 실시 예에 의하면, 전자 장치(1000)가 획득하는 제1 이미지는 상기 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행하는 전자 장치(1000) 내의 메모리, 상기 전자 장치와 유선 또는 무선으로 연결되고, 이미지를 디스플레이 하기 위한 디스플레이 패널을 포함하는 다른 전자 장치 및 상기 전자 장치 외부의 복수의 이미지들이 저장되는 데이터 베이스 중 적어도 하나로부터 획득될 수 있다. 즉, 전자 장치(1000)가 획득하는 제1 이미지는 전자 장치와 연결된 웹상 데이터 베이스, 소셜 네트워크 서비스(sns), 포토 뱅크, 홈 라이브러리, 스트리밍 비디오 서비스 등으로부터 획득될 수 있다.
S320에서, 전자 장치(1000)는 검색된 영역에서 생체 이미지를 검출할 수 있다. 예를 들어, 전자 장치(1000)는 생체 데이터를 포함하는 영역을 검색하고, 검색된 영역에서 생체 데이터에 대응하는 생체 이미지를 검출할 수 있다. 일 실시 예에 의하면, 생체 이미지는 얼굴 이미지, 지문 이미지, 정맥(vein print) 이미지, 귀 형태 이미지, 손금 이미지 중 적어도 하나를 포함할 수 있다. 전자 장치(1000)는 이미지 세그멘테이션(Segmentation) 알고리즘을 이용하여 검색된 영역에서 생체 이미지를 검출할 수 있다.
일 실시 예에 의하면, 전자 장치(1000)는 검색된 영역에 포함된 생체 데이터의 종류를 결정하고, 결정된 생체 데이터의 종류 별 생체 이미지를 검출할 수 있다. 예를 들어, 제1 이미지가 얼굴 정보 및 지문 정보를 포함하는 경우, 전자 장치(1000)는 제1 이미지에 포함된 생체 데이터의 종류(category)를 얼굴 데이터 및 지문 데이터로 결정하고, 얼굴 데이터에 대응하는 생체 이미지, 지문 데이터에 대응하는 생체 이미지를 각각 검출할 수 있다.
또 다른 실시 예에 의하면, 전자 장치(1000)는 소정의 사용자 식별 정보를 획득하고, 생체 데이터를 포함하는 영역에서 획득된 사용자 식별 정보에 매칭되는 생체 이미지를 검출할 수 있다. 예를 들어, 전자 장치(1000)는 특정 사용자를 식별할 수 있는 사용자 식별 정보를 이용하여, 제1 이미지에 포함된 복수의 사용자 들의 생체 이미지 중, 획득된 사용자 식별 정보에 매칭되는 사용자의 생체 이미지만을 검출할 수 있다. 즉, 전자 장치(1000)는 특정 사용자의 생체 데이터에 대응하는 생체 이미지를 부호화함으로써, 특정 사용자의 생체 데이터의 노출만을 방지할 수도 있다.
또 다른 실시 예에 의하면, 전자 장치(1000)는 제1 이미지가 입력 시, 생체 이미지를 출력으로 하는 미리 학습된 이미지 학습 모델을 이용하여 생체 이미지를 검출할 수 있다. 제1 이미지가 입력 시, 생체 이미지를 출력으로 하는 미리 학습된 이미지 학습 모델은 이미지 또는 여상의 생체 데이터 이력에 기초하여 최적화 될 수 있기 때문에, 전자 장치(1000)는 효과적으로 제1 이미지로부터 생체 이미지를 검출할 수 있다.
S330에서, 전자 장치(1000)는 검출된 생체 이미지를 부호화할 수 있다. 예를 들어, 전자 장치(1000)는 제1 이미지에 포함된 생체 데이터의 종류를 결정하고, 결정된 생체 데이터의 종류에 기초하여 생체 이미지를 부호화 하기 위한 부호화 매개 변수를 결정하며, 결정된 부호화 매개 변수를 이용하여 생체 이미지를 부호화할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 생체 데이터의 종류에 기초하여, 부호화 매개 변수 및 부호화 메트릭 중 적어도 하나를 결정하고, 결정된 부호화 매개 변수 및 부호화 메트릭 중 적어도 하나를 이용하여 생체 이미지를 부호화할 수 있다.
일 실시 예에 의하면, 부호화 매개 변수는 생체 데이터의 종류에 따라 달라질 수 있다. 또한, 부호화 매개 변수는 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행하는 전자 장치(1000) 내의 메모리에 미리 저장되거나, 상기 제1 이미지에 생체 데이터와 함께 임베딩(embedding)될 수 있다. 예를 들어, 부호화 매개 변수는 제1 이미지가 홍채 정보를 포함하는 겨우, 홍채 특징을 추출하기 위한 가버 필터(gabor filter)를 특정하기 위한 랜덤 변수, 도우만 적분 미분 연산자(Doughman's integral differential operator)를 결정하기 위한 적분 변수 및 미분 변수를 포함할 수 있다.
S340에서, 전자 장치(1000)는 워터 마크, 제1 이미지 및 부호화된 생체 이미지를 합성하여 제2 이미지를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 워터 마크, 제1 이미지 및 부호화된 생체 이미지를 공간 도메인(spatial-domain) 및 주파수 도메인(frequency domain) 중 적어도 하나의 도메인에서 합성할 수 있다. 일 실시 예에 의하면, 공간 도메인은 이미지 내 2차원 좌표에 의해 위치가 특정되는 픽셀의 밝기, 픽셀 값을 변수로 하는 도메인일 수 있고, 주파수 도메인은 웨이블릿 변환(Wavelet transform) 또는 이산 코사인 변환(discrete cosine transform)에 기초한 주파수(frequency)를 변수로 하는 도메인일 수 있다. 일 실시 예에 의하면, 워터 마크는 공간 도메인(spatial-domain) 및 주파수 도메인(frequency domain) 중 적어도 하나의 도메인에서, 상기 생체 데이터 및 기 설정된 암호화 키를 이용하여 생성될 수 있다.
일 실시 예에 의하면, 전자 장치(1000)가 수행하는 이미지의 보안 설정 방법은 전자 장치(1000)가 이미지 또는 영상을 포함하는 시각적 컨텐츠를 검색하는 도중에 수행될 수도 있으나, 전자 장치(1000)가 시각적 컨텐츠 검색을 모두 종료 한 후에 수행될 수도 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)가 수행하는 이미지의 보안 설정 방법의 각 단계는 복수의 전자 장치(1000)내에 저장된 서로 다른 서비스를 통하여 수행될 수 있다.
또 다른 실시 예에 의하면, 전자 장치(1000)는 사진을 촬영 한 후, 촬영된 사진에 대해 도 3에 기재된 이미지의 보안 설정 방법을 수행할 수 있다. 즉, 제1 이미지는 실시간으로 촬영된 사진 또는 이미지를 포함할 수 있다. 또한, 전자 장치(1000)는 이미지뿐만 아니라, 영상에 대해서도 이미지의 보안 설정 방법을 적용할 수 있다. 즉, 전자 장치(1000)는 화상 통화(video call) 도중에 획득되는 영상에 대해서도 생체 데이터의 노출을 방지하기 위한 난독 처리(obfuscation)를 수행할 수 있다.
일 실시 예에 의하면, 전자 장치(1000)가 수행하는 생체 데이터를 포함하는 이미지의 보안 설정 방법은 윈도우 시스템 레벨(window system level)에서 수행될 수도 있지만, 전자 장치(1000)에 저장된 응용 프로그램 레벨(application level)에서 수행될 수도 있다. 또한, 본원 전자 장치(1000)가 생성한 제2 이미지는 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행하는 전자 장치 외부의 데이터 베이스와 공유 될 수 있다.
도 4는 일 실시 예에 따른 전자 장치가 수행하는 이미지의 보안을 설정하는 방법을 세부적으로 설명하기 위한 도면이다.
단계 S410은 도 3의 S320에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. 단계 S420은 도 3의 S320에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. 단계 S430은 도 3의 S330에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.
S440에서, 전자 장치(1000)는 제1 이미지에 포함된 생체 데이터 및 기 설정된 암호화키를 이용하여 워터 마크를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 제1 이미지에 포함된 생체 데이터로부터 결정되는 적어도 하나의 생체 특성에 관한 정보들을 기 설정된 암호화 키를 이용하여 암호화함으로써 워터 마크를 생성할 수 있다. 예를 들어, 워터 마크는 공간 도메인(spatial-domain) 및 주파수 도메인(frequency domain) 중 적어도 하나의 도메인에서, 상기 생체 데이터 및 기 설정된 암호화 키를 이용하여 생성될 수 있다.
일 실시 예에 의하면 워터 마크는 비가시성, 강인성, 명확성, 보안성과 같이 컨텐츠의 저작권 보호를 위해 주로 사용되는 기술로, 워터 마크는 컨텐츠에 대한 저작권 정보, 소유권 정보, 원본 컨텐츠에 관한 정보, 위변조 여부를 확인하기 위한 정보들을 포함할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 워터 마크를 원본 이미지와 합성함으로써 원본 이미지의 시각 정보들은 동일하게 유지하면서 동시에 원본 이미지로부터 생체 데이터의 누출을 방지할 수 있다.
암호화 키는 이미지의 보안 설정 방법을 수행하는 전자 장치(1000)내의 메모리에 저장될 수도 있고, 전자 장치(1000)와 유선 또는 무선으로 연결되는 서버에 저장될 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 제1 이미지에 지문 이미지가 포함되는 경우, 지문 이미지를 검출하고, 검출된 지문 이미지로부터 HCP(High Curvature Points)를 생성하며, 생성된 hcp 포인트들에 대한 특성을 미리 설정된 암호화키를 이용하여 암호화함으로써 워터 마크를 생성할 수 있다.
S450에서, 전자 장치(1000)는 워터 마크, 제1 이미지 및 부호화된 생체 이미지를 합성하여 제2 이미지를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 공간 도메인 또는 주파수 도메인 중 적어도 하나의 도메인에서 워터 마크, 제1 이미지 및 부호화된 생체 이미지를 합성할 수 있다. 전자 장치(1000)는 픽셀 단위 연산을 통하여 워터 마크, 제1 이미지 및 부호화된 생체 이미지를 합성할 수 있다.
도 5는 또 다른 실시 예에 따른 전자 장치가 홍채 정보를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
S502에서, 전자 장치(1000)는 제1 이미지를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 전자 장치(1000) 내의 메모리로부터 제1 이미지를 획득하거나, 전자 장치(1000)와 유선 또는 무선으로 연결된 서버 또는 다른 전자 장치로부터 제1 이미지를 획득할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 전자 장치 주변의 대상들을 실시간으로 촬영함으로써 제1 이미지를 획득할 수 있다. 제1 이미지는 전자 장치(1000)가 촬영한 영상을 소정의 시간 간격으로 분할함으로써 생성될 수 있다.
S504에서, 전자 장치(1000)는 제1 이미지로부터 홍채 경계 및 중심을 검출할 수 있다. 예를 들어, 전자 장치(1000)는 제1 이미지에 포함된 사람의 좌안 및 우안 각각으로부터 홍채 경계 및 중심을 검출할 수 있다. S506에서, 전자 장치(1000)는 제1 이미지로부터 동공 경계 및 중심을 검출할 수 있다. 전자 장치(1000)는 좌안 및 우안 각각의 동공 경계, 동공 중심, 홍채 경계 및 홍채 중심을 결정하고, 결정된 동공 경계, 동공 중심, 홍채 경계 및 홍채 중심을 이용하여 홍채 이미지를 검출할 수 있다.
S508에서, 전자 장치(1000)는 특징 맵을 생성할 수 있다. 예를 들어, 전자 장치(1000)는 검출된 홍채 경계, 홍채 중심, 동공 경계 및 동공 중심을 이용하여 홍채 이미지로부터 홍채 특징을 결정하고, 결정된 홍채 특징을 이용하여 특징 맵을 생성할 수 있다. 예를 들어, 본 명세서에서 홍채 특징은 홍채원의 중심, 홍채원의 반지름, 홍채원의 지름, 홍채원의 반경, 동공원의 중심, 동공원의 반지름, 동공원의 지름, 동공원의 반경, 홍채원과 동공원의 반지름의 차이, 동공원 반경과 홍채원 반경 사이의 비율 중 적어도 하나에 대한 정보를 포함할 수 있다.
따라서, 전자 장치(1000)가 결정된 홍채 특징을 이용하여 생성하는 특징 맵은 홍채 이미지의 픽셀 별 또는 기 설정된 도메인에서의 홍채원의 중심, 홍채원의 반지름, 홍채원의 지름, 홍채원의 반경, 동공원의 중심, 동공원의 반지름, 동공원의 지름, 동공원의 반경, 홍채원과 동공원의 반지름의 차이, 동공원 반경과 홍채원 반경 사이의 비율 중 적어도 하나에 대한 정보를 포함할 수 있다.
S510에서, 전자 장치(1000)는 생성된 특징 맵을 정규화할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 생성된 특징 맵을 정규화하는 것은, 생성된 특징 맵의 픽셀을 극 좌표로부터 선형 좌표로 변환하는 것으로 정의될 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)가 생성된 특징 맵을 정규화하는 과정은 홍채 이미지를 정규화하는 과정에 대응될 수 있다. 즉, 전자 장치(1000)는 홍채 이미지의 픽셀을 직교 좌표계(cartesian)로부터 일반 좌표계(generalized coordinate system)로 변환함으로써 홍채 이미지를 정규화할 수 있다.
S512에서, 전자 장치(1000)는 정규화된 홍채 이미지를 부호화(encoding)할 수 있다. 예를 들어, 전자 장치(1000)는 홍채 이미지를 컨벌루션 변환(convolution transform) 및 웨이블릿 변환(wavelet transform) 중 적어도 하나를 이용함으로써 부호화할 수 있다. 또한, 전자 장치(1000)는 정규화된 홍채 이미지를 부호화함에 앞서, 홍채 이미지를 필터링할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 가버 필터(gabor filter) 및 Haar 필터 중 적어도 하나를 이용하여 홍채 이미지를 필터링할 수 있다.
S514에서, 전자 장치(1000)는 원본 홍채 이미지와 필터링된 홍채 이미지 사이의 스펙터(Spectre)를 결정할 수 있다. 본 개시에 따른 스펙터는 필터링 되지 않은 홍채 이미지와 필터링된 홍채 이미지의 스펙트럼 차이(spectre difference between original image and filtered image)를 의미할 수 있다. S516에서, 전자 장치(1000)는 필터링 되지 않은 홍채 이미지와 필터링된 홍채 이미지 사이의 스펙터를 기 설정된 암호화키를 이용하여 암호화함으로써 워터 마크를 생성할 수 있다.
S518에서, 전자 장치는 워터 마크를 제1 이미지에 임베딩(embedding)할 수 있다. 예를 들어, 전자 장치는 제1 이미지에 포함된 픽셀의 밝기, 픽셀 값등을 변경함으로써 워터 마크를 제1 이미지에 삽입할 수 있다. 하지만, 전자 장치(1000)는 주파수 도메인으로 변환된 제1 이미지에 포함된 생체 데이터에 주파수 도메인으로 변환된 워터 마크 데이터를 추가함으로써, 워터 마크를 제1 이미지에 삽입할 수 있다.
S520에서, 전자 장치(1000)는 정규화된 홍채 이미지를 역 정규화(Denormalization)할 수 있다. 예를 들어, 전자 장치(1000)는 정규화된 홍채 이미지의 픽셀을 일반 좌표계(generalized coordinate system)로부터 직교 좌표계(cartesian)로 변환함으로써 홍채 이미지를 역 정규화할 수 있다.
S522에서, 전자 장치(1000)는 부호화된 홍채 이미지를 제1 이미지에 임베딩(embedding)할 수 있다. S524에서, 전자 장치(1000)는 부호화된 홍채 이미지 및 워터 마크가 임베딩된 제1 이미지를 이용하여 제2 이미지를 생성할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 워터 마크, 부호화된 홍채 이미지 및 제1 이미지를 합성하는 과정은 제1 이미지에 워터 마크 및 부호화된 홍채 이미지를 임베딩하는 과정에 대응될 수 있다.
도 6은 일 실시 예에 따른 전자 장치가 홍채 정보를 포함하는 이미지의 보안을 설정하는 방법을 세부적으로 설명하기 위한 도면이다.
S602에서, 전자 장치(1000)는 원본 이미지를 획득할 수 있다. 예를 들어, 전자 장치(1000)가 획득하는 원본 이미지는 홍채 정보에 대응하는 홍채 이미지를 포함할 수 있다. S604에서, 전자 장치(1000)는 획득된 원본 이미지를 정규화(normalization)할 수 있다. 단계 S604는 도 5의 S510에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. S606에서, 전자 장치(1000)는 정규화된 이미지로부터 1D(One dimension) Original 신호를 획득할 수 있다.
S608에서, 전자 장치(1000)는 획득된 1D Original 신호를 필터링할 수 있다. 예를 들어, 전자 장치(1000)는 가버(gabor) 필터 및 haar 필터 중 적어도 하나를 이용하여 획득된 1D Original 신호를 필터링할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 가버 필터 및 haar 필터 중 적어도 하나를 이용하여 획득된 1D Original 신호를 필터링하는 것은 원본 이미지로부터 홍채 특징을 추출하는 과정에 대응될 수 있다.
S610에서, 전자 장치(1000)는 획득된 필터링된 1D 신호를 이용하여 원본 이미지를 수정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 필터링된 1D 신호를 이용하여 원본 이미지의 적어도 일부를 수정할 수 있다. S612에서, 전자 장치(1000)는 원본 이미지에서 수정된 이미지와 원본 이미지를 합성함으로써 혼합 이미지를 생성할 수 있다. S614에서, 전자 장치(1000)는 생성된 혼합 이미지로부터 홍채 이미지를 분할할 수 있다. 전자 장치(1000)는 기 설정된 이미지 분할(Segmentation) 알고리즘을 이용하여 홍채 이미지를 분할할 수 있다.
S616에서, 전자 장치(1000)는 분할된 홍채 이미지로부터 홍채 특징을 검출할 수 있다. 일 실시 예에 의하면, 홍채 특징은 홍채 이미지에서 동공 위치 및 홍채 위치에 따른 기하학적 파라미터에 관한 정보, 홍채 텍스처에 관한 정보를 포함할 수 있다. S618에서, 전자 장치(1000)는 검출된 홍채 특징을 부호화함으로써 홍채 코드를 생성할 수 있다. 전자 장치(1000)는 생성된 홍채 코드를 기준 코드(Target Code)와 비교함으로써 유사도 파라미터를 생성할 수 있다.
일 실시 예에 의하면 유사도 파라미터는 해밍 거리(hamming distance)를 포함할 수 있다. 해밍 거리(Hamming distance, HD)는 같은 길이의 두 문자열에서, 같은 위치에서 서로 다른 기호들이 몇 개인지 나타내는 거리 함수로, 특히 이진화된 코드의 경우 해밍 거리는 비교될 각 이진화된 코드 사이의 불일치 비트의 수를 나타낸다. 전자 장치(1000)는 홍채 코드와 기준 코드를 비교한 결과 생성된 해밍 거리를 부호화하고, 부호화된 해밍 거리를 이용하여 원본 이미지에 포함된 생체 이미지를 부호화할 수 있다.
도 7은 일 실시 예에 따른 제1 이미지 및 워터 마크를 합성하여 제2 이미지를 생성하는 과정을 설명하기 위한 도면이다.
일 실시 예에 의하면, 전자 장치(1000)는 이미지에 포함된 생체 데이터 및 암호화 키를 이용하여 워터 마크를 생성할 수 있다. 전자 장치(1000)는 워터 마크, 부호화된 생체 이미지 및 제1 이미지를 합성하여 제2 이미지를 생성할 수 있다. 전자 장치(1000)가 생성하는 워터 마크는 제1 이미지(702)와 동일한 규격으로 스케일링될 수 있고, 스케일링된 워터 마크는 제1 이미지(702)와 합성될 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 제1 이미지(702)의 모든 영역에 워터 마크를 합성할 수도 있으나, 제1 이미지의 적어도 일부 영역에만 워터 마크를 합성할 수도 있다.
또 다른 실시 예에 의하면, 전자 장치(1000)는 이미지에 포함된 생체 데이터 및 미리 설정된 암호화 키에 기초하여 워터 마크 패턴을 결정하고, 결정된 워터 마크 패턴에 따라 생성된 워터 마크, 부호화된 생체 이미지 및 제1 이미지를 합성함으로써 제2 이미지를 생성할 수도 있다. 전자 장치(1000)가 생성하는 워터 마크는 제1 이미지에 합성 되는 경우, 제1 이미지의 시각 정보들을 동일하게 유지할 수 있다. 따라서, 전자 장치(1000)가 생성한 제2 이미지의 시각 정보들은 제1 이미지의 시각 정보들과 동일할 수 있다.
일 실시 예에 의하면, 전자 장치(1000)가 생성한 워터 마크는 랜덤 스마트 깊이 맵(Random Smart Depth Map)의 수정된 매개 변수(parameter) 또는 원본 깊이 맵(Original Depth Map)을 포함할 수 있다. 또한, 워터 마크는 주변 지역의 왜곡을 나타내는 파라미터를 포함할 수도 있다. 또한, 전자 장치(1000)가 생성하는 워터 마크는 공간 도메인(spatial domain)(예컨대, 이미지의 밝기 비율의 변경) 또는 변환 도메인(transformation domain)(예컨대, 웨이블릿 도메인 또는 이산 코사인 변환 게수의 변형)에서, 제1 이미지에 임베딩 될 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 워터 마크의 암호화 및 복호화 과정을 보안이 확보된 보안 영역(secure world)에서 수행할 수 있다.
도 8은 또 다른 실시 예에 따른 전자 장치가 지문 정보를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
S802에서, 전자 장치(1000)는 제1 이미지를 획득할 수 있다. 전자 장치(1000)가 획득하는 제1 이미지를 지문 정보에 대응하는 지문 이미지를 포함할 수 있다. 도 8에 도시되지는 않았지만, 전자 장치(1000)는 제1 이미지로부터 중심점, 특징점 등을 검출하기에 앞서, 획득된 제1 이미지를 이진화(Image Binarization)할 수 있다. 예를 들어, 전자 장치(1000)는 지문 이미지를 포함하는 제1 이미지에 포함된 음영의 방향성 정보를 참고하여 제1 이미지를 흑과 백으로 단순화할 수 있다. 전자 장치(1000)는 제1 이미지를 이진화 하기 위하여, Otsu Adaptive Threshold, Bradley Local Threshold, Bernsen Threshold 및 Maximum Entropy Threshold 중 적어도 하나의 알고리즘을 사용할 수 있다.
S804에서, 전자 장치(1000)는 제1 이미지로부터 중심점(upper core)을 검출할 수 있다. S806에서, 전자 장치(1000)는 제1 이미지로부터 특징점 및 커브를 검출할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 중심점, 특징점, 커브 외에도 융선(Ridge), 골(valley), 끝점(ending point), 분기점(bifurcation), 아래 중심점(lower core), 삼각주(lift) 및 융선의 구조가 변화는 지점인 minutia point를 제1 이미지로부터 획득할 수 있다.
예를, 들어, 융선은 지문에서 선 모양으로 나타나는 부분, 산맥과 같이 솟아 오른 부분을 나타낼 수 있고, 골은 융선과 융선 사이에 파인 부분을 의미할 수 있다. 또한, 끝점은 융선이 끊어 지는 점, 분기점은 융선이 갈라지는 점을 나타낼 수 있다. 또한, 중심점은 굴곡이 가장 위쪽으로 큰 부분, 아래 중심점은 굴곡이 아래쪽으로 큰 부분을 나타낼 수 있으며, 삼각주는 지문의 융선 흐름이 세 방향에서 모이는 점을 의미할 수 있다.
S808에서, 전자 장치(1000)는 생성된 커브로부터 HCP(High Curvature Pints)를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 생성된 커브에서 복수의 특징점을 검출하고, 검출된 특징점을 이용하여 특징 벡터를 생성하며, 생성된 특징 벡터들의 각도를 이용하여 커브의 곡률(Curvature)를 결정할 수 있다. 전자 장치(1000)는 결정된 커브의 곡률의 변화량에 기초하여 곡률이 변화량이 기 설정된 임계치 이상인 포인트들을 Hcp 포인트로 생성할 수 있다.
S810에서, 전자 장치(1000)는 생성된 Hcp 포인트들을 이용하여 hcp 특성을 결정할 수 있다. 예를 들어, 전자 장치(1000)는 hcp 포인트들을 이용하여 hcp 포인트 사이의 곡률 변화량, hcp 포인트들 사이의 거리, hcp 포인트들의 위치를 결정할 수 있다. 일 실시 예에 의하면, hcp 특성은 hcp 포인트 사이의 곡률 변화량, hcp 포인트들 사이의 거리, hcp 포인트들의 위치에 관한 정보를 포함할 수 있다.
S812에서, 전자 장치(1000)는 기 설정된 암호화키를 이용하여, 결정된 hcp 특성을 암호화함으로써 워터 마크를 생성할 수 있다. 도 8의 단계 S812는 도 5의S516에 대응될 수 있다. S814에서, 전자 장치(1000)는 생성된 워터 마크를 제1 이미지에 임베딩할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 생성된 워터 마크를 제1 이미지에 임베딩하는 것은 워터 마크와 제1 이미지를 합성하는 과정에 대응될 수 있다.
S818에서, 전자 장치(1000)는 결정된 Hcp 특성을 변환할 수 있다. 예를 들어, 전자 장치(1000)는 미리 결정된 부호화 매개 변수에 따라 hcp 특성을 변환할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 부호화 매개 변수를 이용하여 생성된 hcp 포인트들 중 적어도 하나 이상의 hcp 포인트들의 위치를 변경함으로써, hcp 특성을 변환할 수 있다.
S820에서, 전자 장치(1000)는 변환된 hcp 특성을 부호화할 수 있다. 예를 들어, 전자 장치(1000)는 변환된 hcp 특성을 부호화함으로써 지문 코드를 생성하고, 생성된 지문 코드를 이용하여 지문 이미지를 부호화할 수 있다. S822에서, 전자 장치(1000)는 부호화된 지문 이미지를 제1 이미지에 임베딩 할 수 있다. S824에서, 전자 장치(1000)는 부호화된 지문 이미지 및 워터 마크를 제1 이미지에 임베딩함으로써 제2 이미지를 생성할 수 있다.
도 9는 일 실시 예에 따른 전자 장치가 지문 정보를 포함하는 이미지의 보안을 설정하는 방법을 구체적으로 설명하기 위한 도면이다.
도 9를 참조하면, 전자 장치(1000)는 다양한 방법으로 지문 이미지를 부호화할 수 있다. S912에서, 전자 장치(1000)는 지문 이미지로부터 특징점을 검출할 수 있다. S914에서, 전자 장치(1000)는 검출된 특징점을 이용하여 특징 벡터를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 생성된 특징점들 중 적어도 일부의 특징점을 랜덤(RANDOM)하게 선택함으로써 특징 벡터들을 생성할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 생성된 특징점들로부터 생성 가능한 모든 특징 벡터들을 생성할 수도 있다.
S916에서, 전자 장치(1000)는 생성된 특징 벡터들을 선형 방정식(Linear Equation)을 이용하여 선형 변환할 수 있다.
Figure PCTKR2019001157-appb-img-000001
여기에서, Y는 변환된 특성 벡터이고, X는 변환 전 특성 벡터를 나타낸다. 또한, a 및 b는 직선 파라미터 이고,
Figure PCTKR2019001157-appb-img-000002
Figure PCTKR2019001157-appb-img-000003
는 노이즈 파라미터를 나타낸다. 전자 장치(1000)는 미리 설정된 직선 파라미터 및 노이즈 파라미터를 이용하여 특징 벡터를 변환할 수 있다. 전자 장치(1000)는 지문 이미지로부터 결정된 특징 벡터를 변환함으로써 지문 특성을 변환할 수 있다. 상기 직선 파라미터 및 노이즈 파라미터는 도 3의 단계 S330의 부호화 매개 변수에 대응될 수 있다.
또 다른 실시 예에 의하면, 전자 장치(1000)는 Homography 행렬을 이용하여 특징 벡터들을 변환할 수 있다. 예를 들어, 전자 장치(1000)는, S922에서, 특징점을 검출하고, S924에서 검출된 특징점을 이용하여 특징 벡터를 생성할 수 있다. S926에서 전자 장치는 특징 벡터들 및 행렬 변환 성분을 이용하여 Homography 행렬을 생성할 수 있다.
Figure PCTKR2019001157-appb-img-000004
여기에서, Y는 변환된 지문 특성 행렬이고, X는 변환 전 지문 특성 행렬을 나타낸다. 또한 H는 Homography 행렬을 나타낸다. 전자 장치(1000)는 지문 이미지로부터 결정된 특징 벡터를 이용하여 지문 특성 행렬을 생성할 수 있고, 전자 장치(1000)는 생성된 지문 특성 행렬과 Homography 행렬을 행렬 곱함으로써 지문 특성 행렬을 변환할 수 있다. 전자 장치(1000)는 지문 특성 행렬을 변환함으로써 지문 이미지의 지문 특성을 변환할 수 있다. 일 실시 예에 의하면 호모그래피 행렬은 회전(Rotation) 성분과 변환(translation) 성분을 포함할 수 있다.
또 다른 실시 예에 의하면, 전자 장치(1000)는 지문 이미지로부터 hcp 포인트들을 검출하고, 검출된 hcp 포인트들로부터 hcp 특성을 결정하며, 결정된 hcp 특성을 변환함으로써 지문 특성을 변환할 수 있다. 예를 들어, S932에서, 전자 장치(1000)는 지문 이미지로부터 커브를 검출할 수 있다. S934에서, 전자 장치(1000)는 검출된 커브로부터 Hcp 포인트를 검출할 수 있다. 단계 S934는 도 8의 S808에 대응될 수 있다.
Figure PCTKR2019001157-appb-img-000005
여기에서, Y는 변환된 Hcp 특성 벡터이고, X는 변환전 Hcp 특성 벡터를 나타낸다. 또한, a, b 및 c는 직선 파라미터이고,
Figure PCTKR2019001157-appb-img-000006
,
Figure PCTKR2019001157-appb-img-000007
Figure PCTKR2019001157-appb-img-000008
는 노이즈 파라미터를 나타낸다.
S936에서, 전자 장치(1000)는 수학식 3을 이용하여, HCP 특성 벡터를 변환할 수 있다. 즉, 전자 장치(1000)는 미리 설정된 직선 파라미터 및 노이즈 파라미터를 이용하여 Hcp 특성 벡터를 변환할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 지문 이미지로부터 결정된 Hcp 특성 벡터를 변환함으로써 지문 특성을 변환할 수 있다. 상기 수학식 3의 직선 파라미터 및 노이즈 파라미터는 도 3의 단계 S330의 부호화 매개 변수에 대응될 수 있다.
도 10은 또 다른 실시 예에 따른 전자 장치가 정맥 정보를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
S1002에서, 전자 장치는 제1 이미지를 획득할 수 있다. 예를 들어, 전자 장치(1000)가 획득하는 제1 이미지는 정맥 정보에 대응하는 정맥 이미지를 포함할 수 있다. 도 10에 도시되지는 않았지만, 전자 장치(1000)는 제1 이미지로부터 중심점 및 특징점 등을 검출하기에 앞서, 획득된 제1 이미지를 이진화(Image Binarization)할 수 있다.
예를 들어, 전자 장치(1000)는 정맥 이미지를 포함하는 제1 이미지에 포함된 음영의 방향성 정보를 참고하여 제1 이미지를 흑과 백으로 단순화할 수 있다. 전자 장치(1000)는 제1 이미지를 이진화 하기 위하여, Otsu Adaptive Threshold, Bradley Local Threshold, Bernsen Threshold 및 Maximum Entropy Threshold 중 적어도 하나의 알고리즘을 사용할 수 있다.
S1004에서, 전자 장치(1000)는 제1 이미지로부터 중심점을 검출할 수 있다. S1006에서, 전자 장치(1000)는 제1 이미지로부터 특징점을 검출할 수 있다. S1008에서, 전자 장치(1000)는 검출된 특징점 및 중심점을 이용하여 특징 벡터를 생성할 수 있다. 일 실시 예에 의하면, 전자 장치가 검출하는 특징점은 Minutia point를 포함할 수 있다. 또한, 전자 장치(1000)가 생성환 특징 벡터는 적어도 하나 이상의 특징점들의 좌표 및 특징점이 이루는 각도에 대한 정보를 포함할 수 있다.
일 실시 예에 의하면, 전자 장치(1000)는 검출된 특징점들로부터 생성 가능한 모든 특징 벡터를 생성할 수도 있지만, 특징점들 중 일부의 특징점들을 랜덤하게 선택하고, 랜덤하게 선택된 특징점들만을 이용하여 특징 벡터를 생성할 수도 있다. S1010에서, 전자 장치(1000)는 검출된 특징점을 이용하여 Homography 행렬을 결정할 수 있다. 단계 S1010은 도 9의 S926에 대응될 수 있다.
S1012에서, 전자 장치(1000)는 결정된 특징 벡터들을 이용하여 특징 벡터들의 정맥 특성을 결정할 수 있다. 예를 들어, 전자 장치(1000)는 결정된 특징 벡터들을 이용하여 특징점들 간의 거리, 특징점들의 위치, 특징벡터들 사이의 곡률, 특징벡터들 사이의 각도의 차이 등을 결정할 수 있다. 일 실시 예에 의하면, 상기 정맥 특성은 특징점들 간의 거리, 특징점들의 위치, 특징벡터들 사이의 곡률, 특징벡터들 사이의 각도의 차이 등을 포함할 수 있다.
S1014에서, 전자 장치(1000)는 결정된 Homography 행렬을 이용하여 호모 그래피 행렬의 정맥 특성을 결정할 수 있다. 일 실시 예에 의하면, 호모그래피 행렬의 정맥 특성은 단계 S1012의 정맥 특성에 대응될 수 있다.
S1016에서, 전자 장치(1000)는 암호화키를 이용하여 워터 마크를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 결정된 특징 벡터 및 특징 벡터들이 나타내는 정맥 특성을 암호화키를 이용하여 암호화함으로써 워터 마크를 생성할 수 있다. S1018에서, 전자 장치(1000)는 암호화키를 이용하여 워터 마크를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 결정된 호모 그래피 행렬 및 호모 그래피 행렬이 나타내는 정맥 특성을 암호화키를 이용하여 암호화함으로써 워터 마크를 생성할 수 있다.
S1020에서, 전자 장치(1000)는 특징 벡터들의 정맥 특성을 변환할 수 있다. 전자 장치(1000)가 특징 벡터들의 정맥 특성을 변환하는 과정은 도 9에서, 전자 장치(1000)가 특징 벡터들의 지문 특성을 변환하는 과정에 대응될 수 있다. 예를 들어, 전자 장치(1000)는 기 설정된 직선 파라미터 및 노이즈 파라미터를 이용하여 특징 벡터들을 변환함으로써 특징 벡터들이 나타내는 정맥 특성을 변환할 수 있다.
S1022에서, 전자 장치(1000)는 호모 그래피 행렬의 정맥 특성을 변환할 수 있다. 전자 장치(1000)가 호모 그래피 행렬의 정맥 특성을 변환하는 과정은 도 9에서, 전자 장치(1000)가 호모 그래피 행렬의 지문 특성을 변환하는 과정에 대응될 수 있다. 예를 들어, 전자 장치(1000)는 정맥 이미지로부터 결정된 특징점을 이용하여 정맥 특성 행렬을 생성할 수 있고, 생성된 정맥 특성 행렬과 호모 그래피 행렬을 행렬 곱함으로써 정맥 특성 행렬을 변환할 수 있다. 전자 장치(1000)는 정맥 특성 행렬을 변환함으로써 정맥 이미지의 정맥 특성을 변환할 수 있다.
S1024에서, 전자 장치(1000)는 특징 벡터 및 특징 벡터들이 나타내는 정맥 특성을 암호화함으로써 생성된 워터 마크를 제1 이미지에 임베딩할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 생성된 워터 마크를 제1 이미지에 임베딩하는 것은 워터 마크와 제1 이미지를 합성하는 과정에 대응될 수 있다. S1026에서, 전자 장치는 호모 그래피 행렬 및 호모 그래피 행렬이 나타내는 정맥 특성을 암호화함으로써 생성된 워터 마크를 제1 이미지에 임베딩 할 수 있다. S1028에서, 전자 장치(1000)는 부호화된 정맥 이미지를 제1 이미지에 임베딩할 수 있다.
도 10에는 도시되지 않았지만, 전자 장치(1000)는 부호화된 정맥 이미지를 제1 이미지에 임베딩함에 앞서, 변환된 특징 벡터들의 정맥 특성 및 변환된 호모 그래피 행렬의 정맥 특성을 부호화함으로써, 정맥 이미지를 부호화할 수 있다. S1030에서, 전자 장치(1000)는 부호화된 정맥 이미지, 특징 벡터 및 특징 벡터들이 나타내는 정맥 특성을 암호화함으로써 생성된 워터 마크 및 호모 그래피 행렬 및 호모 그래피 행렬이 나타내는 정맥 특성을 암호화함으로써 생성된 워터 마크를 합성함으로써 제2 이미지를 생성할 수 있다.
즉, 전자 장치(1000)는 정맥 이미지로부터 특징 벡터 및 호모 그래피 행렬을 결정하고, 특징 벡터 및 호모 그래피 행렬 각각으로부터 워터 마크를 생성하며, 특징 벡터 및 호모 그래피 행렬 각각에 대하여 생성된 복수의 워터 마크를 이용하여 제2 이미지를 생성할 수 있다.
도 11은 또 다른 실시 예에 따른 전자 장치가 얼굴 정보를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
S1102에서, 전자 장치(1000)는 제1 이미지를 획득할 수 있다. 예를 들어, 전자 장치(1000)가 획득하는 제1 이미지는 얼굴 정보에 대응되는 얼굴 이미지를 포함할 수 있다. S1104에서, 전자 장치(1000)는 획득된 제1 이미지로부터 제1 특징점(keypoint)을 검출할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 Harris Corner 코너 검출, SIFT(Scale Invariant Feature Transform), FAST 알고리즘 등을 사용할 수 있지만, 이에 한정되는 것은 아니다.
S1106에서, 전자 장치(1000)는 깊이 맵 검출을 위한 제2 특징점을 검출할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 검출된 제2 특징점을 이용하여 랜덤 스마트 깊이 맵(Random Smart Depth Map, RSDM)을 생성할 수 있다. 랜덤 스마트 깊이 맵은 전자 장치(1000)가 검출된 제2 특징점 주변 영역의 깊이 정보를 포함할 수 있다. S1108에서, 전자 장치(1000)는 랜덤 스마트 깊이 맵의 제2 특징점을 이용하여 워터 마크를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 랜덤 스마트 깊이 맵의 제2 특징점들이 나타내는 얼굴 특성을 암호화 키를 이용하여 암호화함으로써 워터 마크를 생성할 수 있다.
S1110에서, 전자 장치(1000)는 왜곡지역(Distortion Area) 주변의 특징점을 검출할 수 있다. 예를 들어, 전자 장치(1000)는 행렬 기반, 왜곡 지역 주변의 특징점을 검출함으로써 얼굴 이미지 내 왜곡 지역의 음영(light-shadow) 특성을 결정할 수 있다. 전자 장치(1000)는 얼굴 이미지 내 왜곡 지역의 음영 특성 및 검출된 제2 특징점이 나타내는 얼굴 특성을 암호화키를 이용하여 암호화함으로써 워터 마크를 생성할 수도 있다.
S1112에서, 전자 장치(1000)는 생성된 워터 마크를 제1 이미지에 임베딩할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 생성된 워터 마크를 제1 이미지에 임베딩하는 것은 워터 마크와 제1 이미지를 합성하는 과정에 대응될 수 있다.
S1114에서, 전자 장치(1000)는 결정된 음영(light-shadow) 특성을 변환할 수 있다. 전자 장치(1000)는 결정된 음영(light-shadow) 특성을 변환함으로써 얼굴 특성을 변환할 수 있다. S1116에서, 전자 장치(1000)는 변환된 얼굴 특성을 부호화할 수 있다. 예를 들어, 전자 장치(1000)는 제1 이미지 내 얼굴 이미지로부터 얼굴 특성(예컨대 음영 특성)을 결정하고, 결정된 얼굴 특성을 변환하며, 변환된 얼굴 특성을 부호화함으로써 얼굴 이미지를 부호화할 수 있다.
S1118에서, 전자 장치(1000)는 부호화된 얼굴 이미지를 제1 이미지에 임베딩할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 부호화된 얼굴 이미지를 제1 이미지에 임베딩하는 것은 부호화된 얼굴 이미지와 제1 이미지를 합성하는 과정에 대응될 수 있다. S1120에서, 전자 장치(1000)는 워터 마크 및 부호화된 얼굴 이미지를 제1 이미지에 임베딩함으로써 제2 이미지를 생성할 수 있다.
도 12는 또 다른 실시 예에 따른 전자 장치(1000)가 얼굴 정보를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
단계 S1202는 도 11의 S1102에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. S1204에서, 전자 장치(1000)는 얼굴 이미지가 입력되는 경우, 얼굴 이미지로부터 특징점을 결정하기 위한 특징점의 위치 정보를 출력으로 하는 이미지 학습 모델을 이용하여 제1 특징점을 검출할 수 있다. 예를 들어, 전자 장치(1000)는 복수의 얼굴 이미지를 기초로 미리 학습되는 학습 모델이 저장된 데이터 베이스(1204)와 연결되는 학습부(1202)를 이용하여, 얼굴 이미지로부터 제1 특징점을 검출할 수 있다.
S1208에서, 전자 장치(1000)는 깊이 맵 검출을 위한 제2 특징점을 검출할 수 있다. S1206에서, 전자 장치(1000)는 데이터 베이스(1204)에 저장된 미리 학습된 학습 모델을 학습하는 학습부(1202)를 이용하여, 랜덤 스마트 깊이 맵을 생성할 수 있다. S1208에서, 전자 장치(1000)는 전자 장치(1000)는 랜덤 스마트 깊이 맵(Random Smart Depth Map, RSDM)을 이용하여 제2 특징점을 검출할 수 있다. 전자 장치(1000)가 이용하는 랜덤 스마트 깊이 맵은 워터 마크 추출 및 복호화에 있어 가역적(reversible) 특성을 가질 수 있다.
또 다른 실시 예에 의하면, 전자 장치(1000)는 제2 특징점을 검출하고, 검출된 제2 특징점을 이용하여 랜덤 스마트 깊이 맵을 생성할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 Harris Corner 코너 검출, SIFT(Scale Invariant Feature Transform), FAST 알고리즘 중 적어도 하나를 사용하여 특징점을 검출할 수 있지만, 이에 한정되는 것은 아니다. 랜덤 스마트 깊이 맵은 전자 장치(1000)가 검출된 제2 특징점 주변 영역의 깊이 정보를 포함할 수 있다.
또 다른 실시 예에 의하면, 전자 장치(1000)는 제2 특징점을 검출하고, 검출된 제2 특징점들 사이의 해밍 거리를 위한 희소 행렬(sparce matrix) 또는 비대칭행렬(skew-symmetric matrix)를 결정할 수 있다. 희소 행렬 또는 비대칭 행렬을 기초로, 해밍 거리의 최대 값이 정의될 수 있고, 제2 특징점들 사이의 왜곡 수준이 결정될 수 있다. 전자 장치(1000)는 해밍 거리의 최대 값 및 제2 특징점들 사이의 왜곡 수준을 이용하여 제2 특징점을 둘러싸는 왜곡 지역의 음영 특성을 변환할 수 있다.
S1212에서, 전자 장치(1000)는 생성된 워터 마크를 제1 이미지에 임베딩할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 생성된 워터 마크를 제1 이미지에 임베딩하는 것은 제1 이미지와 워터 마크를 합성하는 과정에 대응될 수 있다. S1214에서, 전자 장치(1000)는 음영(light-shadow) 특성을 변환할 수 있다. 예를 들어, 전자 장치(1000)는 검출된 제1 특징점 및 제2 특징점을 이용하여 얼굴 특성 중 하나인 음영 특성을 결정하고, 결정된 음영 특성을 변환할 수 있다.
S1216에서, 전자 장치(1000)는 얼굴 이미지를 부호화할 수 있다. 예를 들어, 전자 장치(1000)는 결정된 음영 특성을 음영(light-shadow) 특성을 변환함으로써 얼굴 특성을 변환할 수 있고, 변환된 얼굴 특성을 부호화함으로써 얼굴 이미지를 부호화할 수 있다. S1218에서, 전자 장치(1000)는 부호화된 얼굴 이미지를 제1 이미지에 임베딩할 수 있다. 예를 들어, 전자 장치(1000)가 부호화된 얼굴 이미지를 제1 이미지에 임베딩하는 것은, 부호화된 얼굴 이미지와 제1 이미지를 합성하는 과정에 대응될 수 있다.
S1220에서, 전자 장치(1000)는 부호화된 얼굴 이미지 및 워터 마크를 제1 이미지에 임베딩함으로써 제2 이미지를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 부호화된 얼굴 이미지 및 워터 마크를 제1 이미지에 임베딩하는 것은 부호화된 얼굴 이미지, 워터 마크 및 제1 이미지를 합성하는 과정에 대응될 수 있다.
도 13은 일 실시 예에 따른 전자 장치가 얼굴 정보를 포함하는 이미지의 보안을 설정하는 방법을 세부적으로 설명하기 위한 도면이다.
S1302에서, 전자 장치(1000)는 제1 이미지로부터 얼굴 이미지를 검출할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 유전 알고리즘(genetic algorithm) 및 eigenface algorithm 중 적어도 하나를 이용하여 얼굴 이미지를 검출할 수 있다. S1304에서 전자 장치(1000)는 검출된 얼굴 이미지로부터 얼굴 특징점을 검출할 수 있다. 예를 들어, 전자 장치(1000)는 Harris Corner 코너 검출, SIFT(Scale Invariant Feature Transform), FAST 알고리즘 중 적어도 하나를 사용하여 특징점을 검출할 수 있지만, 이에 한정되는 것은 아니다.
S1306에서, 전자 장치(1000)는 깊이 맵 생성을 위한 특징점을 검출할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 검출된 특징점 주변의 특정 영역을 검색하고, 검색된 특정 영역 내 왜곡 지역(Surrounding Area Distortion)을 설정할 수 있다. 일 실시 예에 의하면, 왜곡 지역은 지역 단위 깊이의 차이에 대한 정보를 포함할 수 있다. S1308에서, 전자 장치는 설정된 왜곡 지역 주변의 특징점을 검출할 수 있다. 예를 들어, 전자 장치(1000)는 왜곡 지역 내 특징점을 검출하고 검출된 특징점이 나타내는 얼굴 특성을 변환하며, 변환된 얼굴 특성을 부호화함으로써 얼굴 이미지를 부호화할 수 있다.
S1310에서, 전자 장치(1000)는 랜덤 스마트 깊이 맵(Random Smart Depth Map, RSDM)에 의한 특징점을 검출할 수 있다. S1312에서, 전자 장치(1000)는 랜덤 스마트 깊이 맵에 의해 검출된 특징점이 나타내는 음영 특성을 왜곡할 수 있다. 예를 들어, 전자 장치(1000)가 검출한 랜덤 스마트 깊이 맵 상 특징점들은 픽셀 값을 포함하고, 따라서 검출된 특징점 주변의 왜곡 지역들은 지역 단위로 픽셀 값(예컨대 지역 내 픽셀 값들의 평균)을 나타낼 수 있다. 전자 장치(1000)는 지역 단위 픽셀 값들을 변경함으로써, 얼굴 이미지의 음영 특성을 왜곡할 수 있다.
도 14는 또 다른 실시 예에 따른 전자 장치가 귀 형태에 관한 정보를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
S1402에서, 전자 장치(1000)는 제1 이미지를 획득할 수 있다. 예를 들어, 전자 장치(1000)가 획득하는 제1 이미지는 귀 형태에 관한 정보에 대응되는 귀 이미지(Ear image)를 포함할 수 있다. S1406에서, 전자 장치(1000)는 귀 이미지에서 귀 형태를 나타내는 엣지(edge)를 검출할 수 있다. 예를 들어, 전자 장치(1000)는 포스 필드 변환(Force Field Transform) 알고리즘을 이용하여 귀 이미지에서 귀의 형태를 나타내는 엣지를 검출할 수 있다. 예를 들어, 전자 장치(1000)는 제1 이미지에 포함된 하나의 픽셀이, 픽셀 강도에 비례하고, 해당 픽셀의 거리의 제곱에 반 비례하는 등방성의 힘을 주변 픽셀들에게, 전방위로 가하는 역장(force field)을 이용하여 귀 이미지에서 귀를 나타내는 엣지를 검출할 수 있다.
S1408에서, 전자 장치(1000)는 제1 이미지에서 포스 필드의 세기를 검출할 수 있다. 예를 들어, 전자 장치(1000)는 필셀들이 각각 형성하는 포스 필드 내에서, 특정 픽셀이 주변 픽셀에 의해 생성된 포스 필드에 의해 받는 힘을 모두 더함으로써 알짜 힘(net force)를 결정할 수 있다. 예를 들어, 특정 픽셀 x0 주변에 x1, x2 및 x3의 픽셀이 위치할 때, 특정 픽셀 x0가 받는 x1에 의해 받는 힘은 p1, x2 픽셀에 의해 받는 힘은 p2, x3 픽셀에 의해 받는 힘은 p3라고 표시할 수 있다. 일 실시 예에 의하면, 포스 필드 내에서 특정 픽셀이 받는 힘은 힘 벡터로써, 크기와 방향을 가질 수 있다. 전자 장치(1000)는 x0의 픽셀이 받는 힘 p1, p2 및 p3를 모두 벡터합 함으로써 x0 픽셀이 받는 알짜 힘(net force)를 결정할 수 있다.
S1414에서, 전자 장치(1000)는 포스 필드 라인 행렬을 결정할 수 있다. 예를 들어, 전자 장치(1000)는 포스 필드의 세기를 검출하고, 각 픽셀이 받는 알짜 힘을 연결함으로써, 웰(well)까지 진행되는 필드 라인들을 생성하며, 생성된 필드 라인들을 이용하여 포스 필드 라인 행렬을 결정할 수 있다.
S1410에서, 전자 장치(1000)는 암호화 키를 생성할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 이용하는 암호화 키는 미리 전자 장치 내의 메모리에 저장될 수 있다. S1412에서, 전자 장치(1000)는 암호화 방법을 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 Feistel structure 및 S-P network 중 적어도 하나를 암호화 방법으로 결정할 수 있다.
S1416에서, 전자 장치(100)는 검출된 포스 필드 세기, 암호화 키 및 결정된 암호화 방법을 이용하여 돔 행렬(Dome matrix)를 계산할 수 있다. 본 명세서에서, 돔 행렬(dome matrix)는 돔 형태의 행렬로써, 암호화 키, 포스 필드 변환된 제1 이미지 내 웰(well) 및 융선(ridge)를 이용하여 생성될 수 있다. S1418에서, 전자 장치(1000)는 돔 행렬 및 포스 필드 라인 행렬을 부호화할 수 있다. 또 다른 실시 예에 의하면, 돔 행렬 및 포스 필드 라인 행렬이 나타내는 귀 형태에 관한 특성을 결정하고, 결정된 귀 형태에 관한 특성을 변환함으로써 귀 형태 특성을 변환할 수 있다. 전자 장치(1000)는 변환된 귀 형태에 관한 특성을 부호화함으로써 귀 이미지를 부호화할 수 있다.
S1420에서, 전자 장치(1000)는 부호화된 귀 이미지를 제1 이미지에 임베딩할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 부호화된 귀 이미지를 제1 이미지에 임베딩하는 것은 부호화된 귀 이미지 및 제1 이미지를 합성하는 과정에 대응될 수 있다. S1422에서, 전자 장치(1000)는 부호화된 귀 이미지 및 제1 이미지를 합성하여 제2 이미지를 생성할 수 있다.
도 15는 일 실시 예에 따른 전자 장치가 귀 형태에 관한 정보를 포함하는 이미지의 보안을 설정하는 방법을 세부적으로 설명하기 위한 도면이다.
S1504에서, 전자 장치(1000)는 포스 필드 세기를 검출할 수 있다. 단계 S1504는 도 14의 1408에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. S1506에서, 전자 장치(1000)는 검출된 포스 필드 세기를 이용하여 포스 필드 라인, 웰(Well) 및 융선(Ridge)를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 포스 필드의 세기를 검출하고, 각 픽셀이 받는 알짜 힘을 연결함으로써, 웰(well)까지 진행되는 필드 라인, 웰(well) 및 융선(ridge)을 생성할 수 있다. S1508은 도 14의 1416에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.
도 16은 일 실시 예에 따른 전자 장치가 수행하는 생체 데이터를 포함하는 이미지의 보안 해제 방법을 나타내는 흐름도이다.
S1610에서, 전자 장치(1000)는 제2 이미지에서 생체 데이터를 포함하는 영역을 검색할 수 있다. 예를 들어, 제2 이미지는 워터 마크, 제1 이미지 및 부호화된 생체 이미지를 합성함으로써 생성된 이미지로 생체 데이터의 누출을 방지하기 위하여 이미지 보안 설정이 된 상태의 이미지일 수 있다. 단계 S1610은 도 3의 단계 S310에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.
S1620에서, 전자 장치(1000)는 검색된 영역에서 생체 이미지를 검출할 수 있다. 전자 장치(1000)는 검색된 영역에 포함된 생체 데이터의 종류를 결정하고, 결정된 생체 데이터의 종류 별 생체 이미지를 검출할 수 있다. 단계 S1620은 도 3의 S320에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.
S1630에서, 전자 장치(1000)는 검출된 생체 이미지를 복호화할 수 있다. 예를 들어, 전자 장치(1000)는 제2 이미지에 포함된 생체 데이터의 종류를 결정하고, 결정된 생체 데이터의 종류에 기초하여 결정된 복호화 매개 변수를 이용하여 생체 이미지를 복호화할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 생체 데이터의 종류에 기초하여, 복호화 매개 변수 및 복호화 메트릭 중 적어도 하나를 결정하고, 결정된 복호화 매개 변수 및 복호화 메트릭 중 적어도 하나를 이용하여 생체 이미지를 복호화할 수 있다.
S1640에서, 전자 장치(1000)는 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 복호화된 생체 이미지 및 제2 이미지를 이용하여 제1 이미지를 생성할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 워터 마크, 복호화된 생체 이미지 및 제2 이미지를 이용하여 제1 이미지를 생성하는 것은 난독 처리(Obfuscated)된 제2 이미지의 난독 처리를 해제(de-obfuscated)하는 과정에 대응될 수 잇다.
일 실시 예에 의하면, 전자 장치(1000)가 제1 이미지를 생성하기 위해 이용하는 워터 마크는 상기 제2 이미지로부터 검출되고, 기 복호화키를 이용하여 미리 복호화 될 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 복호화된 워터 마크, 복호화된 생체 이미지 및 제2 이미지를 이용하여 제1 이미지를 생성할 수 있다.
도 17은 일 실시 예에 따른 전자 장치가 수행하는 이미지의 보안을 해제하는 방법을 세부적으로 설명하기 위한 도면이다.
단계 S1710에서, 전자 장치(1000)는 제2 이미지에서 생체 데이터를 포함하는 영역을 검색할 수 있다. 단계 S1710은 도 16의 S1610에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. 단계 S1720은 도 16의 S1620에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. S1730에서, 전자 장치(1000)는 제2 이미지로부터 워터 마크를 검출할 수 있다. 예를 들어, 전자 장치(1000)는 제2 이미지에 임베딩된 워터 마크를 검출하기 위해 디임베딩(de-embedding) 과정을 수행할 수 있다.
S1740에서, 전자 장치(1000)는 검출된 생체 이미지를 복호화할 수 있다. 단계 S1740은 도 16의 S1630에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. S1750에서, 전자 장치(1000)는 검출된 워터 마크를 기 설정된 복호화 키를 이용하여 복호화 할 수 있다. 예를 들어, 전자 장치(1000)가 제2 이미지로부터 검출된 워터 마크는 기 설정된 암호화 키를 이용하여 암호화된 상태이고, 전자 장치(1000)는 워터 마크에 포함된 생체 데이터를 인식하기 위하여, 기 설정된 복호화키를 이용하여 워터 마크를 복호화할 수 있다.
S1760에서, 전자 장치(1000)는 복호화된 워터 마크, 복호화된 생체 이미지 및 제2 이미지를 이용하여 제1 이미지를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 복호화된 워터 마크, 복호화된 생체 이미지 및 제2 이미지를 합성함으로써 제2 이미지를 생성할 수 있다. 전자 장치(1000)가 복호화된 워터 마크, 복호화된 생체 이미지 및 제2 이미지를 합성하는 것은, 복호화된 워터 마크, 복호화된 생체 이미지 및 제2 이미지를 공간 도메인 또는 주파수 도메인에서 임베딩하는 과정에 대응될 수 있다.
도 18은 또 다른 실시 예에 따른 전자 장치가 홍채 정보를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
S1802에서, 전자 장치(1000)는 제2 이미지를 획득할 수 있다. 예를 들어, 전자 장치(1000)가 획득하는 제2 이미지는 부호화된 생체 이미지, 부호화된 워터 마크 및 제1 이미지(예컨대 원본 이미지)를 포함할 수 있다. 또한, 도 18에는 도시되지는 않았지만, 제 이미지를 이진화(Image Binarization) 할 수 있다.
S1804에서, 전자 장치(1000)는 제2 이미지로부터 워터 마크를 검출할 수 있다. 일 실시 예에 의하면, 워터 마크는 제2 이미지에 임베딩되고, 기 설정된 암호화 키로 부호화된 상태일 수 있다. 또 다른 실시 예에 의하면, 검출된 워터 마크는 전자 장치(1000)내의 메모리에 미리 저장될 수도 있다.
S1808에서, 전자 장치(1000)는 기 설정된 복호화 키를 이용하여 검출된 워터 마크를 복호화할 수 있다. 일 실시 예에 의하면, 복호화 키는 보안이 보장되는 전자 장치 내의 메모리에 미리 저장될 수도 있지만, 전자 장치(1000)와 연결되는 다른 전자 장치 또는 네트워크의 데이터 베이스로부터 수신될 수 있다.
S1810에서, 전자 장치(1000)는 제2 이미지로부터 홍채 경계 및 중심을 검출할 수 있다. S1812에서, 전자 장치(1000)는 제2 이미지로부터 동공 경계 및 동공 중심을 검출할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 제2 이미지에 포함된 좌안 및 우안 각각의 동공 경계, 동공 중심, 홍채 경계 및 홍채 중심을 결정하고, 결정된 동공 경계, 동공 중심, 홍채 경계 및 홍채 중심을 이용하여 홍채 이미지를 검출할 수 있다.
S1814에서, 전자 장치(1000)는 특징 맵을 생성할 수 있다. 예를 들어, 전자 장치(1000)는 검출된 홍채 경계, 홍채 중심, 동공 경계 및 동공 중심을 이용하여 홍채 이미지로부터 홍채 특징을 결정하고, 결정된 홍채 특징을 이용하여 특징 맵을 생성할 수 있다. 예를 들어, 본 명세서에서 홍채 특징은 홍채원의 중심, 홍채원의 반지름, 홍채원의 지름, 홍채원의 반경, 동공원의 중심, 동공원의 반지름, 동공원의 지름, 동공원의 반경, 홍채원과 동공원의 반지름의 차이, 동공원 반경과 홍채원 반경 사이의 비율 중 적어도 하나에 대한 정보를 포함할 수 있다. 단계 S1814는 도 5의 S508에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.
S1816에서, 전자 장치(1000)는 생성된 특징 맵을 정규화할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 생성된 특징 맵을 정규화하는 것은, 생성된 특징 맵의 픽셀을 직교 좌표계로부터 일반 좌표계로 변환하는 것으로 정의될 수 있다. S1818에서, 전자 장치(1000)는 정규화된 홍채 이미지를 복호화(decoding)할 수 있다. 예를 들어, 전자 장치(1000)는 컨벌루션 변환(convolution transform) 및 웨이블릿 변환(wavelet transform) 중 적어도 하나를 이용함으로써 복호화할 수 있다.
S1820에서, 전자 장치(1000)는 원본 홍채 이미지와 필터링된 홍채 이미지 사이의 스펙터(Spectre)를 결정할 수 있다. 본 개시에 따른 스펙터는 필터링 되지 않은 홍채 이미지와 필터링된 홍채 이미지의 스펙트럼 차이(spectre difference between original image and filtered image)를 의미할 수 있다.
S1822에서, 전자 장치(1000)는 정규화된 홍채 이미지를 역 정규화(Denormalization)할 수 있다. 예를 들어, 전자 장치(1000)는 정규화된 홍채 이미지의 픽셀을 일반 좌표계(generalized coordinate system)로부터 직교 좌표계(cartesian)로 변환함으로써 홍채 이미지를 역 정규화할 수 있다.
S1824에서, 전자 장치(1000)는 복호화된 홍채 이미지를 제2 이미지에 임베딩할 수 있다. S1826에서, 전자 장치(1000)는 복호화된 홍채 이미지, 복호화된 워터 마크 및 제2 이미지를 이용하여 제1 이미지를 생성할 수 있다.
도 19는 또 다른 실시 예에 따른 전자 장치가 지문 정보를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
S1902에서, 전자 장치(1000)는 제2 이미지를 획득할 수 있다. 전자 장치(1000)가 획득하는 제2 이미지는 지문 정보에 대응하는 지문 이미지를 포함할 수 있다. 도 19에 도시되지는 않았지만, 전자 장치(1000)는 제1 이미지로부터 중심점, 특징점 등을 검출하기에 앞서, 획득된 제1 이미지를 이진화(Image Binarization)할 수 있다.
S1904에서, 전자 장치(1000)는 제2 이미지로부터 워터 마크를 검출할 수 있다. S1904는 도 18의 단계 S1804에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. S1906에서, 전자 장치(1000)는 복호화 키를 이용하여 워터 마크를 복호화할 수 있다. S1906은 도 18의 S1808에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.
S1908에서, 전자 장치(1000)는 제2 이미지로부터 중심점(upper core)을 검출할 수 있다. S1910에서, 전자 장치(1000)는 제2 이미지로부터 특징점 및 커브를 검출할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 중심점, 특징점, 커브 외에도 융선(Ridge), 골(valley), 끝점(ending point), 분기점(bifurcation), 아래 중심점(lower core), 삼각주(lift) 및 융선의 구조가 변화는 지점인 minutia point를 제2 이미지로부터 획득할 수 있다.
S1912에서, 전자 장치(1000)는 생성된 커브로부터 HCP(High Curvature Pints)를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 생성된 커브에서 복수의 특징점을 검출하고, 검출된 특징점을 이용하여 특징 벡터를 생성하며, 생성된 특징 벡터들의 각도를 이용하여 커브의 곡률(Curvature)를 결정할 수 있다. S1912는 도 8의 S808에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.
S1914에서, 전자 장치(1000)는 생성된 Hcp 포인트들을 이용하여 hcp 특성을 결정할 수 있다. 예를 들어, 전자 장치(1000)는 hcp 포인트들을 이용하여 hcp 포인트 사이의 곡률 변화량, hcp 포인트들 사이의 거리, hcp 포인트들의 위치를 결정할 수 있다. 일 실시 예에 의하면, hcp 특성은 hcp 포인트 사이의 곡률 변화량, hcp 포인트들 사이의 거리, hcp 포인트들의 위치에 관한 정보를 포함할 수 있다.
S1916에서, 전자 장치(1000)는 결정된 hcp 특성을 복호화할 수 있다. 예를 들어, 전자 장치(1000)는 hcp 특성을 복호화함으로써 지문 코드를 생성하고, 생성된 지문 코드를 이용하여 부호화된 지문 이미지를 복호화할 수 있다. S1018에서, 전자 장치(1000)는 복호화된 지문 이미지를 제2 이미지에 임베딩 할 수 있다. S1920에서, 전자 장치(1000)는 복호화된 지문 이미지 및 워터 마크를 제2 이미지에 임베딩함으로써 제1 이미지를 생성할 수 있다.
도 20은 또 다른 실시 예에 따른 전자 장치가 정맥 정보를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
S2002에서, 전자 장치(1000)는 제2 이미지를 획득할 수 있다. 예를 들어, 전자 장치(1000)가 획득하는 제2 이미지는 정맥 정보에 대응하는 정맥 이미지를 포함할 수 있다. 도 20에 도시되지는 않았지만, 전자 장치(1000)는 제2 이미지로부터 중심점 및 특징점 등을 검출하기에 앞서, 획득된 제2 이미지를 이진화(Image Binarization)할 수 있다.
S2004에서, 전자 장치(1000)는 획득된 제2 이미지로부터 워터 마크를 검출할 수 있다. S2004는 도 18의 단계 S1804에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. S2006에서, 전자 장치(1000)는 복호화키를 이용하여 검출된 워터 마크를 복호화할 수 있다.
S2008에서, 전자 장치(1000)는 는 제2 이미지로부터 중심점을 검출할 수 있다. S2010에서, 전자 장치(1000)는 제2 이미지로부터 특징점을 검출할 수 있다. S2012에서, 전자 장치(1000)는 검출된 특징점 및 중심점을 이용하여 특징 벡터를 생성할 수 있다. 일 실시 예에 의하면, 전자 장치가 검출하는 특징점은 Minutia point를 포함할 수 있다. 또한, 전자 장치(1000)가 생성환 특징 벡터는 적어도 하나 이상의 특징점들의 좌표 및 특징점이 이루는 각도에 대한 정보를 포함할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 검출된 특징점들로부터 생성 가능한 모든 특징 벡터를 생성할 수도 있지만, 특징점들 중 일부의 특징점들을 랜덤하게 선택하고, 랜덤하게 선택된 특징점들만을 이용하여 특징 벡터를 생성할 수도 있다.
S2014에서, 전자 장치(1000)는 검출된 특징점을 이용하여 호모그래피 행렬(Homography Matrix) 을 결정할 수 있다. S2016에서, 전자 장치(1000)는 호모 그래피 행렬이 나타내는 호모 그래피 행렬 특성을 결정할 수 있다. S2018에서, 전자 장치(1000)는 결정된 특징 벡터들이 나타내는 특징 벡터들의 특성을 결정할 수 있다. 전자 장치(1000)가 결정한 호모그래피 행렬 특성 및 특징 벡터들의 특성은 지문 이미지의 지문 특성을 나타낼 수 있다.
S2020에서, 전자 장치(1000)는 복호화된 정맥 이미지를 제2 이미지에 임베딩할 수 있다. 도 20에 도시되지는 않았지만, 전자 장치(1000)는 호모그래피 행렬 특성 및 특징 벡터들의 특성이 나타내는 지문 특성을 복호화함으로써 지문 이미지를 복호화할 수 있다. 전자 장치(1000)가 복호화된 정맥 이미지를 제2 이미지에 임베딩하는 과정은 복호화된 정맥 이미지 및 제2 이미지를 합성하는 과정에 대응될 수 있다.
S2022에서, 전자 장치(1000)는 복호화된 정맥 이미지, 복호화된 워터 마크 및 제2 이미지를 이용하여 제1 이미지를 생성할 수 있다. 전자 장치(1000)가 복호화된 정맥 이미지, 복호화된 워터 마크 및 제2 이미지를 이용하여 제1 이미지를 생하는 것은 난독 처리(Obfuscated)된 제2 이미지를 난독 처리 해제(de-obfuscated)하는 과정에 대응될 수 있다.
도 21은 또 다른 실시 예에 따른 전자 장치가 얼굴 정보를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
S2102에서, 전자 장치(1000)는 제2 이미지를 획득할 수 있다. 예를 들어, 전자 장치(1000)가 획득하는 제2 이미지는 얼굴 정보에 대응되는 얼굴 이미지를 포함할 수 있다. S2104에서, 전자 장치(1000)는 제2 이미지로부터 워터 마크를 검출할 수 있다. S2104는 도 18의 단계 S1804에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.
S2106에서, 전자 장치(1000)는 획득된 제1 이미지로부터 제1 특징점(keypoint)을 검출할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 Harris Corner 코너 검출, SIFT(Scale Invariant Feature Transform), FAST 알고리즘 등을 사용할 수 있지만, 이에 한정되는 것은 아니다.
S2108에서, 전자 장치(1000)는 깊이 맵 검출을 위한 제2 특징점을 검출할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 검출된 제2 특징점을 이용하여 랜덤 스마트 깊이 맵(Random Smart Depth Map, RSDM)을 생성할 수 있다. 랜덤 스마트 깊이 맵은 전자 장치(1000)가 검출된 제2 특징점 주변 영역의 깊이 정보를 포함할 수 있다.
S2110에서, 전자 장치(1000)는 왜곡 지역(distortion area) 주변의 특징점을 검출할 수 있다. 일 실시 예에 의하면, 왜곡 지역은 제1 특징점 및 제2 특징점에 기초하여 결정되는 얼굴 이미지 내 픽셀들의 음영 특성 차이에 관한 정보를 포함할 수 있다. 일 실시 예에 의하면, 왜곡 지역은 제2 특징점 단위로 생성될 수 있고, 제2 특징점 단위로 생성된 왜곡 지역 내에는 복수의 특징점들이 포함될 수 있다.
예를 들어, 전자 장치(1000)는 행렬 기반, 왜곡 지역 주변의 특징점을 검출함으로써 얼굴 이미지 내 왜곡 지역의 음영(light-shadow) 특성을 결정할 수 있다. S2114에서, 전자 장치(1000)는 결정된 음영 특성을 복호화함으로써 얼굴 이미지를 복호화할 수 있다.
S2116에서, 전자 장치(1000)는 복호화된 얼굴 이미지를 제2 이미지에 임베딩할 수 있다. 예를 들어, 전자 장치(1000)가 복호화된 얼굴 이미지를 제2 이미지에 임베딩하는 것은 복호화된 얼굴 이미지와 제2 이미지를 합성하는 과정에 대응될 수 있다. S2118에서, 전자 장치(1000)는 복호화된 얼굴 이미지 및 제2 이미지를 합성하여 제1 이미지를 생성할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 복호화된 얼굴 이미지, 복호화된 워터 마크 및 제2 이미지를 합성하여 제1 이미지를 생성할 수 있다.
도 22는 또 다른 실시 예에 따른 전자 장치가 얼굴 정보를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
S2202에서, 전자 장치(1000)는 제2 이미지를 획득할 수 있다. 전자 장치(1000)가 획득하는 제2 이미지는 얼굴 정보에 대응하는 얼굴 이미지를 포함할 수 있다. S2204에서, 전자 장치(1000)는 제2 이미지로부터 워터 마크를 검출할 수 있다. S2204는 도 18의 S1804에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.
S2206에서, 전자 장치(1000)는 제2 이미지로부터 얼굴의 이미지를 식별하기 위한 제1 특징점을 검출할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 얼굴 이미지가 입력되는 경우, 얼굴 이미지로부터 특징점을 결정하기 위한 특징점의 위치 정보를 출력으로 하는 이미지 학습 모델을 이용하여 제1 특징점을 검출할 수 있다. 예를 들어, 전자 장치(1000)는 복수의 얼굴 이미지를 기초로 미리 학습되는 학습 모델이 저장된 데이터 베이스(1204)와 연결되는 학습부(1202)를 이용하여, 얼굴 이미지로부터 제1 특징점을 검출할 수 있다.
S2208에서, 전자 장치(1000)는 검출된 워터 마크를 이용하여 깊이 맵을 복구(RESTORING)할 수 있다. S2210에서, 전자 장치(1000)는 복구된 깊이 맵을 이용하여 제2 특징점을 검출할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 이용하는 랜덤 스마트 깊이 맵은 워터 마크 추출 및 복호화에 있어 가역적(reversible) 특성을 가질 수 있다.
S2212에서, 전자 장치(1000)는 검출된 제1 특징점 및 제2 특징점을 이용하여 얼굴 이미지의 음영(light and shadow) 특성을 결정할 수 있다. S2214에서, 전자 장치(1000)는 얼굴 이미지를 복호화할 수 있다. 도 22에 도시되지는 않았지만, 전자 장치(1000)는 결정된 음영 특성을 변환함으로써 얼굴 특성을 변환할 수 있고, 변환된 얼굴 특성을 복호화함으로써 얼굴 이미지를 복호화할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 복호화 매개 변수를 결정하고, 결정된 복호화 매개 변수를 이용하여 음영 특성을 변환할 수 있다.
S2216에서, 전자 장치(1000)는 복호화된 얼굴 이미지를 제2 이미지에 임베딩할 수 있다. S2218에서, 전자 장치(1000)는 복호화된 얼굴 이미지를 제2 이미지에 임베딩함으로써 제1 이미지를 생성할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 복호화된 얼굴 이미지, 복호화된 워터 마크 및 제2 이미지를 합성함으로써 제1 이미지를 생성할 수 있다. 일 실시 예에 의하면, 복호화 매개 변수는 얼굴 이미지로부터 결정되는 특성 벡터들의 크기, 방향 및 벡터 노이즈를 결정하기 위한 변수를 포함할 수 있다.
도 23은 또 다른 실시 예에 따른 전자 장치가 귀 형태에 관한 정보를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
S2303에서, 전자 장치(1000)는 제2 이미지를 획득할 수 있다. 예를 들어, 전자 장치(1000)가 획득하는 제2 이미지는 귀 형태에 관한 정보에 대응되는 귀 이미지(Ear image)를 포함할 수 있다.
S2304에서, 전자 장치(1000)는 귀 이미지에서 귀 형태를 나타내는 엣지(edge)를 검출할 수 있다. 예를 들어, 전자 장치(1000)는 포스 필드 변환(Force Field Transform) 알고리즘을 이용하여 귀 이미지에서 귀의 형태를 나타내는 엣지를 검출할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 복수의 귀 이미지를 기초로 미리 학습되는 학습 모델이 저장된 데이터 베이스(2304)와 연결되는 학습부(2302)를 이용하여, 귀 이미지로부터 엣지를 검출할 수도 있다.
S2306에서, 전자 장치(1000)는 제2 이미지에서 포스 필드의 세기를 검출할 수 있다. 예를 들어, 전자 장치(1000)는 필셀들이 각각 형성하는 포스 필드 내에서, 특정 픽셀이 주변 픽셀에 의해 생성된 포스 필드에 의해 받는 힘을 모두 더함으로써 알짜 힘(net force)를 결정할 수 있다. S2306은 도 14의 단계 S1408에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.
S2308에서, 전자 장치(1000)는 복호화 키를 생성할 수 있다. 전자 장치(1000)가 이용하는 복호화 키는 전자 장치 내 보안성이 확보된 메모리에 미리 저장될 수도 있고, 전자 장치가 획득한 제2 이미지에 임베딩될 수도 있다.
S2310에서, 전자 장치(1000)는 복호화 방법을 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 복호화 방법을 결정하는 것은, 결정된 복호화 키를 확장(Key-Expansion)하는 과정에 대응될 수 있다.
S2314에서, 전자 장치(100)는 검출된 포스 필드 세기, 암호화 키 및 결정된 암호화 방법을 이용하여 돔 행렬(Dome matrix)를 계산할 수 있다. 본 명세서에서, 돔 행렬(dome matrix)는 돔 형태의 행렬로써, 암호화 키, 포스 필드 변환된 제1 이미지 내 웰(well) 및 융선(ridge)를 이용하여 생성될 수 있다.
S2316에서, 전자 장치(1000)는 돔 행렬 및 포스 필드 라인 행렬을 복호화할 수 있다. 또 다른 실시 예에 의하면, 돔 행렬 및 포스 필드 라인 행렬이 나타내는 귀 형태에 관한 특성을 결정하고, 결정된 귀 형태에 관한 특성을 변환함으로써 귀 형태 특성을 변환할 수 있다. 전자 장치(1000)는 변환된 귀 형태에 관한 특성을 복호화함으로써 귀 이미지를 복호화할 수 있다.
S2318에서, 전자 장치(1000)는 복호화된 귀 이미지를 제2 이미지에 임베딩 할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 복호화된 귀 이미지를 제2 이미지에 임베딩하는 것은 복호화된 귀 이미지 및 제2 이미지를 합성하는 과정에 대응될 수 있다. S2320에서, 전자 장치(1000)는 복호화된 귀 이미지 및 제2 이미지를 이용하여 제1 이미지를 생성할 수 있다.
도 24는 일 실시 예에 따른 전자 장치가 복수의 생체 데이터를 포함하는 이미지의 보안을 설정하는 방법을 설명하기 위한 도면이다.
일 실시 예에 의하면, 전자 장치(1000)가 획득하는 제1 이미지에는 복수의 생체 데이터가 포함될 수 있다. 전자 장치(1000)는 생체 데이터의 종류 별로, 제1 이미지에 포함된 복수의 생체 이미지를 검출하고, 생체 데이터의 종류 별로 검출된 각각의 생체 이미지에 대하여 이미지 보안 설정 방법을 수행할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 홍채 이미지의 보안을 설정하는 방법을 수행하는 프로세서, 얼굴 이미지의 보안을 설정하는 방법을 수행하는 프로세서, 귀 이미지의 보안을 설정하는 방법을 수행하는 프로세서 등을 각각 포함할 수 있다.
S2412에서, 전자 장치(1000)는 제1 이미지에서 홍채 이미지가 검출되는지 여부를 결정할 수 있다. S2412에서, 전자 장치(1000)는 홍채 이미지가 검출되었다고 결정하는 경우, S2413에서, 전자 장치(1000)는 홍채 이미지에 대한 이미지의 보안 설정 방법을 수행할 수 있다.
S2412에서, 전자 장치(1000)가 홍채 이미지가 검출되지 않았다고 결정하는 경우, S2414에서, 전자 장치는 제1 이미지에 얼굴 이미지가 검출되는지 여부를 결정할 수 있다. S2414에서, 전자 장치(1000)는 얼굴 이미지가 검출되었다고 결정하는 경우, S2415에서, 전자 장치(1000)는 얼굴 이미지에 대한 이미지의 보안 설정 방법을 수행할 수 있다.
S2414에서, 전자 장치(1000)가 얼굴 이미지가 검출되지 않았다고 결정하는 경우, S2416에서, 전자 장치는 제1 이미지에 귀 이미지가 검출되는지 여부를 결정할 수 있다. S2416에서, 전자 장치(1000)는 귀 이미지가 검출되었다고 결정하는 경우, S2417에서, 전자 장치(1000)는 귀 이미지에 대한 이미지의 보안 설정 방법을 수행할 수 있다.
S2416에서, 전자 장치(1000)가 귀 이미지가 검출되지 않았다고 결정하는 경우, S2418에서, 전자 장치는 제1 이미지에 지문 이미지가 검출되는지 여부를 결정할 수 있다. S2418에서, 전자 장치(1000)는 지문 이미지가 검출되었다고 결정하는 경우, S2419에서, 전자 장치(1000)는 지문 이미지에 대한 이미지의 보안 설정 방법을 수행할 수 있다.
S2418에서, 전자 장치(1000)가 지문 이미지가 검출되지 않았다고 결정하는 경우, S2420에서, 전자 장치는 제1 이미지에 정맥 이미지가 검출되는지 여부를 결정할 수 있다. S2420에서, 전자 장치(1000)는 정맥 이미지가 검출되었다고 결정하는 경우, S2421에서, 전자 장치(1000)는 정맥 이미지에 대한 이미지의 보안 설정 방법을 수행할 수 있다.
S2420에서, 전자 장치(1000)가 정맥 이미지가 검출되지 않았다고 결정하는 경우, S2422에서, 전자 장치는 제1 이미지에 다른 생체 이미지가 검출되는지 여부를 결정할 수 있다. S2422에서, 전자 장치(1000)는 다른 생체 이미지가 검출되었다고 결정하는 경우, S2423에서, 전자 장치(1000)는 다른 생체 이미지에 대한 이미지의 보안 설정 방법을 수행할 수 있다. 하지만, S2422에서, 전자 장치(1000)는 다른 생체 이미지가 검출되지 않았다고 결정하는 경우, 이미지 보안 설정 방법을 수행하는 과정을 종료할 수 있다. 즉, 전자 장치(1000)가 이미지의 보안을 설정하기 위하여 이용할 수 있는 생체 정보의 종류에는 제한 이 없다.
일 실시 예에 의하면, 전자 장치(1000)는 제1 이미지에 복수의 생체 이미지들이 포함되는 경우, 검출할 생체 이미지들의 우선 순위를 결정하고, 결정된 우선 순위에 따라 생체 이미지를 검출할 수도 있다. 전자 장치(1000)가 검출할 생체 이미지들의 우선 순위는 전자 장치의 사용자에 의해 미리 설정될 수도 있다.
도 25는 일 실시 예에 따른 전자 장치가 복수의 생체 데이터를 포함하는 이미지의 보안을 해제하는 방법을 설명하기 위한 도면이다.
일 실시 예에 의하면, 전자 장치(1000)가 획득하는 제2 이미지에는 복수의 생체 데이터가 포함될 수 있다. 전자 장치(1000)는 생체 데이터의 종류 별로, 제2 이미지에 포함된 복수의 생체 이미지를 검출하고, 생체 데이터의 종류 별로 검출된 각각의 생체 이미지에 대하여 이미지 보안 해제 방법을 수행할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 홍채 이미지의 보안을 해제하는 방법을 수행하는 프로세서, 얼굴 이미지의 보안을 해제하는 방법을 수행하는 프로세서, 귀 이미지의 보안을 해제하는 방법을 수행하는 프로세서 등을 각각 포함할 수 있다.
S2502에서, 전자 장치(1000)는 제2 이미지에서 정맥 이미지가 검출되는지 여부를 결정할 수 있다. S2502에서, 전자 장치(1000)는 정맥 이미지가 검출되었다고 결정하는 경우, S2503에서, 전자 장치(1000)는 정맥 이미지에 대한 이미지의 보안 해제(RESTORING) 방법을 수행할 수 있다.
S2502에서, 전자 장치(1000)가 정맥 이미지가 검출되지 않았다고 결정하는 경우, S2504에서, 전자 장치는 제2 이미지에 지문 이미지가 검출되는지 여부를 결정할 수 있다. S2504에서, 전자 장치(1000)는 지문 이미지가 검출되었다고 결정하는 경우, S2505에서, 전자 장치(1000)는 지문 이미지에 대한 이미지의 보안 해제 방법을 수행할 수 있다.
S2504에서, 전자 장치(1000)가 지문 이미지가 검출되지 않았다고 결정하는 경우, S2506에서, 전자 장치는 제2 이미지에 귀 이미지가 검출되는지 여부를 결정할 수 있다. S2506에서, 전자 장치(1000)는 귀 이미지가 검출되었다고 결정하는 경우, S2507에서, 전자 장치(1000)는 귀 이미지에 대한 이미지의 보안 해제 방법을 수행할 수 있다.
S2506에서, 전자 장치(1000)가 귀 이미지가 검출되지 않았다고 결정하는 경우, S2508에서, 전자 장치는 제2 이미지에 얼굴 이미지가 검출되는지 여부를 결정할 수 있다. S2508에서, 전자 장치(1000)는 얼굴 이미지가 검출되었다고 결정하는 경우, S2509에서, 전자 장치(1000)는 얼굴 이미지 대한 이미지의 보안 해제 방법을 수행할 수 있다.
S2508에서, 전자 장치(1000)가 얼굴 이미지가 검출되지 않았다고 결정하는 경우, S2510에서, 전자 장치는 제2 이미지에 홍채 이미지가 검출되는지 여부를 결정할 수 있다. S2510에서, 전자 장치(1000)는 홍채 이미지가 검출되었다고 결정하는 경우, S2511에서, 전자 장치(1000)는 홍채 이미지에 대한 이미지의 보안 해제 방법을 수행할 수 있다.
S2510에서, 전자 장치(1000)가 홍채 이미지가 검출되지 않았다고 결정하는 경우, S2512에서, 전자 장치는 제2 이미지에 다른 생체 이미지가 검출되는지 여부를 결정할 수 있다. S2512에서, 전자 장치(1000)는 다른 생체 이미지가 검출되었다고 결정하는 경우, S2513에서, 전자 장치(1000)는 다른 생체 이미지에 대한 이미지의 보안 설정 해제을 수행할 수 있다. 하지만, S2512에서, 전자 장치(1000)는 다른 생체 이미지가 검출되지 않았다고 결정하는 경우, 이미지 보안 해제 방법을 수행하는 과정을 종료할 수 있다. 즉, 전자 장치(1000)가 이미지의 보안을 해제하기 위하여 이용할 수 있는 생체 정보의 종류에는 제한 이 없다.
일 실시 예에 의하면, 전자 장치(1000)는 제2 이미지에 복수의 생체 이미지들이 포함되는 경우, 검출할 생체 이미지들의 우선 순위를 결정하고, 결정된 우선 순위에 따라 생체 이미지를 검출할 수도 있다. 전자 장치(1000)가 검출할 생체 이미지들의 우선 순위는 전자 장치의 사용자에 의해 미리 설정될 수도 있다. 또한, 전자 장치(1000)가 이미지의 보안 설정 방법을 수행할 때와 이미지의 보안 해제 방법을 수행할 때, 생체 이미지 검출의 우선 순위는 서로 다를 수 있다. 예를 들어, 전자 장치(1000)가 이미지의 보안 설정 방법을 수행할 때는 홍채 이미지, 얼굴 이미지 및 귀 이미지 순서로 생체 이미지를 검출할 수 있지만, 전자 장치(1000)가 이미지의 보안 해제 방법을 수행할 때는 귀 이미지, 얼굴 이미지 및 홍채 이미지 순서로 생체 이미지를 검출할 수도 있다.
도 26 및 도 27은 일 실시 예에 따른 생체 데이터를 포함하는 이미지의 보안을 설정하는 방법 및 생체 데이터를 포함하는 이미지의 보안을 해제하는 방법을 수행하는 전자 장치를 나타내는 블록도이다.
일 실시 예에 따른 전자 장치(1000)는 프로세서(1300), 통신 인터페이스(1500) 및 메모리(1700)를 포함할 수 있다. 그러나 도시된 구성 요소가 모두 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 전자 장치(1000)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 전자 장치(1000)는 구현될 수 있다.
예를 들어, 도 27에 도시된 바와 같이, 또 다른 실시 예에 따른 전자 장치(1000)는 사용자 입력부(1100), 출력부(1200), 프로세서(1300), 및 통신 인터페이스(1500) 이외에 센싱부(1400), A/V 입력부(1600), 및 메모리(1700)를 더 포함할 수도 있다.
사용자 입력부(1100)는, 사용자가 전자 장치(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
사용자 입력부(1100)는, 전자 장치(1000)가 획득한 제1 이미지에 포함된 복수의 생체 데이터들 중 적어도 하나의 생체 데이터를 선택하는 사용자 입력을 수신할 수 있다. 전자 장치(1000)는 사용자 입력에 기초하여, 선택된 생체 데이터에 대응하는 생체 이미지들만을 부호화할 수 있다. 출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다.
디스플레이부(1210)는 전자 장치(1000)에서 처리되는 정보를 표시 출력하기 위한 화면을 포함한다. 또한, 화면은 영상을 디스플레이 할 수 있다. 예를 들면, 화면의 적어도 일부는 제1 이미지의 적어도 일부 및 난독 처리된(Obfuscated) 제1 이미지를 이용하여 생성된 제2 이미지를 디스플레이 할 수 있다.
음향 출력부(1220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1220)는 전자 장치(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다.
프로세서(1300)는, 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다. 또한, 프로세서(1300)는 메모리(1700)에 저장된 프로그램들을 실행함으로써, 도 1 내지 도 25에 기재된 전자 장치(1000)의 기능을 수행할 수 있다.
구체적으로, 프로세서(1300)는 사용자의 텍스트, 이미지 및 동영상 입력을 수신하도록 사용자 입력부(1100)를 제어할 수 있다. 프로세서(1300)는 사용자의 음성 입력을 수신하도록 마이크로폰(1620)을 제어할 수 있다. 프로세서(1300)는 사용자 입력에 기초하여 전자 장치(1000)의 동작을 수행하는 애플리케이션을 실행할 수 있으며, 실행된 애플리케이션을 통하여 사용자 입력을 수신하도록 제어할 수 있다.
프로세서(1300)는 제1 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하고, 상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하고, 상기 검출된 생체 이미지를 부호화하고, 상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 제1 이미지 및 상기 부호화된 생체 이미지를 합성하여 제2 이미지를 생성하도록 통신 인터페이스 및 메모리를 제어할 수 있다.
프로세서(1300)는 학습 데이터를 신경망에 입력함으로써, 신경망(Neural Network)을 학습시킬 수 있다. 예를 들면, 프로세서(1300)는 학습 데이터를 메모리(1700) 또는 서버(2000)에 저장된 복수의 학습 모델(이미지 학습 모델)에 입력함으로써 제1 이미지 또는 제2 이미지 내에 생체 데이터를 포함하는 영역을 출력하는 신경망을 학습시킬 수 있다. 즉, 프로세서(1300)는 제1 이미지가 입력되는 경우, 상기 생체 데이터를 포함하는 영역 및 상기 검색된 영역을 식별하기 위한 위치 정보를 출력으로 하는 이미지 학습 모델을 이용하여 상기 영역을 검색할 수 있다.
프로세서(1300)는 검색된 영역에 포함된 상기 생체 데이터의 종류를 결정하고, 결정된 생체 데이터의 종류 별 상기 생체 이미지를 검출할 수도 있다. 또한, 프로세서(1300)는 생체 데이터의 종류에 기초하여, 상기 생체 이미지를 부호화 하기 위한 부호화 매개 변수를 결정하고, 결정된 부호화 매개 변수를 이용하여 상기 생체 이미지를 부호화할 수 있다. 또한 프로세서(1300)는 제1 이미지로부터 상기 생체 이미지가 검출된 이력을 기초로 미리 학습되는 부호화 학습 모델을 이용하여 상기 검출된 생체 이미지를 부호화할 수도 있다.
일 실시 예에 의하면, 프로세서(1300)는 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행하는 전자 장치 외부의 데이터 베이스와 상기 제2 이미지를 공유하도록 통신 인터페이스(1500)를 제어할 수 있다. 프로세서(1300)는 생체 이미지의 시각 정보들을 동일하게 유지하면서, 상기 검출된 생체 이미지를 부호화할 수 있다.
또한, 프로세서(1300)는 메모리(1700) 또는 서버(2000)에 저장된 복수의 이미지 학습 모델을 이용함으로써, 제1 이미지 또는 제2 이미지에 포함된 생체 데이터에 대응하는 생체 이미지를 정확하게 검출할 수 있다.
또 다른 실시 예에 의하면, 프로세서(1300)는 제2 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하고, 상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하고, 상기 검출된 생체 이미지를 복호화하고, 상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 복호화된 생체 이미지 및 상기 제2 이미지를 이용하여 제1 이미지를 생성할 수 있다. 일 실시 예에 의하면, 프로세서(1300)가 제1 이미지를 생성함에 있어 이용하는 복호화 키는 제2 이미지로부터 검출되고, 기 설정된 복호화키를 이용하여 미리 복호화될 수 있다.
센싱부(1400)는, 전자 장치(1000)의 상태 또는 전자 장치(1000) 주변의 상태를 감지하고, 감지된 정보를 프로세서(1300)로 전달할 수 있다. 센싱부(1400)는 전자 장치(1000)의 사양 정보, 전자 장치(1000)의 상태 정보, 전자 장치(1000)의 주변 환경 정보, 사용자의 상태 정보 및 사용자의 디바이스 사용 이력 정보 중 일부를 생성하는데 이용될 수 있다.
센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 및 RGB 센서(illuminance sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
통신부(1500)는, 전자 장치(1000)가 다른 장치(미도시) 및 서버(2000)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 다른 장치(미도시)는 전자 장치(1000)와 같은 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다. 예를 들어, 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(1510)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 신호, 화상 통화 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(1000)가 방송 수신부(1530)를 포함하지 않을 수도 있다. 또한, 통신부(1500)는, 전자 장치(1000)가 획득한 제1 이미지를 서버(2000)로 전송하거나, 서버(2000)로부터 난독화 처리된 제1 이미지를 이용하여 생성된 제2 이미지를 수신할 수도 있다.
일 실시예에 따르면, 통신부(1500)는 전자 장치(1000)와 연결된 다른 전자 장치(1000)에 저장된 이미지등을 수신할 수도 있고, 전자 장치(1000)내의 메모리에 저장된 이미지를 다른 전자 장치로 전송할 수도 있다. 예를 들면, 통신부(1500)는 제1 이미지의 식별자(예를 들면, URL, 메타데이터)를 서버(2000) 또는 다른 전자 장치로 전송할 수 있다.
A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 디바이스 또는 사용자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)은 사용자의 음성 입력을 수신할 수 있다. 마이크로폰(1620)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
메모리(1700)는, 프로세서(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다. 또한, 메모리(1700)는 이미지 및 메모리(1700)에 저장된 이미지를 탐색한 결과를 저장할 수 있다. 메모리(1700)는 전자 장치(1000)에 저장된 이미지들에 관련된 정보를 전자 장치(1000)에 저장할 수 있다. 예를 들면, 메모리(1700)는 기 설정된 암호화 키, 기 설정된 복호화 키, 부호화 매개 변수, 복호화 매개 변수, 암호화 방법, 복호화 방법, 이미지 분할 알고리즘, 생체 데이터를 포함하는 영역을 검색하고, 생체 데이터에 대응되는 생체 이미지를 검출하기 위한 이미지 학습 모델등을 저장할 수 있다.
또한, 메모리(1700)는 복수의 이미지 또는 영상등을 기초로 학습되는 신경망, 신경망의 구조를 특정하기 위한 레이어들 및 레이어들 간의 가중치에 관한 정보를 더 저장할 수 있다. 예를 들면, 메모리(1700)는 학습된 신경망뿐만 아니라, 획득된 원본 이미지, 원본 이미지에 난독 처리가 적용된 이미지, 난독 처리된 이미지를 대상으로 난독 처리 해제가 적용된 이미지 등을 더 저장할 수 있다.
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다.
UI 모듈(1710)은, 애플리케이션 별로 전자 장치(1000)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 프로세서(1300)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
알림 모듈(1730)은 전자 장치(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 전자 장치(1000)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
일 실시 예에 의한 전자 장치(1000)는 생체 데이터를 포함하는 제1 이미지를 획득하고, 획득된 제1 이미지를 부호화하며, 부호화된 생체 이미지, 워터 마크 및 제1 이미지를 합성하여 제2 이미지를 생성함으로써, 제1 이미지에 포함된 생체 데이터의 노출이 방지되는 난독 처리(obfuscation)를 수행할 수도 있다. 하지만, 전자 장치(1000)는 복수의 이미지들이 시계열적으로 나열된 생체 데이터를 포함하는 영상을 획득하고, 획득된 영상에서 생체 데이터에 대응되는 영상을 검출하며, 검출된 영상을 부호화하고, 부호화된 영상, 워터 마크 및 원본 영상을 합성함으로써 영상에 대한 난독 처리(obfuscation)를 수행할 수도 있다. 전자 장치(1000)가 부호화된 이미지에 대하여 수행하는 이미지의 보안 해제 방법은 영상에 대한 난독 처리 해제(de-obfuscation)에 대응될 수 있다.
도 28은 일 실시 예에 따른 전자 장치가 처리하는 이미지에 포함된 생체 데이터의 종류를 설명하기 위한 도면이다.
일 실시 예에 의하면, 전자 장치(1000)가 부호화하는 제1 이미지는 하나 이상의 생체 데이터들을 포함할 수 있다. 예를 들어, 전자 장치(10000)가 부호화하는 제1 이미지는 홍채 정보, 얼굴 정보, 지문 정보, 손금 정보, 정맥 정보, 귀 형태 정보 및 기타 생체 정보 등이 포함될 수 있다. 전자 장치(1000)는 획득된 제1 이미지 또는 제2 이미지 내에 생체 데이터가 포함되어있는지 여부를 결정하기 위해, 각각의 생체 데이터들의 종류를 결정하고, 결정된 생체 데이터들의 종류에 따른 생체 이미지를 검출할 수 있는 이미지 학습 모델을 메모리에 저장할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 다양한 생체 정보들의 종류(2814)를 미리 설정된 식별 코드(2812)를 이용하여 메모리에 저장할 수 있다.
도 29는 일 실시 예에 따른 전자 장치가 서버를 이용하여 이미지의 보안을 설정하거나 해제하는 방법을 설명하기 위한 도면이다.
일 실시 예에 의하면, 전자 장치(1000)는 서버를 이용하여 이미지의 보안을 설정하거나 해제할 수 있다. 예를 들어, S2912에서, 전자 장치(1000)는 생체 데이터를 포함하는 제1 이미지를 획득할 수 있다. S2914에서, 전자 장치(1000)는 제1 이미지에 생체 데이터가 포함되어 있는지 여부를 결정할 수 있다. S2916에서, 전자 장치(1000)는 제1 이미지에 생체 데이터가 포함된 것으로 결정하는 경우, 제1 이미지를 서버(2000)로 전송할 수 있다.
S2918에서, 서버(2000)는 생체 데이터를 포함하는 제1 이미지를 난독화 처리하여 제2 이미지를 생성할 수 있다. 예를 들어, 서버(2000)는 도 3의 전자 장치(1000)가 수행하는 이미지의 보안을 설정하는 방법과 동일한 방법을 수행함으로써 제2 이미지를 생성할 수 있다.
S2920에서, 서버(2000)는 생성된 제2 이미지를 전자 장치(1000)로 전송할 수 있다. 즉, 전자 장치(1000)는 서버(2000)로부터 난독 처리된 이미지를 수신할 수 있다. S2922에서, 전자 장치(1000)는 수신된 제2 이미지를 출력할 수 있다.
또 다른 실시 예에 의하면, 전자 장치(1000)는 이미지의 보안을 해제하는 방법을 서버(2000)를 이용하여 수행할 수도 있다. 예를 들어, 전자 장치(1000)는 생체 데이터의 노출을 방지하기 위하여 난독 처리된(Obfuscate) 제2 이미지를 수신하고, 수신된 제2 이미지를 서버(2000)로 전송할 수 있다. 서버(2000)는 난독 처리된 제2 이미지를 수신하고, 수신된 제2 이미지를 난독 처리 해제(de-obfuscate) 함으로써 제1 이미지를 생성할 수 있다. 서버(2000)는 생성된 제1 이미지를 전자 장치(1000)로 전송할 수 있다. 전자 장치(1000)는 서버로부터 수신한 난독 처리 해제된 제1 이미지를 출력할 수 있다.
도 30은 일 실시 예에 따른 서버의 블록도를 나타내는 도면이다.
서버(2000)는 통신부(2100), 데이터베이스(Data Base, 2200) 및 프로세서(2300)를 포함할 수 있다.
통신부(2100)는 전자 장치(1000)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 통신부(2100)는 전자 장치(1000)로부터 제1 이미지를 수신하거나, 제1 이미지를 부호화함으로써 생성된 제2 이미지를 제1 이미지로 전송할 수 있다.
DB(2200)는 제1 이미지에서 생체 데이터를 포함하는 영역 및 생체 데이터에 대응되는 생체 이미지를 검출하기 위한 이미지 학습 모델, 이미지를 부호화 하기 위한 부호화 매개 변수, 이미지를 복호화 하기 위한 복호화 매개 변수, 기 설정된 암호화 키 및 기 설정된 복호화 키를 저장할 수 있다.
예를 들면, DB(2200)는 제1 이미지에서 생체 데이터를 포함하는 영역을 검색하기 위한 이미지 학습 모델, 제1 이미지에서 생체 이미지를 검출하기 위한 학습 모델을 저장할 수 있다. 또한, DB(2200)는 전자 장치(1000)에 저장된 이미지들에 관련된 정보를 더 저장할 수 있다. DB(2200)는 난독 처리가 되지 않은 원본 이미지 및 난독 처리가 완료된 이미지 등을 더 저장할 수 있다.
프로세서(2300)는 통상적으로 서버(2000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(2300)는, 서버(2000)의 DB(2200)에 저장된 프로그램들을 실행함으로써, DB(2200) 및 통신부(2100) 등을 전반적으로 제어할 수 있다. 프로세서(2300)는 DB(2200)에 저장된 프로그램들을 실행함으로써, 도 1 내지 도25에서의 전자 장치(1000)의 동작의 일부를 수행할 수 있다.
즉, 프로세서(2300)는 제1 이미지로부터 생체 데이터를 포함하는 영역을 검색하고, 검색된 영역에서 생체 데이터에 대응하는 생체 이미지를 검출하며, 검출된 생체 이미지를 부호화하고, 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 제1 이미지 및 부호화된 생체 이미지를 합성하여 제2 이미지를 생성할 수 있다.
또한, 프로세서(2300)는 제2 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하고, 상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하며, 검출된 생체 이미지를 복호화하고, 상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 복호화된 생체 이미지 및 상기 제2 이미지를 이용하여 제1 이미지를 생성할 수 도 있다.
일부 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
또한, 본 명세서에서, "부"는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 생체 데이터를 포함하는 이미지의 보안 설정 방법에 있어서,
    제1 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하는 동작;
    상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하는 동작;
    상기 검출된 생체 이미지를 부호화하는 동작; 및
    상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 제1 이미지 및 상기 부호화된 생체 이미지를 합성하여 제2 이미지를 생성하는 동작을 포함하는, 방법.
  2. 제1항에 있어서, 상기 워터 마크는
    공간 도메인(spatial-domain) 및 주파수 도메인(frequency domain) 중 적어도 하나의 도메인에서, 상기 생체 데이터 및 기 설정된 암호화 키를 이용하여 생성되는 것인, 방법.
  3. 제1항에 있어서, 상기 생체 데이터를 포함하는 영역을 검색하는 동작은
    상기 제1 이미지가 입력되는 경우, 상기 생체 데이터를 포함하는 영역 및 상기 검색된 영역을 식별하기 위한 위치 정보를 출력으로 하는 이미지 학습 모델을 이용하여 상기 영역을 검색하는 동작; 을 더 포함하는, 방법.
  4. 제1항에 있어서, 상기 생체 이미지를 검출하는 동작은
    상기 검색된 영역에 포함된 상기 생체 데이터의 종류를 결정하는 동작; 및
    상기 결정된 생체 데이터의 종류 별 상기 생체 이미지를 검출하는 동작; 을 더 포함하는, 방법.
  5. 제1항에 있어서, 상기 생체 이미지를 검출하는 동작은
    소정의 사용자 식별 정보를 획득하는 동작; 및
    상기 검색된 영역에서 상기 획득된 사용자 식별 정보에 매칭되는 생체 이미지를 검출하는 동작; 을 더 포함하는, 방법.
  6. 제1항에 있어서, 상기 생체 이미지를 부호화하는 동작은
    상기 생체 데이터의 종류에 기초하여, 상기 생체 이미지를 부호화 하기 위한 부호화 매개 변수를 결정하는 동작; 및
    상기 결정된 부호화 매개 변수를 이용하여 상기 생체 이미지를 부호화하는 동작; 을 더 포함하는, 방법.
  7. 제6항에 있어서, 상기 부호화 매개 변수는
    상기 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행하는 전자 장치 내의 메모리에 미리 저장되거나, 상기 제1 이미지에 임베딩 되는 것인, 방법.
  8. 제1항에 있어서, 상기 생체 데이터는
    홍채 정보, 얼굴 정보, 지문 정보, 손금 정보, 정맥 정보 및 귀 형태에 관한 정보 중 적어도 하나를 포함하는, 방법.
  9. 제1항에 있어서, 상기 방법은,
    상기 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행하는 전자 장치 외부의 데이터 베이스와 상기 제2 이미지를 공유하는 동작; 을 더 포함하는, 방법.
  10. 제1항에 있어서, 상기 제1 이미지는
    상기 생체 데이터를 포함하는 이미지의 보안 설정 방법을 수행하는 전자 장치 내의 메모리, 상기 전자 장치와 유선 또는 무선으로 연결되고, 이미지를 디스플레이 하기 위한 디스플레이 패널을 포함하는 다른 전자 장치 및 상기 전자 장치 외부의 복수의 이미지들이 저장되는 데이터 베이스 중 적어도 하나로부터 획득되는 것인, 방법.
  11. 생체 데이터를 포함하는 이미지의 보안 해제 방법에 있어서,
    제2 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하는 동작;
    상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하는 동작;
    상기 검출된 생체 이미지를 복호화하는 동작; 및
    상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 복호화된 생체 이미지 및 상기 제2 이미지를 이용하여 제1 이미지를 생성하는 동작을 포함하는 방법.
  12. 제11항에 있어서, 상기 워터 마크는
    상기 제2 이미지로부터 검출되고, 기 복호화키를 이용하여 미리 복호화 되는 것인, 방법.
  13. 이미지의 보안을 설정하는 전자 장치에 있어서,
    통신 인터페이스;
    하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 하나 이상의 인스트럭션을 실행함으로써 상기 전자 장치를 제어하는 적어도 하나의 프로세서; 를 포함하고,
    상기 적어도 하나의 프로세서는, 제1 이미지에서 상기 생체 데이터를 포함하는 영역을 검색하고,
    상기 검색된 영역에서 상기 생체 데이터에 대응하는 생체 이미지를 검출하고,
    상기 검출된 생체 이미지를 부호화하고,
    상기 생체 데이터에 대한 액세스를 차단하기 위한 워터 마크, 상기 제1 이미지 및 상기 부호화된 생체 이미지를 합성하여 제2 이미지를 생성하는, 전자 장치.
  14. 제13항에 있어서, 상기 워터 마크는
    공간 도메인(spatial-domain) 및 주파수 도메인(frequency domain) 중 적어도 하나의 도메인에서, 상기 생체 데이터 및 기 설정된 암호화 키를 이용하여 생성되는 것인, 전자 장치.
  15. 제1 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2019/001157 2019-01-18 2019-01-28 이미지의 보안 방법 및 이를 수행하는 전자 장치 WO2020149441A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP19909669.4A EP3913569A4 (en) 2019-01-18 2019-01-28 PICTURE BACKUP METHOD AND ELECTRONIC DEVICE FOR CARRYING OUT THE METHOD
US17/378,032 US20210342967A1 (en) 2019-01-18 2021-07-16 Method for securing image and electronic device performing same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0006926 2019-01-18
KR1020190006926A KR20200089972A (ko) 2019-01-18 2019-01-18 이미지의 보안 방법 및 이를 수행하는 전자 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/378,032 Continuation US20210342967A1 (en) 2019-01-18 2021-07-16 Method for securing image and electronic device performing same

Publications (1)

Publication Number Publication Date
WO2020149441A1 true WO2020149441A1 (ko) 2020-07-23

Family

ID=71613683

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/001157 WO2020149441A1 (ko) 2019-01-18 2019-01-28 이미지의 보안 방법 및 이를 수행하는 전자 장치

Country Status (4)

Country Link
US (1) US20210342967A1 (ko)
EP (1) EP3913569A4 (ko)
KR (1) KR20200089972A (ko)
WO (1) WO2020149441A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3698265A4 (en) * 2017-10-18 2020-10-28 Visa International Service Association BIOMETRIC DATA SECURITY SYSTEM AND PROCEDURE
US11356266B2 (en) * 2020-09-11 2022-06-07 Bank Of America Corporation User authentication using diverse media inputs and hash-based ledgers
KR102347137B1 (ko) * 2021-05-21 2022-01-05 주식회사 마크애니 화면 데이터 유출 방지 장치 및 방법
JP2024059288A (ja) * 2022-10-18 2024-05-01 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法および記録媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100874382B1 (ko) * 2007-07-09 2008-12-18 중앙대학교 산학협력단 생체정보를 이용한 워터마크 삽입 및 추출 장치, 그리고 그방법
KR20140089810A (ko) * 2013-01-07 2014-07-16 한남대학교 산학협력단 Cctv 환경에서의 얼굴 인식 기반 보안 관리 시스템 및 방법
KR20150099650A (ko) * 2014-02-21 2015-09-01 삼성전자주식회사 생체 정보디스플레이 방법 및 장치
KR20160057101A (ko) * 2014-11-13 2016-05-23 삼성전자주식회사 이미지 데이터의 보안 방법 및 이를 지원하는 전자 장치
KR20170022592A (ko) * 2015-08-21 2017-03-02 삼성전자주식회사 전자 장치 및 이의 콘텐트 변형 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1615171B1 (en) * 2003-04-02 2016-06-01 Panasonic Intellectual Property Management Co., Ltd. Image processing method, image processor, photographing apparatus, image output unit and iris verify unit
EP2503509A4 (en) * 2009-11-17 2018-01-17 Hitachi Industry & Control Solutions, Ltd. Authentication system using organism information, and authentication device
EP3192009A4 (en) * 2014-09-12 2018-04-25 Eyelock Llc Methods and apparatus for directing the gaze of a user in an iris recognition system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100874382B1 (ko) * 2007-07-09 2008-12-18 중앙대학교 산학협력단 생체정보를 이용한 워터마크 삽입 및 추출 장치, 그리고 그방법
KR20140089810A (ko) * 2013-01-07 2014-07-16 한남대학교 산학협력단 Cctv 환경에서의 얼굴 인식 기반 보안 관리 시스템 및 방법
KR20150099650A (ko) * 2014-02-21 2015-09-01 삼성전자주식회사 생체 정보디스플레이 방법 및 장치
KR20160057101A (ko) * 2014-11-13 2016-05-23 삼성전자주식회사 이미지 데이터의 보안 방법 및 이를 지원하는 전자 장치
KR20170022592A (ko) * 2015-08-21 2017-03-02 삼성전자주식회사 전자 장치 및 이의 콘텐트 변형 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3913569A4 *

Also Published As

Publication number Publication date
EP3913569A4 (en) 2022-03-30
KR20200089972A (ko) 2020-07-28
EP3913569A1 (en) 2021-11-24
US20210342967A1 (en) 2021-11-04

Similar Documents

Publication Publication Date Title
WO2020149441A1 (ko) 이미지의 보안 방법 및 이를 수행하는 전자 장치
WO2020171550A1 (en) Image processing method and apparatus, electronic device and computer readable storage medium
WO2016017970A1 (en) Method and device for encrypting or decrypting content
WO2016017975A1 (en) Method of modifying image including photographing restricted element, and device and system for performing the method
WO2018105908A1 (en) Mobile terminal and method for controlling the same
WO2016186286A1 (en) Mobile terminal and method of controlling therefor
WO2016190499A1 (en) Watch-type mobile terminal and method of controlling therefor
WO2016195160A1 (ko) 이동 단말기
WO2017022910A1 (en) Mobile terminal and controlling method thereof
WO2018147570A1 (en) Terminal and method of controlling therefor
WO2016108342A1 (en) Mobile device and method for controlling the same
WO2018016837A1 (en) Method and apparatus for iris recognition
WO2018199379A1 (ko) 인공 지능 기기
WO2020036425A1 (en) Artificial intelligence device
EP3459232A1 (en) Mobile terminal and control method thereof
WO2016006927A1 (ko) 홍채인식용 착용 감지 손 부착형 웨어러블 장치와 이를 이용한 보안강화세트 및 그 제어방법
WO2017034155A1 (en) Method, apparatus and system for inserting watermark data
WO2017115960A1 (en) Mobile terminal and controlling method thereof
WO2016195178A1 (en) Mobile terminal and method of controlling therefor
WO2017026604A1 (en) Mobile terminal and method for controlling the same
EP3175333A1 (en) Mobile terminal controlled by at least one touch and method of controlling therefor
WO2018030623A1 (en) Mobile terminal and method of operating the same
WO2016175424A1 (ko) 이동 단말기 및 그 제어 방법
WO2018056532A2 (en) Mobile terminal and controlling method thereof
EP3440593A1 (en) Method and apparatus for iris recognition

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19909669

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019909669

Country of ref document: EP

Effective date: 20210818