WO2014125831A1 - 電子ミラー装置 - Google Patents

電子ミラー装置 Download PDF

Info

Publication number
WO2014125831A1
WO2014125831A1 PCT/JP2014/000758 JP2014000758W WO2014125831A1 WO 2014125831 A1 WO2014125831 A1 WO 2014125831A1 JP 2014000758 W JP2014000758 W JP 2014000758W WO 2014125831 A1 WO2014125831 A1 WO 2014125831A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
display
camera
live video
Prior art date
Application number
PCT/JP2014/000758
Other languages
English (en)
French (fr)
Inventor
尚美 安杖
山形 道弘
今村 典広
善光 野口
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to EP14751139.8A priority Critical patent/EP2945372A4/en
Priority to CN201480007478.5A priority patent/CN104969543B/zh
Priority to US14/765,587 priority patent/US9992409B2/en
Priority to JP2015500151A priority patent/JP6090679B2/ja
Publication of WO2014125831A1 publication Critical patent/WO2014125831A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7246Details of waveform analysis using correlation, e.g. template matching or determination of similarity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems

Definitions

  • the present invention relates to an electronic mirror device.
  • Face information is detailed information such as moisture content, oil content, pores, texture, stains, wrinkles, porphyrins, sagging, skin color irregularities, face lines, and overall facial information such as makeup finish including.
  • the past image and the newly captured image should be captured under the same conditions as much as possible. preferable. If the color and brightness of the illumination at the time of shooting, the positional relationship between the illumination and the face, and the positional relationship between the camera and the face are different, accurate comparison and evaluation may not be possible.
  • Patent Document 1 In order to capture a face image under the same conditions as possible, in Patent Document 1, the position of the face and the imaging camera is always kept constant by a face holder, the face is surrounded by a light diffusing plate to uniformly illuminate the face, and disturbance A method for eliminating the influence of light has been proposed.
  • a method for determining whether or not the head is at the reference position by detecting the top of the head for example, see Patent Document 2
  • detecting facial features such as eyes, ears, and nose
  • Patent Document 3 a method for detecting a shift amount compared with reference waveform data in a face image
  • Patent Document 4 a method for detecting a shift amount compared with reference waveform data in a face image
  • the present invention provides an electronic mirror device that performs simple and good photographing suitable for comparing a previously photographed image with a newly photographed image.
  • An electronic mirror device includes a camera that captures a user, a display that has a display surface at a location that can be visually recognized by the user that the camera captures, and an image of the user that is captured by the camera.
  • a controller that outputs to a mirror image of the user's live video captured by the camera, and reads a reference image contrasted with the mirror image of the user's live video,
  • a display image for displaying a mirror image of a live image and the reference image in an overlapping area of the display is synthesized and output to the display.
  • An electronic mirror device includes a camera that captures a user, a display that has a display surface at a position that can be visually recognized by the user that the camera captures, and the user's image captured by the camera.
  • a controller that outputs to a mirror image of the user's live video captured by the camera, and reads a reference image that is contrasted with the mirror image of the user's live video, The degree of coincidence between the live video and the reference image is extracted, and the mirror image of the live video and the extracted image showing the degree of coincidence are combined and output to the display.
  • An electronic mirror device includes a camera that captures a user, a display that has a display surface at a position that can be visually recognized by the user that the camera captures, and the user's image captured by the camera. And a controller that outputs the mirror image of the user's live image captured by the camera to a mirror image, and based on the user's live image captured by the camera.
  • First information related to at least one of the position and the face orientation of the user is continuously acquired, and the position and the face orientation of the user in the reference image compared with the mirror image of the live video of the user
  • Second information related to at least one of the first information and the first information is compared with the second information to extract a degree of coincidence.
  • An electronic mirror device includes a camera that captures an image from which parallax can be extracted, a display having a display surface at a position that can be visually recognized by a user who captures the camera, and an image captured by the camera.
  • a controller for outputting to a display; and a memory, wherein the controller outputs the live video of the user captured by the camera to the display as a mirror image that is horizontally reversed, and the camera captures the image at a predetermined timing.
  • an electronic mirror device that performs simple and good photographing suitable for comparing a previously photographed image with a newly photographed image.
  • FIG. 1 is a diagram showing an example of the appearance of an electronic mirror device according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram showing an example of a functional configuration of the electronic mirror device according to Embodiment 1 of the present invention.
  • FIG. 3 is a conceptual diagram illustrating an example of use of the electronic mirror device according to Embodiment 1 of the present invention.
  • FIG. 4 is a flowchart showing an example of a basic operation of the electronic mirror device according to Embodiment 1 of the present invention.
  • FIG. 5 is a flowchart showing an example of detailed operation of the electronic mirror device according to Embodiment 1 of the present invention.
  • FIG. 6 is a diagram showing a display example of the electronic mirror device according to Embodiment 1 of the present invention.
  • FIG. 1 is a diagram showing an example of the appearance of an electronic mirror device according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram showing an example of a functional configuration of the electronic mirror device
  • FIG. 7 is an external view of the electronic mirror device according to Embodiment 1 of the present invention.
  • FIG. 8 is a diagram showing a display example of the electronic mirror device according to Embodiment 2 of the present invention.
  • FIG. 9 is a diagram showing a display example of the electronic mirror device according to Embodiment 3 of the present invention.
  • FIG. 10 is a diagram showing a display example of the electronic mirror device according to Embodiment 4 of the present invention.
  • FIG. 11 is a flowchart showing an example of detailed operation of the electronic mirror device according to Embodiment 5 of the present invention.
  • FIG. 12 is a diagram showing an example of detailed operation of the electronic mirror device according to Embodiment 5 of the present invention.
  • FIG. 13 is a flowchart showing an example of detailed operation of the electronic mirror device according to Embodiment 6 of the present invention.
  • FIG. 14 is a flowchart showing an example of detailed operation of the electronic mirror device according to Embodiment 7 of the present invention.
  • An electronic mirror device includes a camera that captures a user, a display that has a display surface at a location that can be visually recognized by the user that the camera captures, and an image of the user that is captured by the camera.
  • a controller that outputs to a mirror image of the user's live video captured by the camera, and reads a reference image contrasted with the mirror image of the user's live video,
  • a display image for displaying a mirror image of a live image and the reference image in an overlapping area of the display is synthesized and output to the display.
  • the image processing apparatus further includes a memory, wherein the memory records one frame of a live video previously captured by the camera as the reference image, and the controller reads the reference image from the memory,
  • the display image may be synthesized from the mirror image of the reference image read from the memory and the mirror image of the live image and output to the display.
  • the reference image may be one frame of the user's live video taken in the past by the camera.
  • the controller may read the reference image from an external medium, synthesize the display image from a mirror image of the reference image read from the external medium and a mirror image of the live image, and output the synthesized image to the display. .
  • controller may process the reference image to be translucent, synthesize the display video from the translucent reference image and the live video, and output the synthesized video to the display.
  • controller may extract an outline of the reference image, synthesize the display video from the image representing the outline and the live video, and output the synthesized video to the display.
  • the controller may detect a feature point of the reference image, synthesize the display image from the image representing the position of the feature point and the live image, and output the synthesized image to the display.
  • image information for supporting alignment can be provided to the user using various display modes.
  • An electronic mirror device includes a camera that captures a user, a display that has a display surface at a position that can be visually recognized by the user that the camera captures, and an image of the user that is captured by the camera.
  • a controller that outputs to the display, and the controller reverses the live video of the user captured by the camera to a mirror image, and compares the reference image with the mirror image of the user live video. Reading, extracting the degree of coincidence between the live video and the reference image, synthesizing the mirror image of the live video and the image indicating the degree of coincidence extracted and outputting to the display.
  • the user can check the live video together with the matching degree with the reference image. Therefore, it is possible to release the shutter at a timing that is closer to the reference image.
  • the controller is represented by the reference image and a pixel that is inside the face contour represented by the live video.
  • the degree of coincidence may be extracted based on the sum of luminance differences for each pixel with respect to the pixels inside the face outline.
  • an electronic mirror device includes a camera that captures a user, a display that has a display surface at a location that can be visually recognized by the user that the camera captures, and an image of the user that the camera captures.
  • a controller that outputs to the display, and the controller reverses the live video of the user captured by the camera to a mirror image, and is based on the live image of the user captured by the camera.
  • First information related to at least one of the user's position and face orientation is continuously acquired, and the user's position and face orientation in a reference image compared with the mirror image of the user's live video
  • Second information related to at least one of the two is acquired, and the degree of coincidence is extracted by comparing the first information with the second information , By synthesizing the image showing the degree of coincidence the mirror image and the extracted of the live video output to the display.
  • the user can check the live video together with the matching degree with the reference image. Therefore, it is possible to release the shutter at a timing that is closer to the reference image.
  • the memory further includes a memory, and the memory is related to at least one of the position and the face orientation of the user in the reference image, with one frame of a live video taken in the past by the camera as the reference image.
  • the second information is recorded, and the controller reads the second information from the memory, compares the first information with the second information read from the memory, and matches the second information. The degree may be extracted.
  • an electronic mirror device includes a camera that captures an image from which parallax can be extracted, a display that has a display surface at a position that can be viewed by a user that the camera captures, and an image that is captured by the camera. And a memory, and the controller outputs the live video of the user captured by the camera to the display as a mirror image that is reversed left and right.
  • One frame of the user's live video being shot is recorded in the memory, the parallax is extracted based on the user image of the one frame, and the distance between the camera and the user is calculated based on the parallax. The calculated distance and the image of the one frame are recorded in the memory in association with each other.
  • the memory records definition information that defines a gesture, and the controller determines whether a user in the live video has performed a gesture defined by the definition information recorded in the storage unit. When it is determined that the user has made the gesture, one frame in the live video may be recorded in the memory.
  • the memory may record color sample data, and the controller may adjust the color balance of the live image based on the color sample data recorded in the storage unit. .
  • FIG. 1 is a diagram illustrating an example of an appearance of the electronic mirror device 1 according to the first embodiment.
  • the electronic mirror device 1 according to the first embodiment includes a camera 2 that captures a user and a display 3.
  • the user's live video captured by the camera 2 can be displayed on the display 3.
  • a live video is a moving image represented by a sequence of still image frames (also simply referred to as frames or pictures).
  • one frame of the live video may be referred to as a live image.
  • the display 3 has a display surface at a position where a user who takes a picture with the camera 2 can visually recognize.
  • the electronic mirror device 1 has a memory 4 and a controller 5 inside the housing.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of the electronic mirror device 1 according to the first embodiment.
  • the memory 4 records a reference image that is contrasted with a user image captured by the camera 2.
  • the reference image may be, for example, one frame of a live video taken in the past by the camera 2.
  • the reference image can be called from the memory 4 and displayed on the display 3.
  • the controller 5 synthesizes the display image from the live image acquired by the camera 2 and the reference image recorded in the memory 4 using image processing such as inversion, rotation, and color correction.
  • the synthesized display image can be displayed on the display 3.
  • controller 5 reads the reference image from the memory 4.
  • the reference image may be read from the controller 5 or an external medium.
  • the controller 5 synthesizes the display image from the mirror image of the reference image and the mirror image of the live image read from the memory 4 or an external medium.
  • the synthesized display image is output and displayed on the display 3.
  • FIG. 3 is a schematic diagram showing the positional relationship between the electronic mirror device 1 and the user.
  • the electronic mirror device 1 is arranged in front of the paper and the back of the paper.
  • FIG. 4 is a flowchart showing an example of a basic operation of the electronic mirror device 1.
  • the user's image A is acquired by the camera 2 (S01, S02), and the controller 5 inverts the image A horizontally to generate an image B and outputs it to the display 3 (S03, S04).
  • the display 3 displays the image B (S05).
  • the images A and B constitute one frame of the user's live video.
  • the image A and the image B can be recorded and stored in the memory 4 and can be printed, transmitted to data, or moved to an external memory.
  • the user can record and save in the memory 4 as a reference image one frame in a state that he / she prefers while viewing the live video visually.
  • Reference images stored in the past can be recalled to contrast the user in the live video currently being captured.
  • the characteristic support operation performed by the electronic mirror device 1 will be described with reference to the flowchart of FIG. This will be described based on a display example.
  • the controller 5 acquires the reference image recorded in the memory 4 (S11).
  • the reference image may be, for example, an image captured in the past by the camera 2 and recorded in the memory 4.
  • the controller 5 processes the acquired reference image (S12).
  • the processing of the reference image may include reduction, left / right inversion, and the like.
  • the controller 5 acquires a live video of the user currently captured by the camera 2 (S13).
  • the frame rate of live video is not limited, but as a practical example, it may be several frames to several tens of frames per second.
  • the controller 5 processes the acquired live video (S14). Live video processing may include reduction, left-right reversal, color correction, and the like.
  • the controller 5 combines the display image from the reference image and the mirror image of the live image (S15), and displays the combined display image on the display 3 (S16).
  • the method for synthesizing the display video is not limited, as an example, the controller 5 may synthesize a display video for simultaneously displaying the reference image and the live video in a non-overlapping area of the display 3.
  • the reference image A ⁇ b> 1 is horizontally reversed and reduced and displayed in a small area in the upper left of the display 3, and the live image B ⁇ b> 1 is horizontally reversed and the rest of the display 3 excluding the small area. It may be displayed in the area.
  • the user adjusts the face direction while viewing such a display image displayed on the display 3, and determines that the reference image A1 and the live image B1 have the same face direction.
  • the frame can be recorded and stored in the memory 4 (S17).
  • the electronic mirror device 1 can support simple and good alignment when comparing the reference image and the live video.
  • the operation panel (not shown) of the electronic mirror device 1 may be a contact type such as a button or a touch panel, or may be a non-contact type.
  • a human sensor or the like may be used, or an image processing technique may be used.
  • the definition information that defines the user's gesture and the operation of the electronic mirror device 1 are recorded in advance in the memory 4 and the recorded definition information is used.
  • the electronic mirror device 1 may perform an associated operation.
  • the non-contact operation method using gestures has the following advantages, for example.
  • an ultraviolet light source may be turned on and an image may be recorded and stored after a few seconds have elapsed since the user performed a gesture to close the eyes. What is necessary is just to set the time which closes the eye used as a trigger in the time longer than blink.
  • the user can be notified by voice of a countdown until recording and saving and a cue to notify the end of shooting such as a shutter sound.
  • the non-contact type operation method by gesture is also useful in such a case.
  • the influence of the color and brightness of the illumination may be reduced, and the past and present skin colors may be easily compared.
  • the color balance may be adjusted by, for example, storing color sample data in the electronic mirror device 1 and photographing the actual color sample corresponding to the color sample data with the camera 2.
  • a dedicated touch pen 6 with a color sample 7 attached is attached to the electronic mirror device 1, the color sample 7 can be easily photographed to adjust the color balance.
  • a color sample data corresponding to the color sample 7 is recorded in the memory 4 in advance. Compared to the case where a color sample such as a color chart is prepared and photographed, it is possible to reduce the troublesomeness that makes you feel that you are doing something special.
  • the reference image is not necessarily read from the memory 4 provided in the electronic mirror device 1.
  • the controller 5 may read a reference image from an external medium.
  • the reference image indicates the position of at least one feature point among an image photographed by a camera other than the camera 2 of the electronic mirror device 1 and a face outline, eyes, nose, and mouth imitating a human face. Illustrations, sample images of makeup published in magazines and Internet sites, etc. can be considered.
  • a structure for physically connecting to the external medium may be provided at the end of the electronic mirror device 1 in order to read the reference image from the external medium.
  • the reference image may be read wirelessly from an external medium.
  • the past reference image A2 that has been reversed in the left and right direction obtained by the method as described above is called and processed into a translucent reference image B2.
  • a display image D2 obtained by superimposing the translucent reference image B2 and the live image C2 captured by the camera 2 is synthesized and displayed in an overlapping area of the display 3.
  • the synthesized display video D2 is an example of a display video for displaying a mirror image of the live video and a reference image in an overlapping area of the display, and more specifically, is represented by the mirror image of the live video.
  • 5 is an example of a display video in which a user and the reference image are arranged in an overlapping area of the display.
  • the user uses the translucent reference image B2 included in the display video D2 as a guide for face orientation, adjusts the distance and positional relationship between the camera 2 and himself so as to be the same face orientation, Can be recorded as a new reference image E2.
  • the third embodiment is different from the first and second embodiments in the image processing method.
  • the third embodiment will be described with reference to FIG.
  • the past reference image A3 that has been horizontally reversed is called out, and the contour is extracted to process the reference image B3 with only the contour.
  • a display image D3 obtained by superimposing the reference image B3 with only the outline and the live image C3 captured by the camera 2 is synthesized and displayed in an overlapping area of the display 3.
  • the composited display video D3 is an example of a display video for displaying a mirror image of the live video and a reference image in an overlapping area of the display. More specifically, the display video D3 is represented by the mirror image of the live video. 5 is an example of a display video in which a user and the reference image are arranged in an overlapping area of the display.
  • the user uses the reference image B3 of only the outline included in the display video D3 as a guide for face orientation, adjusts the distance and positional relationship between the camera 2 and himself so that the face orientation is the same, When it is determined that the orientations match, one frame of the live video C3 can be recorded as a new reference image E3.
  • the contour means not only the outer contour of the face but also the contour of the components such as eyes, nose and mouth.
  • the contour may be extracted by using an edge detection method or by simply binarizing the image and adjusting the contrast and brightness.
  • the threshold value and the like can be freely set by the user.
  • the contour may be extracted by tracing the image by the user. What is important in the present invention is the ease of use of the user, and the accuracy of image processing is not particularly required.
  • the fourth embodiment is different from the first, second, and third embodiments in the image processing method.
  • the fourth embodiment will be described with reference to FIG.
  • the past reference image A4 that has been horizontally reversed is called and the feature points are extracted, thereby processing the reference image B4 with only the feature points.
  • a display image D4 obtained by superimposing the reference image B4 including only the feature points and the live image C4 captured by the camera 2 is synthesized and displayed in an overlapping area of the display 3.
  • the composited display video D4 is an example of a display video for displaying a mirror image of the live video and a reference image in an overlapping area of the display. More specifically, the display video D4 is represented by the mirror image of the live video. 5 is an example of a display video in which a user and the reference image are arranged in an overlapping area of the display.
  • the user uses the reference image B4 of only the feature points included in the display video D4 as a guide for face orientation, adjusts the distance and positional relationship between the camera 2 and itself so that the face orientation is the same, When it is determined that the face orientations match, one frame of the live video C4 can be recorded as a new reference image E4.
  • the feature points include not only the eyes, nose, mouth, and contour, but also the portions that the user himself / herself wants to observe over time, such as spots and acne.
  • FIG. 9 shows an example in which feature points are marked with black circles as pigmented portions of the top of the head, jaw, eyes, corners of the eyes, nose, mouth corner, and right eye area, but the definition of the feature points is not limited to this.
  • the extraction of the feature points may be automatically detected by determining an algorithm, but may be specified by the user himself tracing the image.
  • a reference image captured by the camera 2 in the past is compared with a live image currently captured to extract the degree of coincidence.
  • An image indicating the extracted degree of coincidence is displayed on the display 3 together with the live video. That is, the image displayed on the display 3 together with the live video is an image showing the degree of coincidence between the reference image and the live video, and is different from Embodiments 1 to 4.
  • the memory 4 records a reference image that is contrasted with the user's live video captured by the camera 2.
  • the reference image may be, for example, one frame of a live video taken in the past by the camera 2.
  • the controller 5 extracts the contour of the user's face based on the user's live video captured by the camera 2 (S51, S52). Also, a reference image to be compared with the live video is called from the memory 4, and the contour of the user's face in the reference image is extracted (S53, S54). Then, with respect to the pixels inside the live video and the face outline extracted in the reference image, the difference in luminance value is calculated for each pixel, and the sum of them is calculated (S55). Based on the calculated sum of differences in luminance values, an image indicating the degree of coincidence between the user's live image and the reference image is generated (S56). The generated image indicating the degree of coincidence and the mirror image of the live video captured by the camera 2 are combined and output (S57).
  • This configuration allows the user to check the live video together with the degree of coincidence with the reference image. Therefore, the user can release the shutter at a shooting timing at which a live image is obtained under conditions closer to the reference image (that is, more suitable for comparison with the reference image) (S58).
  • the reference image or the live image is enlarged or enlarged so that the size of the face outline to be extracted and the arrangement of the feature points are the same.
  • the reference image or the live image is enlarged or enlarged so that the size of the face outline to be extracted and the arrangement of the feature points are the same.
  • the image showing the degree of coincidence based on the luminance value difference is obtained by, for example, quantifying the sum of the luminance value differences for each pixel calculated for pixels inside the facial image extracted in the live image and the reference image, for example. It may be displayed or graphed and displayed. It is not limited to these as long as the user can check the degree of matching between the frame and the reference image in the live video.
  • the difference in luminance value is calculated for each pixel for the pixels located inside the outline of the face extracted in the live video and the reference image.
  • the present invention is not limited to this.
  • the sum of the luminance values of the pixels inside the face outline in the live image is calculated
  • the sum of the luminance values of the pixels inside the face outline in the reference image is calculated
  • the calculated luminance values You may take the difference of the sum total.
  • the position or face orientation of the user in the reference image previously captured by the camera 2 is compared with the position or face orientation of the user in the live image currently being captured. Extract the degree of match.
  • An image indicating the extracted degree of coincidence is displayed on the display 3 together with the live video. That is, the image displayed on the display 3 together with the live video is an image showing the degree of coincidence between the reference image and the live video, and is different from Embodiments 1 to 4.
  • the memory 4 records second information related to the position or face orientation of the user in the reference image contrasted with the user's live video captured by the camera 2.
  • the reference image may be, for example, one frame of a live video taken in the past by the camera 2.
  • the memory 4 may record the reference image itself that is contrasted with the user's live video.
  • the controller 5 may read the reference image from the memory 4 and calculate the second information related to the position or face orientation of the user in the reference image.
  • the controller 5 can continuously acquire the first information related to the user's position or face direction based on the user's live image taken by the camera 2 (S61, S62).
  • the controller 5 can call (or calculate) the second information from the memory 4 and compare it with the first information (S63, S64). Then, the first information and the second information are compared to extract the degree of coincidence between them. The extracted image indicating the degree of coincidence and the mirror image of the live video taken by the camera 2 are combined and output (S65, S66).
  • This configuration allows the user to check the live video together with the degree of coincidence with the reference image. Therefore, the user can release the shutter at a shooting timing at which a live image is obtained under conditions closer to the reference image (that is, more suitable for comparison with the reference image) (S67).
  • the first information and the second information are described as information related to the user's position or face orientation.
  • the first information and the second information are the user's position and face orientation. Information including both of them may be used.
  • Information related to the position of the user is obtained by measuring the distance from the camera 2 to the user.
  • a distance measuring technique using parallax such as a compound eye camera can be used.
  • the user's face orientation can be acquired by estimating the direction of the face connecting the feature points based on the feature point positions of the faces in the captured image, for example. In addition, it can be obtained using a known technique.
  • the image indicating the degree of coincidence between the first information and the second information may be displayed by quantifying the difference between the first information and the second information, or may be displayed as a graph. It is not limited to these as long as the user can check the degree of coincidence between the first information and the second information.
  • the camera 2 can capture an image from which parallax can be extracted, such as a compound eye camera. The distance between the camera 2 and the user is calculated and recorded based on the parallax of the image captured by the camera 2.
  • the controller 5 records one frame of the user's live video captured by the camera at the shooting timing in the memory 4 (S71, S72). Then, the parallax is extracted based on the image of one frame recorded in the memory 4 (S73). The distance between the camera 2 and the user is calculated based on the extracted parallax, and is recorded in the memory 4 in association with the captured image (S74, S75). The above operation is performed for each shooting. Thereby, for example, based on the number of pixels corresponding to spots and pores in the captured image and the recorded distance information, the actual area of the spots and pores can be estimated. Therefore, even if the shooting conditions differ between an image shot in the past and a newly shot image, comparison and evaluation can be performed based on the distance information.
  • each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • a program execution unit such as a CPU (Central Processing Unit) or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • the user of the electronic mirror device of the present invention may be other than a human face, and is effective for observing a change over time even if it is a part other than the face of the body, another animal or plant, or even a non-living object.
  • the electronic mirror device according to the present invention can be applied to a skin diagnosis system and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

 電子ミラー装置(1)は、ユーザを撮影するカメラ(2)と、カメラ(2)が撮影するユーザが視認できる位置に表示面を有するディスプレイ(3)と、カメラ(2)が撮影した前記ユーザの画像をディスプレイ(3)に出力するコントローラと、を備え、前記コントローラは、カメラ(2)で撮影している前記ユーザのライブ映像を左右反転して鏡像とし、前記ユーザのライブ映像の前記鏡像と対照される参照画像を読み込み、前記ライブ映像の前記鏡像と前記参照画像とをディスプレイ(3)の重複する領域に表示するための表示映像を合成してディスプレイ(3)に出力する。

Description

電子ミラー装置
 本発明は、電子ミラー装置に関する。
 化粧品カウンターやエステティックサロン、美容皮膚科などでは、顔情報を定期的に調べて経時的な変化を観察することにより、化粧品や施術の効果を確認することがある。顔情報とは、水分量、油分量、毛穴、キメ、シミ、シワ、ポルフィリンのような細部の情報、たるみ、肌色むら、フェースライン、さらにはメイクアップの仕上がりのような顔の全体的な情報を含む。
 顔情報の経時変化を評価するためには、過去に撮影した画像と新たに撮影した画像を比較する場合、過去の画像と新たに撮影された画像とができるだけ同じ条件で撮影されていることが好ましい。撮影する際の照明の色や明るさ、照明と顔との位置関係、カメラと顔の位置関係が異なると、正確に比較評価することができないおそれがある。
 顔画像をできるだけ同じ条件で撮影するために、特許文献1では、フェースホルダにより顔と撮像カメラの位置を常に一定に維持し、光拡散板で顔の周りを囲んで均一に顔を照らすとともに外乱光の影響をなくす方法が提案されている。顔の向きだけに限定すると、頭頂部を検出して基準位置にあるか否かを判定する方法(例えば、特許文献2参照)や、目、耳、鼻などの顔の特徴部分を検出して基準位置にあるか否かを判定する方法(例えば、特許文献3参照)や、顔画像における基準波形データと比較してずれ量を検出する方法(例えば、特許文献4参照)などが提案されている。
特開2004-302424号公報 特開2003-189161号公報 特開2005-117316号公報 特開2009-188528号公報
 本発明は、過去に撮影した画像と新たに撮影した画像を比較する場合に適した、簡便かつ良好な撮影を行う電子ミラー装置を提供する。
 本発明の1つの態様に係る電子ミラー装置は、ユーザを撮影するカメラと、前記カメラが撮影するユーザが視認できる場所に表示面を有するディスプレイと、前記カメラが撮影した前記ユーザの画像を前記ディスプレイに出力するコントローラと、を備え、前記コントローラは、前記カメラで撮影している前記ユーザのライブ映像を左右反転して鏡像とし、前記ユーザのライブ映像の鏡像と対照される参照画像を読み込み、前記ライブ映像の鏡像と前記参照画像とを前記ディスプレイの重複する領域に表示するための表示映像を合成して前記ディスプレイに出力する。
 本発明の別の態様に係る電子ミラー装置は、ユーザを撮影するカメラと、前記カメラが撮影するユーザが視認できる位置に表示面を有するディスプレイと、前記カメラが撮影した前記ユーザの画像を前記ディスプレイに出力するコントローラと、を備え、前記コントローラは、前記カメラで撮影している前記ユーザのライブ映像を左右反転して鏡像とし、前記ユーザのライブ映像の前記鏡像と対照される参照画像を読み込み、前記ライブ映像と前記参照画像との一致度合いを抽出し、前記ライブ映像の前記鏡像と前記抽出した一致度合いを示す画像とを合成して前記ディスプレイに出力する。
 本発明の別の態様に係る電子ミラー装置は、ユーザを撮影するカメラと、前記カメラが撮影するユーザが視認できる位置に表示面を有するディスプレイと、前記カメラが撮影した前記ユーザの画像を前記ディスプレイに出力するコントローラと、を備え、前記コントローラは、前記カメラが撮影している前記ユーザのライブ映像を左右反転して鏡像とし、前記カメラが撮影している前記ユーザのライブ画像に基づいて前記ユーザの位置及び顔向きのうちの少なくとも何れか一方に関連する第1の情報を連続的に取得し、前記ユーザのライブ映像の前記鏡像と対照される参照画像中のユーザの位置及び顔向きのうちの少なくとも前記一方に関連する第2の情報を取得し、前記第1の情報と前記第2の情報とを比較して一致度合いを抽出し、前記ライブ映像の前記鏡像と前記抽出した一致度合いを示す画像とを合成して前記ディスプレイに出力する。
 本発明の別の態様に係る電子ミラー装置は、視差を抽出できる画像を撮影するカメラと、前記カメラが撮影するユーザが視認できる位置に表示面を有するディスプレイと、前記カメラが撮影した画像を前記ディスプレイに出力するコントローラと、メモリと、を備え、前記コントローラは、前記カメラが撮影している前記ユーザのライブ映像を左右反転した鏡像として前記ディスプレイに出力し、所定のタイミングで前記カメラが撮影しているユーザのライブ映像の1フレームを前記メモリに記録し、前記1フレームの前記ユーザの画像に基づいて視差を抽出し、前記視差に基づいて前記カメラと前記ユーザとの距離を算出し、前記算出した距離と前記1フレームの前記画像とを対応づけて前記メモリに記録する。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、またはコンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、およびコンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本発明によれば、過去に撮影した画像と新たに撮影した画像を比較する場合に適した、簡便かつ良好な撮影を行う電子ミラー装置を提供することができる。
図1は、本発明の実施の形態1に係る電子ミラー装置の外観の一例を示す図である。 図2は、本発明の実施の形態1に係る電子ミラー装置の機能的な構成の一例を示すブロック図である。 図3は、本発明の実施の形態1に係る電子ミラー装置の使用例を説明する概念図である。 図4は、本発明の実施の形態1に係る電子ミラー装置の基本的な動作の一例を示すフローチャートである。 図5は、本発明の実施の形態1に係る電子ミラー装置の詳細な動作の一例を示すフローチャートである。 図6は、本発明の実施の形態1に係る電子ミラー装置の表示例を示す図である。 図7は、本発明の実施の形態1に係る電子ミラー装置の外観図である。 図8は、本発明の実施の形態2に係る電子ミラー装置の表示例を示す図である。 図9は、本発明の実施の形態3に係る電子ミラー装置の表示例を示す図である。 図10は、本発明の実施の形態4に係る電子ミラー装置の表示例を示す図である。 図11は、本発明の実施の形態5に係る電子ミラー装置の詳細な動作の一例を示すフローチャートである。 図12は、本発明の実施の形態5に係る電子ミラー装置の詳細な動作の一例を示す図である。 図13は、本発明の実施の形態6に係る電子ミラー装置の詳細な動作の一例を示すフローチャートである。 図14は、本発明の実施の形態7に係る電子ミラー装置の詳細な動作の一例を示すフローチャートである。
 本発明の1つの態様に係る電子ミラー装置は、ユーザを撮影するカメラと、前記カメラが撮影するユーザが視認できる場所に表示面を有するディスプレイと、前記カメラが撮影した前記ユーザの画像を前記ディスプレイに出力するコントローラと、を備え、前記コントローラは、前記カメラで撮影している前記ユーザのライブ映像を左右反転して鏡像とし、前記ユーザのライブ映像の鏡像と対照される参照画像を読み込み、前記ライブ映像の鏡像と前記参照画像とを前記ディスプレイの重複する領域に表示するための表示映像を合成して前記ディスプレイに出力する。
 また、さらに、メモリを備え、前記メモリは、前記カメラで過去に撮影されたライブ映像の1つのフレームを、前記参照画像として記録しており、前記コントローラは、前記メモリから前記参照画像を読み込み、前記メモリから読み込まれた前記参照画像の鏡像と前記ライブ映像の鏡像とから前記表示映像を合成して前記ディスプレイに出力してもよい。
 また、前記参照画像が、前記カメラで過去に撮影された前記ユーザのライブ映像の1つのフレームであってもよい。
 このような構成によれば、ユーザが、参照画像とカメラで現在撮影しているライブ映像とを同時に目視で確認できるため、参照画像とライブ映像とを対照する際の簡便かつ良好な位置合わせを支援することができる。
 また、前記コントローラは、外部媒体から前記参照画像を読み込み、前記外部媒体から読み込まれた前記参照画像の鏡像と前記ライブ映像の鏡像とから前記表示映像を合成して前記ディスプレイに出力してもよい。
 また、前記コントローラは、前記参照画像を半透明に加工し、半透明の前記参照画像と前記ライブ映像とから前記表示映像を合成して前記ディスプレイに出力してもよい。
 また、前記コントローラは、前記参照画像の輪郭を抽出し、前記輪郭を表す画像と前記ライブ映像とから前記表示映像を合成して前記ディスプレイに出力してもよい。
 また、前記コントローラは、前記参照画像の特徴点を検出し、前記特徴点の位置を表す画像と前記ライブ映像とから前記表示映像を合成して前記ディスプレイに出力してもよい。
 このような構成によれば、様々な表示の態様を用いて、位置合わせを支援するための画像情報を利用者に提供できる。
 また、本発明の別の態様に係る電子ミラー装置は、ユーザを撮影するカメラと、前記カメラが撮影するユーザが視認できる位置に表示面を有するディスプレイと、前記カメラが撮影した前記ユーザの画像を前記ディスプレイに出力するコントローラと、を備え、前記コントローラは、前記カメラで撮影している前記ユーザのライブ映像を左右反転して鏡像とし、前記ユーザのライブ映像の前記鏡像と対照される参照画像を読み込み、前記ライブ映像と前記参照画像との一致度合いを抽出し、前記ライブ映像の前記鏡像と前記抽出した一致度合いを示す画像とを合成して前記ディスプレイに出力する。
 この構成によれば、ユーザは、参照画像との一致度合いと併せてライブ映像を確認することができる。したがって、より参照画像に近い条件におけるタイミングでシャッターを切ることができる。
 また、前記コントローラは、前記ライブ映像及び前記参照画像が前記ユーザの顔をそれぞれ表す場合に、前記ライブ映像で表される前記顔の輪郭よりも内側にある画素と、前記参照画像で表される前記顔の輪郭よりも内側にある画素とについて、画素ごとの輝度の差分の総和に基づいて、前記一致度合いを抽出してもよい。
 また、本発明の別の態様に係る電子ミラー装置は、ユーザを撮影するカメラと、前記カメラが撮影するユーザが視認できる場所に表示面を有するディスプレイと、前記カメラが撮影した前記ユーザの画像を前記ディスプレイに出力するコントローラと、を備え、前記コントローラは、前記カメラが撮影している前記ユーザのライブ映像を左右反転して鏡像とし、前記カメラが撮影している前記ユーザのライブ画像に基づいて前記ユーザの位置及び顔向きのうちの少なくとも何れか一方に関連する第1の情報を連続的に取得し、前記ユーザのライブ映像の前記鏡像と対照される参照画像中のユーザの位置及び顔向きのうちの少なくとも前記一方に関連する第2の情報を取得し、前記第1の情報と前記第2の情報とを比較して一致度合いを抽出し、前記ライブ映像の前記鏡像と前記抽出した一致度合いを示す画像とを合成して前記ディスプレイに出力する。
 この構成によれば、ユーザは、参照画像との一致度合いと併せてライブ映像を確認することができる。したがって、より参照画像に近い条件におけるタイミングでシャッターを切ることができる。
 また、さらにメモリを備え、前記メモリは、前記カメラで過去に撮影されたライブ映像の1つのフレームを前記参照画像として、前記参照画像中のユーザの位置及び顔向きのうちの少なくとも前記一方に関連する前記第2の情報を記録しており、前記コントローラは、前記メモリから前記第2の情報を読み込み、前記第1の情報と前記メモリから読み込まれた前記第2の情報とを比較して一致度合いを抽出してもよい。
 また、本発明の別の態様に係る電子ミラー装置は、視差を抽出できる画像を撮影するカメラと、前記カメラが撮影するユーザが視認できる位置に表示面を有するディスプレイと、前記カメラが撮影した画像を前記ディスプレイに出力するコントローラと、メモリと、を備え、前記コントローラは、前記カメラが撮影している前記ユーザのライブ映像を左右反転した鏡像として前記ディスプレイに出力し、撮影のタイミングで前記カメラが撮影している前記ユーザのライブ映像の1フレームを前記メモリに記録し、前記1フレームのユーザの画像に基づいて視差を抽出し、前記視差に基づいて前記カメラと前記ユーザとの距離を算出し、前記算出した距離と前記1フレームの前記画像とを対応づけて前記メモリに記録する。
 この構成によれば、過去に撮影した画像と新たに撮影した画像について撮影条件が違っていても、距離情報に基づいて比較、評価することができる。
 また、前記メモリは、ジェスチャーを規定する定義情報を記録しており、前記コントローラは、前記ライブ映像中のユーザが、前記記憶部に記録されている前記定義情報によって規定されるジェスチャーを行ったか否かを判断し、前記ユーザが前記ジェスチャーを行ったと判断したときに、前記ライブ映像中の1フレームを前記メモリに記録してもよい。
 このような構成によれば、前記電子ミラー装置を直接触れることなく操作可能になるので、利用者の利便性が向上する。
 また、前記メモリは、色見本のデータを記録しており、前記コントローラは、前記記憶部に記録されている前記色見本のデータをもとに、前記ライブ画像の色バランスを調整してもよい。
 このような構成によれば、参照画像とライブ映像とを対照する際に、位置合わせだけでなく色合わせも支援でき電子ミラー装置を提供することができる。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 以下、本発明による電子ミラー装置の実施形態を、図面を参照しながら説明する。
 なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、より好ましい形態を構成する任意の構成要素として説明される。
 (実施の形態1)
 図1は、実施の形態1の電子ミラー装置1の外観の一例を示す図である。本実施形態1の電子ミラー装置1は、ユーザを撮影するカメラ2と、ディスプレイ3を備える。カメラ2で撮影されたユーザのライブ映像は、ディスプレイ3に表示することができる。ライブ映像は、静止画フレーム(単にフレーム、又はピクチャとも言う)の連なりで表される動画像である。以下では、ライブ映像の1つのフレームをライブ画像と称することがある。ディスプレイ3は、カメラ2が撮影するユーザが視認できる位置にその表示面を有する。電子ミラー装置1は、筐体内部に、メモリ4及びコントローラ5を有している。
 図2は、第1の実施の形態の電子ミラー装置1の機能的な構成の一例を示すブロック図である。
 メモリ4は、カメラ2で撮影されるユーザの画像と対照される参照画像を記録している。参照画像は、例えば、カメラ2で過去に撮影されたライブ映像の1つのフレームであってもよい。参照画像は、メモリ4から呼び出してディスプレイ3に表示することができる。
 コントローラ5は、カメラ2で取得されたライブ画像およびメモリ4に記録されている参照画像から、反転、回転、色補正などの画像処理を用いて表示映像を合成する。合成された表示映像は、ディスプレイ3に表示することができる。
 また、コントローラ5は、メモリ4から参照画像を読み込む。コントローラ5、外部媒体から参照画像を読み込んでもよい。コントローラ5は、メモリ4や外部媒体などから読み込まれた参照画像の鏡像とライブ映像の鏡像とから表示映像を合成する。合成された表示映像は、ディスプレイ3に出力し表示される。
 図3、図4を参照しながら、電子ミラー装置1の使用例を説明する。鏡像の説明をわかりやすくするために、ユーザとして、顔ではなく手を用いている。
 図3は、電子ミラー装置1とユーザの位置関係を示す模式図であり、紙面手前にユーザ、紙面奥に電子ミラー装置1が配置されている。
 図4は、電子ミラー装置1の基本的な動作の一例を示すフローチャートである。
 図4に示されるように、カメラ2でユーザの画像Aを取得し(S01、S02)、コントローラ5が画像Aを左右反転して画像Bを生成しディスプレイ3に出力し(S03、S04)、ディスプレイ3が画像Bを表示する(S05)。このような処理を繰り返すとき、画像Aおよび画像Bは、ユーザのライブ映像の1つのフレームを構成する。画像Aおよび画像Bは、メモリ4に記録保存することができ、印刷、データ送信、外部メモリに移動することも可能である。
 ユーザは、ライブ映像を目視で確認しながら、自分で好ましいと思う状態の1つのフレームを参照画像として、メモリ4に記録保存することができる。過去に保存された参照画像は、現在撮影中のライブ映像中のユーザと対照するために、呼び出すことができる。
 次に、ユーザが参照画像と現在撮影中のライブ映像中のユーザとを対照しやすくするため、電子ミラー装置1が行う特徴的な支援動作について、図5のフローチャートを参照しながら、図6の表示例に基づいて説明する。
 コントローラ5は、メモリ4に記録されている参照画像を取得する(S11)。参照画像は、例えば、カメラ2で過去に撮影され、メモリ4に記録されている画像であってもよい。コントローラ5は、取得された参照画像を加工する(S12)。参照画像の加工には、縮小、左右反転などが含まれてもよい。
 コントローラ5は、カメラ2が現在撮像しているユーザのライブ映像を取得する(S13)。ライブ映像のフレームレートは限定されないが、実用的な一例として、毎秒数フレーム~数十フレーム程度であってもよい。コントローラ5は、取得されたライブ映像を加工する(S14)。ライブ映像の加工には、縮小、左右反転、色補正などが含まれてもよい。
 コントローラ5は、参照画像とライブ映像の鏡像とから表示映像を合成し(S15)、合成された表示映像をディスプレイ3に表示する(S16)。表示映像を合成する方法は限定されないが、一例として、コントローラ5は、参照画像とライブ映像とをディスプレイ3の重複しない領域に同時に表示するための表示映像を合成してもよい。
 図6に示される例のように、参照画像A1は左右反転及び縮小加工されてディスプレイ3の左上の小領域に表示され、ライブ映像B1は左右反転されてディスプレイ3の前記小領域を除いた残りの領域に表示されてもよい。
 ユーザは、ディスプレイ3に表示されたこのような表示映像を見ながら、顔の向きを調整し、参照画像A1とライブ映像B1とが同じ顔の向きになったと判断したところで、ライブ映像B1の1フレームを、メモリ4に記録保存することができる(S17)。
 このようにして、電子ミラー装置1は、参照画像とライブ映像とを対照する際の、簡便かつ良好な位置合わせを支援することができる。
 ここで、電子ミラー装置1の操作盤(不図示)は、ボタンやタッチパネルのような接触式でもよいし、非接触式でもよい。非接触式の操作方法には、人感センサーなどを用いてもよいし、画像処理技術を用いてもよい。例えば、あらかじめ、ユーザのジェスチャーを規定する定義情報と電子ミラー装置1の動作(例えば、ライブ映像の1つのフレームの保存動作)とを関連付けてメモリ4に記録しておき、記録さている定義情報によって規定されるジェスチャーをユーザが行ったと判断されるときに電子ミラー装置1が関連付けられた動作をするようにしてもよい。
 ジェスチャーによる非接触式の操作方法には、例えば、次のような利点がある。
 例えば、電子ミラー装置1を見ながら化粧をする場合、化粧品が手についた状態で接触式の操作盤を操作すると、操作盤に汚れが付着してしまう。ジェスチャーによる非接触式の操作方法を用いることで、操作盤が汚れるのを防ぐことができる。
 また例えば、肌コンディション情報を取得するために、紫外線を照射してポルフィリンや隠れジミを観察することがあるが、紫外線は角膜や結膜にダメージを与える恐れがある。目へのダメージを防ぐために、ユーザが目を閉じるジェスチャーを行ってから数秒経過したら紫外線の光源が点灯して画像も記録保存するようにしてもよい。きっかけとなる目を閉じる時間は、瞬きよりも長い時間で設定すればよい。また、記録保存するまでのカウントダウンと、シャッター音のような撮影終了を知らせる合図を音声でユーザに知らせることもできる。ジェスチャーによる非接触式の操作方法は、このような場合にも役立つ。
 また、電子ミラー装置1で色バランスを調整することによって、照明の色や明るさによる影響を低減し、過去と現在の肌色の比較をしやすくしてもよい。色バランスの調整は、例えば、電子ミラー装置1に色見本データを記憶させておき、当該色見本データに対応する色見本の実体物をカメラ2によって撮影することで行ってもよい。
 図7に示すように、色見本7を取り付けた専用のタッチペン6を電子ミラー装置1に添付しておけば、手軽に色見本7を撮影して色バランスを調整することができる。このとき、色見本7に対応する色見本テータを、メモリ4に予め記録しておく。カラーチャートなどの色見本をわざわざ用意して撮影する場合などと比べて、特別面倒なことをしていると感じさせるような煩わしさを軽減できる。
 なお、参照画像は、必ずしも電子ミラー装置1が内部に備えるメモリ4から読み込まれる必要はない。例えば、コントローラ5が外部媒体から参照画像を読み込んでもよい。この場合、参照画像は、電子ミラー装置1のカメラ2以外のカメラで撮影された画像や、人の顔を模倣した顔の輪郭、目、鼻、口のうち少なくともひとつの特徴点の位置を示すイラスト、雑誌やインターネットサイトに掲載されたメイクアップの見本画像などが考えられる。また、外部媒体から参照画像を読み込むために電子ミラー装置1の端部に外部媒体と物理的に接続するための構造を備えていてもよい。また、外部媒体から無線で参照画像を読み込んでもよい。
 (実施の形態2)
 実施の形態2は、画像の加工方法と表示方法が実施の形態1と異なる。本実施の形態2について、図8を参照しながら説明する。
 前述のような方法で取得した過去の左右反転された参照画像A2を呼び出し、半透明の参照画像B2に加工する。半透明の参照画像B2と、カメラ2で撮影されているライブ映像C2とを重ね合わせた表示映像D2が合成され、ディスプレイ3の重複する領域に表示される。
 ここで、合成される表示映像D2は、ライブ映像の鏡像と参照画像とをディスプレイの重複する領域に表示するための表示映像の一例であり、より詳細には、前記ライブ映像の鏡像に表されたユーザと前記参照画像とが前記ディスプレイの重複する領域に配置された表示映像の一例である。
 ユーザは、表示映像D2に含まれる半透明の参照画像B2を顔の向き合わせのガイドとして使用し、同じ顔の向きになるようにカメラ2と自分自身との距離および位置関係を調整し、顔の向きが一致したと判断した時点で、ライブ映像C2の1つのフレームを新たな参照画像E2として記録することができる。
 (実施の形態3)
 実施の形態3は、画像の加工方法が実施の形態1および実施の形態2と異なる。本実施の形態3について、図9を参照しながら説明する。
 過去の左右反転された参照画像A3を呼び出し、輪郭を抽出することにより、輪郭のみの参照画像B3に加工する。輪郭のみの参照画像B3と、カメラ2で撮影されているライブ映像C3とを重ねあわせた表示映像D3が合成され、ディスプレイ3の重複する領域に表示される。
 ここで、合成される表示映像D3は、ライブ映像の鏡像と参照画像とをディスプレイの重複する領域に表示するための表示映像の一例であり、より詳細には、前記ライブ映像の鏡像に表されたユーザと前記参照画像とが前記ディスプレイの重複する領域に配置された表示映像の一例である。
 ユーザは、表示映像D3に含まれる輪郭のみの参照画像B3を顔の向き合わせのガイドとして使用し、同じ顔の向きになるようにカメラ2と自分自身との距離および位置関係を調整し、顔の向きが一致したと判断した時点で、ライブ映像C3の1つのフレームを新たな参照画像E3として記録することができる。
 ここで、輪郭とは、顔の外輪郭だけでなく、目、鼻、口などの構成部分の輪郭も意味する。輪郭の抽出は、エッジ検出の手法を用いてもよいし、単純に画像を2値化してコントラストや明るさを調整する方法でもよい。いずれの画像処理においても、閾値などはユーザが自由に設定することができる。さらには、輪郭の抽出はユーザが画像をなぞって決めてもよい。本発明で重要なのは、ユーザ本人の使いやすさであって、画像処理の精度は特別に必要としない。
 (実施の形態4)
 実施の形態4は、画像の加工方法が実施の形態1、実施の形態2および実施の形態3と異なる。本実施の形態4について、図10を参照しながら説明する。
 過去の左右反転された参照画像A4を呼び出し、特徴点を抽出することにより、特徴点のみの参照画像B4に加工する。特徴点のみの参照画像B4と、カメラ2で撮影されているライブ映像C4とを重ねあわせた表示映像D4が合成され、ディスプレイ3の重複する領域に表示される。
 ここで、合成される表示映像D4は、ライブ映像の鏡像と参照画像とをディスプレイの重複する領域に表示するための表示映像の一例であり、より詳細には、前記ライブ映像の鏡像に表されたユーザと前記参照画像とが前記ディスプレイの重複する領域に配置された表示映像の一例である。
 ユーザは、表示映像D4に含まれる特徴点のみの参照画像B4を顔の向き合わせのガイドとして使用し、同じ顔の向きになるようにカメラ2と自分自身との距離および位置関係を調整し、顔の向きが一致したと判断した時点で、ライブ映像C4の1つのフレームを新たな参照画像E4として記録することができる。
 ここで、特徴点とは、目、鼻、口、輪郭のみならず、シミやニキビのようなユーザ本人が経時的に観察したいと判断した部位も含む。図9には、特徴点を頭頂部、顎、目頭、目尻、小鼻、口角、右側目元の色素沈着部として黒丸でマーキングする例を示しているが、特徴点の定義はこの限りではない。特徴点の抽出は、アルゴリズムを決めて自動的に検出してもよいが、ユーザ本人が画像をなぞるなどして指定することもできる。
 (実施の形態5)
 実施の形態5に係る電子ミラー装置では、過去にカメラ2で撮影した参照画像と、現在撮影しているライブ映像とを比較して一致度合いを抽出する。抽出した一致度合いを示す画像を、ライブ映像とともにディスプレイ3に表示する。すなわち、ライブ映像とともにディスプレイ3に表示させる画像が、参照画像とライブ映像との一致度合いを示す画像である点で、実施の形態1~4と異なる。
 メモリ4は、カメラ2で撮影されるユーザのライブ映像と対照される参照画像を記録している。参照画像は、例えば、カメラ2で過去に撮影されたライブ映像の1つのフレームであってもよい。
 以下、図11を参照しながら、実施の形態5に係るコントローラ5の動作について説明する。
 コントローラ5は、カメラ2が撮影しているユーザのライブ映像に基づいて、ユーザの顔の輪郭を抽出する(S51、S52)。また、ライブ映像と対照される参照画像をメモリ4から呼び出して、当該参照画像中のユーザの顔の輪郭を抽出する(S53、S54)。そして、ライブ映像、および参照画像中で抽出した顔の輪郭よりも内側にある画素について、画素ごとに輝度値の差分をとり、それらの総和を算出する(S55)。算出した輝度値の差分の総和に基づいて、ユーザのライブ画像と参照画像との一致度合いを示す画像を生成する(S56)。生成した一致度合いを示す画像とカメラ2で撮影しているライブ映像の鏡像とを合成して出力する(S57)。
 この構成により、ユーザは、参照画像との一致度合いと併せてライブ映像を確認することができる。したがって、ユーザは、より参照画像に近い条件における(つまり、参照画像との比較により適した)ライブ画像が得られる撮影タイミングでシャッターを切ることができる(S58)。
 なお、ライブ映像、および参照画像について、画素ごとに輝度値の差分を算出する場合、抽出する顔の輪郭の大きさや特徴点の配置が同等になるように参照画像、またはライブ画像を、拡大または縮小することにより、より正確な比較が可能になる。そのため、参照画像及びライブ画像においてそれぞれ特徴点を抽出し(図12のA5、B5、C5)、両者で顔の輪郭の大きさが異なる場合は、当該輪郭の大きさが同等になるように少なくとも一方を拡大または縮小してもよい。また、両者で特徴点の配置が異なる場合は、特徴点が一致するように少なくとも一方をシフトさせてもよい(図12のD5)。
 輝度値の差分に基づく一致度合いを示す画像は、例えばライブ映像、および参照画像中で抽出した顔の輪郭よりも内側にある画素について算出した、画素ごとの輝度値の差分の総和を数値化して表示したものでもよいし、グラフ化して表示したものでもよい。ユーザがライブ映像におけるフレームと参照画像との一致度合いを確認できる態様であればこれらに限定されない。
 なお、上記実施の形態においては、ライブ映像、および参照画像中で抽出した顔の輪郭よりも内側にある画素について、画素ごとに輝度値の差分を算出したが、これに限定されない。例えば、ライブ画像において顔の輪郭よりも内側にある画素の輝度値の総和を算出し、参照画像において顔の輪郭よりも内側にある画素の輝度値の総和を算出し、算出したこれらの輝度値の総和の差分をとってもよい。
 (実施の形態6)
 実施の形態6に係る電子ミラー装置では、過去にカメラ2で撮影した参照画像中のユーザの位置または顔向きと、現在撮影しているライブ映像中のユーザの位置または顔向きとを比較して一致度合いを抽出する。抽出した一致度合いを示す画像を、ライブ映像とともにディスプレイ3に表示する。すなわち、ライブ映像とともにディスプレイ3に表示させる画像が、参照画像とライブ映像との一致度合いを示す画像である点で、実施の形態1~4と異なる。
 メモリ4は、カメラ2で撮影されるユーザのライブ映像と対照される参照画像中のユーザの位置または顔向きに関連する第2の情報を記録している。参照画像は、例えば、カメラ2で過去に撮影されたライブ映像の1つのフレームであってもよい。
 また、メモリ4が、ユーザのライブ映像と対照される参照画像自体を記録していてもよい。このとき、コントローラ5がメモリ4から参照画像を読み込み、当該参照画像中のユーザの位置または顔向きに関連する第2の情報を算出してもよい。
 以下、図13を参照しながら、実施の形態6に係るコントローラ5の動作について説明する。
 コントローラ5は、カメラ2が撮影しているユーザのライブ画像に基づいてユーザの位置または顔向きに関連する第1の情報を連続的に取得することができる(S61、S62)。
 また、コントローラ5は、第2の情報をメモリ4から呼び出して(または、算出して)第1の情報と比較することができる(S63、S64)。そして、第1の情報と第2の情報とを比較して両者の一致度合いを抽出する。抽出した一致度合いを示す画像とカメラ2で撮影しているライブ映像の鏡像とを合成して出力する(S65、S66)。
 この構成により、ユーザは、参照画像との一致度合いと併せてライブ映像を確認することができる。したがって、ユーザは、より参照画像に近い条件における(つまり、参照画像との比較により適した)ライブ画像が得られる撮影タイミングでシャッターを切ることができる(S67)。
 上記では、前記第1の情報及び前記第2の情報を、ユーザの位置または顔向きに関連する情報として説明したが、前記第1の情報及び前記第2の情報は、ユーザの位置及び顔向きの双方を含む情報でもよい。
 ユーザの位置に関連する情報は、カメラ2からユーザまでの距離を測定することにより取得する。距離の測定は、例えば、複眼カメラなどの視差を用いた測距技術を利用することができる。
 ユーザの顔向きは、例えば、撮影画像中の顔の特徴点位置に基づいて、当該特徴点を結ぶ面の方向を推定することにより取得することができる。そのほか周知技術を用いて取得することができる。
 第1の情報と第2の情報の一致度合いを示す画像は、第1の情報及び第2の情報の差分を数値化して表示したものでもよいし、グラフ化して表示したものでもよい。ユーザが第1の情報と第2の情報の一致度合いを確認できる態様であればこれらに限定されない。
 (実施の形態7)
 実施の形態7に係る電子ミラー装置では、カメラ2が、複眼カメラなどの視差を抽出できる画像を撮影することができる。また、カメラ2で撮影した画像の視差に基づきカメラ2とユーザとの距離を算出し記録する。
 以下、図14を参照しながら、実施の形態7に係るコントローラ5の動作について説明する。
 コントローラ5は、撮影タイミングでカメラが撮影しているユーザのライブ映像の1フレームをメモリ4に記録する(S71、S72)。そして、メモリ4に記録した1フレームの画像に基づいて視差を抽出する(S73)。抽出した視差に基づいてカメラ2とユーザとの距離を算出し、撮影画像と対応づけてメモリ4に記録する(S74、S75)。以上の動作を撮影ごとに行う。これにより、例えば、撮影画像中のしみや毛穴に相当する画素の数と、記録した距離情報に基づいて、しみや毛穴の実際の面積を推定することができる。したがって、過去に撮影した画像と新たに撮影した画像について撮影条件が違っていても、距離情報に基づいて比較、評価することができる。
 なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU(Central Processing Unit)またはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 以上、本発明の一つまたは複数の態様に係る電子ミラー装置について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない範囲で、当業者が思いつく各種変形を本実施の形態に施し、また、複数の実施の形態における各構成要素を任意に組み合わせて得られる形態も本発明の一つまたは複数の態様に係る範囲内に含まれてもよい。
 例えば、本発明の電子ミラー装置のユーザは人間の顔以外でもよく、身体の顔以外の部位、他の動植物、さらには非生物であっても経時変化を観察する際に有効である。
 本発明にかかる電子ミラー装置は、肌診断システムなどに応用することができる。
 1 電子ミラー装置
 2 カメラ
 3 ディスプレイ
 4 メモリ
 5 コントローラ
 6 タッチペン
 7 色見本

Claims (12)

  1.  ユーザを撮影するカメラと、
     前記カメラが撮影するユーザが視認できる位置に表示面を有するディスプレイと、
     前記カメラが撮影した前記ユーザの画像を前記ディスプレイに出力するコントローラと、を備え、
     前記コントローラは、
     前記カメラで撮影している前記ユーザのライブ映像を左右反転して鏡像とし、
     前記ユーザのライブ映像の鏡像と対照される参照画像を読み込み、
     前記ライブ映像の鏡像と前記参照画像とを前記ディスプレイの重複する領域に表示するための表示映像を合成して前記ディスプレイに出力する、
     電子ミラー装置。
  2.  さらにメモリを備え、
     前記メモリは、前記カメラで過去に撮影されたライブ映像の1つのフレームを、前記参照画像として記録しており、
     前記コントローラは、前記メモリから前記参照画像を読み込み、
     前記メモリから読み込まれた前記参照画像の鏡像と前記ライブ映像の鏡像とから前記表示映像を合成して前記ディスプレイに出力する、
     請求項1に記載の電子ミラー装置。
  3.  前記参照画像が、前記カメラで過去に撮影された前記ユーザのライブ映像の1つのフレームである、
     請求項2に記載の電子ミラー装置。
  4.  前記コントローラは、外部媒体から前記参照画像を読み込み、前記外部媒体から読み込まれた前記参照画像の鏡像と前記ライブ映像の鏡像とから前記表示映像を合成して前記ディスプレイに出力する、
     請求項1に記載の電子ミラー装置。
  5.  前記コントローラは、前記参照画像を半透明に加工し、半透明の前記参照画像と前記ライブ映像とから前記表示映像を合成して前記ディスプレイに出力する、
     請求項1から4のいずれか1項に記載の電子ミラー装置。
  6.  前記コントローラは、前記参照画像の輪郭を抽出し、前記輪郭を表す画像と前記ライブ映像とから前記表示映像を合成して前記ディスプレイに出力する、
     請求項1から4のいずれか1項に記載の電子ミラー装置。
  7.  前記コントローラは、前記参照画像の特徴点を検出し、前記特徴点の位置を表す画像と前記ライブ映像とから前記表示映像を合成して前記ディスプレイに出力する、
     請求項1から4のいずれか1項に記載の電子ミラー装置。
  8.  ユーザを撮影するカメラと、
     前記カメラが撮影するユーザが視認できる位置に表示面を有するディスプレイと、
     前記カメラが撮影した前記ユーザの画像を前記ディスプレイに出力するコントローラと、を備え、
     前記コントローラは、前記カメラで撮影している前記ユーザのライブ映像を左右反転して鏡像とし、前記ユーザのライブ映像の前記鏡像と対照される参照画像を読み込み、前記ライブ映像と前記参照画像との一致度合いを抽出し、前記ライブ映像の前記鏡像と前記抽出した一致度合いを示す画像とを合成して前記ディスプレイに出力する、
     電子ミラー装置。
  9.  前記コントローラは、
     前記ライブ映像及び前記参照画像が前記ユーザの顔をそれぞれ表す場合に、前記ライブ映像で表される前記顔の輪郭よりも内側にある画素と、前記参照画像で表される前記顔の輪郭よりも内側にある画素とについて、画素ごとの輝度の差分の総和に基づいて、前記一致度合いを抽出する、
     請求項8に記載の電子ミラー装置。
  10.  ユーザを撮影するカメラと、
     前記カメラが撮影するユーザが視認できる位置に表示面を有するディスプレイと、
     前記カメラが撮影した前記ユーザの画像を前記ディスプレイに出力するコントローラと、を備え、
     前記コントローラは、
     前記カメラが撮影している前記ユーザのライブ映像を左右反転して鏡像とし、
     前記カメラが撮影している前記ユーザのライブ映像に基づいて前記ユーザの位置及び顔向きのうちの少なくとも何れか一方に関連する第1の情報を連続的に取得し、
     前記ユーザのライブ映像の前記鏡像と対照される参照画像中のユーザの位置及び顔向きのうちの少なくとも前記一方に関連する第2の情報を取得し、
     前記第1の情報と前記第2の情報とを比較して一致度合いを抽出し、
     前記ライブ映像の前記鏡像と前記抽出した一致度合いを示す画像とを合成して前記ディスプレイに出力する、
     電子ミラー装置。
  11.  さらにメモリを備え、
     前記メモリは、前記カメラで過去に撮影されたライブ映像の1つのフレームを前記参照画像として、前記参照画像中のユーザの位置及び顔向きのうちの少なくとも前記一方に関連する前記第2の情報を記録しており、
     前記コントローラは、前記メモリから前記第2の情報を読み込み、
     前記第1の情報と前記メモリから読み込まれた前記第2の情報とを比較して一致度合いを抽出する、
     請求項10に記載の電子ミラー装置。
  12.  視差を抽出できる画像を撮影するカメラと、
     前記カメラが撮影するユーザが視認できる位置に表示面を有するディスプレイと、
     前記カメラが撮影した画像を前記ディスプレイに出力するコントローラと、
     メモリと、を備え、
     前記コントローラは、
     前記カメラが撮影している前記ユーザのライブ映像を左右反転した鏡像として前記ディスプレイに出力し、
     撮影のタイミングで前記カメラが撮影している前記ユーザのライブ映像の1フレームを前記メモリに記録し、
     前記1フレームの前記ユーザの画像に基づいて視差を抽出し、
     前記視差に基づいて前記カメラと前記ユーザとの距離を算出し、
     前記算出した距離と前記1フレームの前記画像とを対応づけて前記メモリに記録する、
     電子ミラー装置。
PCT/JP2014/000758 2013-02-14 2014-02-14 電子ミラー装置 WO2014125831A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP14751139.8A EP2945372A4 (en) 2013-02-14 2014-02-14 ELECTRONIC MIRROR DEVICE
CN201480007478.5A CN104969543B (zh) 2013-02-14 2014-02-14 电子镜装置
US14/765,587 US9992409B2 (en) 2013-02-14 2014-02-14 Digital mirror apparatus
JP2015500151A JP6090679B2 (ja) 2013-02-14 2014-02-14 電子ミラー装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013026504 2013-02-14
JP2013-026504 2013-02-14

Publications (1)

Publication Number Publication Date
WO2014125831A1 true WO2014125831A1 (ja) 2014-08-21

Family

ID=51353842

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/000758 WO2014125831A1 (ja) 2013-02-14 2014-02-14 電子ミラー装置

Country Status (5)

Country Link
US (1) US9992409B2 (ja)
EP (2) EP2945372A4 (ja)
JP (1) JP6090679B2 (ja)
CN (1) CN104969543B (ja)
WO (1) WO2014125831A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3021569A1 (en) * 2014-11-17 2016-05-18 Ricoh Company, Ltd. Image acquisition and management
US9558553B2 (en) 2014-11-17 2017-01-31 Ricoh Company, Ltd. Image acquisition and management using a reference image
WO2017149778A1 (ja) * 2016-03-04 2017-09-08 株式会社オプティム 鏡、画像表示方法及びプログラム
US10136050B2 (en) 2015-03-06 2018-11-20 Ricoh Company, Ltd. Image acquisition and management using a reference image
US10217022B2 (en) 2015-03-06 2019-02-26 Ricoh Company, Ltd. Image acquisition and management

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10063780B2 (en) * 2010-06-02 2018-08-28 Shan-Le Shih Electronic imaging system for capturing and displaying images in real time
TW201540264A (zh) * 2014-04-18 2015-11-01 Sony Corp 資訊處理裝置、資訊處理方法、及程式
TWI669103B (zh) * 2014-11-14 2019-08-21 日商新力股份有限公司 資訊處理裝置、資訊處理方法及程式
US10410412B2 (en) 2015-05-29 2019-09-10 Hover Inc. Real-time processing of captured building imagery
CN106650217B (zh) * 2015-10-29 2020-06-30 佳能市场营销日本株式会社 信息处理装置以及信息处理方法
CN107968912B (zh) * 2016-10-20 2020-09-25 时善乐 即时摄取影像并加以显示的电子影像***
JP2018069861A (ja) * 2016-10-26 2018-05-10 パナソニックIpマネジメント株式会社 電子ミラー装置
JP6723547B2 (ja) * 2016-10-31 2020-07-15 株式会社ディー・ディー・エス 皮膚情報処理プログラム及び皮膚情報処理装置
CN106388441B (zh) * 2016-11-09 2018-01-26 广州视源电子科技股份有限公司 一种用于显示的方法、装置及智能镜子
US10382673B2 (en) 2017-01-11 2019-08-13 Hover Inc. Automated guide for image capturing for 3D model creation
CN108683851B (zh) * 2018-05-15 2019-11-19 维沃移动通信有限公司 一种拍照方法及移动终端
US11779222B2 (en) 2019-07-10 2023-10-10 Compal Electronics, Inc. Method of and imaging system for clinical sign detection

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000013775A (ja) * 1998-06-19 2000-01-14 Yotaro Murase 画像再生方法、画像再生装置及び画像データ作成装置
JP2003189161A (ja) 2001-12-14 2003-07-04 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2004302424A (ja) 2003-03-20 2004-10-28 Moritex Corp 顔面撮像装置
JP2005117316A (ja) 2003-10-07 2005-04-28 Matsushita Electric Ind Co Ltd 撮影装置、撮影方法、およびプログラム
JP2009053328A (ja) * 2007-08-24 2009-03-12 Nec Corp 画像表示装置
JP2009061178A (ja) * 2007-09-07 2009-03-26 Noritsu Koki Co Ltd 顔撮影装置及び顔撮影方法
JP2009176208A (ja) * 2008-01-28 2009-08-06 Nec Corp 顔認証装置、システム、方法及びプログラム
JP2009188528A (ja) 2008-02-04 2009-08-20 Noritsu Koki Co Ltd 顔撮影装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003021859A (ja) 2001-07-09 2003-01-24 Konica Corp 撮影用ガイド、人物写真撮影装置、人物写真プリント装置
JP4174404B2 (ja) * 2003-10-01 2008-10-29 キヤノン株式会社 撮像装置、画像表示方法、プログラムおよび記憶媒体
JP4482021B2 (ja) * 2004-01-23 2010-06-16 オリンパス株式会社 カメラ
JP4153444B2 (ja) * 2004-02-18 2008-09-24 富士フイルム株式会社 デジタルカメラ
US7782384B2 (en) * 2004-11-05 2010-08-24 Kelly Douglas J Digital camera having system for digital image composition and related method
JP4635739B2 (ja) * 2005-06-24 2011-02-23 ソニー株式会社 撮像装置
JP2007013768A (ja) * 2005-07-01 2007-01-18 Konica Minolta Photo Imaging Inc 撮像装置
JP5034359B2 (ja) 2006-08-07 2012-09-26 富士通株式会社 画像認証装置、画像認証方法、画像認証プログラム、記録媒体及び電子機器
JP2008054031A (ja) 2006-08-24 2008-03-06 Fujifilm Corp デジタルカメラ及び表示制御方法
GB2448221B (en) * 2007-04-02 2012-02-01 Samsung Electronics Co Ltd Method and apparatus for providing composition information in digital image processing device
JP4702418B2 (ja) * 2008-09-09 2011-06-15 カシオ計算機株式会社 撮影装置、画像領域の存否判定方法及びプログラム
KR101618759B1 (ko) * 2008-12-24 2016-05-09 삼성전자주식회사 영상 촬영 장치 및 방법
JP2010171797A (ja) * 2009-01-23 2010-08-05 Nikon Corp 撮像装置及びプログラム
JP5388611B2 (ja) * 2009-02-03 2014-01-15 キヤノン株式会社 撮像装置およびその制御方法、プログラム
JP2010183317A (ja) * 2009-02-05 2010-08-19 Olympus Imaging Corp 撮像装置、画像合成表示装置、画像合成表示方法、およびプログラム
JP5206516B2 (ja) 2009-03-13 2013-06-12 株式会社デンソー 撮影補助装置、プログラムおよび撮影システム
JP5620651B2 (ja) 2009-06-26 2014-11-05 キヤノン株式会社 再生装置、撮像装置、及びその制御方法
JP2011017800A (ja) * 2009-07-07 2011-01-27 Canon Inc 焦点検出装置
JP2011070415A (ja) * 2009-09-25 2011-04-07 Fujifilm Corp 画像処理装置及び画像処理方法
EP2323102A1 (en) * 2009-10-23 2011-05-18 ST-Ericsson (France) SAS Image capturing aid
EP2339534A1 (en) * 2009-11-18 2011-06-29 Panasonic Corporation Specular reflection compensation
KR101604846B1 (ko) * 2009-11-27 2016-03-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
BR112012020872A2 (pt) * 2010-02-24 2016-05-03 Fujitsu Frontech Ltd sistema de autenticação, programa de autenticação e método de autenticação
JP5327211B2 (ja) 2010-12-28 2013-10-30 カシオ計算機株式会社 撮像装置、撮像制御方法及びプログラム
JP2013042250A (ja) * 2011-08-12 2013-02-28 Sony Corp 撮像装置および撮像方法
JP6112419B2 (ja) * 2012-02-03 2017-04-12 パナソニックIpマネジメント株式会社 撮像装置および測距装置
KR101197863B1 (ko) * 2012-02-27 2012-11-05 경일대학교산학협력단 피부 진단을 위한 단말 및 이를 위한 방법이 기록된 컴퓨터 판독 가능한 기록매체
KR102000536B1 (ko) * 2012-12-28 2019-07-16 삼성전자주식회사 합성 이미지를 촬영하는 촬영 장치 및 그 방법
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US9589205B2 (en) * 2014-05-15 2017-03-07 Fuji Xerox Co., Ltd. Systems and methods for identifying a user's demographic characteristics based on the user's social media photographs

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000013775A (ja) * 1998-06-19 2000-01-14 Yotaro Murase 画像再生方法、画像再生装置及び画像データ作成装置
JP2003189161A (ja) 2001-12-14 2003-07-04 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2004302424A (ja) 2003-03-20 2004-10-28 Moritex Corp 顔面撮像装置
JP2005117316A (ja) 2003-10-07 2005-04-28 Matsushita Electric Ind Co Ltd 撮影装置、撮影方法、およびプログラム
JP2009053328A (ja) * 2007-08-24 2009-03-12 Nec Corp 画像表示装置
JP2009061178A (ja) * 2007-09-07 2009-03-26 Noritsu Koki Co Ltd 顔撮影装置及び顔撮影方法
JP2009176208A (ja) * 2008-01-28 2009-08-06 Nec Corp 顔認証装置、システム、方法及びプログラム
JP2009188528A (ja) 2008-02-04 2009-08-20 Noritsu Koki Co Ltd 顔撮影装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2945372A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3021569A1 (en) * 2014-11-17 2016-05-18 Ricoh Company, Ltd. Image acquisition and management
US9451170B2 (en) 2014-11-17 2016-09-20 Ricoh Company, Ltd. Image acquisition and management using a reference image
US9558553B2 (en) 2014-11-17 2017-01-31 Ricoh Company, Ltd. Image acquisition and management using a reference image
US10136050B2 (en) 2015-03-06 2018-11-20 Ricoh Company, Ltd. Image acquisition and management using a reference image
US10217022B2 (en) 2015-03-06 2019-02-26 Ricoh Company, Ltd. Image acquisition and management
WO2017149778A1 (ja) * 2016-03-04 2017-09-08 株式会社オプティム 鏡、画像表示方法及びプログラム
JPWO2017149778A1 (ja) * 2016-03-04 2018-10-04 株式会社オプティム 鏡、画像表示方法及びプログラム

Also Published As

Publication number Publication date
JPWO2014125831A1 (ja) 2017-02-02
US20150373264A1 (en) 2015-12-24
EP3091737A3 (en) 2017-02-15
CN104969543A (zh) 2015-10-07
CN104969543B (zh) 2019-04-02
EP2945372A1 (en) 2015-11-18
EP3091737A2 (en) 2016-11-09
US9992409B2 (en) 2018-06-05
EP2945372A4 (en) 2016-03-30
JP6090679B2 (ja) 2017-03-15

Similar Documents

Publication Publication Date Title
JP6090679B2 (ja) 電子ミラー装置
US10587795B2 (en) System for producing compliant facial images for selected identification documents
CN105488782B (zh) 光泽判定装置以及光泽判定方法
EP3241151A1 (en) An image face processing method and apparatus
WO2017203913A1 (ja) 肌診断装置および肌診断方法
JP6859611B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5949030B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP2020526735A (ja) 瞳孔距離測定方法、装着型眼用機器及び記憶媒体
JP5771647B2 (ja) 肌解析装置、肌解析システム、肌解析方法および肌解析プログラム
JP2015232746A (ja) 皺検出装置および皺検出方法
JP2015080647A (ja) 撮影画像表示装置
JP2008167853A (ja) 試験シート、物体診断装置および方法並びにプログラム
JP2013182062A (ja) 表示装置および投影装置
JP6406966B2 (ja) 撮像装置、撮像装置の制御方法、撮像装置の制御プログラム
WO2013187282A1 (ja) 撮像画像表示装置、撮像画像表示方法、記録媒体
JP2006081846A (ja) 顔面溝の評価方法及び装置
CA3187876A1 (en) System and method for automatic personalized assessment of human body surface conditions
JP2009302910A (ja) 撮像装置及び画像再生装置
JP2008171264A (ja) 顔撮影装置および顔撮影方法
WO2020240989A1 (ja) 撮像装置、撮像制御方法および撮像制御プログラム
KR20190097494A (ko) 전자 장치 및 그의 제어 방법
US20220196394A1 (en) Imaging device, control method therefor, measuring device, and storage medium
JP2008243119A (ja) 顔撮影装置
JP5962268B2 (ja) 画像処理装置、画像処理方法、画像生成方法及びプログラム
GB2612364A (en) Method and system for determining user-screen distance

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14751139

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015500151

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14765587

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2014751139

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014751139

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE