WO2004088979A1 - 撮影装置、撮影方法、およびコンピュータプログラム - Google Patents

撮影装置、撮影方法、およびコンピュータプログラム Download PDF

Info

Publication number
WO2004088979A1
WO2004088979A1 PCT/JP2003/003987 JP0303987W WO2004088979A1 WO 2004088979 A1 WO2004088979 A1 WO 2004088979A1 JP 0303987 W JP0303987 W JP 0303987W WO 2004088979 A1 WO2004088979 A1 WO 2004088979A1
Authority
WO
WIPO (PCT)
Prior art keywords
photographing
distance
image
imaging
imaging device
Prior art date
Application number
PCT/JP2003/003987
Other languages
English (en)
French (fr)
Inventor
Satoshi Fukui
Takayuki Sugiura
Atsushi Miki
Shuji Kimura
Kiyoshi Chinzei
Mieko Nakano
Naoyuki Fujimoto
Mitsuhiro Gotoh
Toshio Endoh
Takahiro Aoki
Mitsuaki Fukuda
Masaki Watanabe
Shigeru Sasaki
Original Assignee
Fujitsu Limited
Fujitsu Peripherals Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited, Fujitsu Peripherals Limited filed Critical Fujitsu Limited
Priority to EP03715605.6A priority Critical patent/EP1610545B1/en
Priority to CNB038244500A priority patent/CN100548031C/zh
Priority to US10/550,489 priority patent/US7522824B2/en
Priority to PCT/JP2003/003987 priority patent/WO2004088979A1/ja
Priority to JP2004570131A priority patent/JP3874778B2/ja
Priority to CN2009101659829A priority patent/CN101631201B/zh
Priority to AU2003220948A priority patent/AU2003220948A1/en
Publication of WO2004088979A1 publication Critical patent/WO2004088979A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Definitions

  • Imaging device imaging method, and computer program
  • the present invention relates to a non-contact imaging device.
  • Imaging devices can be broadly classified into contact-type devices, in which the device and the body are in contact, and non-contact types, in which the device and the body are not in contact. In places where an unspecified number of people use it, a non-contact type is desired because of its difficulty in soiling, hygiene, and psychological resistance.
  • a contact-type device For example, if a contact-type device is used for security measures at a facility, it is necessary to determine whether or not the person has permission to enter the facility every time a person enters or exits the facility. That is, the device is frequently touched by humans. Therefore, there is a possibility that the glass surface that is in contact with the human skin may be stained. In such a case, the photographing cannot be performed well, and a correct discrimination result may not be obtained. For these reasons, non-contact devices are desired where discrimination is frequently performed.
  • Non-contact devices are preferred over contact devices, even when used in places with severe hygiene, such as medical institutions or research institutions. Also, as can be seen from the recent popularity of various antibacterial and sanitary goods, the need for non-contact products has increased due to hygiene problems and psychological resistance. I have. When photographing moving objects, contact-type devices cannot be used.
  • a portion other than the subject, that is, a background may be included in an image.
  • the pattern of the photographed image and the pattern of the image photographed in advance may not match, and a correct discrimination may not be performed.
  • Patent Document 1 obtains and accumulates image fluctuation information based on frame-to-frame differences, and determines that pixels that have not undergone any fluctuation within a fixed time in the past belong to the background area. Get a background image.
  • Patent Document 2 when an object having a uniform color, for example, white paper moves in front of the camera, it is difficult to distinguish the object from the background. The same applies to the method described in Patent Document 2.
  • Patent Document 3 detects the depth of an image, and Separates the scene from the background.
  • a device for detecting the depth is required, which requires a large-scale device and increases costs. The same applies to the method described in Patent Document 4.
  • Patent Document 1
  • Patent Document 2
  • Patent Document 4
  • An imaging device is an imaging device that captures an image of an object by imaging light reflected by the object with a light receiving unit, and a measuring unit that measures a distance between the object and the imaging device.
  • Exposure control means for controlling the exposure time of the light receiving means at the time of photographing according to the measurement result by the measuring means.
  • an image sensor such as CMOS or CCD is used as a means for converting the light receiving means into an electric signal.
  • a gain control means for controlling an output gain of the image sensor according to a measurement result by the measurement means.
  • the surface to be photographed of the object is with respect to the axis of the photographing device
  • Posture determining means for determining whether or not the object intersects perpendicularly; and, when the posture discriminating means determines that the photographed surface of the object intersects perpendicularly to an axis of a photographing direction of the photographing device,
  • Imaging control means for controlling the imaging of the object, and the measuring means measures, as the distance, a distance between at least two points of the imaging surface of the object and the imaging apparatus.
  • the attitude determining means determines whether or not the photographed surface of the object intersects perpendicularly with the axis of the photographing apparatus in the photographing direction based on the measurement result of the points by the measuring means.
  • a guide means is provided for guiding the imaging surface so as to intersect perpendicularly with the axis of the imaging direction of the imaging device.
  • a stillness judging means for judging whether or not the object is stationary based on a measurement result obtained by the measuring means obtained every predetermined time; and judging that the object is stationary by the stillness judging means.
  • a photographing control means for controlling the photographing of the object when performed.
  • a background storage unit that stores a background image in which the object is not captured, and an extraction that extracts an image of only the object by comparing the background image with an image obtained by photographing the object.
  • a photographing control means for controlling the photographing so as to perform photographing when the distance is not measured by the measuring means in order to acquire the background image.
  • FIG. 1 is a perspective view showing the overall configuration of the imaging device.
  • FIG. 2 is a side sectional view near the center of the imaging device.
  • FIG. 3 is a diagram showing an example of a shooting situation on the left side.
  • FIG. 4 is a diagram illustrating an example of a connection between the imaging device and a personal computer.
  • FIG. 5 is a block diagram illustrating an example of a functional configuration of the imaging device.
  • FIG. 6 is a diagram showing the relationship between the output value of the distance measuring sensor and the actual distance.
  • FIG. 7 is a diagram illustrating an example of the distance exposure table.
  • FIG. 8 is a flowchart for explaining an example of the flow of processing at the time of photographing by the photographing device.
  • FIG. 9 is a diagram illustrating an example of programs and data stored in the magnetic storage device.
  • FIG. 10 is a diagram showing an example of the feature information database.
  • FIG. 11 is a flowchart illustrating an example of the flow of processing for individual identification.
  • FIG. 1 is a perspective view showing the entire configuration of the photographing apparatus 1
  • FIG. 2 is a side sectional view near the center of the photographing apparatus 1
  • FIG. 3 is a view showing an example of a photographing situation on the left side
  • FIG. 5 is a block diagram showing an example of a functional configuration of a photographing device
  • FIG. 6 is a diagram showing an example of a connection between the personal computer 6 and the personal computer 6, and FIG. FIG.
  • an imaging device 1 includes an imaging device main body 2 and a main body power bar 3.
  • an illuminating unit that emits infrared light is used, and a light receiving unit that receives reflected light of infrared rays is used.
  • the imaging device 1 This is optimal as a device for photographing blood vessels of humans or animals.
  • the irradiating means and the light receiving means can be appropriately changed according to an object to be photographed, and are not limited to those that irradiate or receive infrared rays.
  • the photographing device 1 will be described as a device for photographing blood vessels of a human or an animal.
  • the body cover 3 is attached to the front surface 20a of the photographing apparatus body 2 in advance. And, for example, when photographing the left side of a human face, as shown in FIG. 3, the left side is directed to the front of the photographing apparatus 1 and the left side is parallel to the front of the photographing apparatus 1 (that is, Cut off the shirt so that the left side, which is the surface to be photographed of the target object, intersects perpendicularly with the axis in the photographing direction).
  • a human blood vessel pattern is photographed will be described as an example.
  • the imaging device body 2 consists of a casing (housing) 20, an imaging unit 21, a circuit board 22, an irradiation unit 23, an interface 24, a shirt button 25, and a distance measuring sensor (distance sensor) 2. 7, and lamp 28.
  • the photographing apparatus main body 2 can be connected to a personal computer 6 through an interface 24 as shown in FIG.
  • the casing 20 has a box-like shape, and the front face 20a is open.
  • the imaging unit 21 includes a lens 211, an image sensor 211, and the like.
  • the image sensor 212 for example, a CCD type image sensor or a CMOS type image sensor is used.
  • the circuit board 22 is provided with a control circuit for controlling each part of the imaging apparatus 1 and performing DZA conversion, which will be described later, a ROM storing computer programs (firmware) and data, a CPU, and the like. ing.
  • the CPU is based on commands, computer programs, or data from the personal computer 6 or shirt Calculation processing is performed based on the above.
  • the imaging device 1 includes a shirt control unit 201, an image processing unit 202, a position determination unit 203, a stillness determination unit 204, and a distance calculation unit 2 as shown in FIG. 05, background image storage unit 206, and posture determination unit 207 are implemented.
  • the irradiation unit 23 has an LED as a light source. If these objects are blood vessels, those that emit infrared light are used as these LEDs.
  • the current supplied to the LED is obtained from the personal computer 6 via the interface 24. When a USB is used as the interface 24, communication can be performed with the personal computer 6, and current can be obtained from the personal computer 6.
  • the body cover 3 is composed of a filter plate 31 made of a synthetic resin plate or a glass plate and a lens power bar 32 made of a synthetic resin plate or the like.
  • the main body cover 3 is attached to the front face 20a of the casing 20 with screws (not shown) or the like.
  • the filter plate 31 for example, a material that cuts visible light and light having a shorter wavelength (that is, light having a wavelength of about 800 nm or less) and transmits infrared light is used.
  • the distance measuring sensor 27 is attached in the photographing direction, and is used for measuring the distance between the distance measuring sensor 27 itself and a photographing target, that is, a subject.
  • a photographing target that is, a subject.
  • an optical or ultrasonic distance measuring sensor is used as the distance measuring sensor 27.
  • a distance measuring sensor 27 capable of measuring three points on the surface of the subject (surface to be photographed) is used to determine the posture of the subject.
  • distance to the subject from the imaging device 1
  • distance to the subject from the imaging device 1
  • it refers to the average value of the distances from the imaging device 1 to three points Shall be. Since the positional relationship between the distance measuring sensor 27 and each part of the photographing apparatus 1 is known in advance, the distance from each part of the photographing apparatus 1 to the subject is also obtained based on the distance obtained by the distance measuring sensor 27.
  • the standard of the distance to the subject is defined as the front face 3c of the main body cover 3. That is, the distance from the imaging device 1 to the subject is defined as the distance from the front surface 3c of the body cover 3 to the subject.
  • the distance measuring sensor 27 can be used near the base of the ear, near the tip of the ⁇ bone (near the corner of the eye), The distance is set so that the distance at three points near the mouth end can be measured.
  • the distance measuring sensor 27 outputs a measurement value of 8 bits, that is, 256 gradations, as a measurement result of the distance to one or more points on the surface of the subject (the surface to be imaged).
  • the correspondence between the measured value (output value) and the actual distance differs slightly depending on the type of subject, but the larger the measured value, the shorter the actual distance to the subject.
  • Such a function was obtained by actually performing measurement while gradually changing the position of ⁇ . Then, the distance from the photographing device 1 to one point of the subject is obtained by substituting the measured value into a function corresponding to the type of the subject.
  • the distance calculation unit 205 in FIG. 5 uses the method described above, that is, based on the function shown in FIG. 6 and the measured values (output values) for the three points ⁇ , the three points ⁇ ⁇ to ⁇ Calculate the distance to.
  • the calculation result is obtained as the subject distance information 70, the shirt evening control unit 201, the position determination unit 203, and the posture judgment Provided in separate part 2007.
  • the shirt evening control section 201 starts supplying current to the LEDs 51 a to 51 d and 52 a to 52 d at the moment when the shirt evening button 25 is pressed and the shirt evening is cut off. To the LED drive units 26 1 and 26 2 as shown. Then, it instructs to stop the current supply according to the exposure time. Thus, each LED emits light in synchronization with the shirt evening speed and the shirt evening speed (exposure time). Note that the instruction to cut off the shirt evening may be made by the personal computer 6 instead of the shirt evening button 25.
  • the reflected light from the subject passes through the filter plate 31 and enters the casing 20 and forms an image on the image sensor 2 12 by the lens 2 1 1.
  • the image sensor 211 generates imaging data by converting it into a signal.
  • the image processing unit 202 generates an image of the pattern of the blood vessel by performing image processing on the captured data. Note that the image processing may be configured to be performed by the personal computer 6.
  • a mechanical shirt evening such as a lens shirt evening or a screen shirt evening, or an optical shirt evening such as an LCD shirt evening can be used.
  • a configuration may be adopted in which charge accumulation by the image sensor 211 is started in synchronization with a photographing command, and accumulation is ended after the exposure time has elapsed, or the accumulated charge is read.
  • the exposure time when configured means the charge accumulation time.
  • these mechanical, optical, or electric shirts may be combined.
  • the photographing apparatus 1 automatically controls the exposure (exposure) and the shirts, guides the position and posture of the subject, And a function for extracting a subject area. According to these functions, shooting can be performed more easily and with high accuracy. Next, these functions will be described.
  • FIG. 7 is a diagram showing an example of the distance exposure table T L1.
  • the photographing apparatus 1 is provided with a distance exposure table T L1 as shown in FIG.
  • the exposure time according to the distance between the imaging device 1 and the subject is set in the distance dew table TL1.
  • the exposure time is set to be longer as the distance from the imaging device 1 to the subject ( ⁇ ) is longer. For example, if the distance to the photographing device 1 is 2.5 cm, the exposure time is set to 80 ms (millisecond), and if it is 8.5 cm, it is set to 95 ms.
  • the “gain” of the distance exposure table TL1 refers to the output gain of the output signal S10 output from the image sensor 212 to the image processing unit 202.
  • an adjustment signal S11 for adjusting the output gain is sent from a shirt control unit 201 or the like based on the distance exposure table TL1.
  • the output gain can also be adjusted manually.
  • the amplifier 208 amplifies the output signal S10. It is also possible to omit the amplifier 208.
  • the amplification factor of the amplifier 208 may be made variable, the amplification factor may be adjusted by the adjustment signal S11, and the output gain of the output signal S10 may be adjusted. In that case, the amplifier 208 may be integrally formed inside the image sensor 212.
  • the output signal S10 is digital data.
  • the shutter control unit 201 of FIG. 5 sets an exposure time based on the distance to the subject calculated by the distance calculation unit 205 and the distance exposure table TL1 at the time of shooting.
  • the shirt evening control unit 201 automatically issues a shooting command when the position and orientation of the subject are in a state suitable for shooting.
  • the subject ( ⁇ ) is positioned in a good shooting range, and ⁇ faces parallel to the front of the imaging device 1 (in a state where the axis of the shooting direction crosses the surface of ⁇ almost perpendicularly).
  • a shooting instruction is issued when the three conditions of and ⁇ are stationary are satisfied.
  • the “photographing good range” means a photographing range in which an image having a sharpness equal to or higher than a predetermined level can be obtained.
  • the determination as to whether or not these conditions are satisfied is performed by the position determination unit 203, the stationary determination unit 204, and the posture determination unit 207 as follows.
  • the position determination unit 203 determines whether or not the subject ( ⁇ ) is located within the good photographing range of the photographing device 1 based on the subject distance information 70 or the output value of the distance measuring sensor 27.
  • the good shooting range of ⁇ is a range in which the distance from the shooting device 1 in the shooting direction is, for example, 2 to 9 cm. If all three points ⁇ are in the good shooting range, it may be determined to be in the good shooting range.If any one point is in the good shooting range, it is determined to be in the good shooting range. You may do so. Such a determination is made every predetermined time (for example, 50 ms).
  • the posture determination unit 2007 obtains the coordinates of three points of the subject based on the subject distance information 70 or the output value of the distance measurement sensor 27. Then, it is determined whether or not the axis of the imaging device 1 in the imaging direction intersects perpendicularly with the plane including the three points of the subject. . That is, it is determined whether or not the plane is parallel to the front surface 20a of the photographing device 1 and the photographed surface of the subject is directly facing the photographing device 1.
  • the above “intersect perpendicularly” means to intersect at about 90 degrees, and is not limited to the meaning to intersect exactly at 90 degrees.
  • the angle is within a predetermined range, about 90 ° ⁇ 10 °, the axis of the shooting direction intersects perpendicularly to the surface to be shot, and the subject is directed straight to the image capturing device 1. It is determined that there is. If not, it is determined that they do not cross vertically and that they are not straight.
  • the stillness determination unit 204 determines whether or not the subject that has entered the good imaging range has stopped. That is, at every predetermined time (for example, 100 ms), an 8-bit measurement value for three points of the subject is acquired from the distance measurement sensor 27. For a certain period (for example, several hundred ms to several seconds), observe the amount of change in the measured value at each point. Then, if the change amount is smaller than the predetermined value for each period, it is determined that the subject is stationary. If the value exceeds a predetermined value within that period, it is determined that the vehicle is not stationary. Alternatively, based on the subject distance information 70 of the subject acquired from the distance calculation unit 205, the amount of change may be observed in the same manner as described above to determine the stillness.
  • the shirt control unit 201 executes an automatic shirt control function.
  • the exposure time in this case, an exposure time obtained based on the latest measurement value (output value) of the distance measuring sensor 27 or the like is used.
  • the subject ( ⁇ ) when shooting with the automatic shirt evening control function, the subject ( ⁇ ) is located in the good shooting range and is in a posture parallel to the imaging device 1 (the posture in which the axis of the shooting direction intersects perpendicularly to the surface to be shot)
  • a posture parallel to the imaging device 1 the posture in which the axis of the shooting direction intersects perpendicularly to the surface to be shot
  • the lamp 28 is turned off.
  • the lamp 28 blinks slowly (for example, every second).
  • the lamp 28 blinks rapidly (for example, every 0.5 seconds).
  • the stillness determination unit 204 determines that the subject has stopped, the lamp 28 stops blinking and remains lit.
  • a speaker should be provided in the imaging device 1 to output a voice such as "Please stand still” or "Please turn your face a little more to the left” to guide the position and posture of the subject. You may.
  • a liquid crystal panel may be provided to display and guide a message, a figure, a photograph, or an image. The guidance may be provided by the speed of the personal computer 6 or the display device.
  • each unit of the imaging device 1 performs the following processing. While the subject is not detected by the distance measurement sensor 27, the shirt control unit 201, the image processing unit 202, the imaging unit 21 and the like perform shooting for obtaining an image of only the background. . Such shooting is performed on a regular basis (for example, (Every tens of minutes).
  • the image obtained by the photographing is stored and stored as W scene image data 80 in the background image storage unit 206. If background image data 80 has already been stored, old background image data 80 is deleted and new background image data 80 is stored.
  • the blood vessel region included in the image is extracted based on the background image data 80. That is, corresponding pixels of the obtained image and the background image are compared with each other, and a pixel whose difference is equal to or larger than a preset threshold is determined to be an image of the subject. The other pixels are determined to be the background. In this way, the area of ⁇ , which is the subject, is extracted.
  • FIG. 8 is a flowchart illustrating an example of the flow of processing performed by the imaging device 1 during imaging.
  • the flow of processing of the imaging apparatus 1 when the above-described functions of automatic exposure adjustment, automatic shirt control, position and orientation guidance, and subject area extraction are used is shown in a flowchart of FIG. This will be described with reference to FIG.
  • the operator operates the operation button of the photographing device 1 or the keypad of the personal computer 6 to switch the photographing device 1 to the automatic photographing mode (# 1). Then, the distance measuring sensor 27 is activated (# 2), and the measurement (measurement) of the distance between the imaging device 1 and the object in front thereof is started (# 3). The measurement is repeated at a predetermined time interval (for example, every 10 Oms) until the calculation of the exposure time (# 7) or the end of the processing.
  • a predetermined time interval for example, every 10 Oms
  • the photographing apparatus 1 determines whether or not the position and posture of ⁇ have become the positions and postures suitable for photographing (# 5). If the position and posture are not suitable for shooting (No in # 5), guide the position and posture of ⁇ to the correct position using lamp 28 or a speaker (# 6). The determination is repeated until the position and orientation of ⁇ become suitable for photographing.
  • the exposure time is obtained by referring to the distance exposure table TL1 (# 7). Then, the distance measuring sensor 27 is stopped (# 8), and the photographing of ⁇ is performed based on the calculated exposure time to obtain an image including ⁇ (# 9).
  • step # 9 After acquiring the image containing the triangle in step # 9, extract only the image of the triangle from this image (# 10).
  • Fig. 9 is a diagram showing an example of programs and data stored in the magnetic storage device 6d
  • Fig. 10 is a diagram showing an example of a feature information database 6DB
  • Fig. 11 is a flow of processing for individual identification. 6 is a flowchart for explaining an example of FIG.
  • a feature information database 6 DB is stored in the magnetic storage device 6 d of the personal computer 6.
  • the feature information database 6 DB contains feature information 7 1 for each user. (71 a, 71 b, ⁇ ' ⁇ ) are stored in association with the user ID that identifies the user.
  • the feature information 71 is information on the features of the user.
  • information on the left blood vessel is used as the characteristic information 71.
  • the characteristic information 71 is obtained by previously photographing and acquiring the left side of the user by the photographing device 1.
  • the feature information 71 may be stored as an image of a blood vessel pattern, or may be stored as information indicating characteristics such as the thickness, length, number, or arrangement of blood vessels obtained by analyzing the image. You may have.
  • a personal identification program 6PG is installed in the magnetic storage device 6d. By executing this program, the process of determining who is trying to log on is realized by the procedure shown in the flowchart in FIG.
  • a user who wants to use the personal computer 6 turns on the switch of the personal computer 6. Then, in the personal convenience — evening 6, the logon screen is displayed. Here, the user inputs his / her user ID (# 21), and photographs his / her left side with the photographing device 1 (# 22). The input user ID and the image data obtained by the imaging are transmitted to the personal computer 6.
  • the personal computer 6 searches the feature information database 6 DB for feature information 71 corresponding to the user ID (# 23). Then, by determining whether or not the characteristics of the blood vessel indicated by the characteristic information 71 match the characteristics of the blood vessel indicated by the imaging data obtained by imaging, it is determined whether the user is a correct user. Is determined (# 2 4).
  • step # 24 perform the processing in step # 24 on the characteristic information 71a, 71b, ... sequentially stored in the characteristic information database 6 to determine who the user is (identification) Then, the logon availability may be determined. In this case, it is not necessary to enter the user ID on the logon screen.
  • Individual identification can be performed not only for user confirmation at logon as described above, but also for identity confirmation (time card) at the time of settlement or leaving / working in an electronic settlement system, for example.
  • the exposure in accordance with the distance between the imaging device and the subject by adjusting the exposure in accordance with the distance between the imaging device and the subject, high-precision imaging can be performed even in a non-contact type.
  • more accurate shooting can be performed.
  • an image of only the subject excluding the background can be extracted more accurately and at lower cost than in the past.
  • the longer the distance to the subject, the longer the exposure time, and the gain (amplification) of the output of the image sensor 211 is kept constant regardless of the distance.
  • the exposure time may be kept constant. Alternatively, both may be changed.
  • the shooting of the background may be performed immediately after the shooting of the subject. In other words, the shooting may be performed after the distance measurement sensor 27 stops detecting the subject after shooting the subject.
  • the positional relationship between the subject and the photographing device 1 may be adjusted by moving the photographing device 1.
  • a CCD may be used instead of the CMOS.
  • a pattern of a human blood vessel is photographed by the photographing apparatus 1, but it is a matter of course that other parts of the human or animal body can be photographed. For example, it can capture all aspects of the forehead, head, belly, back, buttocks, neck, limbs, arms, and legs.
  • the photographing apparatus 1 may be configured by changing the arrangement of the LEDs, the luminosity of the LEDs, the adjustment of the automatic exposure, the condition of the position or the posture, and the like according to the region to be photographed. It is also possible to photograph objects other than humans or animals.
  • the photographing device 1 can be used to investigate the traffic volume of a vehicle.
  • the system may be configured as follows.
  • Camera 1 is installed on the side of the road (sidewalk).
  • the shooting direction should be to the other side of the road.
  • the good shooting range is set from one side of the road to the other side.
  • the database contains images for each type of car in advance.
  • the fill plate 31 is made of a transparent plate.
  • the table for obtaining automatic exposure (see Fig. 7) is changed according to the width of the road and the shooting environment. The timing of the lighting may be immediately after it is determined that the vehicle is approaching. The lighting intensity may vary inversely with the distance to the car.
  • the configuration of the photographing device 1 is changed according to the width of the road and the photographing environment.
  • the background image is acquired periodically.
  • the distance measuring sensor 27 detects the vehicle and it is determined that the vehicle is approaching, the distance to the vehicle is obtained, and the exposure time is determined accordingly.
  • the car is photographed according to the exposure time and an image is acquired. Only the car area is extracted from the acquired images.
  • the extracted car image and the image prepared in the database By comparing feature information such as color information components, edge components, or surface components, the type of the detected car is specified. Then, the traffic volume data is updated.
  • the type of automobile may be specified by performing three-dimensional imaging and comparing apparent video information restored from the three-dimensional configuration information or feature information such as color information components, edge components, or surface components. .
  • the photographing device 1 is installed on a wall or the like, and the distance measuring sensor 27 may be provided around the feet.
  • the configuration of the imaging device 1 may be changed according to these conditions. Or, if you want to recognize a person in front of the door with an automatic door, for example, set the range from the door to the wall as a good shooting range, install the imaging device 1 above the door, and shoot in accordance with these conditions The configuration of the device 1 may be changed.
  • the object may have passed by when the image was taken. In other words, a shooting error may occur. In such a case, the following processing may be performed to reduce subsequent processing errors.
  • the position (distance) of the object is acquired again by the distance measuring sensor 27.
  • the acquired image is compared with the background image to determine whether or not the target object is captured. If the object is not shown, it is treated as if the object is not in close proximity.
  • the distance between the imaging device 1 and the three points of the subject is measured, but the distance between one or two points may be measured.
  • a suit If the camera is placed upright at the time of shooting, such as a case, the distance between the shooting device 1 and the two points of the subject may be measured. This is because if the distance to one point on the surface of the object (the surface to be imaged) is equal to the distance to another point, it is known that the imaging device 1 and the object are parallel. Or, if you are shooting a car traveling on the road, it is sufficient to measure one point. This is because the car runs almost parallel to the photographing device 1.
  • Recognition results such as the type of an individual or an object (for example, the type of automobile), may be output by a display device, a printing device, or the like. It may be transmitted to another electronic system or device via a network or recorded on a recording medium.
  • An illustration for indicating the shooting direction may be drawn on the surface of the body cover 3. For example, in the case of the photographing device 1 for photographing the sole, an illustration of the foot is drawn on the surface of the body cover 3.
  • the present invention is useful in that high-precision imaging can be performed even in a non-contact type by adjusting the exposure according to the distance between the imaging device and the subject. is there.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

物体で反射した光をイメージセンサ212で結像させることによって、この物体の撮影を行う撮影装置1に、物体と撮影装置1との距離を計測する測距センサ27と、計測結果に応じて撮影の際のイメージセンサ212の露出時間を制御する手段と、を設ける。

Description

撮影装置、 撮影方法、 およびコンピュータプログラム
技術分野
本発明は、 非接触式の撮影装置に関する。 明
背景技術
従来より、 人間の身体的特徴に基田づいて個人を識別し本人であるか否 かを判別する技術が提案されている。 撮影装置によって獲得される身体 的特徴とあらかじめ登録された身体的特徴とを照合することにより、 個 人の識別や本人かどうかの判断が行われる。
撮影装置は、 装置と身体とが接触する接触式のものと、 装置と身体と が接触しない非接触式のものと、 に大別される。 不特定多数の人間が利 用する場所では、 汚れにくさ、 衛生面、 心理的抵抗感などから非接触式 のものが望まれている。
例えば、 接触式の装置を施設のセキュリティ対策のために用いる場合 は、 その施設に人が出入りするたびに、 その人が入場許可のある者か否 かの判別を行う必要がある。 つまり、 その装置は頻繁に人に触られる。 よって、 人の皮膚が当たるガラス面が汚れてしまうおそれがあり、 その 場合には撮影を上手く行うことができず、 正しい判別結果が得られない ことがある。 このような理由より、 判別を頻繁に行うところでは、 非接 触式の装置が望まれている。
例えば、 施設の入退出管理に用いる場合も同様に、 その施設に人が出 入りするたびに撮影を行う必要がある。 この場合もやはり、 接触式の装 置は頻繁に人に触られる。 よって、 手などを当てるガラス面が汚れてし まうおそれがあり、 撮影が上手くできないことがある。 さらに、 汚れた 面に接触することで衛生上の問題や心理的抵抗感を招くおそれもある。 このような理由より、 非接触式の装置が望まれている。
医療機関または研究機関などのように、 衛生について厳しい場所で用 いる場合も、 接触式の装置よりも、 非接触式の装置が望まれている。 ま た、 近年、 種々の抗菌グッズや衛生グッズがヒット商品になっているこ とから分かるように、 世間では、 衛生上の問題や心理的抵抗感から、 非 接触式の製品のニーズが高まっている。 動いている物体を撮影する場合 は、 接触式の装置を用いることはできない。
ところが、 非接触式の装置では被写体の位置を撮影ごとに同じにする ことが難しい。 よって、 撮影ごとに得られる画像の明るさに差異が生じ るおそれがある。 そうすると、 撮影した画像のパターンと予め撮影して おいた画像のパターンとがー致せず、 個人の判別を正しく行うことがで きないことがある。
また、 非接触式の装置では、 被写体以外の部分つまり背景が画像に含 まれてしまうことがある。 そうすると、 撮影した画像のパターンと予め 撮影しておいた画像のパターンとがー致せず、 正しい判別ができないこ とがある。
背景の部分を除去する方法は幾つか提案されているが、 いずれの方法 にも問題点がある。 例えば、 下記の特許文献 1に記載の方法は、 フレー ム間差分により画像の変動情報を獲得して蓄積し、 過去一定時間内に全 く変動の無かった画素を背景領域に所属すると判断し、 背景画像を得る 。 しかし、 係る方法によると、 一様な色を持つ物体、 例えば白い紙が力 メラの前を移動した場合は、 物体と背景とを区別することが難しい。 特 許文献 2に記載の方法も同様である。
特許文献 3に記載の方法は、 画像の深度を検知し、 これに基づいて前 景と背景とを分離する。 しかし、 係る方法によると、 深度を検知するた めの装置が必要となり、 大掛かりなものになってしまうし、 コストが高 くつく。 特許文献 4に記載の方法も同様である。
本発明は、 このような問題点に鑑み、 簡単にかつ高精度で撮影を行う ことができる非接触式の撮影装置を提供することを目的とする。 特許文献 1
特開平 7— 2 8 4 0 8 6号公報
特許文献 2
特開 2 0 0 2— 1 5 0 2 9 4号公報
特許文献 3
, 特開平 5 - 9 5 5 0 9号公報
特許文献 4 '
特開 2 0 0 1 _ 1 3 7 2 4 1号公報 発明の開示
本発明に係る撮影装置は、 物体で反射した光を受光手段で結像させる ことによって当該物体の撮影を行う撮影装置であって、 前記物体と当該 撮影装置との距離を計測する計測手段と、 前記計測手段による計測結果 に応じて、 撮影の際の前記受光手段の露出時間を制御する露出制御手段 と、 を有してなる。
または、 受光手段を電気的信号に変換する手段として C M O Sまたは C C Dなどのイメージセンサを用いる。 前記露出制御手段の代わりに、 前記計測手段による計測結果に応じて、 前記イメージセンサの出力ゲイ ンを制御するゲイン制御手段、 を有してなる。
または、 前記物体の被撮影面が当該撮影装置の撮影方向の軸に対して 垂直に交わっているか否かを判別する姿勢判別手段と、 前記姿勢判別手 段によって前記物体の被撮影面が当該撮影装置の撮影方向の軸に対して 垂直に交わっていると判別された場合に当該物体の撮影を行うように制 御する撮影制御手段と、 を有し、 前記計測手段は、 前記距離として、 前 記物体の被撮影面の少なくとも 2点と当該撮影装置との距離を計測し、 前記姿勢判別手段は、 前記各点についての前記計測手段による計測結果 に基づいて前記物体の被撮影面が当該撮影装置の撮影方向の軸に対して 垂直に交わっているか否かを判別する。
または、 前記物体の被撮影面が当該撮影装置の撮影方向の軸に対して 垂直に交わっていると判別された場合および垂直に交わっていないと判 別された場合にそれぞれ異なるサインを出力することによって、 当該被 撮影面が当該撮影装置の撮影方向の軸に対して垂直に交わるように案内 する案内手段を有してなる。
または、 所定の時間ごとに得られる前記計測手段による計測結果に基 づいて前記物体が静止しているか否かを判別する静止判別手段と、 前記 静止判別手段によって前記物体が静止していると判別された場合に当該 物体の撮影を行うように制御する撮影制御手段と、 を有してなる。 または、 前記物体が写っていない背景画像を記憶する背景記憶手段と 、 前記背景画像と前記物体の撮影を行うことによって得られた画像とを 比較することによって、 当該物体だけの画像を抽出する抽出手段と、 を 有し、 前記撮影制御手段は、 前記背景画像を取得するために、 前記計測 手段によつて前記距離が計測されていないときに撮影を行うように制御 する。 図面の簡単な説明
図 1は、 撮影装置の全体の構成を示す斜視図である。 図 2は、 撮影装置の中央付近の側断面図である。
図 3は、 左頰の撮影の状況の例を示す図である。
図 4は、 撮影装置とパーソナルコンピュータとの接続の例を示す図で ある。
図 5は、 撮影装置の機能的構成の例を示すブロック図である。
図 6は、 測距センサの出力値と実際の距離との関係を示す図である。 図 7は、 距離露出テーブルの例を示す図である。
図 8は、 撮影装置による撮影時の処理の流れの例を説明するフローチ ヤー卜である。
図 9は、 磁気記憶装置に記憶されているプログラムおよびデータの例 を示す図である。
図 1 0は、 特徴情報データベースの例を示す図である。
図 1 1は、 個人判別の処理の流れの例を説明するフローチャートであ る。 発明を実施するための最良の形態
添付の図面に従って、 本発明をより詳細に説明する。
図 1は撮影装置 1の全体の構成を示す斜視図、 図 2は撮影装置 1の中 央付近の側断面図、 図 3は左頰の撮影の状況の例を示す図、 図 4は撮影 装置 1とパーソナルコンピュータ 6との接続の例を示す図、 図 5は撮影 装置の機能的構成の例を示すブロック図、 図 6は測距センサ 2 7の出力 値と実際の距離との関係を示す図である。
本発明に係る撮影装置 1は、 図 1および図 2に示すように、 撮影装置 本体 2および本体力バー 3によつて構成される。 この撮影装置 1では、 照明手段として赤外線を照射するものが用いられ、 受光手段として赤外 線の反射光を受光するものが用いられる。 これにより、 撮影装置 1は、 人間または動物の血管などの撮影を行う装置として最適になる。 照射手 段および受光手段は、 撮影の対象に合わせて適宜変更することが可能で あり、 赤外線を照射しまたは受光するものに限定されない。 以下、 撮影 装置 1を、 人間または動物の血管などの撮影を行うための装置として説 明する。
撮影を行う際には、 予め本体カバー 3を撮影装置本体 2の正面 2 0 a に取り付けておく。 そして、 例えば、 人間の顔の左頰を撮影する場合は 、 図 3に示すように、 左頰を撮影装置 1の正面に向け、 左頰と撮影装置 1の正面とが平行になる (つまり、 対象物体の被撮影面である左頰が撮 影方向の軸に対して垂直に交わる) ようにし、 シャツ夕を切る。 以下、 人間の頰の血管のパターンを撮影する場合を例に説明する。
撮影装置本体 2は、 ケ一シング (筐体) 2 0、 撮像部 2 1、 回路基板 2 2、 照射部 2 3、 インタフェース 2 4、 シャツ夕ポタン 2 5、 測距セ ンサ (距離センサ) 2 7、 およびランプ 2 8などによって構成される。 撮影装置本体 2は、 インタフェース 2 4を介して、 図 4に示すようにパ —ソナルコンピュータ 6に接続することができる。
ケーシング 2 0は、 箱のような形状をしており、 正面 2 0 aは開放さ れている。
撮像部 2 1は、 レンズ 2 1 1およびイメージセンサ 2 1 2などによつ て構成される。 イメージセンサ 2 1 2として、 例えば、 C C Dタイプの イメージセンサや C M O Sタイプのイメージセンサが用いられる。 回路基板 2 2には、 後に説明する撮影装置 1の各部の制御および D Z A変換などを行うための制御回路、 コンピュータプログラム (ファーム ウェア) およびデータなどが格納された R O M、 および C P Uなどが設 けられている。 C P Uは、 パーソナルコンピュータ 6またはシャツタポ タン 2 5からの指令、 コンピュータプログラム、 またはデータなどに基 づいて演算処理を行う。 このような構成によって、 撮影装置 1には、 図 5に示すようなシャツタ制御部 2 0 1、 画像処理部 2 0 2、 位置判別部 2 0 3、 静止判別部 2 0 4、 距離算出部 2 0 5、 背景画像記憶部 2 0 6 、 および姿勢判別部 2 0 7などの機能が実現される。
照射部 2 3は、 光源として L E Dを有する。 これらの L E Dとして、 撮影対象が血管であれば、 赤外線を発光するものが用いられる。 L E D に供給する電流は、 ィンタフェース 2 4を介してパーソナルコンピュー 夕 6より得られる。 イン夕フェース 2 4として U S Bを用いると、 パー ソナルコンピュータ 6との間で通信を行うことができる上に、 パーソナ ルコンピュータ 6より電流を得ることもできる。
図 1および図 2に戻って、 本体カバー 3は、 合成樹脂板またはガラス 板などからなるフィルタ板 3 1および合成樹脂板などからなるレンズ力 バー 3 2によって構成される。 本体カバー 3は、 図示しないねじなどに よってケーシング 2 0の正面 2 0 aに取り付けられる。 フィル夕板 3 1 として、 例えば、 可視光線およびそれよりも波長の短い光 (すなわち、 およそ 8 0 0 n m以下の光) をカットし、 かつ、 赤外線を透過させる性 質の材料が用いられる。
測距センサ 2 7は、 撮影方向に向けて取り付けられており、 測距セン サ 2 7自身と撮影の対象つまり被写体との距離を計測するために用いら れる。 測距センサ 2 7として、 光学式または超音波式などの測距センサ (距離センサ) が用いられる。
また、 本実施形態では、 被写体の姿勢を求めるために、 被写体の表面 (被撮影面) の 3点についての計測を行うことができる測距センサ 2 7 が用いられる。 以下、 単に 「 (撮影装置 1から) 被写体までの距離」 ま たは 「 (撮影装置 1と) 被写体との距離」 という場合は、 撮影装置 1か ら 3点までの各距離の平均値を指すものとする。 測距センサ 2 7と撮影装置 1の各部との位置関係は予め分かっている ので、 測距センサ 2 7によって求められた距離に基づいて、 撮影装置 1 の各部から被写体までの距離も求められる。 本実施形態では、 被写体ま での距離の基準を本体カバー 3の正面 3 cと定めている。 つまり、 撮影 装置 1から被写体までの距離とは、 本体カバ一 3の正面 3 cから被写体 までの距離であると定義している。
測距センサ 2 7は、 被写体である頰が撮影装置 1から数 c m離れた位 置にある場合において (図 3参照) 、 耳の付け根付近、 頰骨の先端付近 (目尻の下の付近) 、 および口尻付近の 3点についての距離が計測可能 なように設定されている。
撮影装置 1から被写体の 1点までの距離は、 具体的には、 次のような 方法によって最終的に求められる。 測距センサ 2 7は、 被写体の表面 ( 被撮影面) の 1点または複数の点との距離の計測結果として、 8ビット つまり 2 5 6階調の計測値を出力する。
計測値 (出力値) と実際の距離との対応関係は被写体の種類によって それぞれ若干異なるが、 計測値が大きいほど被写体までの実際の距離は 短くなる傾向がある。 例えば、 人間の身体の表面を計測した場合の計測 値と実際の距離との関係は、 図 6に示す関数 「D = F ( X ) 」 のように なる。 係る関数は、 頰の位置を少しずつ変えながら実際に計測を行って 得られたものである。 そして、 計測値を被写体の種類に応じた関数に代 入することによって、 撮影装置 1から被写体の 1点までの距離が求めら れる。
図 5の距離算出部 2 0 5は、 上に述べた方法により、 つまり、 図 6に 示す関数および頰の 3点についての計測値 (出力値) に基づいて、 撮影 装置 1から頰の 3点までの距離を算出する。 算出結果は、 被写体距離情 報 7 0としてシャツ夕制御部 2 0 1、 位置判別部 2 0 3、 および姿勢判 別部 2 0 7に与えられる。
シャツ夕制御部 2 0 1は、 シャツ夕ポタン 2 5が押されシャツ夕が切 られた瞬間に、 L E D 5 1 a〜 5 1 d、 5 2 a〜 5 2 dへの電流の供給 を開始するように L E D駆動部 2 6 1、 2 6 2に対して指令する。 そし て、 露出時間に併せて電流の供給を止めるように指令する。 これにより 、 各 L E Dは、 シャツ夕およびシャツ夕速度 (露出時間) と同期して発 光する。 なお、 シャツ夕を切る指令は、 シャツ夕ポタン 2 5の代わりに パーソナルコンピュータ 6によって行われるようにしてもよい。
シャツ夕が切られて各 L E 0が発光すると、 その光は、 被写体である 頰に照射される。 ただし、 可視光線などはフィルタ板 3 1によってカツ トされるので、 赤外線のみが被写体に照射される。 一般に、 人間または 動物の血管は、 赤外線を吸収する性質がある。 よって、 頰の表面のうち 、 皮下に血管のある部分は照射された赤外線をあまり反射しないが、 血 管のない部分はよく反射する。
被写体からの反射光は、 フィル夕板 3 1を透過してケーシング 2 0の 中に入り、 レンズ 2 1 1によってイメージセンサ 2 1 2上に結像する。 イメージセンサ 2 1 2は、 これを信号化することによって撮像データを 生成する。
画像処理部 2 0 2は、 この撮像データに画像処理を施すことによって 、 頰の血管のパターンの画像を生成する。 なお、 画像処理は、 パ一ソナ ルコンピュータ 6で行うように構成してもよい。
シャツ夕は、 レンズシャツ夕またはスクリーンシャツ夕のようなメカ 的なシャツ夕、 液晶シャツ夕のような光学的なシャツ夕などを用いるこ とが可能である。 また、 例えば、 撮影の指令に同期してイメージセンサ 2 1 2による電荷の蓄積を開始し、 露出時間経過後に蓄積を終了しまた は蓄積した電荷を読み出すように構成してもよい。 つまり、 このように 構成した場合の露出時間とは、 電荷の蓄積時間を意味する。 または、 こ れらのメカ的、 光学的、 または電気的なシャツ夕を組み合わせてもよい 撮影装置 1には、 露出 (露光) およびシャツ夕を自動制御し、 被写体 の位置および姿勢を案内し、 および被写体領域抽出を行うための機能が 設けられている。 これらの機能によると、 より簡単にかつ高精度で撮影 を行うことができる。 次に、 これらの機能について説明する。
〔自動露出調整機能〕
図 7は距離露出テーブル T L 1の例を示す図である。 撮影装置 1には 、 図 5に示すように、 距離露出テーブル T L 1が設けられている。 距離 露 テーブル T L 1には、 図 7に示すように、 撮影装置 1と被写体との 距離に応じた露出時間が定められている。 図 7を見て分かるように、 撮 影装置 1から被写体 (頰) までの距離が長いほど、 露出時間が長くなる ように設定される。 例えば、 撮影装置 1までの距離が 2 . 5 c mである 場合は露出時間は 8 0 m s (ミリ秒) に設定され、 8 . 5 c mである場 合は 9 5 m sに設定される。
なお、 距離露出テーブル T L 1の 「ゲイン」 とは、 イメージセンサ 2 1 2から画像処理部 2 0 2に出力される出力信号 S 1 0の出力ゲインの ことである。 図 5において、 出力ゲインを調整するための調整信号 S 1 1は、 距離露出テーブル T L 1に基づいてシャツ夕制御部 2 0 1などか ら送られてくる。 また、 出力ゲインは手動により調整することも可能で ある。 増幅器 2 0 8は、 出力信号 S 1 0を増幅する。 増幅器 2 0 8を省 略することも可能である。 増幅器 2 0 8の増幅率を可変とし、 調整信号 S 1 1によって増幅率を調整し、 出力信号 S 1 0の出力ゲインを調整し てもよい。 その場合に、 増幅器 2 0 8をイメージセンサ 2 1 2の内部に 一体的に構成してもよい。 なお、 出力信号 S 1 0がディジタルデータで ある場合には、 増幅器 2 0 8に代えてデータ変換器などを用いてもよい 。 ここでは、 出力ゲインは、 距離に関わらず同じに設定されている。 図 5のシャツタ制御部 2 0 1は、 撮影の際に、 距離算出部 2 0 5によ つて算出された被写体までの距離と距離露出テーブル T L 1とに基づい て露出時間を設定する。
〔自動シャツ夕制御機能〕
シャツ夕制御部 2 0 1は、 被写体の位置および姿勢が撮影に適した状 態になった場合に自動的に撮影の指令を行う。 具体的には、 被写体 (頰 ) が撮影良好範囲に位置し、 頰が撮影装置 1の正面に対して平行に向き 合った姿勢 (撮影方向の軸が頰の面にほぼ垂直に交わる状態) であり、 かつ、 頰が静止している、 という 3つの条件を満たした場合に撮影の指 令を行う。 なお、 「撮影良好範囲」 とは、 所定の水準以上の鮮明さの画 像を得ることができる撮影範囲を意味する。 これらの条件を満たしてい るか否かの判別は、 位置判別部 2 0 3、 静止判別部 2 0 4、 および姿勢 判別部 2 0 7によって次のように行われる。
位置判別部 2 0 3は、 被写体距離情報 7 0または測距センサ 2 7の出 力値に基づいて被写体 (頰) が撮影装置 1の撮影良好範囲内に位置する か否かを判別する。 頰の撮影良好範囲は、 撮影装置 1から撮影方向への 距離が例えば 2〜9 c mの範囲とする。 なお、 頰の 3点すべてが撮影良 好範囲にあれば撮影良好範囲にあると判別するようにしてもよいし、 い ずれかの 1点が撮影良好範囲にあれば撮影良好範囲にあると判別するよ うにしてもよい。 係る判別は、 所定の時間 (例えば 5 0 m s ) ごとに行 われる。
姿勢判別部 2 0 7は、 被写体距離情報 7 0または測距センサ 2 7の出 力値に基づいて被写体の 3点の座標を求める。 そして、 撮影装置 1の撮 影方向の軸が被写体の 3点を含む平面に垂直に交わるか否かを判別する 。 つまり、 その平面と撮影装置 1の正面 2 0 aとが平行になり、 被写体 の被撮影面が撮影装置 1に対して真っ直ぐに向いているか否かを判別す る。 ただし、 上記の 「垂直に交わる」 とは、 約 9 0度で交わるという意 味であって、 厳密に 9 0度で交わるという意味に限定するわけではない 。 例えば、 角度が所定の範囲内、 9 0度 ± 1 0度程度、 ある場合は、 撮 影方向の軸が被撮影面に垂直に交わっており、 被写体が撮影装置 1に対 して真っ直ぐに向いていると判別する。 そうでない場合は、 垂直に交わ つておらず、 真っ直ぐに向いていないと判別する。
静止判別部 2 0 4は、 撮影良好範囲内に入った被写体が静止したか否 かを判別する。 すなわち、 所定の時間 (例えば 1 0 0 m s ) ごとに、 測 距センサ 2 7より被写体の 3点についての 8ビッ卜の計測値を取得する 。 一定の期間 (例えば数百 m s〜数秒間) 、 各点の計測値の変化量を観 察する。 そして、 その期間ずつと、 変化量が所定の値よりも小さかった 場合は、 被写体が静止していると判別する。 その期間内に所定の値を超 えた場合は、 静止していないと判別する。 または、 距離算出部 2 0 5よ り取得した被写体の被写体距離情報 7 0に基づいて、 上記と同様に変化 量を観察して静止の判別を行ってもよい。
このようにして判別を行った結果、 すべての条件を満たしていると認 められた場合に、 シャツ夕制御部 2 0 1は自動シャツ夕制御機能を実行 する。 この場合の露出時間は、 最新の測距センサ 2 7の測定値 (出力値 ) などに基づいて求められる露出時間が用いられる。
〔被写体の位置および姿勢の案内機能〕
自動シャツ夕制御機能による撮影は、 上に述べたように、 被写体 (頰 ) が撮影良好範囲に位置し、 撮影装置 1と平行な姿勢 (撮影方向の軸が 被撮影面に垂直に交わる姿勢) になり、 かつ静止しなければ実行されな レ^ 係る 3つの条件を簡単に満たせるようにするために、 ランプ 2 8は 、 被写体を正しい位置および姿勢に案内するためのサインを発する。 例えば、 測距センサ 2 7によって被写体が検出されていない間は、 ラ ンプ 2 8を消灯しておく。 被写体が検出され、 位置判別部 2 0 3によつ て被写体が撮影良好範囲内に入ったと判別されると、 ランプ 2 8を、 ゆ つくりと (例えば 1秒ごとに) 点滅させる。 姿勢判別部 2 0 7によって 被写体の姿勢が撮影装置 1に対して真っ直ぐになったと判別されると、 ランプ 2 8の点滅を速く (例えば 0 . 5秒ごとに) する。 そして、 静止 判別部 2 0 4によって被写体が静止したと判別されると、 ランプ 2 8の 点滅を止めて点灯したままにする。 または、 上記の条件ごとに合計 3つ のランプを用意しておく。 そして、 条件を満たした場合にそれに対応す るランプを点灯するようにしてもよい。
ランプ 2 8の代わりに撮影装置 1にスピーカを設け、 「静止してくだ さい」 または 「もう少し顔を左に向けてください」 というような音声を 出力し、 被写体の位置および姿勢を案内するようにしてもよい。 または 、 液晶パネルを設け、 メッセージ、 図形、 写真、 または映像を表示して 案内するようにしてもよい。 パーソナルコンピュータ 6のスピ一力また はディスプレイ装置によって案内するようにしてもよい。
〔被写体領域抽出 (背景の除去処理) 〕
撮影装置 1と被写体とがかなり近い場合は、 被写体以外の物体つまり 背景が写り込まず、 被写体だけの画像が得られる。 しかし、 両者の距離 がある程度離れていたり、 被写体のサイズが小さかったりすると、 得ら れた画像に背景が含まれてしまう場合がある。 そこで、 被写体の領域の みを抽出するために、 撮影装置 1の各部は、 次のような処理を行う。 測距センサ 2 7によって被写体が検出されていない間、 シャツ夕制御 部 2 0 1、 画像処理部 2 0 2、 および撮像部 2 1などは、 背景のみの画 像を取得するための撮影を行う。 係る撮影は、 定期的に (例えば数分〜 数十分ごとに) 行う。 撮影によって得られた画像は背景画像記憶部 2 0 6に W景画像データ 8 0として記憶され蓄積される。 なお、 既に背景画 像データ 8 0が蓄積されている場合は、 古い背景画像データ 8 0は削除 され、 新しい背景画像データ 8 0が蓄積される。
自動シャツ夕制御機能などによって被写体の撮影が行われ、 画像が得 られると、 この画像に含まれる血管の領域だけを背景画像データ 8 0に 基づいて抽出する。 すなわち、 得られた画像と背景の画像との対応する 画素同士を比較し、 その差が予め設定しておいた閾値以上となる画素に ついては被写体の画像であると判別する。 そうでない画素については背 景であると判別する。 このようにして、 被写体である頰の領域が抽出さ れる。
図 8は撮影装置 1による撮影時の処理の流れの例を説明するフローチ ヤートである。 次に、 上に述べた自動露出調整、 自動シャツ夕制御、 位 置および姿勢の案内、 および被写体領域抽出の各機能を用いた場合の撮 影装置 1の処理の流れを、 図 8に示すフローチャートを参照して説明す る。
オペレータは、 撮影装置 1の操作ポタンまたはパーソナルコンピュー 夕 6のキーポードなどを操作して、 撮影装置 1を自動撮影モ一ドに切り 替える (# 1 ) 。 すると、 測距センサ 2 7が起動し (# 2 ) 、 撮影装置 1とその正面にある物体との距離の計測 (測定) を開始する (# 3 ) 。 なお、 計測は、 露出時間の算出 (# 7 ) または処理の終了までの間、 所 定の時間間隔で (例えば 1 0 O m sごとに) 繰り返し行う。
計測結果に変化があった場合は、 撮影装置 1の正面に撮影の対象者が 現れたと判別する (# 4で Y e s ) 。 その対象者は、 自分の頰を撮影装 置 1の正面に近づける。 撮影装置 1は、 頰の位置および姿勢が撮影に適 した位置および姿勢になったか否かを判別する (# 5 ) 。 撮影に適した位置および姿勢になっていない場合は (# 5で No) 、 ランプ 2 8またはスピーカなどによって、 頰の位置および姿勢を正しい 位置に案内する (# 6) 。 そして、 頰の位置および姿勢が撮影に適する ようになるまで、 判別を繰り返し行う。
これらの条件をすベて満たした場合は (# 4で Y e s、 # 5で Y e s ) 、 距離露出テーブル TL 1を参照して露出時間を求める (# 7) 。 そ して、 測距センサ 2 7を停止するとともに (# 8) 、 算出された露出時 間に基づいて頰の撮影を行い、 頰を含む画像を取得する (# 9) 。
撮影装置 1の正面に頰が現れず、 かつ、 撮影の中断の指示があった場 合は (# 4で No、 # 1 1で Y e s ) 、 測距センサ 2 7を停止し (# 1 2) 、 自動撮影の処理を中止する。 撮影装置 1の正面に頰が現れていな いが、 撮影の中断の指示がない場合は (# 4で No、 # 1 1で No) 、 必要に応じて (例えば前回の背景の撮影時から数分が経過した場合に) 背景の画像を撮影しておく (# 1 3) 。
ステップ # 9で頰を含む画像を取得した後、 この画像から頰の部分だ けの画像を抽出する (# 1 0) 。
〔個人認識処理〕
図 9は磁気記憶装置 6 dに記憶されているプログラムおよびデータの 例を示す図、 図 1 0は特徴情報デ一夕ベース 6 DBの例を示す図、 図 1 1は個人判別の処理の流れの例を説明するフローチャートである。
次に、 撮影装置 1を個人認識の処理のために用いた場合について説明 する。 例えば、 図 4に示すパーソナルコンピュータ 6のログオンを行う 場合を例に説明する。
パーソナルコンピュータ 6の磁気記憶装置 6 dには、 図 9に示すよう に、 特徴情報データベース 6 DBが記憶されている。 この特徴情報デー 夕ベース 6 DBには、 図 1 0に示すように、 ユーザごとの特徴情報 7 1 (7 1 a, 7 1 b, ·'·) がそのユーザを識別するユーザ I Dと対応付け られて格納されている。
特徴情報 7 1は、 ユーザの特徴に関する情報である。 本実施形態では 、 特徴情報 7 1として、 左頰の血管に関する情報が用いられる。 特徴情 報 7 1は、 ユーザの左頰を撮影装置 1によって予め撮影して取得してお いたものである。 特徴情報 7 1を、 血管のパターンの画像として格納し ておいてもよいし、 その画像を解析することによって得られる血管の太 さ、 長さ、 本数、 または配置などの特徴を示す情報として格納しておい てもよい。
また、 磁気記憶装置 6 dには、 個人判別プログラム 6 PGがインスト ールされている。 このプログラムを実行することによって、 ログオンし ようとしているユーザが誰であるかを判別するための処理が図 1 1に示 すフローチャートのような手順で実現される。
パーソナルコンピュータ 6を使用しょうとするユーザは、 パーソナル コンピュータ 6のスィッチをオンにする。 すると、 パーソナルコンビュ —夕 6には、 ログオン画面が表示される。 ここで、 ユーザは、 自分のュ 一ザ I Dを入力し (# 2 1) 、 撮影装置 1によって自分の左頰の撮影を 行う (# 2 2) 。 入力されたユーザ I Dおよび撮影によって得られた撮 像データは、 パーソナルコンピュータ 6へ送信される。
パーソナルコンピュータ 6は、 特徴情報データベース 6 DBの中から 、 ュ一ザ I Dに対応する特徴情報 7 1を検索する (# 2 3) 。 そして、 ' その特徴情報 7 1が示す血管の特徴と撮影によって得られた撮像データ が示す血管の特徵とが一致するか否かを判別することによって、 そのュ 一ザが正しいユーザであるか否かを判別する (# 2 4) 。
正しいユーザであると判別された場合は (# 2 5で Y e s ) 、 ログォ ンすることができ、 パーソナルコンピュータ 6の使用が可能となる (# 2 6 ) 。 正しいユーザであると判別されなかった場合は (# 2 5で N o ) 、 ログオンすることができない旨および操作をやり直す旨のメッセ一 ジを表示する (# 2 7 ) 。
または、 特徴情報デ一夕ベース 6 D Bに格納されている特徴情報 7 1 a、 7 1 b、 …について順にステップ # 2 4の処理を行ってュ一ザが誰 であるのかを判別 (識別) し、 ログオンの可否を決定するようにしても よい。 この場合は、 ログオン画面においてユーザ I Dの入力は不要であ る。
個人の識別は、 上記のようなログオン時のユーザ確認に限らず、 例え ば、 電子決済システムにおける決済または出退勤の際の本人確認 (タイ ムカード) などのために行うことができる。
本実施形態によると、 撮影装置と被写体との距離に応じて露光を調整 することによって、 非接触式であっても高精度な撮影を行うことができ る。 被写体を撮影に適した位置および姿勢に導くことによって、 さらに 高精度な撮影を行うことができる。 また、 背景を除いた被写体のみの画 像を従来よりも正確にかつ低コス卜で抽出することができる。
本実施形態では、 図 7に示すように、 被写体との距離が長いほど露出 時間を長くし、 距離に関わらずイメージセンサ 2 1 2の出力のゲイン ( 増幅) を一定としたが、 距離が長いほどゲインを大きくし、 露出時間を 一定としてもよい。 または、 両方を変えるようにしてもよい。
背景の撮影は、 被写体の撮影を行った直後に行ってもよい。 つまり、 被写体の撮影後、 測距センサ 2 7がその被写体を検知しなくなつてから 行ってもよい。 被写体が撮影に適した位置および姿勢になっていない場 合に、 撮影装置 1を動かすことによって被写体と撮影装置 1との位置関 係を調整するようにしてもよい。 イメージセンサ 2 1 2として、 C M O Sの代わりに C C Dを用いてもよい。 本実施形態では、 撮影装置 1によって人間の頰の血管のパターンを撮 影したが、 もちろん、 人間または動物の身体の他の部位を撮影すること が可能である。 例えば、 額、 頭部、 腹、 背中、 尻、 首、 手足、 腕、 およ び脚などのあらゆる面を撮影することができる。 この場合は、 撮影対象 となる部位に応じて L E Dの配置、 L E Dの光度、 自動露出の調整、 位 置または姿勢の条件などを変更し、 撮影装置 1を構成すればよい。 人間または動物以外の物体を撮影することも可能である。 例えば、 自 動車の通行量調査のために、 撮影装置 1を用いることができる。 この場 合は、 次のようにシステムを構成すればよい。
撮影装置 1を道路の脇 (歩道) に設置する。 撮影方向は、 道路の他方 の脇に向くようにする。 撮影良好範囲は、 道路の一方の脇から他方の脇 までに設定する。 データベースには、 自動車の車種ごとの画像を予め用 意しておく。
照射部 2 3に用いられる光源には、 例えば一般のカメラ用のストロポ が用いられる。 この場合は、 フィル夕板 3 1を透明の板にする。 自動露 光を求めるためのテーブル (図 7参照) を道路の幅および撮影環境など に応じて変更する。 照明のタイミングを自動車が近接していると判断さ れた直後としてもよい。 自動車までの距離に反比例して照明の強さを変 えてもよい。 その他、 道路の幅および撮影環境などに応じて、 撮影装置 1の構成を変更しておく。
測距センサ 2 7が自動車を検知しないときは、 定期的に背景の画像を 取得する。 測距センサ 2 7が自動車を検知し、 自動車が近接していると 判断されると、 自動車までの距離を求め、 これに応じて露光時間を決定 する。 その露光時間により自動車の撮影を行い、 画像を取得する。 取得 した画像から自動車の領域のみを抽出する。
抽出された自動車の画像およびデータベースに用意されている画像の それぞれの色情報成分、 エッジ成分、 または面成分などの特徴情報を比 較することにより、 検知された自動車の車種を特定する。 そして、 通行 量のデータを更新する。 または、 3次元撮影を行い、 3次元構成情報か ら復元した見かけの映像情報、 または色情報成分、 エッジ成分、 または 面成分などの特徴情報を比較することにより自動車の車種を特定しても よい。
自動車の通行量調査と同様に、 廊下や歩道などを通過する人の数を調 査することもできる。 この場合は、 廊下の両壁の範囲または道幅の範囲 を撮影良好範囲とし、 撮影装置 1を壁などに設置し、 測距センサ 2 7を 足元辺りに設ければよい。 また、 これらの条件に合わせて撮影装置 1の 構成などを変更すればよい。 または、 自動ドアなどでドアの前の人を認 識したい場合は、 例えばドアから壁までの範囲を撮影良好範囲とし、 撮 影装置 1をドアの上方に設置し、 これらの条件に合わせて撮影装置 1の 構成などを変更すればよい。
撮影の対象物が近接していることを検知したものの、 撮影を行ったと きにはその対象物が通り過ぎてしまっている場合がある。 つまり、 撮影 のエラーが生じる場合がある。 係る場合は、 後の処理エラーを低減する ために、 次のような処理を行ってもよい。 対象物の撮影を行った際に、 測距センサ 2 7により対象物の位置 (距離) を再度取得する。 その結果 、 対象物の位置が撮影良好範囲に入っていない場合は、 撮影を行った際 には既に対象物が通り過ぎた後である可能性が高い。 そこで、 この場合 は、 取得した画像と背景画像とを比較し、 対象物が写っているか否かを 判別する。 対象物が写っていない場合は、 その対象物が近接していなか つたものとして取り扱う。
本実施形態では、 撮影装置 1と被写体の 3点との距離を計測したが、 1点または 2点との距離を計測するようにしてもよい。 例えば、 スーツ ケースなどのように、 撮影の際、 真っ直ぐに立てて置くものであれば、 撮影装置 1と被写体の 2点との距離を計測すればよい。 なぜなら、 被写 体の表面 (被撮影面) のある 1点までの距離と他の 1点までの距離とが 等しければ、 撮影装置 1と被写体とが平行であることが分かるからであ る。 または、 道路を通行する自動車を撮影する場合は、 1点について計 測を行えば十分である。 自動車は、 撮影装置 1に対してほぼ平行に走る からである。
個人または物体の種類 (例えば自動車の車種) などの認識結果を、 デ イスプレイ装置やプリン夕装置などによって出力してもよい。 他の電子 システムまたは装置にネットワークを介して送信し、 または記録媒体に 記録してもよい。 本体カバー 3の表面に、 撮影方向を知らせるためのィ ラス卜を描いておいてもよい。 例えば、 足裏を撮影する撮影装置 1の場 合は、 本体カバー 3の表面に足のイラストを描いておく。
その他、 撮影装置 1の全体または各部の構成、 撮影の対象、 L E Dの 配置および光度、 レンズなどの光学系の配置、 処理内容、 処理順序、 デ 一夕ベースの内容、 画面の構成などは、 本発明の趣旨に沿って適宜変更 することができる。 産業上の利用可能性
以上のように、 本発明は、 撮影装置と被写体との距離に応じて露光を 調整することによって、 非接触式であっても高精度な撮影を行うことが できる、 という点で有用なものである。

Claims

請 求 の 範 囲
1 . 物体で反射した光を受光手段で結像させることによって当該物体の 撮影を行う撮影装置であつて、
前記物体と当該撮影装置との距離を計測する計測手段と、
前記計測手段による計測結果に応じて、 撮影の際の前記受光手段の露 出時間を制御する露出制御手段と、
を有してなることを特徴とする撮影装置。
2 . 物体で反射した光を受光手段で結像させ電気的信号に変換すること によって当該物体の撮影を行う撮影装置であって、
前記物体と当該撮影装置との距離を計測する計測手段と、
前記計測手段による計測結果に応じて、 前記電気的信号の出力ゲイン を制御するゲイン制御手段と、
を有してなることを特徴とする撮影装置。
3 . 前記物体の被撮影面が当該撮影装置の撮影方向の軸に対して垂直に 交わっているか否かを判別する姿勢判別手段と、
前記姿勢判別手段によって前記物体の被撮影面が当該撮影装置の撮影 方向の軸に対して垂直に交わっていると判別された場合に当該物体の撮 影を行うように制御する撮影制御手段と、 を有し、
前記計測手段は、 前記距離として、 前記物体の被撮影面の少なくとも 2点と当該撮影装置との距離を計測し、 '
前記姿勢判別手段は、 前記各点についての前記計測手段による計測結 果に基づいて前記物体の被撮影面が当該撮影装置の撮影方向の軸に対し て垂直に交わっているか否かを判別する、
請求項 1または請求項 2記載の撮影装置。
4 . 前記物体の被撮影面が当該撮影装置の撮影方向の軸に対して垂直に 交わっていると判別された場合および垂直に交わっていないと判別され た場合にそれぞれ異なるサインを出力することによって、 当該被撮影面 が当該撮影装置の撮影方向の軸に対して垂直に交わるように案内する案 内手段を有してなる、
請求項 3記載の'撮影装置。
5 . 所定の時間ごとに得られる前記計測手段による計測結果に基づいて 前記物体が静止しているか否かを判別する静止判別手段と、
前記静止判別手段によって前記物体が静止していると判別された場合 に当該物体の撮影を行うように制御する撮影制御手段と、 を有してなる 請求項 1または請求項 2記載の撮影装置。
6 . 前記物体が写っていない背景画像を記憶する背景記憶手段と、 前記背景画像と前記物体の撮影を行うことによって得られた画像とを 比較することによって、 当該物体だけの画像を抽出する抽出手段と、 を 有し、
前記撮影制御手段は、 前記背景画像を取得するために、 前記計測手段 によって前記距離が計測されていないときに撮影を行うように制御する 請求項 1または請求項 2記載の撮影装置。
7 . 身体の血管のパターンの撮影を行う撮影装置であって、
前記身体に赤外線を照射するための照射手段と、
前記身体に照射した赤外線の反射光を受光する受光手段と、 前記身体と当該撮影装置との距離を計測する計測手段と、
前記計測手段によって計測された前記距離が長いほど、 撮影の際の前 記受光手段の露出時間を長くするように制御する露出制御手段と、 を有してなることを特徴とする撮影装置。
8 . 物体で反射した光を受光手段で結像させることによって当該物体の 撮影を行う撮影装置において、
前記物体と当該撮影装置との距離を計測するステップと、
計測結果に応じて、 撮影の際の前記受光手段の露出時間を制御するス テツプと、
を有してなることを特徴とする撮影方法。
9 . 物体で反射した光を結像する受光手段と測距センサとを有する撮影 装置を制御するためのコンピュータプログラムであって、
前記物体と前記撮影装置との距離を前記測距センサに計測させる処理 と、
計測結果に応じて、 撮影の際の前記受光手段の露出時間を制御する処 理と、
をコンピュータに実行させるコンピュ 夕プログラム。
PCT/JP2003/003987 2003-03-28 2003-03-28 撮影装置、撮影方法、およびコンピュータプログラム WO2004088979A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP03715605.6A EP1610545B1 (en) 2003-03-28 2003-03-28 Photographing apparatus, photographing method and computer program
CNB038244500A CN100548031C (zh) 2003-03-28 2003-03-28 摄影装置、摄影方法
US10/550,489 US7522824B2 (en) 2003-03-28 2003-03-28 Photographing apparatus photographing method and computer program
PCT/JP2003/003987 WO2004088979A1 (ja) 2003-03-28 2003-03-28 撮影装置、撮影方法、およびコンピュータプログラム
JP2004570131A JP3874778B2 (ja) 2003-03-28 2003-03-28 撮影装置
CN2009101659829A CN101631201B (zh) 2003-03-28 2003-03-28 摄影装置
AU2003220948A AU2003220948A1 (en) 2003-03-28 2003-03-28 Photographing apparatus, photographing method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2003/003987 WO2004088979A1 (ja) 2003-03-28 2003-03-28 撮影装置、撮影方法、およびコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2004088979A1 true WO2004088979A1 (ja) 2004-10-14

Family

ID=33105312

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/003987 WO2004088979A1 (ja) 2003-03-28 2003-03-28 撮影装置、撮影方法、およびコンピュータプログラム

Country Status (6)

Country Link
US (1) US7522824B2 (ja)
EP (1) EP1610545B1 (ja)
JP (1) JP3874778B2 (ja)
CN (2) CN100548031C (ja)
AU (1) AU2003220948A1 (ja)
WO (1) WO2004088979A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235401A (ja) * 2005-02-25 2006-09-07 Fujitsu Ltd 撮像システム及び制御装置
JP2007233231A (ja) * 2006-03-03 2007-09-13 Fujitsu Ltd 距離測定機能を有する撮像装置
US7978259B2 (en) 2006-03-03 2011-07-12 Fujitsu Limited Image capturing apparatus for guiding light emitted from a plurality of light emitting devices

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110102553A1 (en) * 2007-02-28 2011-05-05 Tessera Technologies Ireland Limited Enhanced real-time face models from stereo imaging
JP5396004B2 (ja) * 2007-01-31 2014-01-22 オリンパス株式会社 蛍光観察装置および蛍光観察装置の作動方法
US20090027497A1 (en) * 2007-07-26 2009-01-29 Stephen Thomas Peacock Camera light
CN103297669A (zh) * 2012-03-05 2013-09-11 联想(北京)有限公司 一种图像采集方法、装置和电子设备
CN103905739A (zh) * 2012-12-28 2014-07-02 联想(北京)有限公司 电子设备控制方法及电子设备
CN104268955B (zh) * 2014-09-04 2016-05-25 立德高科(北京)数码科技有限责任公司 基于点阵图像的考勤卡及其考勤方法
CN105807541B (zh) * 2014-12-30 2019-01-15 联想(北京)有限公司 成像方法和成像装置
RU2667790C1 (ru) * 2017-09-01 2018-09-24 Самсунг Электроникс Ко., Лтд. Способ автоматической регулировки экспозиции для инфракрасной камеры и использующее этот способ вычислительное устройство пользователя
WO2020010544A1 (zh) 2018-07-11 2020-01-16 深圳市大疆创新科技有限公司 照明设备控制方法、设备、飞行器及***
CN109714539B (zh) * 2019-01-25 2021-05-18 Oppo广东移动通信有限公司 基于姿态识别的图像采集方法、装置及电子设备
CN113228622A (zh) * 2019-09-12 2021-08-06 深圳市汇顶科技股份有限公司 图像采集方法、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5027215A (en) * 1988-11-29 1991-06-25 Konica Corporation Driving apparatus for solid state image sensors including a sweeping action controller
JPH08317278A (ja) * 1995-05-18 1996-11-29 Samsung Electron Co Ltd 撮像装置
JP2002214693A (ja) * 2001-01-23 2002-07-31 Matsushita Electric Ind Co Ltd 複数対象物の撮像方法とその装置及びこれを用いた電子部品実装装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4768876A (en) * 1983-09-08 1988-09-06 Canon Kabushiki Kaisha Image sensing system using illuminating device
JPS60190078A (ja) 1984-03-12 1985-09-27 Fuji Photo Film Co Ltd 画像合成装置
DE3571298D1 (en) * 1984-03-20 1989-08-10 Nat Res Dev Method and apparatus for the identification of individuals
GB8628709D0 (en) * 1986-12-02 1987-01-07 Kodak Ltd Information concerned with body of individual
US5204709A (en) * 1990-09-17 1993-04-20 Olympus Optical Co., Ltd. Camera apparatus having function for changing condition of release operation
US5255045A (en) * 1991-02-25 1993-10-19 Olympus Optical Co., Ltd. Camera system having distance measuring apparatus
FR2673793B1 (fr) 1991-03-05 1993-05-07 Thomson Video Equip Procede et dispositif permettant d'obtenir une information de profondeur dans le champ vu par un dispositif de prise de vue.
GB9306897D0 (en) 1993-04-01 1993-05-26 British Tech Group Biometric identification of individuals
JPH0721373A (ja) 1993-06-17 1995-01-24 Asahi Optical Co Ltd 個人識別装置
US5870167A (en) * 1993-07-14 1999-02-09 Knopp; Carl F. Apparatus and method for imaging anterior structures of the eye
JP3036349B2 (ja) 1994-04-05 2000-04-24 日本電気株式会社 背景画像生成方法および装置
JPH08279954A (ja) * 1995-04-04 1996-10-22 Canon Inc 撮像装置
US6226395B1 (en) * 1996-04-22 2001-05-01 Malcolm T. Gilliland Method and apparatus for determining the configuration of a workpiece
US6173068B1 (en) * 1996-07-29 2001-01-09 Mikos, Ltd. Method and apparatus for recognizing and classifying individuals based on minutiae
JP3869545B2 (ja) 1998-01-19 2007-01-17 株式会社日立製作所 指の特徴パターン特徴検出装置及び個人識別装置
JP3762102B2 (ja) * 1998-06-04 2006-04-05 キヤノン株式会社 走査型投影露光装置及びそれを用いたデバイスの製造方法
JP3221400B2 (ja) * 1998-06-09 2001-10-22 松下電器産業株式会社 電子カメラ装置
JP2000036032A (ja) * 1998-07-17 2000-02-02 Fujitsu Ltd 前景画像抽出方法、画像処理装置、自動トリミング装置、記録媒体及び肖像写真装置
US6741279B1 (en) * 1998-07-21 2004-05-25 Hewlett-Packard Development Company, L.P. System and method for capturing document orientation information with a digital camera
US6377699B1 (en) * 1998-11-25 2002-04-23 Iridian Technologies, Inc. Iris imaging telephone security module and method
US6289113B1 (en) * 1998-11-25 2001-09-11 Iridian Technologies, Inc. Handheld iris imaging apparatus and method
JP2000316125A (ja) 1999-04-28 2000-11-14 Sharp Corp 画像合成装置
US6980248B1 (en) * 1999-06-30 2005-12-27 Canon Kabushiki Kaisha Image pickup apparatus
KR100308230B1 (ko) 1999-09-09 2001-11-07 이민화 대상체 분리를 위한 초음파영상장치
JP2001230970A (ja) * 2000-02-16 2001-08-24 Fuji Photo Film Co Ltd 撮像装置
JP2002150294A (ja) 2000-11-07 2002-05-24 Meidensha Corp 背景画像獲得方式及びその装置
DE10059070C1 (de) * 2000-11-28 2002-02-14 Pulsion Medical Sys Ag Vorrichtung zur Bestimmung von Gewebeperfusion und intraoperative Verwendung
US8190239B2 (en) * 2002-09-03 2012-05-29 Fujitsu Limited Individual identification device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5027215A (en) * 1988-11-29 1991-06-25 Konica Corporation Driving apparatus for solid state image sensors including a sweeping action controller
JPH08317278A (ja) * 1995-05-18 1996-11-29 Samsung Electron Co Ltd 撮像装置
JP2002214693A (ja) * 2001-01-23 2002-07-31 Matsushita Electric Ind Co Ltd 複数対象物の撮像方法とその装置及びこれを用いた電子部品実装装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1610545A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235401A (ja) * 2005-02-25 2006-09-07 Fujitsu Ltd 撮像システム及び制御装置
JP4679175B2 (ja) * 2005-02-25 2011-04-27 富士通株式会社 撮像システム及び制御装置
JP2007233231A (ja) * 2006-03-03 2007-09-13 Fujitsu Ltd 距離測定機能を有する撮像装置
US7777808B2 (en) 2006-03-03 2010-08-17 Fujitsu Limited Image capturing apparatus having distance measurement function
US7978259B2 (en) 2006-03-03 2011-07-12 Fujitsu Limited Image capturing apparatus for guiding light emitted from a plurality of light emitting devices

Also Published As

Publication number Publication date
EP1610545A1 (en) 2005-12-28
CN101631201A (zh) 2010-01-20
JP3874778B2 (ja) 2007-01-31
CN101631201B (zh) 2011-08-17
EP1610545A4 (en) 2009-04-29
AU2003220948A1 (en) 2004-10-25
US20060210256A1 (en) 2006-09-21
CN100548031C (zh) 2009-10-07
JPWO2004088979A1 (ja) 2006-07-06
EP1610545B1 (en) 2015-08-19
US7522824B2 (en) 2009-04-21
CN1689319A (zh) 2005-10-26

Similar Documents

Publication Publication Date Title
KR100732136B1 (ko) 촬영 장치 및 개인 식별 시스템
US7095901B2 (en) Apparatus and method for adjusting focus position in iris recognition system
US20070038118A1 (en) Subcutaneous tissue imager
JP3874778B2 (ja) 撮影装置
US20090041309A1 (en) System And Method For Iris Identification Using Stereoscopic Face Recognition
KR20120057033A (ko) Iptv 제어를 위한 원거리 시선 추적 장치 및 방법
JP2008004003A (ja) 顔照合装置
JP3119558B2 (ja) 顔画像データ取り込み方法および装置並びにシステム
JP4183718B2 (ja) 撮影装置、撮影方法、およびコンピュータプログラム
JP3359247B2 (ja) 個人識別装置
JP2006320724A (ja) 撮影装置、撮影方法、およびコンピュータプログラム
JP2008310480A (ja) 虹彩撮影装置および虹彩認証装置
KR100732931B1 (ko) 촬영 장치, 촬영 방법 및 컴퓨터 프로그램을 기록한 기록매체
KR20110006062A (ko) 얼굴 인식 시스템 및 얼굴 인식 방법
KR100443674B1 (ko) 홍채 인식 시스템의 거리 측정방법과 장치
KR100434370B1 (ko) 홍채 인식 시스템의 거리 측정방법과 장치
JP2004167046A (ja) 虹彩撮影装置
CN114220204B (zh) 一种用于酒店的身份证阅读机
JP3286168B2 (ja) 物体検出装置及び方法
JP2008010006A (ja) 撮影装置、個人識別方法、および撮影方法
KR101513976B1 (ko) 뷰파인더를 사용한 타인 인증용 홍채 인식 장치 및 방법
WO2018158929A1 (ja) 生体認証装置およびシステム
JP2003242490A (ja) 個人認証装置
JP2007257658A (ja) 撮影装置および個人識別システム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ OM PH PL PT RO RU SD SE SG SK SL TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2004570131

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2003715605

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020057006321

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20038244500

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020057006321

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10550489

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2003715605

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10550489

Country of ref document: US