WO2006120911A1 - 撮像装置およびドライブレコーダシステム - Google Patents

撮像装置およびドライブレコーダシステム Download PDF

Info

Publication number
WO2006120911A1
WO2006120911A1 PCT/JP2006/308770 JP2006308770W WO2006120911A1 WO 2006120911 A1 WO2006120911 A1 WO 2006120911A1 JP 2006308770 W JP2006308770 W JP 2006308770W WO 2006120911 A1 WO2006120911 A1 WO 2006120911A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
accident
image
data
cpu
Prior art date
Application number
PCT/JP2006/308770
Other languages
English (en)
French (fr)
Inventor
Nobuhiro Fujinawa
Hirotake Nozaki
Setsu Mitsuhashi
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corporation filed Critical Nikon Corporation
Priority to EP06732376.6A priority Critical patent/EP1901554A4/en
Priority to US11/919,930 priority patent/US7865280B2/en
Publication of WO2006120911A1 publication Critical patent/WO2006120911A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/0875Registering performance data using magnetic data carriers
    • G07C5/0891Video recorder in combination with video camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41422Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance located in transportation means, e.g. personal vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W2030/082Vehicle operation after collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Definitions

  • the present invention relates to an imaging apparatus and a drive recorder system that are mounted on a vehicle and that captures and records the periphery of the vehicle in the event of an accident.
  • Patent Document 1 discloses a drive recorder that encrypts and records data in order to increase the reliability of image data as evidence.
  • Patent Document 1 described above, the reliability of image data as evidence increases, but image data cannot be decrypted by anyone other than a specific person (such as a public institution or insurance company) who has a decryption key. It becomes difficult for the driver himself to confirm the contents of the image data. In order to more reliably maintain image data in the event of an accident, it is preferable to have backed-up image data. However, in the above-mentioned Patent Document 1, such consideration is particularly given, and improvement is not possible. There was room.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-352128
  • the present invention was made to eliminate the above-mentioned drawbacks of the prior art, and its purpose is to achieve both the reliability as evidence of image data and the ease of content confirmation by the driver himself,
  • the present invention also provides an image pickup apparatus and a drive recorder system that improve the integrity of image data.
  • a first invention is an imaging device that is mounted on a vehicle and images the periphery of the vehicle, and includes a photographic lens, an imaging element, an accident detection sensor, an image processing unit, and a recording unit. It is characterized by having.
  • the imaging device photoelectrically converts an image of the object scene based on the light flux from the photographing lens to generate an image signal.
  • the accident detection sensor detects the occurrence of an accident based on the impact on the vehicle.
  • the image processing unit generates the first accident image data and the second accident image data in which the same accident situation is photographed when the accident occurs based on the image signal.
  • the recording unit records the first accident image data and the second accident image data with different security levels for data reliability.
  • the second invention is characterized in that, in the first invention, the image processing unit performs either encryption processing or digital watermark data embedding processing on the first accident image data.
  • the recording unit records the first accident image data in a setting that restricts access by a person other than the specific person, and the first recording unit is more powerful than the first recording unit.
  • the second accident image data is recorded in a setting with relaxed access restrictions, and the first recording unit has a second recording unit logically or physically divided.
  • a fourth invention is characterized in that, in the third invention, the first recording unit is fixed in the imaging apparatus, and the second recording unit is detachably connected to the imaging apparatus.
  • the image processing unit generates driving situation image data obtained by photographing a scene outside the vehicle under predetermined conditions, and records the driving situation image data in the second recording unit. It is characterized by doing.
  • a sixth aspect of the invention relates to any one of the first to fifth aspects of the invention, wherein one of the first accident image data and the second accident image data has one of the accident image data set with a high security level. It further has a communication part which transmits outside.
  • a drive recorder system is the first to sixth image pickup device according to any one of the inventions, the vehicle driving state is detected, and the driving state data indicating the driving state is displayed as the first accident image. And a running state detection unit that records the data in a recording unit in association with at least one of the data and the second accident image data.
  • the invention's effect when an accident occurs, two pieces of accident image data in which the same accident situation is photographed are recorded, so that the integrity of the image data is improved.
  • the high security level accident image data ensures reliability as evidence, and the driver himself can confirm the contents of the image data with the low security level accident image data.
  • FIG. 1 is a block diagram showing a configuration of a drive recorder camera according to a first embodiment.
  • FIG. 5 is a flowchart showing the operation of the drive recorder camera of the first embodiment.
  • FIG. 7 is a chart showing the timing of still image shooting in the first embodiment.
  • FIG. 8 is a block diagram showing the configuration of the drive recorder camera of the second embodiment.
  • FIG. 9 is a flowchart showing the operation of the drive recorder camera of the second embodiment.
  • FIG. 10 is a block diagram showing an example of a drive recorder system
  • FIG. 1 is a block diagram showing the configuration of the drive recorder camera of the first embodiment.
  • Fig. 2 is an external view of the drive recorder camera
  • Fig. 3 is a view showing a mounting state of the drive recorder camera.
  • the drive recorder camera 10 of the first embodiment is attached to a position where an area including the field of view in front of the driver's seat in the automobile can be photographed (for example, in the vicinity of a knock mirror in the automobile).
  • the drive recorder camera 10 can capture an image around the vehicle when the vehicle is running (see Fig. 3).
  • a photographing optical system 11 and a flash light emitting unit 17 are arranged on the front surface of the housing of the drive recorder camera 10.
  • an operation switch 22a and a release button 22b constituting the liquid crystal monitor 21 and the operation member 22 are arranged on the rear surface of the housing of the drive recorder camera 10. Further, as shown in FIG.
  • a connector for detachably connecting a recording medium 26 is formed on the side surface of the housing of the drive recorder camera 10.
  • the drive recorder camera 10 is connected with a cable 27 for receiving various signal inputs and power supply from the automobile.
  • the drive recorder camera 10 includes a photographing optical system 11, an image sensor 12, an analog signal processing unit 13, an AZD conversion unit 14, an image processing unit 15, a nota memory 16, and a flash emission.
  • a unit 17, a recording IZF 18, a built-in recording device 19, a display IZF 20 and a liquid crystal monitor 21, an operation member 22, a CPU 23, a power supply unit 24, and a data bus 25 are provided.
  • the image processing unit 15, the nother memory 16, the recording IZF 18, the display IZF 20 and the CPU 23 are connected via the data bus 25 !.
  • the imaging optical system 11 includes a focus lens 30 and a front lens 30a for adjusting a focus position, a focus driving unit 31, an optical axis correction lens 32, a swing sensor unit 33, and an optical axis correction lens driving unit. 34, an infrared cut filter 35, and a filter driving unit 36.
  • the focus drive unit 31 changes the position of the focus lens 30 in the optical axis direction.
  • the optical axis correcting lens 32 is configured to be swingable in the direction perpendicular to the optical axis.
  • the swing sensor unit 33 includes a vertical angular velocity sensor that detects the vertical shake of the camera, and a horizontal angular velocity sensor that detects the roll of the camera.
  • the swing sensor unit 33 monitors camera shake during driving of the automobile and outputs camera shake data to the CPU 23.
  • This camera swing data can be used not only to calculate the movement amount of the optical axis correction lens 32 but also to determine the generation of accident image data described later.
  • the swing sensor unit 33 is configured by an angular velocity sensor around three orthogonal axes and an acceleration sensor in three orthogonal axes. Well ...
  • the optical axis correction lens drive unit 34 includes a first drive unit that swings the optical axis correction lens 32 in the vertical swing direction (X direction), and a horizontal swing direction (y direction). And a second drive unit that swings.
  • the optical axis correction lens driving unit 34 swings the optical axis correction lens 32 on the basis of an instruction from the CPU 23 and executes shake correction.
  • the infrared cut filter 35 cuts the infrared component from the light beam passing through the lens.
  • the infrared cut filter 35 is configured so that the photographing optical path force can be retracted by the filter driving unit 36.
  • the image sensor 12 is arranged on the image space side of the photographing optical system 11.
  • the image sensor 12 On the light receiving surface of the image sensor 12 (the surface facing the imaging optical system 11), light receiving elements that generate an analog image signal by photoelectrically converting the subject image are two-dimensionally arranged.
  • the output of the image sensor 12 is connected to the analog signal processing unit 13.
  • the image sensor 12 can be either a charge sequential transfer method (CCD, etc.) or an XY address method (CMOS, etc.)!
  • the analog signal processing unit 13 includes a CDS circuit that performs correlated double sampling, a gain circuit that amplifies the output of the analog image signal, a clamp circuit that clamps the waveform of the input signal to a constant voltage level, and the like.
  • the AZD converter 14 converts the analog image signal output from the analog signal processor 13 into a digital image signal.
  • the image processing unit 15 performs image processing (defective pixel correction, gamma correction, interpolation, color conversion, edge enhancement, etc.) on the digital image signal to generate image data (moving image data or still image data).
  • the image processing unit 15 also executes image data compression processing and the like.
  • the buffer memory 16 is composed of SDRAM or the like. In the buffer memory 16, a frame of image data is temporarily stored in a pre-process or post-process of image processing in the image processing unit 15.
  • the flash light emitting unit 17 includes a xenon arc tube, a main capacitor that stores light emission energy, a light emission control circuit that controls the light emission timing of the xenon arc tube according to instructions from the CPU 23, and the like.
  • the flash light emitting unit 17 emits light as necessary during still image shooting, and irradiates the subject with flash light.
  • the recording IZF 18 is connected with the connector of the recording medium 26 and the built-in recording device 19!
  • the recording IZF 18 controls data writing Z reading with respect to the recording medium 26 and the built-in recording device 19.
  • the built-in recording device 19 is composed of, for example, a recording device using a magnetic disk such as a hard disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • moving image data and still image data (accident image data) indicating the situation at the time of the accident are recorded on both the recording medium 26 and the built-in recording device 19. .
  • a liquid crystal monitor 21 is connected to the display IZF 20.
  • the LCD monitor 21 is used to display and replay image data output from the recording iZFl 8, and to change various camera settings.
  • a fixed screen is displayed.
  • the operation switch 22a of the operation member 22 is used for input on the above setting screen.
  • the release button 22b of the operation member 22 is used when the user instructs the CPU 23 to take a picture when an accident occurs.
  • the CPU 23 controls the operation of each part of the drive recorder camera 10 according to a sequence program stored in a ROM (not shown). Then, when the vehicle is running, the CPU 23 captures the field of view in front of the driver's seat with the image sensor 12 and causes the image processing unit 15 to generate moving image data.
  • the CPU 23 is connected to a switch group (not shown) provided in each part of the car via a cable 27. Based on the input signal from the above switch group power, the CPU 23 generates a car accident. And brake status can be detected. Then, the CPU 23 causes the image processing unit 15 to generate still image data separately from the moving image data when an accident is detected.
  • the CPU 23 executes the following control (1) to (7).
  • the CPU 23 executes AE calculation based on the image signal of the image sensor 12.
  • the CPU 23 executes the AE calculation based on the image signal on the lower side of the screen and does not use the image signal on the upper side of the screen for the AE calculation. The reason is explained below.
  • the CPU 23 calculates the contrast value of the subject as well as the image signal power, and the focus drive unit 31 The AF control is performed by adjusting the position of the focus lens 30 in the optical axis direction using the hill-climbing method. (3) Based on the camera swing data, the CPU 23 calculates the correction movement amount of the optical axis correction lens 32 in the X and y directions, and outputs this correction movement amount to the optical axis correction lens drive unit 34. Then perform shake correction.
  • the CPU 23 can change the position of the infrared cut filter 35 by controlling the filter driving unit 36 in accordance with the time of a built-in clock (not shown) or the brightness of the captured image. Specifically, in order to eliminate the influence of the infrared component of sunlight during the day, the CPU 23 places an infrared cut filter 35 on the photographing optical path. On the other hand, at night or in a tunnel, the CPU 23 retracts the infrared cut filter 35 from the photographing optical path and uses the infrared component to improve the discrimination of humans in the image.
  • the CPU 23 performs “encryption processing” or “digital watermark data embedding processing” on the image data to increase the security level (the difficulty of falsification) regarding the reliability of the image data.
  • “encryption processing” the CPU 23 evaluates the image data with a hash function that is a one-way function, and encrypts the hash value that is the evaluation result with a secret key according to the public key cryptosystem.
  • the image data after the above processing can be decrypted only by a specific person (eg, a public institution or insurance company) having a predetermined public key, and it is considered that the possibility of tampering with the encrypted image data is remarkably reduced.
  • the CPU 23 has little effect on the image quality! / Low about ⁇ ! Embed digital watermark data that is resistant to defects in the image data according to the prescribed rule.
  • the digital watermark data changes if any image editing is applied to the powerful image data. Therefore, it is possible to easily verify whether the image data after the above processing has been tampered with by using the electronic data and referring to the data. .
  • the CPU 23 limits the browsing and reading of the image data of the built-in recording device 19 to only a specific person (for example, a public institution or an insurance company) by a known authentication means such as password input. In this case, only a specific person authenticated by a password or the like can access the image data of the built-in recording device 19. Therefore, the possibility of falsification of the image data of the built-in recording device 19 is reduced.
  • the CPU 23 shoots the field of view in front of the driver's seat at predetermined intervals to indicate the driving situation.
  • Stop image data driving condition image data
  • This driving situation image data is used, for example, for managing the attendance of drivers in commercial vehicles.
  • the GPS device Global Positioning System
  • the CPU 23 obtains the position information at the time of shooting from the GPS device via the cable 27, and stores the above information in the still image data. It is preferable to record the location information in association (the GPS device is not shown in Fig. 1).
  • the power supply unit 24 is connected to a vehicle battery via a cable 27.
  • a rechargeable battery that is charged with power supplied from the vehicle is disposed inside the power supply unit 24, and power is also supplied to each part of the battery (not shown for power supply lines other than the CPU 23). Therefore, the drive recorder camera 10 can continuously operate with the power of the rechargeable battery in the power supply unit 24 even when the power supply from the automobile is interrupted in the event of an accident.
  • Step S101 The CPU 23 starts moving image shooting in response to detection of the driving state of the vehicle (for example, when engine start of the vehicle or wheel rotation is detected) or a shooting start input by the user.
  • Step S102 The CPU 23 drives the image pickup device 12 to take an image of the visual field in front of the driver seat. Then, the image processing unit 15 generates moving image data at a predetermined frame rate (for example, 15 fps, 30 fps) based on the image signal of the image sensor 12. The CPU 23 records moving image data on both the recording medium 26 and the built-in recording device 19. Note that the moving image data recorded in S102 is overwritten with the old order after a certain period of time, and the moving image data is stored in the drive recorder camera 10 for a certain period of time while being sequentially updated.
  • a predetermined frame rate for example, 15 fps, 30 fps
  • the moving image data is generated for the purpose of grasping the overall rough movement and relative change. Therefore, the CPU 23 applies at least one of the following settings (1) to (3) to generate moving image data.
  • D CPU23 reads the resolution of moving image data when all pixels are read out from image sensor 12.
  • the CPU 23 sets the resolution of the moving image data to the number of pixels of 640 ⁇ 480 or 320 ⁇ 240.
  • the CPU 23 sets the number of gradations of the moving image data to be smaller than the number of gradations of the still image data. For example, when the drive recorder camera 10 can shoot a still image with an RGB 8-bit color image, the CPU 23 sets the gradation number of the moving image data to 5-bit RGB color.
  • the data amount of still image data is 24 bits (3 bytes) per pixel, while the data amount of moving image data is reduced to 15 bits (approximately 2 bytes) per pixel. Therefore, according to the above setting, the calculation load of the image processing unit 15 and the data amount of moving image data are suppressed. Note that the amount of data can be further reduced if the moving image data is shot in monochrome.
  • the CPU 23 changes the aspect ratio between the moving image data and the still image data, and sets the image size of the moving image data to be smaller than the image size of the still image data.
  • the CPU 23 may partially read out the image signal of the central portion of the image sensor 12 in the horizontal direction and shoot a moving image with a horizontally long image in which the top and bottom of the screen are cut (see FIG. 6). .
  • the moving image data with the above settings will not cause any inconvenience because the surrounding situation before and after the accident can be fully understood.
  • speeding up of signal readout from the image sensor 12 by partial readout and reduction of the computation load of the image processing unit 15 are realized.
  • the recording time of moving image data can be extended.
  • Step S103 The CPU 23 determines whether or not an accident has occurred in the vehicle based on the input signal from the switch group of the vehicle and the signal of the swing sensor unit 33.
  • Step S104 In this case, the CPU 23 prohibits overwriting of moving image data recorded on the recording medium 26 and the built-in recording device 19 simultaneously with the occurrence of the accident, and secures moving image data indicating the situation before the occurrence of the accident. .
  • the CPU 12 continuously generates moving image data until a predetermined time after the accident occurs, and records moving image data indicating the situation after the accident on the recording medium 26 and the built-in recording device 19, respectively.
  • Step S105 The CPU 23 takes a still image at a predetermined timing after the accident occurs, and generates still image data.
  • the CPU 23 records still image data on the recording medium 26 and the built-in recording device 19.
  • FIG. 7 is a chart showing the timing of still image shooting in the first embodiment.
  • the CPU 23 intermittently executes a plurality of still image shootings while performing moving image shooting immediately after the occurrence of the accident.
  • bracketing shooting may be performed by changing the exposure conditions (such as shirt time and ISO sensitivity) for each frame.
  • the CPU 23 temporarily stops generating a frame of the moving image, and the CPU 23 supplements the still image shooting period of the moving image data with the frame immediately before shooting the still image. This makes it possible to generate moving image data that can sufficiently grasp the situation at the time of the accident, although the movement of the subject is slightly awkward when taking a still image.
  • the above-mentioned still image data is generated for the purpose of analyzing the video at the time of the accident in detail, and a clear image with a higher resolution and higher gradation than a moving image frame and a wider range were taken. An image is required.
  • at least one setting of resolution, number of gradations, and aspect ratio is changed to moving image data, and the CPU 23 has a larger amount of information per frame than moving image data.
  • Shoot with settings For example, in the example of S102 described above, during still image shooting, the CPU 23 reads out all pixels of the image signal from the image sensor 12 and generates 1600 ⁇ 1200 pixel color still image data having gradation of 8 bits for each RGB color.
  • the CPU 23 shakes the optical axis correction lens 32 to execute shake correction. Further, it is preferable that the CPU 23 limits the exposure time to a predetermined time (for example, 1Z60 seconds) or less to suppress blurring during still image shooting. If the exposure becomes insufficient due to the limitation of the exposure time, the CPU 23 preferably adjusts the gain in the analog signal processing unit 13 or the image processing unit 15 to correct the image sensitivity. In this case, the SZN ratio is slightly reduced, but a relatively good still image can be secured.
  • the CPU 23 generates additional data indicating which frame of the moving image data each still image data corresponds to.
  • This additional data is recorded in association with still image data.
  • the still image data conforms to the Exif (Exchangeable image file format for digital still cameras) standard
  • the above-mentioned additional data can be recorded in the MakerNote tag of the still image data.
  • Step S106 CPU 23 performs “encryption processing” or still image data (S 104) and still image data (S 105) indicating the situation before and after the occurrence of the accident recorded in built-in recording device 19. Apply “electronic permeability and data embedding process”. Thereafter, the CPU 23 ends the shooting operation.
  • Step S107 The CPU 23 determines whether or not the shooting condition of the driving situation image data is met (for example, whether or not the generation power of the previous driving situation image data has a predetermined time). If the shooting conditions are met (YES side), the process proceeds to S108. On the other hand, if the shooting conditions are not met, the S (NO side) shifts to S109.
  • Step S108 The CPU 23 drives the image sensor 12 to take an image of the visual field in front of the driver seat, and generates driving situation image data.
  • the driving situation image data is not required to have a high image quality for the purpose of grasping the outline of the driving situation of the car. Therefore, the CPU 23 may extract one frame of the video data and use it as driving situation image data.
  • the CPU 23 records the driving situation image data only on the recording medium 26.
  • Step S109 The CPU 23 determines whether or not there is a photographing end instruction based on a user input or the like. If there is a shooting end instruction (YES side), the CPU 23 ends the shooting. one On the other hand, if there is no shooting end instruction (NO side), the process returns to S102, and the CPU 23 repeats the above operation. This is the end of the description of the operation of the first embodiment.
  • the drive recorder camera 10 of the first embodiment when an accident occurs, moving image data before and after the occurrence of the accident is recorded, and a plurality of still image data whose details are captured more clearly than the moving image data are captured. Therefore, the process up to the occurrence of the accident can be roughly grasped by moving image data, and the detailed situation at the time of the accident can be analyzed using still image data.
  • each still image data is associated with the frame of the moving image data by the supplementary data! / ⁇ , the analysis of the accident situation using the moving image data and the still image data becomes easier. Furthermore, when still image data is generated by bracketing shooting, the possibility of obtaining clear still image data shot with an appropriate exposure is further improved.
  • accident image data obtained by photographing the same accident situation is recorded in the recording medium 26 and the built-in recording device 19, respectively. Therefore, even if one accident image data is lost, the situation at the time of the accident can be analyzed using the other accident image data, so data integrity is improved.
  • the accident image data of the built-in recording device 19 is subjected to “encryption processing” or “digital watermark data embedding processing”. Moreover, access to the accident image data of the built-in recording device 19 is limited to a specific person by entering a password or the like. Therefore, the accident image data of the built-in recording device 19 has high reliability as evidence of the accident situation where the possibility of falsification is extremely low. On the other hand, the accident image data on the recording medium 26 can be easily reproduced by a computer or the like, so that the driver cannot confirm the content of the accident image data.
  • the attendance management of the driver can be performed based on the driving situation image data recorded on the recording medium 26, so that the convenience of the product is improved.
  • the user can manually shoot a still image using the release button 22b.
  • the CPU 23 executes AE calculation based on the image signal of the entire screen as in a normal electronic camera, and generates still image data. In this way, If necessary, the user can additionally take a still image at the time of the accident, making it easier to analyze the accident situation.
  • the drive recorder camera 10 can be used for shooting landscapes while driving, improving the convenience and entertainment of the product.
  • FIG. 8 is a block diagram showing the configuration of the drive recorder camera of the second embodiment. Note that in the following embodiments, the same reference numerals are given to the same components as those in the first embodiment, and a duplicate description will be omitted.
  • the second embodiment is a modification of the first embodiment, and a communication unit 40 is further connected to the data bus 25.
  • the communication unit 40 uses a known wireless communication line (for example, communication with each base station of the mobile phone network), and a server for accident image management managed by a public institution or insurance company (not shown) ) Accident image data is transmitted.
  • FIG. 9 is a flowchart showing the operation of the drive recorder camera of the second embodiment. Since S201 to S205i in FIG. 9 correspond to S101 to S105 in FIG. 5 and correspond to S208 to S210i in FIG. 9 and S107 to S109 in FIG.
  • Step S206 The CPU 23 performs “encryption processing” or “electronic permeability” on the moving image data (S204) and the still image data (S205) indicating the situation before and after the accident recorded in the built-in recording device 19. Data embedding process ”.
  • Step S207 The communication unit 40 transmits the moving image data and still image data after the processing of S206 to an accident image management server managed by a public institution or the like according to an instruction from the CPU 23. Then, the CPU 23 ends the operation after completing the data transmission. If communication with the server is not established within a certain time, the CPU 23 may try the data transmission operation of S207 again after a predetermined time. Alternatively, since the accident image data after the processing of S206 is recorded in the built-in recording device 19, the CPU 23 may end the operation as it is.
  • the same effects as those of the first embodiment can be obtained, and highly reliable accident image data is also recorded on an accident image management server managed by a public institution or the like. Therefore, accident data is more reliably maintained.
  • the CPU 23 may record the driving information of the automobile acquired via the cable in association with the accident image data to constitute a drive recorder system.
  • the CPU 23 obtains various travel information (vehicle speed, acceleration, brake pressure, steering angle, position information by GPS, etc.) from the automobile side and holds it in the recording medium of the drive recorder camera for a certain time. Then, when an accident occurs, the CPU 23 generates accident record data by associating the traveling information before and after the accident with the accident image data. This makes it possible to analyze the car accident situation in more detail.
  • FIG. 10 shows a block diagram of an example of the drive recorder system.
  • the drive recorder camera 10 is connected to each sensor on the vehicle side by a cable 27.
  • the vehicle-side sensors include a speed sensor 40a, a brake sensor 41, a vehicle behavior sensor 42, a steering angle sensor 43, a GPS device 44, and a collision sensor 45.
  • the speed sensor 40a outputs the vehicle speed and acceleration to the drive recorder camera 10.
  • the brake sensor 41 outputs data indicating the operating state of the brake to the drive recorder camera 10.
  • the brake sensor 41 may be, for example, a sensor that detects the operation pressure of the ABS device of the vehicle, or a sensor that detects the pressure applied to the force brake, such as a brake link mechanism.
  • the vehicle behavior sensor 42 is composed of a gyro sensor, and outputs data on the dynamic behavior of the vehicle roll, pitch, and display to the drive recorder camera 10.
  • the steering angle sensor 43 outputs the steering wheel rotation state data to the drive recorder camera 10.
  • the GPS device 44 outputs data on the current position of the vehicle to the drive recorder camera 10 based on the radio wave from the GPS satellite.
  • the collision sensor 45 notifies the drive recorder camera 10 of the occurrence of an accident.
  • the collision detection sensor 45 may detect the operation of an electric motor that deploys an airbag or winds up a seat belt, even if it detects the impact of a bumper, a hood, or the like of a vehicle.
  • a part of the configuration of the drive recorder camera 10 of the above embodiment may be omitted.
  • the photographing optical system 11 may be set to pan focus, and the focus lens 30 and the focus drive unit 31 may be omitted.
  • the moving mechanism of the infrared cut filter 35 (36) Alternatively, the shake correction mechanism by the optical axis correction lens 32 may be omitted.
  • the shake correction mechanism it is preferable to separately provide a swing sensor unit 33 so that the drive recorder camera 10 can detect a shake caused by a car collision.
  • the blur correction of the drive recorder camera 10 is not limited to the mechanical correction by the swing of the optical axis correction lens, and the image data cutout range is shifted according to the image blur to cancel the blur. Even electronic image stabilization can be used.
  • the timing of still image shooting when an accident occurs is not limited to the above embodiment.
  • the CPU 23 may execute moving image shooting for a predetermined time immediately after the occurrence of an accident and collectively execute still image shooting after the moving image shooting ends.
  • the CPU 23 may be configured to start generating still image data preliminarily for the time force that was the force of sudden braking.
  • the recording IZF 18 may be provided with two connectors for connecting the recording medium 26, and the accident image data may be recorded on the two recording media, respectively. Also, the recording area of the built-in recording device 19 can be logically divided, and accident image data can be recorded in each recording area.
  • the present invention includes a configuration in which accident image data subjected to encryption processing or the like and accident image data that can be reproduced by the driver are recorded on the same recording medium.
  • the present invention records the same accident image data that has not been subjected to encryption processing in one recording unit whose access is restricted by password entry or the like and the other recording unit whose access is not restricted. It also includes the configuration to do.
  • the settings of the resolution, gradation, frame rate of moving image data, etc. of the two accident image data are not necessarily the same.
  • the accident image data of the built-in recording device 19 may be set to a high image quality, while the accident image data of the recording medium 26 may be set to a low image quality for driver confirmation.
  • drive recorder camera operates high resolution still image Sometimes continuous shooting may be performed.
  • the CPU 23 starts capturing a high-resolution still image triggered by engine start, detection of wheel rotation, or driver's boarding.
  • the CPU 23 sets the resolution of the still image higher than the resolution of the moving image.
  • the CPU 23 normally captures the above still images at regular intervals and stores them in the buffer memory 16.
  • the CPU 23 deletes still images from the oldest and holds the still images for a certain period in the buffer memory 16.
  • 50 frames of still images taken at intervals of 0.1 second are recorded in the nota memory 16.
  • the CPU 23 prohibits the deletion of the still image data in the buffer memory 16. Thereafter, the CPU 23 transfers the still image group recorded in the nother memory 16 indicating the situation before and after the accident to the built-in recording device 19 or the recording medium 26. In this case, the situation before and after the accident can be easily grasped by continuously capturing high-resolution still images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

 車両に搭載されて前記車両の周辺を撮像する撮像装置であって、撮影レンズと、撮像素子と、事故検知センサと、画像処理部と、記録部と、を有することを特徴とする。撮像素子は、撮影レンズからの光束に基づく被写界の像を光電変換して画像信号を生成する。事故検知センサは、車両への衝撃に基づいて事故発生を検知する。画像処理部は、事故発生時に同一の事故状況が撮影された第1事故画像データおよび第2事故画像データを前記画像信号に基づいて生成する。記録部は、第1事故画像データおよび第2事故画像データを、データの信頼性に関するセキュリティレベルが異なる状態でそれぞれ記録する。

Description

明 細 書
撮像装置およびドライブレコーダシステム
技術分野
[0001] 本発明は車両に搭載され、事故時において車両の周辺を撮像記録する撮像装置 およびドライブレコーダシステムに関する。
背景技術
[0002] 従来から、車両に動画撮影可能なカメラを搭載し、事故時の映像を記録するドライ ブレコーダが提案されて 、る。上記のドライブレコーダの画像データはデジタルデー タであるので、コンピュータにより容易に編集し得るという特性を有している。そのため 、証拠として使用する画像データを編集して事故時の映像に変更を加えるなどの手 段によって、不正が巧妙に行われる可能性もある。そのため、画像データの証拠とし ての信頼性を高めるために、データを暗号ィ匕して記録するドライブレコーダが特許文 献 1に開示されている。
[0003] しかし、上記特許文献 1では画像データの証拠としての信頼性が高まる一方で、復 号化鍵を有する特定人 (公的機関や保険会社など)以外は画像データを復号できな いため、運転者自身による画像データの内容確認が困難となってしまう。また、事故 発生時に画像データをより確実に保全するためにはバックアップされた画像データを 有することが好ま U、が、上記特許文献 1ではそのような配慮は特になされて 、な ヽ 点で改善の余地があった。
特許文献 1 :特開 2004— 352128号公報
発明の開示
発明が解決しょうとする課題
[0004] 本発明は上記従来技術の欠点を除くためにされたものであり、その目的は、画像デ ータの証拠としての信頼性と運転者自身による内容確認の容易性とを両立し、かつ 画像データの保全性を向上させた撮像装置およびドライブレコーダシステムを提供 することである。
課題を解決するための手段 [0005] 第 1の発明は、車両に搭載されて前記車両の周辺を撮像する撮像装置であって、 撮影レンズと、撮像素子と、事故検知センサと、画像処理部と、記録部と、を有するこ とを特徴とする。撮像素子は、撮影レンズからの光束に基づく被写界の像を光電変 換して画像信号を生成する。事故検知センサは、車両への衝撃に基づいて事故発 生を検知する。画像処理部は、事故発生時に同一の事故状況が撮影された第 1事 故画像データおよび第 2事故画像データを前記画像信号に基づ ヽて生成する。記 録部は、第 1事故画像データおよび第 2事故画像データを、データの信頼性に関す るセキュリティレベルが異なる状態でそれぞれ記録する。
[0006] 第 2の発明は、第 1の発明において、画像処理部は、第 1事故画像データに対して 暗号化処理または電子透かしデータの埋め込み処理のいずれかを施すことを特徴と する。
第 3の発明は、第 1または第 2の発明において、記録部は、特定人以外のアクセス を制限する設定で第 1事故画像データを記録する第 1記録部と、第 1記録部よりもァ クセス制限を緩和した設定で第 2事故画像データを記録し、かつ第 1記録部とは論理 的または物理的に分割された第 2記録部とを有することを特徴とする。
[0007] 第 4の発明は、第 3の発明において、第 1記録部は撮像装置内に固定され、第 2記 録部は撮像装置に着脱可能に接続されることを特徴とする。
第 5の発明は、第 3または第 4の発明において、画像処理部は、車両外部の光景を 撮影した運転状況画像データを所定条件下で生成し、第 2記録部に運転状況画像 データを記録することを特徴とする。
[0008] 第 6の発明は、第 1から第 5のいずれかの発明において、第 1事故画像データおよ び第 2事故画像データのうち、セキュリティレベルが高く設定された一方の事故画像 データを外部に送信する通信部をさらに有することを特徴とする。 第 7の発明に係るドライブレコーダシステムは、第 1から第 6の 、ずれかの発明に係 る撮像装置と、車両の走行状態を検出し、走行状態を示す走行状態データを第 1事 故画像データおよび第 2事故画像データの少なくとも一方と関連付けして記録部に 記録する走行状態検出部と、を有することを特徴とする。
発明の効果 [0009] 本発明によれば、事故発生時には同一の事故状況が撮影された 2つの事故画像 データが記録されて画像データの保全性が向上する。また、各事故画像データのう ち、高いセキュリティレベルの事故画像データには証拠としての信頼性が確保され、 低いセキュリティレベルの事故画像データによって運転者自身が画像データの内容 を確認できる。
図面の簡単な説明
[0010] [図 1]第 1実施形態のドライブレコーダカメラの構成を示すブロック図
[図 2]ドライブレコーダカメラの外観図
[図 3]ドライブレコーダカメラの取付状態を示す図
[図 4]ドライブレコーダカメラの AE演算の説明図
[図 5]第 1実施形態のドライブレコーダカメラの動作を示す流れ図
[図 6]ドライブレコーダカメラの動画撮影範囲の説明図
[図 7]第 1実施形態での静止画撮影のタイミングを示すチャート図
[図 8]第 2実施形態のドライブレコーダカメラの構成を示すブロック図
[図 9]第 2実施形態のドライブレコーダカメラの動作を示す流れ図
[図 10]ドライブレコーダシステムの一例を示すブロック図
発明を実施するための最良の形態
[0011] (第 1実施形態の説明)
図 1は第 1実施形態のドライブレコーダカメラの構成を示すブロック図である。また、 図 2はドライブレコーダカメラの外観図であって、図 3はドライブレコーダカメラの取付 状態を示す図である。
第 1実施形態のドライブレコーダカメラ 10は、自動車における運転席前方の視野を 含む領域を撮影可能な位置 (例えば自動車内のノ ックミラー近傍など)に取り付けら れる。そしてドライブレコーダカメラ 10は自動車の走行時に自動車周辺の画像を撮 影できるようになつている(図 3参照)。図 2 (a)に示すように、ドライブレコーダカメラ 1 0の筐体正面には撮影光学系 11および閃光発光部 17が配置されている。また、図 2 (b)に示すように、ドライブレコーダカメラ 10の筐体背面には液晶モニタ 21と操作部 材 22を構成する操作スィッチ 22aおよびレリーズ釦 22bとが配置されている。 [0012] さらに、図 2 (c)に示すように、ドライブレコーダカメラ 10の筐体側面には記録媒体 2 6 (公知の半導体メモリなど)を着脱自在に接続するためのコネクタが形成されている 。さらに、ドライブレコーダカメラ 10には、自動車からの各種信号入力や電力供給を 受けるためのケーブル 27が接続されている。
図 1に示すように、ドライブレコーダカメラ 10は、撮影光学系 11と、撮像素子 12と、 アナログ信号処理部 13と、 AZD変換部 14と、画像処理部 15と、ノ ッファメモリ 16と 、閃光発光部 17と、記録 IZF18と、内蔵型記録装置 19と、表示 IZF20および液晶 モニタ 21と、操作部材 22と、 CPU23と、電源ユニット 24と、データバス 25と、を有し ている。なお、画像処理部 15、ノ ッファメモリ 16、記録 IZF18、表示 IZF20および CPU23はデータバス 25を介して接続されて!、る。
[0013] 撮影光学系 11は、合焦位置調節用のフォーカスレンズ 30および前レンズ 30aと、 フォーカス駆動部 31と、光軸補正レンズ 32と、揺動センサ部 33と、光軸補正レンズ 駆動部 34と、赤外カットフィルタ 35と、フィルタ駆動部 36と、を有している。
フォーカス駆動部 31はフォーカスレンズ 30の光軸方向位置を変化させる。光軸補 正レンズ 32は光軸直角方向に揺動可能に構成されている。揺動センサ部 33は、カメ ラの縦揺れを検出する縦方向角速度センサと、カメラの横揺れを検出する横方向角 速度センサとを有している。この揺動センサ部 33は自動車の走行時におけるカメラの 揺れをモニタし、 CPU23にカメラ揺動データを出力する。このカメラ揺動データは光 軸補正レンズ 32の移動量の演算のほかに、後述の事故画像データの生成判定にも 用いることができる。なお、カメラ揺動データを事故画像データの生成判定に用いる 場合には、直交する 3軸周りの角速度センサと、直交する 3軸方向の加速度センサと によって揺動センサ部 33を構成するようにしてもょ 、。
[0014] 光軸補正レンズ駆動部 34は、光軸補正レンズ 32を縦揺動方向(X方向)に揺動さ せる第 1駆動部と、光軸補正レンズを横揺動方向 (y方向)を揺動させる第 2駆動部と で構成される。この光軸補正レンズ駆動部 34は、 CPU23の指示に基づいて光軸補 正レンズ 32を揺動させてぶれ補正を実行する。赤外カットフィルタ 35はレンズを通過 する光束から赤外成分をカットする。この赤外カットフィルタ 35は、フィルタ駆動部 36 によって撮影光路力 退避できるように構成されて 、る。 [0015] 撮像素子 12は撮影光学系 11の像空間側に配置されている。撮像素子 12の受光 面 (撮影光学系 11と相対する面)には被写体像を光電変換してアナログ画像信号を 生成する受光素子が 2次元配列されている。この撮像素子 12の出力はアナログ信号 処理部 13に接続されている。なお、撮像素子 12は、電荷順次転送方式 (CCD等)ま たは XYアドレス方式(CMOS等)の!、ずれであってもよ!/、。
[0016] アナログ信号処理部 13は、相関二重サンプリングを行う CDS回路、アナログ画像 信号の出力を増幅するゲイン回路、入力信号の波形を一定の電圧レベルにクランプ するクランプ回路等で構成されて 、る。 AZD変換部 14はアナログ信号処理部 13か ら出力されたアナログ画像信号をデジタル画像信号に変換する。
画像処理部 15は、デジタル画像信号に画像処理 (欠陥画素補正、ガンマ補正、補 間、色変換、エッジ強調など)を施して画像データ (動画像データまたは静止画像デ ータ)を生成する。また、画像処理部 15は画像データの圧縮処理なども実行する。バ ッファメモリ 16は SDRAM等で構成される。このバッファメモリ 16には、画像処理部 1 5での画像処理の前工程または後工程で画像データのフレームが一時的に保存さ れる。
[0017] 閃光発光部 17は、キセノン発光管、発光のエネルギを蓄えるメインコンデンサ、 CP U23の指示によりキセノン発光管の発光タイミングを制御する発光制御回路などから 構成されている。この閃光発光部 17は、静止画撮影時において必要に応じて発光し 、被写体に閃光を照射する。
記録 IZF 18には記録媒体 26のコネクタと内蔵型記録装置 19が接続されて!、る。 そして、記録 IZF18は、記録媒体 26および内蔵型記録装置 19に対するデータ書き 込み Z読み込みを制御する。なお、内蔵型記録装置 19は、例えば、ハードディスク 等の磁気ディスク、光ディスク、光磁気ディスク、などを用いた記録装置や、あるいは 半導体メモリなどで構成される。第 1実施形態では、記録媒体 26と内蔵型記録装置 1 9の両方に事故発生時の状況を示す動画像データおよび静止画像データ (事故画 像データ)がぞれぞれ記録されることとなる。
[0018] 表示 IZF20には液晶モニタ 21が接続されている。液晶モニタ 21には、記録 iZFl 8から出力された画像データの再生表示や、カメラの各種設定を変更するための設 定画面などが表示される。操作部材 22の操作スィッチ 22aは上記の設定画面での入 力等に用いられる。操作部材 22のレリーズ釦 22bは、事故発生時等においてユーザ 一が CPU23に対して撮影指示するときに用いられる。
[0019] CPU23は、図示しない ROMに格納されたシーケンスプログラムに従ってドライブ レコーダカメラ 10の各部動作を制御する。そして、自動車の走行時には CPU23は 撮像素子 12で運転席前方の視野を撮影し、画像処理部 15に動画像データを生成 させる。
また、 CPU23は自動車の各部に設けられたスィッチ群(図示を省略する)とケープ ル 27を介して接続されており、上記のスィッチ群力ゝらの入力信号に基づいて CPU23 が自動車の事故発生やブレーキ状態などを検出できるようになつている。そして、 CP U23は事故の検知時には動画像データとは別に画像処理部 15に静止画像データ を生成させる。
[0020] CPU23は、その他にも以下の(1)から(7)に示す制御などを実行する。
(1) CPU23は撮像素子 12の画像信号に基づいて AE演算などを実行する。なお、 第 1実施形態での AE演算では、 CPU23は画面下側の画像信号に基づ 、て AE演 算を実行し、画面上側の画像信号を AE演算に使用しないことが好ましい。以下、そ の理由を説明する。
[0021] 図 4に示すように、ドライブレコーダカメラ 10の撮影画像では、一般的に撮影画面の 中央から下半分の領域に道路、自動車および通行人などの重要被写体が位置し、 撮影画面の上半分は空が占める構図となることが多い。この場合に撮影画面全体の 画像信号に基づいて AE演算を行うと、空の明るさに影響されて画像全体の露出が アンダー側に調整されてしまう場合がある。その結果、画像の下半分の領域に撮影さ れている重要被写体が暗く沈んでしまうことがある。特に逆光撮影時にはその傾向が 一層顕著となる。そのため、図 4に示すように CPU23が画面下側の画像信号に基づ V、て AE演算を実行すれば、画面上側の空の露出が若干オーバー側になるが画面 下側の露出が適正になる。この場合には、事故状況を把握しやすい画像が撮影でき ることとなる。
[0022] (2) CPU23は画像信号力も被写体のコントラスト値を演算し、フォーカス駆動部 31 によりフォーカスレンズ 30の光軸方向位置を山登り方式で調整して AF制御を行う。 (3) CPU23はカメラ揺動データに基づ!/、て光軸補正レンズ 32の X方向および y方 向の補正移動量を演算し、この補正移動量を光軸補正レンズ駆動部 34に出力して ぶれ補正を実行する。
[0023] (4) CPU23は内蔵時計 (不図示)の時刻や撮影画像の明るさなどに応じてフィルタ 駆動部 36を制御して赤外カットフィルタ 35の位置を変更することができる。具体的に は、日中は太陽光の赤外成分の影響を除去するため、 CPU23は赤外カットフィルタ 35を撮影光路上に配置する。一方、夜間やトンネル内などでは CPU23は赤外カット フィルタ 35を撮影光路カゝら退避させて、赤外成分を利用することで画像中の人間な どの識別性を向上させる。
[0024] (5) CPU23は、画像データに対して「暗号化処理」または「電子透かしデータの埋 め込み処理」を行って画像データの信頼性に関するセキュリティレベル (改竄の困難 性)を高める。ここで、「暗号ィ匕処理」では CPU23が 1方向関数であるハッシュ関数で 画像データを評価し、評価結果であるハッシュ値を公開鍵暗号体系にしたがった秘 密鍵で暗号化する。上記処理後の画像データは所定の公開鍵を有する特定人 (例 えば公的機関や保険会社等)のみが復号でき、暗号化された画像データに関しては 改竄の可能性が著しく低くなると考えられる。
[0025] また、「電子透かしデータの埋め込み処理」では、 CPU23は画質にはほとんど影響 を与えな!/ヽ程度の低!ヽ耐性の電子透かしデータを所定の法則に従って画像データ に埋め込む。力かる画像データに何らかの画像編集が施された場合には電子透かし データが変化するので、上記処理後の画像データに関しては電子透力しデータを参 照することで改竄の有無が容易に立証できる。
[0026] (6) CPU23は、パスワード入力などの公知の認証手段によって、内蔵型記録装置 19の画像データの閲覧および読み出しを特定人 (例えば公的機関や保険会社等) のみに制限する。この場合には、パスワード等で認証された特定人以外は内蔵型記 録装置 19の画像データにアクセスできない。そのため、内蔵型記録装置 19の画像 データに関しては改竄の可能性が低下する。
[0027] (7) CPU23は、所定間隔ごとに運転席前方の視野を撮影し、運転状況を示す静 止画像データ(運転状況画像データ)を画像処理部 17に生成させることができる。こ の運転状況画像データは、例えば営業用自動車における運転者の勤怠管理などに 使用される。なお、自動車に GPS装置(Global Positioning System:全地球測位シス テム)が搭載されている場合、 CPU23は撮影時の位置情報をケーブル 27を介して G PS装置から取得し、静止画像データに上記の位置情報を関連付けして記録するの 力 り好ましい(図 1での GPS装置の図示は省略する)。
[0028] 電源ユニット 24はケーブル 27を介して自動車のバッテリーと接続されている。電源 ユニット 24の内部には自動車からの供給電力で充電される充電池が配置され、充電 池力もカメラ各部に電力が供給される(なお、 CPU23以外への電力供給線の図示は 省略する)。そのため、事故時に自動車からの電力供給が遮断された場合にも、ドラ イブレコーダカメラ 10は、電源ユニット 24内の充電池の電力によって継続的に動作 することができる。
[0029] 以下、第 1実施形態のドライブレコーダカメラの動作を図 5の流れ図を参照しつつ説 明する。
ステップ S101 : CPU23は、自動車の走行状態の検出(例えば、自動車のエンジン 始動または車輪の回転が検出された場合など)またはユーザーによる撮影開始入力 に応じて、動画撮影を開始する。
[0030] ステップ S102 : CPU23は、撮像素子 12を駆動させて運転席前方の視野の画像を 撮影する。そして、画像処理部 15は撮像素子 12の画像信号に基づいて所定のフレ ームレート(例えば 15fps、 30fps)で動画像データを生成する。そして、 CPU23は 記録媒体 26および内蔵型記録装置 19の両方に動画像データを記録する。なお、 S 102で記録された動画像データは一定時間経過後に古い順力 上書きされ、ドライ ブレコーダカメラ 10には動画像データが逐次更新されつつ一定時間分保存されるこ ととなる。
[0031] ここで、上記の動画像データは全体の大まかな動きや相対的な変化を把握する目 的で生成される。そのため、 CPU23は以下の(1)〜(3)の少なくともいすれか 1つの 設定を適用して動画像データを生成する。
(D CPU23は、動画像データの解像度を撮像素子 12を全画素読み出しした場合 の解像度よりも低い解像度に設定する。例えば、撮像素子 12の有効画素領域の画 素数力 600 X 1200の場合において、 CPU23は動画像データの解像度を 640 X 4 80または 320 X 240の画素数に設定する。これにより、間引き読み出しによる撮像素 子 12からの信号読み出しの高速ィ匕ゃ画像処理部 15の演算負荷抑制などが実現さ れる。また、動画像データのデータ量が小さくなるので、動画像データの記録時間を より長くすることがでさる。
[0032] (2) CPU23は、動画像データの階調数を静止画像データの階調数よりも少なく設 定する。例えば、ドライブレコーダカメラ 10が RGB各色 8bitのカラー画像で静止画像 を撮影できる場合に、 CPU23は動画像データの階調数を RGB各色 5bitに設定す る。上記の設定例では静止画像データのデータ量が 1画素当たり 24bit (3バイト)と なるのに対し、動画像データのデータ量は 1画素当たり 15bit (約 2バイト)に減少する 。そのため、上記設定によれば、画像処理部 15の演算負荷や動画像データのデー タ量が抑制される。なお、動画像データをモノクロで撮影すればさらにデータ量を減 少させることができる。
[0033] (3) CPU23は、動画像データと静止画像データとでアスペクト比を変更し、動画像 データの画像サイズを静止画像データの画像サイズよりも小さく設定する。例えば、 C PU23は撮像素子 12の中央部分の画像信号を水平方向に部分読みだしして、画面 上部および画面下部がカットされた横長の画像で動画撮影するようにしてもよい(図 6 参照)。上記設定の動画像データでも事故前後の周囲の状況を十分把握できるので 特に不都合が生じることはない。その一方で、部分読み出しによる撮像素子 12から の信号読み出しの高速化や画像処理部 15の演算負荷抑制などが実現する。また、 動画像データのデータ量が小さくなるので、動画像データの記録時間をより長くする ことができる。
[0034] ステップ S103 : CPU23は、自動車のスィッチ群からの入力信号や揺動センサ部 3 3の信号に基づ 、て、自動車に事故が発生したか否かを判定する。
より具体的には、(1)衝突により自動車のエアバックの展開信号が CPU23に入力 された場合、 (2)衝突時にシートベルトを巻き取る電動モータの動作信号が CPU23 に入力された場合、 (3)自動車のバンパー、ボンネットフード等に設けられた衝突検 知センサ力も CPU23に衝突検出信号が入力された場合、(4)揺動センサ部 33から 閾値以上の揺れが検出された場合、などに CPU23は事故発生と判定する。
[0035] そして、事故が発生した場合 (YES側)には S104に移行する。一方、事故発生を 検知しな!、場合 (NO側)〖こは S 107〖こ移行する。
ステップ S104 :この場合には、 CPU23は事故発生と同時に記録媒体 26および内 蔵型記録装置 19に記録された動画像データの上書きを禁止し、事故発生前の状況 を示す動画像データを確保する。なお、 CPU12は事故発生後も所定時間まで動画 像データを継続的に生成し、事故発生後の状況を示す動画像データを記録媒体 26 および内蔵型記録装置 19にそれぞれ記録する。
[0036] ステップ S105 : CPU23は事故発生後に所定のタイミングで静止画の撮影を行い、 静止画像データを生成する。そして、 CPU23は記録媒体 26および内蔵型記録装置 19に静止画像データを記録する。
図 7は第 1実施形態での静止画撮影のタイミングを示すチャート図である。第 1実施 形態では CPU23は事故発生直後も動画撮影を行いつつ、複数回の静止画撮影を 間欠的に実行する。静止画撮影では、各フレーム毎に露出条件 (シャツタ秒時や IS O感度など)を変化させてブラケティング撮影を行うようにしてもよい。なお、静止画撮 影時には CPU23は動画像のフレーム生成を一時中止し、 CPU23が静止画撮影直 前のフレームによって動画像データの静止画撮影期間を補完する。これにより、静止 画撮影時には若干被写体の動きがぎこちなくなるが、事故発生時の状況を十分把握 可能な動画像データを生成することができる。
[0037] ここで、上記の静止画像データは事故時の映像を詳細に解析する目的で生成され 、動画像のフレームよりも高解像度、高階調の鮮明な画像や、より広い範囲を撮影し た画像が要求される。そのため、上記の静止画像データでは、解像度、階調数およ びアスペクト比の少なくとも 1つの設定を動画像データと変化させて、 CPU23は 1フ レーム当たりの情報量が動画像データよりも大きくなる設定で撮影を行う。例えば、上 記 S102の例であれば、静止画撮影時には CPU23は撮像素子 12から画像信号を 全画素読み出しし、 RGB各色 8bitの階調を有する 1600 X 1200画素のカラー静止 画像データを生成する。 [0038] また、静止画データでは、撮影された被写体がぶれて ヽると事故解析に用いること のできない撮影失敗画像として扱われる。そのため、静止画撮影時には CPU23は 光軸補正レンズ 32を揺動させてぶれ補正を実行することが好ましい。さらに、静止画 撮影時には CPU23は露光時間を所定時間(例えば 1Z60秒)以下に制限してぶれ の発生を抑制するのが好ましい。なお、露光時間の制限により露出が不十分となる場 合には、 CPU23はアナログ信号処理部 13または画像処理部 15でのゲインを調整し て画像の感度を補正するのが好まし 、。この場合には SZN比が若干低下するが比 較的良好な静止画像を確保することができる。
[0039] さらに、上記の静止画撮影時には、各静止画像データが動画像データのどのフレ ームに対応するかを示す付記データを CPU23が生成する。この付記データは静止 画像データと関連付けされて記録される。例えば、静止画像データが Exif (Exchange able image file format for digital still cameras)規格に準拠する場合、静止画像デー タの MakerNoteタグに上記の付記データを記録しておくことも可能である。
[0040] ステップ S106 : CPU23は、内蔵型記録装置 19に記録されている事故発生前後の 状況を示す動画像データ(S 104)と静止画像データ(S 105)とに「暗号化処理」また は「電子透力しデータの埋め込み処理」を施す。その後、 CPU23は撮影動作を終了 する。
ステップ S107: CPU23は運転状況画像データの撮影条件に合致するか否か (例 えば、前回の運転状況画像データの生成力 所定時間が経過した力否か等)を判定 する。撮影条件に合致する場合 (YES側)には S108に移行する。一方、撮影条件に 合致しな 、場合 (NO側)〖こは S 109〖こ移行する。
[0041] ステップ S108 : CPU23は撮像素子 12を駆動させて運転席前方の視野の画像を 撮影し、運転状況画像データを生成する。ここで、運転状況画像データは自動車の 運行状況の概要を把握する目的からすればさほど高い画質は要求されない。したが つて、 CPU23は動画データの 1フレームを抽出して運転状況画像データとしてもよ い。そして、 CPU23は記録媒体 26にのみ運転状況画像データを記録する。
[0042] ステップ S109 : CPU23は、ユーザーの入力等による撮影終了指示がある力否か を判定する。撮影終了指示がある場合 (YES側)には CPU23は撮影を終了する。一 方、撮影終了指示がない場合 (NO側)には S 102に戻って、 CPU23は上記動作を 繰り返す。以上で第 1実施形態の動作説明を終了する。
第 1実施形態のドライブレコーダカメラ 10では、事故発生時には事故発生前後の 動画像データが記録されるとともに、動画像データよりも細部が鮮明に撮影された静 止画像データが複数撮影される。そのため、事故発生までのプロセスを動画像デー タによって概略的に把握でき、かつ静止画像データを用いて事故時の詳細な状況を 解析できる。
[0043] また、各静止画像データは付記データによって動画像データのフレームと対応付 けされて!/ヽるため、動画像データおよび静止画像データによる事故状況の解析作業 はより容易となる。さらに、ブラケティング撮影で静止画像データを生成した場合には 、適正な露出で撮影された鮮明な静止画像データを取得できる可能性がより向上す る。
また、第 1実施形態では、同一の事故状況を撮影した事故画像データが記録媒体 26および内蔵型記録装置 19にそれぞれ記録されている。そのため、一方の事故画 像データが消失した場合であっても、他方の事故画像データによって事故時の状況 を解析できるのでデータの保全性が向上する。
[0044] さらに、第 1実施形態では内蔵型記録装置 19の事故画像データには「暗号ィ匕処理 」または「電子透かしデータの埋め込み処理」が施される。しかも、内蔵型記録装置 1 9の事故画像データへのアクセスはパスワード入力等によって特定人のみに限定さ れる。したがって、内蔵型記録装置 19の事故画像データは改竄の可能性が極めて 低ぐ事故状況の証拠として高い信頼性を有している。その一方で、記録媒体 26の 事故画像データはコンピュータ等によって容易に再生できるので、運転者自身による 事故画像データの内容確認が妨げられることもない。
[0045] また、第 1実施形態では、記録媒体 26に記録された運転状況画像データによって 運転者の勤怠管理を行うこともできるので、製品の利便性が向上する。
なお、第 1実施形態ではレリーズ釦 22bによりユーザーが手動で静止画を撮影する こともできる。この場合には、 CPU23は通常の電子カメラと同様に画面全体の画像 信号に基づ 、て AE演算を実行して静止画像データを生成する。このようにすれば、 必要に応じてユーザーが事故時の静止画を追加撮影することもでき、事故状況の解 析をより容易にすることもできる。また、運転中の風景の撮影用途にもドライブレコー ダカメラ 10を利用でき、製品の利便性、娯楽性もより向上する。
[0046] (第 2実施形態の説明)
図 8は第 2実施形態のドライブレコーダカメラの構成を示すブロック図である。なお、 以下の実施形態において第 1実施形態と共通の構成には同一符号を付して重複説 明を省略する。
第 2実施形態は第 1実施形態の変形例であって、データバス 25には通信部 40がさ らに接続されている。通信部 40は公知の無線通信回線 (例えば、携帯電話網の各基 地局との通信)を利用して、公的機関や保険会社等が管理する事故画像管理用の サーバー(図示を省略する)に対して事故画像データを送信する。
[0047] 図 9は第 2実施形態のドライブレコーダカメラの動作を示す流れ図である。なお、図 9の S201〜S205iま図 5の S101〜S105に対応し、図 9の S208〜S210iま図 5の S 107〜S109にそれぞれ対応するので説明を省略する。
ステップ S206 : CPU23は、内蔵型記録装置 19に記録されている事故発生前後の 状況を示す動画像データ(S 204)と静止画像データ(S205)とに「暗号化処理」また は「電子透力しデータの埋め込み処理」を施す。
[0048] ステップ S207 :通信部 40は CPU23の指示によって S206の処理後の動画像デー タおよび静止画像データを公的機関等の管理する事故画像管理用のサーバーに送 信する。そして、 CPU23はデータ送信完了後に動作終了する。なお、一定時間内に 上記のサーバーとの通信が確立しない場合には、 CPU23は所定時間をおいて再度 S 207のデータ送信動作を試行してもよい。あるいは、内蔵型記録装置 19には S206 の処理後の事故画像データが記録されているので CPU23はそのまま動作終了して もかまわない。
[0049] 第 2実施形態によれば第 1実施形態と同様の効果を得ることができ、さらに公的機 関等の管理する事故画像管理用のサーバーにも信頼性の高い事故画像データが 記録されるため、事故データがより確実に保全される。
(実施形態の補足事項) 以上、本発明を上記の実施形態によって説明してきたが、本発明の技術的範囲は 上記実施形態に限定されるものではなぐ例えば以下のような形態であってもよい。
[0050] (1)上記実施形態にお!、て、 CPU23はケーブルを介して取得した自動車の走行 情報を事故画像データに対応付けて記録し、ドライブレコーダシステムを構成するよ うにしてもよい。例えば、 CPU23は自動車側から各種の走行情報(車速、加速度、ブ レーキ圧、ハンドル舵角、 GPSによる位置情報など)を取得し、ドライブレコーダカメラ の記録媒体に一定時間保持する。そして、 CPU23は、事故発生時には事故発生前 後の走行情報を事故画像データに関連付けして事故記録データを生成する。これに より、自動車の事故状況をより詳細に解析することが可能となる。
[0051] なお、図 10にドライブレコーダシステムの一例のブロック図を示す。ドライブレコー ダカメラ 10は、ケーブル 27によって車両側の各センサと接続されている。車両側の センサには、速度センサ 40aと、ブレーキセンサ 41と、車両挙動センサ 42と、操舵角 センサ 43と、 GPS装置 44と、衝突センサ 45が含まれる。速度センサ 40aは車速およ び加速度をドライブレコーダカメラ 10に出力する。ブレーキセンサ 41は、ブレーキの 動作状態を示すデータをドライブレコーダカメラ 10に出力する。このブレーキセンサ 4 1は、例えば、車両の ABS装置の動作状態を検出するものでもよぐブレーキのリンク 機構など力 ブレーキに対する踏圧力を検出するものでもよい。車両挙動センサ 42 はジャイロセンサで構成されており、車両のロール、ピッチ、ョ一の動的挙動のデータ をドライブレコーダカメラ 10に出力する。操舵角センサ 43は、ハンドルの回転状態の データをドライブレコーダカメラ 10に出力する。 GPS装置 44は、 GPS衛星からの電 波に基づ 、て車両の現在位置のデータをドライブレコ一ダカメラ 10に出力する。衝 突センサ 45は、事故発生をドライブレコーダカメラ 10に通知する。なお、衝突検知セ ンサ 45は、例えば、車両のバンパー、ボンネットフード等の衝撃を検知するものでも よぐエアバックの展開やシートベルトを巻き取る電動モータの動作を検出するもので ちょい。
[0052] (2)本発明では上記実施形態のドライブレコーダカメラ 10の構成を一部省略しても よい。例えば、撮影光学系 11をパンフォーカスに設定し、フォーカスレンズ 30および フォーカス駆動部 31を省略してもよい。また、赤外カットフィルタ 35の移動機構(36) や、光軸補正レンズ 32によるぶれ補正機構を省略してもよい。なお、ぶれ補正機構 を省略する場合には、自動車の衝突による揺れをドライブレコーダカメラ 10で検知す るために揺動センサ部 33を別途設けるのが好ま 、。
[0053] (3)ドライブレコーダカメラ 10のぶれ補正は光軸補正レンズの揺動による機械的な ものに限定されず、画像のぶれに応じて画像データの切り出し範囲をシフトさせてぶ れを相殺する電子式のブレ補正であってもよ 、。
(4)事故発生時における静止画撮影のタイミングは上記実施形態に限定されること はない。例えば、 CPU23は事故発生直後に所定時間の動画撮影を実行し、動画撮 影の終了後に静止画撮影をまとめて実行するようにしてもよい。あるいは、 CPU23は 急ブレーキの力かった時点力も予備的に静止画像データの生成を開始する構成とし てもよい。
[0054] (5)上記実施形態において、記録 IZF18に記録媒体 26を接続するコネクタを 2つ 設けて、 2つの記録媒体にそれぞれ事故画像データを記録する構成としてもよい。ま た、内蔵型記録装置 19の記録領域を論理的に分割し、各記録領域にそれぞれ事故 画像データを記録する構成としてもょ ヽ。
(6) 2つの事故画像データのセキュリティレベルを変化させる手段に関しては、上記 実施形態に開示したすべての手段を実行する必要はなぐ上記実施形態の一部の 手段のみを実行するようにしてもよい。例えば、本発明は、暗号化処理等の施された 事故画像データと、運転者が再生可能な状態の事故画像データとを同一の記録媒 体に記録する構成も包含する。また、本発明は、暗号ィ匕処理の施されていない同一 の事故画像データを、パスワード入力等によってアクセス制限されている一方の記録 部とアクセス制限がされていない他方の記録部とにそれぞれ記録する構成も包含す る。
[0055] (7)本発明では、 2つの事故画像データの解像度、階調度、動画像データのフレー ムレート等の設定は必ずしも同一でなくてもよい。例えば、上記実施形態において内 蔵型記録装置 19の事故画像データは画質を高く設定する一方で、記録媒体 26の 事故画像データに関しては、運転者確認用として画質を低く設定してもよい。
(8)上記実施形態において、ドライブレコーダカメラに高解像度の静止画像を運転 時に連続撮影させるようにしてもよい。
[0056] 例えば、 CPU23は、エンジンの始動、車輪の回転の検出または運転手の搭乗をト リガとして高解像度の静止画像の撮影を開始する。この場合、 CPU23は静止画像の 解像度を動画像の解像度よりも高く設定する。上記実施形態の例であれば、事故発 生時に撮影する静止画像と同等の解像度で運転時にも静止画像を撮影することが 好ましい。
そして、 CPU23は通常時には一定間隔ごとに上記の静止画像を撮影してバッファ メモリ 16に保持する。ノ ッファメモリ 16に蓄積されたフレーム数が所定以上となった 場合には、 CPU23は静止画像を古い順に消去して、一定期間分の静止画像をバッ ファメモリ 16に保持する。一例として、ノ ッファメモリ 16には 0. 1秒間隔で撮影された 静止画像が 50フレーム分記録される。
[0057] 事故の発生を検知した場合、 CPU23はバッファメモリ 16の静止画像のデータの消 去を禁止する。その後、 CPU23は、ノ ッファメモリ 16に記録されている事故発生前 後の状況を示す静止画像群を内蔵型記録装置 19または記録媒体 26に転送する。 この場合には、連続的に撮影された高解像度の静止画像によって事故前後の状況 を容易に把握することができる。

Claims

請求の範囲
[1] 車両に搭載されて前記車両の周辺を撮像する撮像装置であって、
撮影レンズと、
前記撮影レンズ力 の光束に基づく被写界の像を光電変換して画像信号を生成す る撮像素子と、
前記車両への衝撃に基づいて事故発生を検知する事故検知センサと、 事故発生時に同一の事故状況が撮影された第 1事故画像データおよび第 2事故 画像データを前記画像信号に基づいて生成する画像処理部と、
前記第 1事故画像データおよび前記第 2事故画像データを、データの信頼性に関 するセキュリティレベルが異なる状態でそれぞれ記録する記録部と、
を有することを特徴とする撮像装置。
[2] 前記画像処理部は、前記第 1事故画像データに対して暗号化処理または電子透 かしデータの埋め込み処理の!/ヽずれかを施すことを特徴とする請求項 1に記載の撮 像装置。
[3] 前記記録部は、特定人以外のアクセスを制限する設定で前記第 1事故画像データ を記録する第 1記録部と、前記第 1記録部よりもアクセス制限を緩和した設定で前記 第 2事故画像データを記録し、かつ前記第 1記録部とは論理的または物理的に分割 された第 2記録部とを有することを特徴とする請求項 1または請求項 2に記載の撮像 装置。
[4] 前記第 1記録部は前記撮像装置内に固定され、前記第 2記録部は前記撮像装置 に着脱可能に接続されることを特徴とする請求項 3に記載の撮像装置。
[5] 前記画像処理部は、前記車両外部の光景を撮影した運転状況画像データを所定 条件下で生成し、前記第 2記録部に前記運転状況画像データを記録することを特徴 とする請求項 3または請求項 4に記載の撮像装置。
[6] 前記第 1事故画像データおよび前記第 2事故画像データのうち、前記セキュリティ レベルが高く設定された一方の事故画像データを外部に送信する通信部をさらに有 することを特徴とする請求項 1から請求項 5のいずれ力 1項に記載の撮像装置。
[7] 請求項 1から請求項 6の 、ずれか 1項に記載の撮像装置と、 前記車両の走行状態を検出し、前記走行状態を示す走行状態データを前記第 1 事故画像データおよび前記第 2事故画像データの少なくとも一方と関連付けして前 記記録部に記録する走行状態検出部と、
を有することを特徴とするドライブレコーダシステム。
PCT/JP2006/308770 2005-05-09 2006-04-26 撮像装置およびドライブレコーダシステム WO2006120911A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06732376.6A EP1901554A4 (en) 2005-05-09 2006-04-26 IMAGING DEVICE AND DRIVE RECORDING SYSTEM
US11/919,930 US7865280B2 (en) 2005-05-09 2006-04-26 Imaging apparatus and drive recorder system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-136052 2005-05-09
JP2005136052 2005-05-09

Publications (1)

Publication Number Publication Date
WO2006120911A1 true WO2006120911A1 (ja) 2006-11-16

Family

ID=37396420

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/308770 WO2006120911A1 (ja) 2005-05-09 2006-04-26 撮像装置およびドライブレコーダシステム

Country Status (3)

Country Link
US (1) US7865280B2 (ja)
EP (1) EP1901554A4 (ja)
WO (1) WO2006120911A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2227721A1 (en) * 2007-11-13 2010-09-15 Rugged Outdoor Computing, LLC Vehicular computer system with independent multiplexed video capture subsystem.

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4729440B2 (ja) * 2006-06-07 2011-07-20 日立オートモティブシステムズ株式会社 通信システム、通信端末および情報処理装置
JP5037186B2 (ja) * 2007-03-16 2012-09-26 本田技研工業株式会社 車載緊急通報装置
WO2009041718A1 (ja) * 2007-09-28 2009-04-02 Fujitsu Ten Limited ドライブレコーダ
TWI338640B (en) * 2008-10-28 2011-03-11 Wistron Corp Image recording systems and related recording methods for recording moving image of the vehicle, and machine readable medium thereof
US20110058048A1 (en) * 2009-02-27 2011-03-10 Picosmos IL, Ltd. Apparatus, method and system for collecting and utilizing digital evidence
CA2761794C (en) * 2009-04-03 2016-06-28 Certusview Technologies, Llc Methods, apparatus, and systems for acquiring and analyzing vehicle data and generating an electronic representation of vehicle operations
US8237855B2 (en) * 2009-04-16 2012-08-07 Tech-Cast Mfg. Corp. Camera device capable of synchronously shooting images inside and outside a car
JP2011128005A (ja) * 2009-12-17 2011-06-30 Fujitsu Ten Ltd ナビゲーション装置、車載表示システム及び地図表示方法
US10046716B2 (en) 2011-02-10 2018-08-14 Denso Corporation In-vehicle camera and vehicle control system
JP6176028B2 (ja) 2013-09-26 2017-08-09 株式会社デンソー 車両制御システム、画像センサ
US9690997B2 (en) 2011-06-06 2017-06-27 Denso Corporation Recognition object detecting apparatus
EP3031695B1 (en) * 2013-08-06 2021-03-03 Mitsubishi Electric Corporation Train interior monitoring method, and train interior monitoring system
US20150112542A1 (en) * 2013-10-23 2015-04-23 Xrs Corporation Transportation event recorder for vehicle
GB2539646B (en) * 2015-06-17 2018-04-18 Risk Telematics Uk Ltd Image capture device and associated method
JP6649783B2 (ja) * 2016-01-28 2020-02-19 株式会社デンソーテン 車両制御装置、及び、車両制御方法
JP6702001B2 (ja) * 2016-06-14 2020-05-27 株式会社デンソー 撮像装置及び撮像システム
WO2018229550A1 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for adverse vehicle event determination
US11392131B2 (en) 2018-02-27 2022-07-19 Nauto, Inc. Method for determining driving policy
CN109389827A (zh) * 2018-08-17 2019-02-26 深圳壹账通智能科技有限公司 基于行车记录仪的举证方法、装置、设备和存储介质
DE102018122263B4 (de) * 2018-09-12 2021-03-18 Sick Ag Autonomes Fahrzeug
DE102019209572A1 (de) * 2019-06-29 2020-12-31 Robert Bosch Gmbh Sensoreinheit für ein Fahrzeug sowie ein Fahrzeug mit einer solchen Sensoreinheit
CN111369709A (zh) * 2020-04-03 2020-07-03 中信戴卡股份有限公司 行车场景确定方法、装置、计算机、存储介质及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09123876A (ja) * 1995-10-30 1997-05-13 Hitachi Ltd 乗用車の挙動及び運転動作の記録装置
JP2002321664A (ja) * 2000-12-20 2002-11-05 Tuner Kk 車載用画像記録システム
JP2003063459A (ja) * 2001-08-29 2003-03-05 Matsushita Electric Ind Co Ltd 車両用ドライブレコーダ装置
JP2003312553A (ja) * 2002-04-19 2003-11-06 Mitsubishi Electric Corp 車両用データ記録装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5815093A (en) * 1996-07-26 1998-09-29 Lextron Systems, Inc. Computerized vehicle log
US6076026A (en) * 1997-09-30 2000-06-13 Motorola, Inc. Method and device for vehicle control events data recording and securing
WO1999062741A2 (en) * 1998-06-01 1999-12-09 Robert Jeff Scaman Secure, vehicle mounted, incident recording system
US6950013B2 (en) * 1998-06-01 2005-09-27 Robert Jeffery Scaman Incident recording secure database
WO2000028410A1 (en) * 1998-11-06 2000-05-18 Phoenix Group, Inc. Mobile vehicle accident data system
US7584033B2 (en) * 2000-08-31 2009-09-01 Strategic Design Federation W. Inc. Automobile monitoring for operation analysis
JP2002166803A (ja) * 2000-11-30 2002-06-11 Canon Inc 車両用通信システム、車両用通信装置、車両、通信方法、及びコンピュータ読み取り可能な記憶媒体
FR2823048B1 (fr) * 2001-03-30 2003-07-04 Claude Bendavid Dispositif pour la memorisation d'une sequence visuelle a la suite de l'emission d'un signal d'alarme a bord d'un vehicule
US7480796B2 (en) * 2001-06-07 2009-01-20 Kwan Sofware Engineering, Inc. System and method for authenticating data using incompatible digest functions
US20030053536A1 (en) * 2001-09-18 2003-03-20 Stephanie Ebrami System and method for acquiring and transmitting environmental information
US7359821B1 (en) * 2002-06-11 2008-04-15 Injury Sciences Llc Methods and apparatus for using black box data to analyze vehicular accidents
JP4046013B2 (ja) 2003-05-30 2008-02-13 株式会社日立製作所 車両用ドライブレコーダ,車両分析装置、および鍵管理方法
CN100463007C (zh) * 2005-03-14 2009-02-18 鸿富锦精密工业(深圳)有限公司 汽车安全***
JP4726586B2 (ja) * 2005-09-20 2011-07-20 鈴木 旭 自動車用ドライブレコーダ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09123876A (ja) * 1995-10-30 1997-05-13 Hitachi Ltd 乗用車の挙動及び運転動作の記録装置
JP2002321664A (ja) * 2000-12-20 2002-11-05 Tuner Kk 車載用画像記録システム
JP2003063459A (ja) * 2001-08-29 2003-03-05 Matsushita Electric Ind Co Ltd 車両用ドライブレコーダ装置
JP2003312553A (ja) * 2002-04-19 2003-11-06 Mitsubishi Electric Corp 車両用データ記録装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1901554A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2227721A1 (en) * 2007-11-13 2010-09-15 Rugged Outdoor Computing, LLC Vehicular computer system with independent multiplexed video capture subsystem.
EP2227721A4 (en) * 2007-11-13 2012-05-02 Rugged Outdoor Computing Llc VEHICLE COMPUTER SYSTEM WITH INDEPENDENTLY MULTIPLEXED VIDEO BASIC SUSPENSION SYSTEM

Also Published As

Publication number Publication date
US7865280B2 (en) 2011-01-04
EP1901554A1 (en) 2008-03-19
US20100100276A1 (en) 2010-04-22
EP1901554A4 (en) 2016-02-10

Similar Documents

Publication Publication Date Title
WO2006120911A1 (ja) 撮像装置およびドライブレコーダシステム
JP2006345491A (ja) 撮像装置およびドライブレコーダシステム
WO2006112333A1 (ja) 撮像装置およびドライブレコーダシステム
JP4872425B2 (ja) 撮像装置およびドライブレコーダシステム
JP7151234B2 (ja) カメラシステムおよびイベント記録システム
CN103548340B (zh) 车辆用监视装置以及车辆的监视方法
JP6669240B1 (ja) 記録制御装置、記録制御システム、記録制御方法、および記録制御プログラム
US20130083196A1 (en) Vehicle monitoring systems
JP2011096063A (ja) ドライブレコーダ装置
JP2010141649A (ja) 撮像装置、顔検出方法及びプログラム
KR100865388B1 (ko) 차량용 영상기록장치
KR20150130717A (ko) 주차시 차량용 블랙박스의 이벤트 감지시스템 및 그 이벤트 감지방법
JP5261737B2 (ja) 画像記憶装置
KR101747219B1 (ko) 프라이버시 마스크 생성하는 감시 카메라 및 감시 카메라의 제어 방법
JP4641571B2 (ja) ディジタル・スチル・カメラおよびその制御方法
JP7070082B2 (ja) 車載カメラ
JP4710659B2 (ja) 撮像装置
JP2009027503A (ja) 撮像装置、改竄検出方法、および改竄検出装置
JP7231092B2 (ja) イベント記録システム
JP2004083006A (ja) 車載用デジタルカメラ設置装置
JP2003348536A (ja) デジタルカメラ
JP5278410B2 (ja) 映像記憶装置
TWI537840B (zh) 影像記錄裝置及其方法
WO2024116595A1 (ja) 映像記録制御装置および映像記録方法
JP7459607B2 (ja) 表示制御装置、表示制御方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006732376

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

WWE Wipo information: entry into national phase

Ref document number: 11919930

Country of ref document: US