WO2007055242A1 - 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体 - Google Patents

情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2007055242A1
WO2007055242A1 PCT/JP2006/322278 JP2006322278W WO2007055242A1 WO 2007055242 A1 WO2007055242 A1 WO 2007055242A1 JP 2006322278 W JP2006322278 W JP 2006322278W WO 2007055242 A1 WO2007055242 A1 WO 2007055242A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
moving body
information recording
imaging device
vehicle
Prior art date
Application number
PCT/JP2006/322278
Other languages
English (en)
French (fr)
Inventor
Hiroaki Shibasaki
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Publication of WO2007055242A1 publication Critical patent/WO2007055242A1/ja

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data

Definitions

  • Information recording apparatus information recording method, information recording program, and computer-readable recording medium
  • the present invention relates to an information recording apparatus, an information recording method, an information recording program, and a computer-readable recording medium for recording information.
  • the use of the present invention is not limited to the above-described information recording apparatus, information recording method, information recording program, and computer-readable recording medium.
  • a drive recorder that records the surrounding situation of a running vehicle is known, similar to a flight recorder mounted on an airplane.
  • a drive recorder includes, for example, a front camera that captures the front of the vehicle, a rear camera that captures the rear, and a divided video forming unit that writes the front and rear images in a predetermined area of the image memory in synchronization with the reference signal.
  • the drive recorder adds vehicle position information and time information to the image memory information and regularly records the information in the buffer memory. Then, it is proposed to save the video as a trigger when it exceeds the predetermined value of the impact detection sensor, and use it as a verification material in the accident identification and accidents when encountering an accident such as an escape accident ( (For example, see Patent Document 1 below.)
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-224105
  • an information recording apparatus records video data outside the moving body imaged by an imaging apparatus mounted on the moving body.
  • An information recording device that acquires information on a moving direction and a current location of the moving body, and a specific point where the moving body reaches is detected based on the information acquired by the acquiring means.
  • a calculating unit that calculates an angle for rotating the imaging device based on a moving direction and a current point of the moving body, and a specific point detected by the detecting unit, and the calculating unit.
  • Drive means for rotationally driving the imaging device by the calculated angle.
  • the information recording apparatus is an information recording apparatus for recording video data outside the moving body imaged by an imaging apparatus mounted on the moving body.
  • Acquisition means for acquiring information on the current location, detection means for detecting an object relatively approaching the moving body, the moving direction and current location of the moving body, and the object detected by the detection means
  • calculating means for calculating an angle for rotating the imaging device, and driving means for rotationally driving the imaging device by the angle calculated by the calculating means.
  • the information recording method according to the invention of claim 4 is an information recording method for recording video data outside the moving body imaged by an imaging device mounted on the moving body.
  • a driving process is an information recording method for recording video data outside the moving body imaged by an imaging device mounted on the moving body.
  • the information recording method according to the invention of claim 5 is applied to an imaging device mounted on a moving body. Therefore, in the information recording method for recording the imaged image data outside the moving body, an acquisition step of acquiring information on the moving direction and the current position of the moving body, and detecting an object relatively approaching the moving body Based on the detection step, the moving direction and the current location of the moving body, and the object detected by the detection step, the calculation step for calculating the angle for rotating the imaging device, and the calculation step And a driving step of rotationally driving the imaging device by the angle set.
  • an information recording program according to claim 6 causes a computer to execute the information recording method according to claim 4 or 5.
  • a computer-readable recording medium according to the invention of claim 7 is
  • the information recording program described in 6 is recorded.
  • FIG. 1 is a block diagram illustrating an example of a functional configuration of an information recording device according to a first embodiment.
  • FIG. 2 is a flowchart showing the contents of processing of the information recording apparatus according to the first embodiment.
  • FIG. 3 is a block diagram showing an example of a functional configuration of the information recording apparatus according to the second embodiment.
  • FIG. 4 is a flowchart showing the contents of processing of the information recording apparatus according to the second embodiment.
  • FIG. 5 is a block diagram of an example of a hardware configuration of the navigation device according to the first embodiment.
  • FIG. 6 is a flowchart showing the contents of processing in the navigation device according to the first embodiment.
  • FIG. 7 is a flowchart showing the contents of processing in the navigation device according to the second embodiment.
  • FIG. 1 is a block diagram illustrating an example of a functional configuration of the information recording apparatus according to the first embodiment.
  • an information recording apparatus 100 that records video data outside the moving body imaged by an imaging apparatus mounted on the moving body includes an acquisition unit 101, a detection unit 102, a calculation unit 103, and a drive. Part 104.
  • the acquisition unit 101 acquires information related to the moving direction and the current location of the moving object.
  • the information on the moving direction of the moving object and the current location may be acquired based on, for example, the radio wave received by the GPS satellite force or the output of the self-supporting sensor.
  • the detection unit 102 Based on the information acquired by the acquisition unit 101, the detection unit 102 detects a specific point where the mobile body reaches.
  • the specific point is, for example, a point where an accident occurs when a moving object passes. More specifically, the specific point is an intersection, an exchange point or a curve with a poor view.
  • information on accident occurrence points including the cause of accidents in the past may be detected together.
  • the specific point may be detected within a predetermined range in the traveling direction of the current position force of the moving body, which may be the configuration included in the map information recorded on the recording medium (not shown). Also good.
  • map information is good also as a structure which acquires force, such as an external server, by the communication part which is not shown in figure.
  • the detection unit 102 may be configured to detect an approach route to a specific point.
  • the calculation unit 103 includes the moving direction and the current location of the moving object acquired by the acquiring unit 101. And the angle at which the imaging device is rotated is calculated based on the specific point detected by the detection unit 102.
  • the rotation angle is, for example, an angle at which a specific point can be imaged in accordance with the movement of the moving body, and may be calculated based on the relative positional relationship between the moving body and the specific point in all of the vertical and horizontal directions. Further, the calculation unit 103 may be configured to calculate an angle at which the imaging device is rotated in consideration of the approach route detected by the detection unit 102.
  • the drive unit 104 drives the imaging apparatus to rotate by the angle calculated by the calculation unit 103.
  • the imaging device may be driven to rotate continuously as the moving body moves.
  • FIG. 2 is a flowchart showing the contents of processing of the information recording apparatus according to the first embodiment.
  • the information recording device 100 determines whether or not the moving body is running (step S201).
  • the acquisition unit 101 subsequently acquires mobile unit information (step S 202).
  • the moving body information may be acquired based on, for example, information about the moving direction of the moving body and the current location based on the radio wave received from the GPS satellite or the output of the self-supporting sensor.
  • the detection unit 102 detects a specific point where the mobile body reaches based on the mobile body information acquired in step S202 (step S203).
  • the specific point is, for example, a point where a mobile object easily encounters an accident when passing, and may be configured to be included in map information recorded on a recording medium (not shown).
  • the calculation unit 103 calculates an angle for rotating the imaging device based on the moving body information acquired in step S202 and the specific point detected in step S203 (step S204).
  • the rotation angle is, for example, an angle at which a specific point can be imaged in accordance with the movement of the moving body, and may be calculated based on the relative positional relationship between the moving body and the specific point in all of the vertical and horizontal directions.
  • the drive unit 104 moves the imaging device by the angle calculated in step S204.
  • the rotation is driven (step S205), and the series of processing ends.
  • the rotation drive of the imaging device may be configured to continuously rotate as the moving body moves, for example.
  • step S203 in addition to the detection of the specific point, it is possible to detect the approach route to the specific point in the moving body.
  • the calculation unit 103 is detected in step S203.
  • the angle for rotating the imaging device may be calculated in consideration of the approach route.
  • a specific point is detected, and an angle for rotationally driving the imaging device is calculated based on the relative positional relationship between the specific point and the moving body.
  • FIG. 3 is a block diagram of an example of a functional configuration of the information recording apparatus according to the second embodiment.
  • an information recording device 300 that records video data outside the moving body imaged by an imaging device mounted on the moving body includes an acquisition unit 301, a detection unit 302, a calculation unit 303, and a drive. Part 304.
  • Acquisition unit 301 acquires information regarding the moving direction and the current location of the moving object.
  • the information on the moving direction of the moving object and the current location may be acquired based on, for example, the radio wave received by the GPS satellite force or the output of the self-supporting sensor.
  • the detection unit 302 detects an object that is relatively close to the moving body.
  • the relatively approaching object may be, for example, a moving object such as a vehicle or a person or a fixed object on the road.
  • a sensor using sound waves, radio waves, or infrared rays may be used.
  • it is good also as a structure detected by vehicle-to-vehicle communication.
  • it may be configured to detect the relative speed, direction and size of an approaching object.
  • the calculation unit 303 calculates the moving direction and the current location of the moving object acquired by the acquiring unit 301. And the angle at which the imaging device is rotated is calculated based on the object detected by the detection unit 302.
  • the rotation angle is, for example, an angle at which an object approaching as the moving body moves can be imaged, and may be calculated based on the relative relationship between the moving body and the object in all directions. ,.
  • the drive unit 304 rotates the imaging device by the angle calculated by the calculation unit 303.
  • the imaging device may be driven to rotate continuously as the moving body moves.
  • FIG. 4 is a flowchart showing the contents of processing of the information recording apparatus according to the second embodiment.
  • the information recording device 300 determines whether or not the moving body is running (step S401).
  • the acquisition unit 301 acquires mobile unit information (step S402).
  • the moving body information may be acquired based on, for example, information about the moving direction of the moving body and the current location based on the radio wave received from the GPS satellite or the output of the self-supporting sensor.
  • the detection unit 302 detects an object that is relatively close to the moving body (step S403).
  • the relatively approaching object may be, for example, a moving object such as a vehicle or a person or a fixed object on the road.
  • a sensor using sound waves, radio waves, or infrared rays may be used for detection of an object.
  • the calculation unit 303 calculates an angle for rotating the imaging device based on the moving body information acquired in step S402 and the object detected in step S403 (step S404).
  • the rotation angle is, for example, an angle at which an object can be imaged in accordance with the movement of the moving body, and may be calculated based on the relative relationship between the moving body and the object in all directions.
  • the drive unit 304 rotates the imaging device by the angle calculated in step S404 (step S405), and ends the series of processes.
  • the rotational drive of the imaging device For example, it may be configured to continuously rotate and drive as the moving body moves.
  • step S403 the relative speed, direction, size, and the like of the approaching object may be detected together with the detection of the object.
  • the calculation unit 303 may be configured to calculate an angle for rotating the imaging device in consideration of the relative speed, direction, size, and the like of the object detected in step S403.
  • an object that is relatively close to the moving body is detected, and the imaging apparatus is driven to rotate based on the relative relationship with the moving body. Calculate the angle. Since the image is picked up by the rotationally driven image pickup device, an image including an object that may cause an accident can be accurately stored, and can be used accurately as verification data at the time of the accident.
  • Example 1 of the present invention will be described.
  • a navigation device mounted on a moving body such as a vehicle (including a four-wheeled vehicle and a two-wheeled vehicle) will be described.
  • FIG. 5 is a block diagram of an example of a hardware configuration of the navigation device according to the first embodiment.
  • a navigation device 500 is mounted on a moving body such as a vehicle, and includes a CPU 501, a ROM 502, a RAM 503, a magnetic disk drive 504, a magnetic disk 505, and an optical disk drive 506. , Optical disk 507, audio IZF (interface) 508, microphone 509, speaker 510, input device 511, video IZF512, display 513, communication I / F514, GPS unit 515, and various sensors 516 And camera 517.
  • Each component 501 to 517 is connected by a node 520.
  • the CPU 501 governs overall control of the navigation device 500.
  • the ROM 502 stores programs such as a boot program, a route search program, a route guidance program, a voice generation program, a map information display program, a communication program, a database creation program, and a data analysis program.
  • RAM503 is the CPU501 Used as a querier.
  • the route search program searches for an optimum route from the departure point to the destination point using map information or the like recorded on the optical disk 507 described later.
  • the optimal route is the shortest (or fastest) route to the destination or the route that best meets the conditions specified by the user.
  • a route to a stop point or a resting point may be searched.
  • the guidance route searched by executing the route search program is output to the audio IZF508 and the video IZF512 via the CPU 501.
  • the route guidance program includes the guidance route information searched by executing the route search program, the current location information of the navigation device 500 acquired by the communication IZF 514, and the map information read from the optical disc 507. Based on this, real-time route guidance information is generated.
  • the route guidance information generated by executing the route guidance program is output to the audio IZF508 and the video IZF512 via the CPU 501.
  • the sound generation program generates tone and sound information corresponding to the pattern.
  • the virtual sound source corresponding to the guidance point is set and the voice guidance information is generated and output to the voice IZF 508 via the CPU 501.
  • the map information display program determines the display format of the map information to be displayed on the display 513 by the video IZF 512, and displays the map information on the display 513 according to the determined display format.
  • the CPU 501 calculates the rotation angle of the camera, controls the video I / F 512, and rotates the camera 517.
  • the rotation angle is calculated by, for example, calculating the relative position relationship between the vehicle and the accident inducement based on the vehicle information and the accident inducement at the accident attraction point described later, and shooting the accident inducement.
  • the rotation angle is calculated so that Further, the rotation angle may be calculated based on the object information approaching the vehicle.
  • the rotational drive of the camera 517 may be continuously driven as the vehicle travels.
  • the magnetic disk drive 504 controls reading and writing of data to the magnetic disk 505 according to the control of the CPU 501.
  • Magnetic disk 505 is a magnetic disk drive. Record the data written under the control of Eve 504.
  • the optical disk drive 506 controls reading and writing of data with respect to the optical disk 507 according to the control of the CPU 501.
  • the optical disc 507 is a detachable recording medium from which data is read according to the control of the optical disc drive 506.
  • the optical disk 507 can use a writable recording medium.
  • the removable recording medium may be a power MO of the optical disc 507, a memory card, or the like.
  • Examples of information recorded on the magnetic disk 505 and the optical disk 507 include video and audio inside and outside the vehicle obtained by a camera 517 and a microphone 509, which will be described later, and current vehicle position information detected by a GPS unit 515. And output values from various sensors 516. These pieces of information are recorded by a drive recorder function that the navigation device 500 has. By using this drive recorder function to constantly record the driving conditions, when the vehicle is involved in an accident or when an accident occurs around the vehicle, data is obtained for investigating the facts. be able to. Information to be recorded using the drive recorder function may be stored as long as the recording capacity of the recording medium is not exceeded, or may be erased sequentially, leaving a record for a predetermined time.
  • the recording medium may have a recording area for overwriting recording that constantly records the driving state, and a storage area for saving the driving state when involved in an accident. It may be configured to have multiple recording media for storage and multiple storage media for storage.
  • map information recorded on the magnetic disk 505 and the optical disk 507 include map information used for route search and route guidance.
  • the map information includes background data that represents features (features) such as buildings, rivers, and the ground surface, and road shape data that represents the shape of the road. The original drawing.
  • the navigation device 500 is guiding a route, the map information and the current location of the vehicle acquired by the GPS unit 515 described later are displayed in an overlapping manner.
  • the map information includes information on accident attraction points that may cause an accident.
  • Accident attraction points are, for example, intersections, three-way intersections, junctions, and cars with high curvature. This is a point caused by a road shape such as a bus, or a point caused by a building with a building that has a poor visibility, such as a building in the turning direction. It may also be information about the accident location, including the cause of accidents that occurred in the past.
  • the accident attraction point may include position information such as an accident attractant that induces the accident. As described above, the CPU 501 calculates the rotation angle of the camera based on the position information of the accident attraction.
  • a configuration may be used in which the angle of the intersecting road is grasped, the relative position with respect to the vehicle position is calculated, and the camera direction is determined.
  • it may be configured to determine the position to be photographed for the side of the direction of turn if contact with a motorcycle or a person is the cause, and the direction of turn of the intersection if it is a collision with the car. .
  • the road shape data further includes traffic condition data.
  • the traffic condition data includes, for example, the presence / absence of traffic lights and pedestrian crossings, the presence / absence of highway doorways and junctions, the length (distance) of each link, road width, direction of travel, road type (high speed). Road, toll road, general road, etc.).
  • the traffic condition data stores past traffic information obtained by statistically processing past traffic information on the basis of the season / day of the week "large consecutive holidays” and the like.
  • the navigation device 500 obtains information on traffic jams currently occurring from road traffic information received by communication IZF514, which will be described later, but it is possible to predict traffic jam conditions at specified times based on past traffic jam information. .
  • the map information is recorded on the magnetic disk 505 and the optical disk 507.
  • the map information may be provided outside the navigation device 500 rather than being recorded only in the one integrated with the hardware of the navigation device 500.
  • the navigation device 500 acquires the map information via the network through the communication IZF 514, for example.
  • the acquired map information is stored in the RAM 503 or the like.
  • the audio IZF 508 is connected to a microphone 509 for audio input and a speaker 510 for audio output. Audio received by the microphone 509 is AZD converted in the audio IZF508. Audio is output from the speaker 510. Note that the sound input from the microphone 509 can be recorded on the magnetic disk 505 or the optical disk 507 as sound data. A plurality of microphones 509 may be installed in the vehicle.
  • the input device 511 includes a remote controller, a keyboard, a mouse, a touch panel, and the like, each having a plurality of keys for inputting characters, numerical values, various instructions, and the like.
  • the video IZF 512 is connected to the display 513 and the camera 517.
  • the video iZF 512 includes, for example, a graphic controller that controls the entire display 513, a buffer memory such as VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic controller. It is composed of a control IC that controls display of the display 513 based on the output image data.
  • VRAM Video RAM
  • the display 513 displays icons, cursors, menus, windows, or various data such as characters and images.
  • this display 513 for example, a CRT, a TFT liquid crystal display, a plasma display, or the like can be adopted.
  • a plurality of displays 513 may be provided in the vehicle, for example, for the driver and for a passenger seated in the rear seat.
  • the camera 517 captures an image inside or outside the vehicle.
  • the camera 517 may be attached to, for example, the front, rear, or ceiling of a vehicle that may be movable. It may be attached to either of them.
  • the camera 517 may be configured to perform imaging by rotationally driving in accordance with the rotation angle calculated by the CPU 501.
  • the camera 517 may be an infrared camera that records a dark place.
  • a plurality of cameras 517 may be installed in the vehicle, or a plurality of fixed cameras in a plurality of directions may be used.
  • the image captured by the camera 517 may be either a still image or a moving image.
  • the camera 517 captures the behavior of a passenger inside the vehicle, and the captured image is displayed on the magnetic disk via the image IZF512.
  • Output to a recording medium such as 505 or optical disc 507.
  • the camera 517 captures the situation outside the vehicle and outputs the captured image to a recording medium such as the magnetic disk 505 or the optical disk 507 via the video IZF512.
  • the video output to the recording medium is overwritten and saved as a drive recorder image.
  • the communication IZF 514 is connected to a network via radio and functions as an interface between the navigation device 500 and the CPU 501.
  • the communication IZF 514 is further connected to a communication network such as the Internet via wireless and functions as an interface between the communication network and the CPU 501.
  • Communication networks include LANs, WANs, public line networks, mobile phone networks, and the like.
  • the communication IZF514 is composed of, for example, an FM tuner, VICS (Vehicle Information and Communication System) Z beacon resino, wireless navigation device, and other navigation devices. Get road traffic information such as traffic regulations. VICS is a registered trademark.
  • the GPS unit 515 uses a received wave from a GPS satellite and an output value from various sensors 516 (for example, an angular velocity sensor, an acceleration sensor, a tire rotation number, etc.) to be described later, Information indicating the current location of the location pigeoning device 500 is calculated.
  • the information indicating the current location is information that identifies one point on the map information, such as latitude'longitude and altitude.
  • the GPS unit 515 outputs an odometer, a speed change amount, and an azimuth change amount using output values from various sensors 516. This makes it possible to analyze dynamics such as sudden braking and sudden handling.
  • GPS a total of 24 GPS satellites are arranged, 4 each in 6 orbital planes around the earth. These satellites are always orbited so that the same satellites are located at the same time every day, and are always 5 from any point on the earth (but need to have a good view)! I can see the satellite.
  • a cesium (Cs) atomic clock (oscillator) is mounted on the GPS satellite, and the accurate time is recorded in synchronization with the time of each satellite.
  • each satellite is equipped with two cesium oscillator power units and two rubidium (Rb) oscillators. This is because accurate time is indispensable for GPS position measurement.
  • GPS satellite force and others are transmitting radio waves with two frequencies of 1575.42MHz (Ll) and 1227.60MHz (L2) (hereinafter referred to as GPS signals).
  • This radio wave is modulated by a random code called pseudo random code (Pseudo Random Noise Code).
  • pseudo random code Pseudo Random Noise Code
  • UTC Coordinated Universal Time
  • the current location of the GPS satellite can be known accurately. Therefore, if the distance of the GPS satellite force is known, the current location of the device will be one of the points on the sphere centered on the GPS satellite and having the calculated distance as the radius.
  • the current location of the device is either one of the two points where the three spherical surfaces intersect. Also, one of the two points is also far away from the predicted point force, so in principle one point is determined. In reality, however, the current candidate point calculated (the intersection of the three faces) is not two. This is mainly because the accuracy of the clock mounted on the GPS unit 515 is lower than the atomic clock mounted on the GPS satellite, resulting in an error in the calculation results.
  • the GPS unit 515 receives GPS signals from a total of four GPS satellites.
  • the GPS unit 515 can obtain an almost accurate current point that converges to one point by receiving GPS signals from four GPS satellites.
  • Various sensors 516 are a vehicle speed sensor, an acceleration sensor, a G sensor, an angular velocity sensor, etc., and their output values are used for calculation of the current position by the GPS unit 515 and measurement of changes in speed and direction. It is done.
  • Various sensors 516 are used to control the vehicle by the driver. Also includes sensors that detect cropping. The detection of each operation of the vehicle may be configured to detect, for example, steering wheel operation, turn signal input, accelerator pedal depression, or brake pedal depression. Also, the output value of various sensors 516 may be data recorded by the drive recorder function.
  • the various sensors 516 may detect an object that approaches the vehicle relatively.
  • the method of detecting an object is not limited to this, as long as the object is detected by ultrasonic waves, radio waves, infrared rays, vehicle-to-vehicle communication, or the like.
  • the object may be detected by combining object information including the position, size, relative speed, etc. of the object.
  • the performance required for detecting an object may be anything as long as the rotation of the camera is completed before the force collision (closest approach) by detecting an object that is relatively close to the vehicle.
  • set an object recognition distance that is a predetermined distance that does not need to be detected for objects that do not collide.
  • a trigger is set for storing the drive recorder image at the time of an accident, and the drive recorder image is stored when the trigger is detected. It is good also as composition to do.
  • the trigger in the various sensors 516 may be set, for example, when a vibration sensor detects a vibration exceeding a specified level or a predetermined vibration pattern.
  • the predetermined vibration pattern may be a vibration pattern indicating an abnormality such as a sudden rise.
  • the trigger may be set when, for example, the G sensor detects a G exceeding the specified value or a pattern of how to force a predetermined G.
  • the predetermined G force can be any pattern that shows an abnormality, such as a sudden rise.
  • a configuration may be used in which the presence or absence of contact with the other by the contact sensor of the vehicle body, the operation of the airbag, or the stop of the vehicle is used as a trigger. Furthermore, as long as there is one or more of the above-mentioned triggers, a combination of multiple triggers may be used.
  • the acquisition unit 101 includes the CPU 501, the GPS unit 515, and various sensors 516
  • the detection unit 102 includes the CPU 501, the magnetic disk 505, and the optical disk 507.
  • communication IZF514 the calculation unit 103 is realized by the CPU 501
  • the drive unit 104 is realized by the CPU501 and the video IZF512.
  • the acquisition unit 301 is based on the CPU 501, the GPS unit 515, and various sensors 516
  • the detection unit 302 is based on the communication iZ F514 and the various sensors 516.
  • the calculation unit 303 realizes the function by the CPU 501
  • the drive unit 304 realizes the function by the CPU 501 and the video IZF 512, respectively.
  • FIG. 6 is a flowchart of the process performed by the navigation device according to the first embodiment.
  • the navigation device 500 first determines whether or not the vehicle is running (step S601). The determination regarding the running of the vehicle may be made with reference to the outputs of the various sensors 516, for example.
  • step S601 the vehicle waits for the vehicle to travel, and when the vehicle is traveling (step S601: Yes), camera 517 starts capturing images for the drive recorder (step S601: Step S601).
  • the drive recorder image may be, for example, a moving image at a certain time such as an image around the vehicle.
  • the drive recorder image may be overwritten on a recording medium such as the magnetic disk 505 or the optical disk 507.
  • Overwrite recording is, for example, recording a moving image over a certain period of time by overwriting sequentially so as not to exceed the recording capacity of the recording medium, and has a recording medium for overwriting recording and a recording area for overwriting recording. To record.
  • the CPU 501 acquires vehicle information (step S603).
  • vehicle information includes, for example, information on the moving direction of the vehicle and the current location. If there is a destination or stop point, information on the destination point or stop point may be acquired.
  • step S604 determines whether or not there is an accident attraction point based on the vehicle information acquired in step S603 (step S604).
  • Accident attraction points include, for example, intersections, three-way intersections, junctions, points due to road shapes such as curves with high curvature, and points due to buildings with structures such as buildings in a turning direction and poor visibility.
  • the information regarding the accident point including the cause of the accident that occurred in the past may be used.
  • the accident inducement point may include location information such as accident inducements that induce accidents. Good.
  • the destination point or stop point has been acquired in step S603, the current position force of the vehicle that can be used to extract all the accident points on the route is within the predetermined range. As a configuration to judge!
  • step S604 when there is no accident attraction point (step S604: No), CPU 501 determines whether or not the vehicle has finished traveling (step S608).
  • the determination regarding the traveling of the vehicle may be made with reference to the outputs of the various sensors 516, for example. More specifically, it may be determined that the vehicle has finished traveling when the output of the various sensors 516 stops.
  • step S604 if there is an accident attraction point (step S604: Yes), CPU 501 obtains the position information of the accident attraction (step S605) and the relative between the accident attraction and camera 517.
  • the position is calculated (step S606).
  • the location information of the accident inducement is, for example, information on the location that can cause an accident at the location of the accident inducement, and may be information on the location of the accident including the location of the structure and the cause of the accident that occurred in the past.
  • the relative position is calculated based on, for example, the vehicle information acquired in step S603 and the position information of the accident inducement acquired in step S605.
  • the configuration may be such that the angle of the intersecting road is grasped, the relative position to the own vehicle position is calculated, and the direction of the camera 517 is determined.
  • the configuration may be such that the side of the turning direction is determined as a position to be photographed if it is caused by contact with a motorcycle or a person, and the direction of bending of an intersection is determined if it is a collision with a car. It may also be calculated taking into account the approach direction in which the vehicle enters the accident triggering point.
  • CPU 501 controls video IZF 512 to drive camera 517 based on the relative position between accident inducement and camera 517 calculated in step S606 (step S607).
  • the camera 517 may be driven to rotate continuously so that an accidental inducement can be photographed in the vertical and horizontal directions.
  • CPU 501 determines whether or not traveling of the vehicle has ended (step S608).
  • step S608: Yes when the vehicle has finished running (step S608: Yes), the series of processing ends. If the vehicle does not finish traveling (step S608: No), the process returns to step S602 to repeat the process.
  • the camera is driven to take an image for the drive recorder. Can do. Therefore, it is possible to take pictures of places that are likely to cause accidents, regardless of whether they are in front or behind, and to save the images and use them as accident verification data in the event of an accident.
  • Example 2 of the present invention will be described.
  • the navigation apparatus 500 described in the first embodiment described above detects an object approaching the vehicle and drives the camera.
  • the hardware configuration of the navigation device 500 according to the second embodiment is substantially the same as that shown in FIG.
  • FIG. 7 is a flowchart of the process in the navigation device according to the second embodiment.
  • the navigation device 500 first determines whether or not the vehicle is running (step S701). For example, the determination regarding the traveling of the vehicle may be made with reference to the outputs of the various sensors 516.
  • step S701 after waiting for the vehicle to be running, if it is running (step S701: Yes), the camera 517 starts to shoot the image for the drive recorder (step S701: Yes).
  • the drive recorder image may be, for example, a moving image at a certain time such as an image around the vehicle.
  • the drive recorder image may be overwritten on a recording medium such as the magnetic disk 505 or the optical disk 507.
  • Overwrite recording is, for example, recording a moving image over a certain period of time by overwriting sequentially so as not to exceed the recording capacity of the recording medium, and has a recording medium for overwriting recording and a recording area for overwriting recording. To record.
  • Vehicle information For example, it may contain information about the direction of travel of the vehicle and the current location! /.
  • the object approaching the vehicle may be a moving object such as another vehicle or a person approaching the vehicle relatively or a fixed object on the road.
  • Object detection is performed by various sensors 516 and the like. More specifically, methods that can be detected by ultrasonic waves, radio waves, infrared rays, vehicle-to-vehicle communication, etc. are not limited to these.
  • the object may be detected by combining object information including the size and relative speed of the object.
  • the performance necessary for detecting the object may be anything as long as the rotational driving of the camera 517 is completed from the detection of the object relatively approaching the vehicle to the collision (closest approach).
  • a predetermined distance that does not need to be detected for an object with no possibility of collision may be set as the object recognition distance.
  • step S704 when there is no approaching object (step S704: No), CPU 501 determines whether or not the vehicle has finished traveling (step S708).
  • the determination regarding the traveling of the vehicle may be made with reference to the outputs of the various sensors 516, for example. More specifically, it may be determined that the vehicle has finished traveling when the output of the various sensors 516 stops.
  • step S704 If there is an approaching object in step S704 (step S704: Yes), then CPU 501 obtains object information of the approaching object (step S705) and calculates the force driving amount (step S705). S706).
  • the object information may be, for example, object information including the position, size, and relative speed of the object detected in step S704! /.
  • the camera driving amount is calculated based on, for example, the vehicle information acquired in step S703 and the object information acquired in step S705. More specifically, for example, the relative position from the camera 517 to the object is calculated from the relative orientation of the object and the installation position of the camera 517. Based on the calculated relative position, the driving amount is calculated so as to photograph the relatively approaching object.
  • the driving amount includes the moving direction and moving amount of the camera 517, and may be continuously driven according to the approaching object.
  • the approaching object is judged when the relative speed is more than a predetermined value, the distance to the vehicle is less than a predetermined value, or the object is larger than a predetermined size. It may be configured to determine that there is an approaching object.
  • CPU 501 controls video IZF 512 to drive camera 517 based on the camera drive amount calculated in step S706 (step S707).
  • the camera 517 may be continuously rotated so that an object can be photographed vertically and horizontally.
  • CPU 501 determines whether or not the vehicle has finished traveling (step S708).
  • step S708: Yes when the vehicle has finished traveling (step S708: Yes), the series of processing ends. If the vehicle does not finish traveling (step S708: No), the process returns to step S702 and the process is repeated.
  • the camera can be driven with respect to an object approaching the vehicle, and a drive recorder image can be taken. Therefore, by appropriately capturing an object with a risk of collision, it is possible to save the collision video and use it as accident verification data in the event of an accident.
  • the approach is determined based on the relative speed, positional relationship, and size of the approaching object, so an object that is not at risk of an accident is photographed. Does not save useless video. Therefore, when it is necessary to efficiently use the capacity of the recording medium and store the video, it is possible to prevent the storage from being insufficient due to insufficient capacity.
  • a specific point is detected, and an angle for rotationally driving the imaging device is calculated based on the relative positional relationship between the specific point and the moving body. Since the image is picked up by the rotationally driven image pickup device, an image that may cause an accident can be accurately stored, and can be used accurately as verification data at the time of the accident.
  • an object that is relatively close to the moving body is detected, and an angle for rotationally driving the imaging apparatus is calculated based on a relative relationship with the moving body. Since the image is picked up by the rotationally driven imaging device, it is possible to accurately store an image including an object that may cause an accident, and it can be used accurately as verification data at the time of the accident.
  • a drive recorder image can be taken by driving the camera based on the relative position between the accident inducement and the camera at the accident attraction point. Therefore, it is possible to shoot a location that is likely to cause an accident regardless of forward or backward force, and to save the video and use it as accident verification data in the event of an accident.
  • the present invention may be configured to have both functions as long as it has at least one of the functions of the first embodiment and the second embodiment. By judging both the accident inducement point and the approaching object and controlling the drive of the camera, it is possible to capture an accurate image.
  • the drive recorder images taken in step S602 and step S702 are the images for the drive recorder at the time of the accident.
  • the configuration may be such that when a trigger for saving is detected, the image for the drive recorder before and after detection is saved.
  • the image for the drive recorder is the driving position of the camera 517 according to the driving of the camera 517 in step S607 and step S707 (if there is no accident triggering point, the image at the start of shooting in step S602 and step S702).
  • the image is taken at the position of the camera 517), and is overwritten and recorded on a recording medium for overwriting recording or a recording medium having a recording area for overwriting recording.
  • the trigger described above is, for example, a trigger to save an image for a drive recorder based on the output of various sensors 516, a vibration pattern indicating abnormalities such as a vibration exceeding a specified value by a vibration sensor or a predetermined vibration pattern, It may be a pattern indicating an abnormality such as a G exceeding the specified value by the sensor or a pattern of how to cover a predetermined G.
  • a configuration may be used in which the image for the drive recorder is saved by analyzing the captured image and determining that the image has a possibility of a collision.
  • the drive itself of the camera 517 in step S607 and step S707 may be used as a trigger.
  • step S When the risk level of the accident attraction point in 604 is high, or when the approaching object in step S704 is highly likely to collide, the drive recorder image captured by driving the camera 517 may be stored.
  • the risk of an accident attraction point is, for example, the possibility that an object may collide based on a predetermined pattern such as road shape or past accident history. It may be configured to compare with a threshold value.
  • the drive position of the camera 517 and the output of various sensors 516 may be stored together with the drive recorder image. By saving the image for the drive recorder with such a trigger, it is possible to appropriately save the video at the time of the accident.
  • the driving amount of the camera is calculated and rotationally driven.
  • a plurality of cameras are installed, and an image is displayed based on an accident triggering point or an approaching object.
  • a configuration may be adopted in which the camera to shoot is switched. By doing so, it is possible to shoot an accurate image without performing drive control.
  • using a camera that can shoot all-round it is possible to capture an accurate image without performing drive control.
  • video data shot by a camera that can shoot all around the camera is analyzed in each shooting direction (for example, left direction, right direction, front direction, and rear direction) and cannot be a cause of an accident (for example, The video data in the direction may not be deleted if there is no object in the vicinity or an object that is approaching.
  • the camera driving amount can be set using the relative distance included in the information of the spot and object captured by the camera. Since the video is shot with the subject in focus, it is possible to save a clearer image and use it for accident verification documents.
  • the information recording method described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, flexible disk, CD-ROM, MO, or DVD.
  • the recording medium force is also read out by the computer.
  • the program may be a transmission medium that can be distributed through a network such as the Internet.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

 移動体に搭載された撮像装置によって撮像された前記移動体外の映像データを記録する情報記録装置(100)において、取得部(101)は、移動体の移動方向および現在地点に関する情報を取得する。検出部(102)は、取得部(101)によって取得された情報に基づいて、移動体は到達する特定地点を検出する。算出部(103)は、移動体の移動方向および現在地点と、検出部(102)によって検出された特定地点と、に基づいて、撮像装置を回転させる角度を算出する。そして、駆動部(104)は、算出部(103)によって算出された角度分、撮像装置を回転駆動させる。

Description

明 細 書
情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータ に読み取り可能な記録媒体
技術分野
[0001] この発明は、情報を記録する情報記録装置、情報記録方法、情報記録プログラム およびコンピュータに読み取り可能な記録媒体に関する。ただし、この発明の利用は 、上述した情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに 読み取り可能な記録媒体には限られな 、。
背景技術
[0002] 従来、飛行機に搭載されたフライトレコーダと同様に、走行中の車両の周辺状況の 記録をおこなうドライブレコーダが知られている。このようなドライブレコーダは、たとえ ば、車両前方を撮影する前方カメラ、後方を撮影する後方カメラ、前方および後方映 像を基準信号に同期して画像メモリの所定領域に書き込む分割映像形成部を備える
[0003] ドライブレコーダは、画像メモリ情報に車両位置情報および時刻情報を付与してバ ッファメモリに定常的に記録する。そして、衝撃検知センサの所定値以上となることを トリガーとして映像を保存し、あて逃げ事故などの事故に遭遇したとき、あて逃げ車両 の特定や事故における検証資料として利用する提案がされている (たとえば、下記特 許文献 1参照。)。
[0004] 特許文献 1:特開 2004— 224105号公報
発明の開示
発明が解決しょうとする課題
[0005] し力しながら、上記従来技術によれば、前方および後方のカメラによって映像を撮 影して、あて逃げ事故などの事故に遭遇したときに映像を保存する。したがって、前 方および後方でない方向から事故の要因に遭遇した場合は、事故の要因となる映像 を保存することができず、事故の検証資料として利用することができな 、と 、う問題が 一例として挙げられる。一方、前方および後方のカメラに加えて、横方向などを撮影 するために複数のカメラを設置した場合は、複数の映像を処理する必要があり装置 に負荷力かかってしまうという問題が一例として挙げられる。
課題を解決するための手段
[0006] 上述した課題を解決し、目的を達成するため、請求項 1の発明にかかる情報記録 装置は、移動体に搭載された撮像装置によって撮像された前記移動体外の映像デ ータを記録する情報記録装置にぉ 、て、前記移動体の移動方向および現在地点に 関する情報を取得する取得手段と、前記取得手段によって取得された情報に基づい て、前記移動体が到達する特定地点を検出する検出手段と、前記移動体の移動方 向および現在地点と、前記検出手段によって検出された特定地点と、に基づいて、 前記撮像装置を回転させる角度を算出する算出手段と、前記算出手段によって算出 された角度分、前記撮像装置を回転駆動する駆動手段と、を備えることを特徴とする
[0007] また、請求項 3の発明にかかる情報記録装置は、移動体に搭載された撮像装置に よって撮像された前記移動体外の映像データを記録する情報記録装置において、 前記移動体の移動方向および現在地点に関する情報を取得する取得手段と、前記 移動体に対して相対的に接近する物体を検出する検出手段と、前記移動体の移動 方向および現在地点と、前記検出手段によって検出された物体と、に基づいて、前 記撮像装置を回転させる角度を算出する算出手段と、前記算出手段によって算出さ れた角度分、前記撮像装置を回転駆動する駆動手段と、を備えることを特徴とする。
[0008] また、請求項 4の発明に力かる情報記録方法は、移動体に搭載された撮像装置に よって撮像された前記移動体外の映像データを記録する情報記録方法において、 前記移動体の移動方向および現在地点に関する情報を取得する取得工程と、前記 取得工程によって取得された情報に基づ 、て、前記移動体が到達する特定地点を 検出する検出工程と、前記移動体の移動方向および現在地点と、前記検出工程に よって検出された特定地点と、に基づいて、前記撮像装置を回転させる角度を算出 する算出工程と、前記算出工程によって算出された角度分、前記撮像装置を回転駆 動する駆動工程と、を含んだことを特徴とする。
[0009] また、請求項 5の発明にかかる情報記録方法は、移動体に搭載された撮像装置に よって撮像された前記移動体外の映像データを記録する情報記録方法において、 前記移動体の移動方向および現在地点に関する情報を取得する取得工程と、前記 移動体に対して相対的に接近する物体を検出する検出工程と、前記移動体の移動 方向および現在地点と、前記検出工程によって検出された物体と、に基づいて、前 記撮像装置を回転させる角度を算出する算出工程と、前記算出工程によって算出さ れた角度分、前記撮像装置を回転駆動する駆動工程と、を含んだことを特徴とする。
[0010] また、請求項 6の発明に力かる情報記録プログラムは、請求項 4または 5に記載の 情報記録方法をコンピュータに実行させることを特徴とする。
[0011] また、請求項 7の発明にかかるコンピュータに読み取り可能な記録媒体は、請求項
6に記載の情報記録プログラムを記録したことを特徴とする。
図面の簡単な説明
[0012] [図 1]図 1は、本実施の形態 1にかかる情報記録装置の機能的構成の一例を示すブ ロック図である。
[図 2]図 2は、実施の形態 1にかかる情報記録装置の処理の内容を示すフローチヤ一 トである。
[図 3]図 3は、本実施の形態 2にかかる情報記録装置の機能的構成の一例を示すブ ロック図である。
[図 4]図 4は、本実施の形態 2にかかる情報記録装置の処理の内容を示すフローチヤ ートである。
[図 5]図 5は、本実施例 1にかかるナビゲーシヨン装置のハードウェア構成の一例を示 すブロック図である。
[図 6]図 6は、本実施例 1にかかるナビゲーシヨン装置における処理の内容を示すフロ 一チャートである。
[図 7]図 7は、本実施例 2にかかるナビゲーシヨン装置における処理の内容を示すフロ 一チャートである。
符号の説明
[0013] 100, 300 情報記録装置
101, 301 取得部 102, 302 検出部
103, 303 算出部
104, 304 駆動部
発明を実施するための最良の形態
[0014] 以下に添付図面を参照して、この発明にかかる情報記録装置、情報記録方法、情 報記録プログラムおよびコンピュータに読み取り可能な記録媒体の好適な実施の形 態を詳細に説明する。
[0015] (実施の形態 1)
(情報記録装置の機能的構成)
図 1を用いて、本実施の形態 1にかかる情報記録装置の機能的構成について説明 する。図 1は、本実施の形態 1にかかる情報記録装置の機能的構成の一例を示すブ ロック図である。
[0016] 図 1において、移動体に搭載された撮像装置によって撮像された前記移動体外の 映像データを記録する情報記録装置 100は、取得部 101と、検出部 102と、算出部 103と、駆動部 104と、を含み構成されている。
[0017] 取得部 101は、移動体の移動方向および現在地点に関する情報を取得する。移動 体の移動方向および現在地点に関する情報の取得は、たとえば、 GPS衛星力 受 信された電波や自立センサの出力などに基づいて取得する構成としてもよい。
[0018] 検出部 102は、取得部 101によって取得された情報に基づいて、移動体が到達す る特定地点を検出する。特定地点は、たとえば、移動体が通過する際に事故に遭遇 しゃすい地点でもよぐより具体的には、交差点や交流地点や見通しの悪いカーブな どである。また、過去における事故の原因を含む事故頻発地点の情報などをあわせ て検出してもよい。特定地点の検出は、たとえば、あら力じめ図示しない記録媒体に 記録された地図情報に含まれている構成でもよぐ移動体の現在位置力 の進行方 向における所定の範囲で検出する構成としてもよい。なお、地図情報は、図示しない 通信部によって、外部のサーバなど力も取得する構成としてもよい。さらに、検出部 1 02は、特定地点への進入ルートを検出する構成でもよい。
[0019] 算出部 103は、取得部 101によって取得された移動体の移動方向および現在地点 と、検出部 102によって検出された特定地点と、に基づいて、撮像装置を回転させる 角度を算出する。回転させる角度は、たとえば、移動体の移動にあわせて特定地点 を撮像できる角度であり、上下左右方向すべてについて、移動体と特定地点の相対 的な位置関係に基づいて算出してもよい。また、算出部 103は、検出部 102によって 検出された進入ルートを加味して撮像装置を回転させる角度を算出する構成としても よい。
[0020] 駆動部 104は、算出部 103によって算出された角度分、撮像装置を回転駆動させ る。撮像装置の回転駆動は、たとえば、移動体の移動に伴って連続的に回転駆動さ せる構成でもよい。
[0021] (情報記録装置 100の処理の内容)
つぎに、図 2を用 、て本実施の形態 1にかかる情報記録装置 100の処理の内容に ついて説明する。図 2は、本実施の形態 1にかかる情報記録装置の処理の内容を示 すフローチャートである。図 2のフローチャートにおいて、まず、情報記録装置 100は 、移動体が走行中となったか否かを判断する (ステップ S201)。ここで、移動体が走 行中となるのを待って、走行中となった場合 (ステップ S 201 : Yes)は、つづいて、取 得部 101は、移動体情報を取得する (ステップ S202)。移動体情報は、たとえば、移 動体の移動方向および現在地点に関する情報などで、 GPS衛星から受信された電 波や自立センサの出力などに基づ 、て取得してもよ 、。
[0022] つぎに、検出部 102は、ステップ S202において取得された移動体情報に基づいて 、移動体が到達する特定地点を検出する (ステップ S 203)。特定地点は、たとえば、 移動体が通過する際に事故に遭遇しやすい地点などで、あら力じめ図示しない記録 媒体に記録された地図情報に含まれて ヽる構成でもよ ヽ。
[0023] そして、算出部 103は、ステップ S202において取得された移動体情報と、ステップ S203において検出された特定地点と、に基づいて、撮像装置を回転させる角度を 算出する (ステップ S 204)。回転させる角度は、たとえば、移動体の移動にあわせて 特定地点を撮像できる角度であり、上下左右方向すべてについて、移動体と特定地 点の相対的な位置関係に基づいて算出してもよい。
[0024] つづいて、駆動部 104は、ステップ S204において算出された角度分、撮像装置を 回転駆動させて (ステップ S205)、一連の処理を終了する。撮像装置の回転駆動は 、たとえば、移動体の移動に伴って連続的に回転駆動させる構成でもよい。
[0025] なお、ステップ S203においては、特定地点の検出とあわせて、移動体における特 定地点への進入ルートを検出してもよぐその場合、算出部 103は、ステップ S203に おいて検出された進入ルートを加味して、撮像装置を回転させる角度を算出する構 成としてもよい。
[0026] 以上説明したように、本実施の形態 1によれば、特定地点を検出して、特定地点と 移動体の相対的な位置関係に基づいて、撮像装置を回転駆動させる角度を算出す る。そして、回転駆動させられた撮像装置によって撮像をおこなうため、事故の要因と なりうる映像を的確に保存することができ、事故時の検証資料として正確な利用を図 ることがでさる。
[0027] (実施の形態 2)
(情報記録装置の機能的構成)
図 3を用いて、本実施の形態 2にかかる情報記録装置の機能的構成について説明 する。図 3は、本実施の形態 2にかかる情報記録装置の機能的構成の一例を示すブ ロック図である。
[0028] 図 3において、移動体に搭載された撮像装置によって撮像された前記移動体外の 映像データを記録する情報記録装置 300は、取得部 301と、検出部 302と、算出部 303と、駆動部 304と、を含み構成されている。
[0029] 取得部 301は、移動体の移動方向および現在地点に関する情報を取得する。移動 体の移動方向および現在地点に関する情報の取得は、たとえば、 GPS衛星力 受 信された電波や自立センサの出力などに基づいて取得する構成としてもよい。
[0030] 検出部 302は、移動体に対して相対的に接近する物体を検出する。相対的に接近 する物体は、たとえば、車両や人間など移動する物体や道路上の固定物などでもよ い。また、物体に検出は、たとえば、音波や電波や赤外線を利用したセンサなどを用 いてもよい。また、車車間通信などで検出する構成としてもよい。さらに、接近する物 体の相対速度や方向や大きさなどを検出する構成としてもよい。
[0031] 算出部 303は、取得部 301によって取得された移動体の移動方向および現在地点 と、検出部 302によって検出された物体と、に基づいて、撮像装置を回転させる角度 を算出する。回転させる角度は、たとえば、移動体の移動にあわせて接近する物体を 撮像できる角度であり、上下左右方向すべてについて、移動体と物体の相対的な関 係に基づ 、て算出してもよ 、。
[0032] 駆動部 304は、算出部 303によって算出された角度分、撮像装置を回転駆動させ る。撮像装置の回転駆動は、たとえば、移動体の移動に伴って連続的に回転駆動さ せる構成でもよい。
[0033] (情報記録装置 300の処理の内容)
つぎに、図 4を用いて本実施の形態 2にかかる情報記録装置 300の処理の内容に ついて説明する。図 4は、本実施の形態 2にかかる情報記録装置の処理の内容を示 すフローチャートである。図 4のフローチャートにおいて、まず、情報記録装置 300は 、移動体が走行中となったか否かを判断する (ステップ S401)。ここで、移動体が走 行中となるのを待って、走行中となった場合 (ステップ S401 : Yes)は、つづいて、取 得部 301は、移動体情報を取得する (ステップ S402)。移動体情報は、たとえば、移 動体の移動方向および現在地点に関する情報などで、 GPS衛星から受信された電 波や自立センサの出力などに基づ 、て取得してもよ 、。
[0034] つぎに、検出部 302は、移動体に対して相対的に接近する物体を検出する (ステツ プ S403)。相対的に接近する物体は、たとえば、車両や人間など移動する物体や道 路上の固定物などでもよい。また、物体に検出は、たとえば、音波や電波や赤外線を 利用したセンサなどを用いてもよい。また、車車間通信などで検出する構成としてもよ い。
[0035] そして、算出部 303は、ステップ S402において取得された移動体情報と、ステップ S403において検出された物体と、に基づいて、撮像装置を回転させる角度を算出 する (ステップ S404)。回転させる角度は、たとえば、移動体の移動にあわせて物体 を撮像できる角度であり、上下左右方向すべてについて、移動体と物体の相対的な 関係に基づいて算出してもよい。
[0036] つづいて、駆動部 304は、ステップ S404において算出された角度分、撮像装置を 回転駆動させて (ステップ S405)、一連の処理を終了する。撮像装置の回転駆動は 、たとえば、移動体の移動に伴って連続的に回転駆動させる構成でもよい。
[0037] なお、ステップ S403においては、物体の検出とあわせて、接近する物体の相対速 度や方向や大きさなどを検出する構成としてもよい。その場合、算出部 303は、ステ ップ S403において検出された物体の相対速度や方向や大きさなどを加味して、撮 像装置を回転させる角度を算出する構成としてもよい。
[0038] 以上説明したように、本実施の形態 2によれば、移動体に相対的に接近する物体を 検出して、移動体との相対的な関係に基づいて、撮像装置を回転駆動させる角度を 算出する。そして、回転駆動させられた撮像装置によって撮像をおこなうため、事故 の要因となりうる物体を含んだ映像を的確に保存することができ、事故時の検証資料 として正確な利用を図ることができる。
実施例 1
[0039] 以下に、本発明の実施例 1について説明する。本実施例 1では、たとえば、車両( 四輪車、二輪車を含む)などの移動体に搭載されるナビゲーシヨン装置によって、本 発明の情報記録装置を実施した場合の一例について説明する。
[0040] (ナビゲーシヨン装置のハードウェア構成)
つぎに、図 5を用いて、本実施例 1にかかるナビゲーシヨン装置 500のハードウェア 構成について説明する。図 5は、本実施例 1にかかるナビゲーシヨン装置のハードウ エア構成の一例を示すブロック図である。
[0041] 図 5において、ナビゲーシヨン装置 500は、車両などの移動体に搭載されており、 C PU501と、 ROM502と、 RAM503と、磁気ディスクドライブ 504と、磁気ディスク 50 5と、光ディスクドライブ 506と、光ディスク 507と、音声 IZF (インターフェース) 508と 、マイク 509と、スピーカ 510と、入力デバイス 511と、映像 IZF512と、ディスプレイ 5 13と、通信 I/F514と、 GPSユニット 515と、各種センサ 516と、カメラ 517と、を備免 ている。また、各構成部 501〜517はノ ス 520によってそれぞれ接続されている。
[0042] まず、 CPU501は、ナビゲーシヨン装置 500の全体の制御を司る。 ROM502は、 ブートプログラム、経路探索プログラム、経路誘導プログラム、音声生成プログラム、 地図情報表示プログラム、通信プログラム、データベース作成プログラム、データ解 析プログラムなどのプログラムを記録している。また、 RAM503は、 CPU501のヮー クエリアとして使用される。
[0043] ここで、経路探索プログラムは、後述する光ディスク 507に記録されている地図情報 などを利用して、出発地点から目的地点までの最適な経路を探索させる。ここで、最 適な経路とは、目的地点までの最短 (あるいは最速)経路やユーザが指定した条件 に最も合致する経路などである。また、目的地点のみならず、立ち寄り地点や休憩地 点までの経路を探索してもよい。経路探索プログラムを実行することによって探索さ れた誘導経路は、 CPU501を介して音声 IZF508や映像 IZF512へ出力される。
[0044] また、経路誘導プログラムは、経路探索プログラムを実行することによって探索され た誘導経路情報、通信 IZF514によって取得されたナビゲーシヨン装置 500の現在 地点情報、光ディスク 507から読み出された地図情報に基づいて、リアルタイムな経 路誘導情報の生成をおこなわせる。経路誘導プログラムを実行することによって生成 された経路誘導情報は、 CPU501を介して音声 IZF508や映像 IZF512へ出力さ れる。
[0045] また、音声生成プログラムは、パターンに対応したトーンと音声の情報を生成させる
。すなわち、経路誘導プログラムを実行することによって生成された経路誘導情報に 基づいて、案内ポイントに対応した仮想音源の設定と音声ガイダンス情報の生成を おこない、 CPU501を介して音声 IZF508へ出力する。
[0046] また、地図情報表示プログラムは、映像 IZF512によってディスプレイ 513に表示 する地図情報の表示形式を決定させ、決定された表示形式によって地図情報をディ スプレイ 513に表示させる。
[0047] また、 CPU501は、カメラの回転角度を算出して、映像 I/F512を制御してカメラ 5 17を回転駆動させる。回転角度の算出は、たとえば、車両情報と、後述する事故誘 引地点における事故誘引物と、に基づいて、車両と事故誘引物の相対的な位置関 係を算出して、事故誘引物の撮影ができるように回転角度を算出する。また、車両に 接近する物体情報に基づいて回転角度を算出することとしてもよい。なお、カメラ 51 7の回転駆動は、車両の走行に伴って、連続的に回転駆動させるようにしてもよい。
[0048] 磁気ディスクドライブ 504は、 CPU501の制御にしたがって磁気ディスク 505に対 するデータの読み取り Z書き込みを制御する。磁気ディスク 505は、磁気ディスクドラ イブ 504の制御で書き込まれたデータを記録する。磁気ディスク 505としては、たとえ ば、 HD (ノヽードディスク)や FD (フレキシブルディスク)を用いることができる。
[0049] また、光ディスクドライブ 506は、 CPU501の制御にしたがって光ディスク 507に対 するデータの読み取り Z書き込みを制御する。光ディスク 507は、光ディスクドライブ 506の制御にしたがってデータの読み出される着脱自在な記録媒体である。光ディ スク 507は、書き込み可能な記録媒体を利用することもできる。また、この着脱可能な 記録媒体として、光ディスク 507のほ力 MO、メモリカードなどであってもよい。
[0050] 磁気ディスク 505、光ディスク 507に記録される情報の一例として、後述するカメラ 5 17やマイク 509で得られた車内外の映像や音声、 GPSユニット 515で検出された車 両の現在地点情報、各種センサ 516からの出力値などが挙げられる。これらの情報 は、ナビゲーシヨン装置 500が有するドライブレコーダ機能によって記録される。この ようなドライブレコーダ機能を用いて走行状態を常時記録することによって、自車が事 故に巻き込まれた場合や、自車の周囲で事故が発生した場合に、事実関係の究明 に用いる資料を得ることができる。ドライブレコーダ機能を用いて記録する情報は、記 録媒体の記録容量を超えない限り蓄積してもよいし、所定時間分の記録を残して逐 次消去してもよい。また、記録媒体は、走行状態を常時記録する上書き記録用の記 録領域と、事故に巻き込まれた場合に走行状態を保存する保存用の保存領域を有 するものであってもよいし、上書き記録用の記録媒体と保存用の記録媒体をそれぞ れ複数備える構成としてもょ ヽ。
[0051] その他、磁気ディスク 505、光ディスク 507に記録される情報の他の一例として、経 路探索'経路誘導などに用いる地図情報が挙げられる。地図情報は、建物、河川、 地表面などの地物 (フィーチャ)をあらわす背景データと、道路の形状をあらわす道 路形状データとを有しており、ディスプレイ 513の表示画面において 2次元または 3次 元に描画される。ナビゲーシヨン装置 500が経路誘導中の場合は、地図情報と後述 する GPSユニット 515によって取得された自車の現在地点とが重ねて表示されること となる。
[0052] さらに、地図情報には、事故を引き起こす可能性のある事故誘引地点の情報を含 んでいる。事故誘引地点は、たとえば、交差点、三叉路、合流地点、曲率の高いカー ブなどの道路形状に起因する地点や、曲がる方向に建物などの建造物があり見通し の悪い建造物に起因する地点などである。また、過去に起きた事故の原因を含む、 事故地点に関する情報などでもよい。さらに、事故誘引地点は、事故を誘引する事 故誘引物などの位置情報を含むものでもよぐ CPU501は、前述したように、事故誘 引物の位置情報に基づいてカメラの回転角度を算出する。より具体的には、たとえば 、交差する道路の角度を把握して、自車位置との相対位置を算出し、カメラの方向を 決める構成でもよい。また、過去の事故の原因から、二輪車や人との接触が原因であ れば曲がる方向の側面、車との衝突であれば交差点の曲がる方向を撮影するべき位 置として決定する構成でもよ ヽ。
[0053] 道路形状データは、さらに交通条件データを有する。交通条件データには、たとえ ば、各ノードについて、信号や横断歩道などの有無、高速道路の出入り口やジャンク シヨンの有無、各リンクについての長さ(距離)、道幅、進行方向、道路種別(高速道 路、有料道路、一般道路など)などの情報が含まれている。
[0054] また、交通条件データには、過去の渋滞情報を、季節 ·曜日'大型連休 '時刻など を基準に統計処理した過去渋滞情報を記憶して 、る。ナビゲーシヨン装置 500は、 後述する通信 IZF514によって受信される道路交通情報によって現在発生している 渋滞の情報を得るが、過去渋滞情報により、指定した時刻における渋滞状況の予想 をおこなうことが可能となる。
[0055] なお、本実施例 1では地図情報を磁気ディスク 505、光ディスク 507に記録するよう にしたが、これに限るものではない。地図情報は、ナビゲーシヨン装置 500のハードウ エアと一体に設けられているものに限って記録されているものではなぐナビゲーショ ン装置 500外部に設けられていてもよい。その場合、ナビゲーシヨン装置 500は、た とえば、通信 IZF514を通じて、ネットワークを介して地図情報を取得する。取得され た地図情報は RAM503などに記憶される。
[0056] また、音声 IZF508は、音声入力用のマイク 509および音声出力用のスピーカ 51 0に接続される。マイク 509に受音された音声は、音声 IZF508内で AZD変換され る。また、スピーカ 510からは音声が出力される。なお、マイク 509から入力された音 声は、音声データとして磁気ディスク 505あるいは光ディスク 507に記録可能である。 また、マイク 509は、車両に複数設置されていてもよい。
[0057] また、入力デバイス 511は、文字、数値、各種指示などの入力のための複数のキー を備えたリモコン、キーボード、マウス、タツチパネルなどが挙げられる。
[0058] また、映像 IZF512は、ディスプレイ 513およびカメラ 517と接続される。映像 iZF 512は、具体的には、たとえば、ディスプレイ 513全体の制御をおこなうグラフィックコ ントローラと、即時表示可能な画像情報を一時的に記録する VRAM (Video RAM )などのバッファメモリと、グラフィックコントローラから出力される画像データに基づい て、ディスプレイ 513を表示制御する制御 ICなどによって構成される。
[0059] ディスプレイ 513には、アイコン、カーソル、メニュー、ウィンドウ、あるいは文字や画 像などの各種データが表示される。このディスプレイ 513は、たとえば、 CRT、 TFT 液晶ディスプレイ、プラズマディスプレイなどを採用することができる。また、ディスプレ ィ 513は、車両に複数備えられていてもよぐたとえば、運転者に対するものと後部座 席に着座する搭乗者に対するものなどである。
[0060] カメラ 517は、車両内部あるいは外部の映像を撮影する。カメラ 517は、たとえば、 可動式でもよぐ車両の前部や後部や天井部などに取り付けられていてもよい。のど ちらに取り付けられていてもよい。カメラ 517は、たとえば、 CPU501によって算出さ れる回転角度に応じて回転駆動して撮影をおこなう構成でもよい。また、カメラ 517に よって後部の映像を撮影する場合、車両の後方の安全確認ができる他、他の車両か ら追突された際に追突時の状況を記録することができる。この他、カメラ 517は、暗所 の記録をおこなう赤外線カメラであってもよい。また、カメラ 517は、車両に複数設置 されて 、てもよ 、し、複数方向に対する複数の固定式のカメラであってもよ 、。
[0061] また、カメラ 517によって撮影される映像は静止画あるいは動画のどちらでもよぐ たとえば、カメラ 517によって車両内部の搭乗者の挙動を撮影し、撮影した映像を映 像 IZF512を介して磁気ディスク 505や光ディスク 507などの記録媒体に出力する。 また、カメラ 517によって車両外部の状況を撮影し、撮影した映像を映像 IZF512を 介して磁気ディスク 505や光ディスク 507などの記録媒体に出力する。また、記録媒 体に出力された映像は、ドライブレコーダ用画像として上書き記録や保存がおこなわ れる。 [0062] また、通信 IZF514は、無線を介してネットワークに接続され、ナビゲーシヨン装置 500と CPU501とのインターフェースとして機能する。通信 IZF514は、さらに、無線 を介してインターネットなどの通信網に接続され、この通信網と CPU501とのインター フェースとしても機能する。
[0063] 通信網には、 LAN, WAN,公衆回線網や携帯電話網などがある。具体的には、 通信 IZF514は、たとえば、 FMチューナー、 VICS (Vehicle Information and Communication System) Zビーコンレシーノ 、無線ナビゲーシヨン装置、および その他のナビゲーシヨン装置によって構成され、 VICSセンター力も配信される渋滞 や交通規制などの道路交通情報を取得する。なお、 VICSは登録商標である。
[0064] また、 GPSユニット 515は、 GPS衛星からの受信波や後述する各種センサ 516 (た とえば、角速度センサや加速度センサ、タイヤの回転数など)からの出力値を用いて 、車両の現在地点けピゲーシヨン装置 500の現在地点)を示す情報を算出する。現 在地点を示す情報は、たとえば緯度'経度、高度などの、地図情報上の 1点を特定す る情報である。また、 GPSユニット 515は、各種センサ 516からの出力値を用いて、ォ ドメ一ター、速度変化量、方位変化量を出力する。これにより、急ブレーキ、急ハンド ルなどの動態を解析することができる。
[0065] ここで、 GPSユニット 515を用いた現在地点の特定方法について説明する。まず、 GPSにおいては、地球の周りの 6つの軌道面に 4個ずつ、合計 24個の GPS衛星が 配置されている。これらの衛星は、毎日同じ時刻に同じ衛星が位置するように軌道が 調整され、地球上のどの地点からも(ただし、見通しのよい場所である必要がある)常 に 5な!、し 6個の衛星が見える。
[0066] GPS衛星には、セシウム (Cs)の原子時計 (発振器)が搭載されており、各衛星の時 刻と同期を受けつつ正確な時刻を刻んでいる。さらに、各衛星には予備としてセシゥ ム発振器力 ^台、ルビジウム (Rb)発振器が 2台搭載されている。これは、 GPSによる 位置計測には正確な時刻が不可欠なためである。
[0067] GPS衛星力らは 1575. 42MHz (Ll)および 1227. 60MHz (L2)の 2つの周波数 の電波(以下、 GPS信号という)が送信されている。この電波は疑似ランダム符号 (Ps eudo Random Noise Code)と呼ばれる乱数符号で変調されており、 GPSュ- ット 515などで受信した場合には、乱数表に相当するコードを参照し信号内容を解読 する。
[0068] GPSユニット 515は、解読したコードと自装置内の時計によって、 GPS衛星力 GP S信号が発射された時刻と、自装置が GPS信号を受信した時刻との信号の時間差を 計測する。そして、時間差に電波の伝播速度を掛け合わせ、 GPS衛星から自装置ま での距離を算出する (距離 =速度 X時間)。なお、この時刻は協定世界時 (UTC)に 同期されている。
[0069] GPS衛星からは、軌道の正確な情報が送られてくるため、 GPS衛星の現在地点は 正確に知ることができる。したがって、 GPS衛星力 の距離が分かれば、自装置の現 在地点は GPS衛星を中心として、求めた距離を半径とする球面上のいずれかの地 点となる。なお、 GPS信号の符号列は約 lmsの間隔で繰り返し送られる。 GPS信号 の伝播速度は、 400, OOOkmZ秒であるため、最大測定距離は、 400, OOO X O. 0 01 =400kmとなる。したがって、 100km程度の精度においては、あらかじめ自装置 の現在地点を知っておく必要がある。
[0070] このように、各 GPS衛星のうち 3つの衛星からの距離を算出すれば、自装置の現在 地点は 3つの球面が交わる 2点のうちのいずれか一方となる。また、 2点のうち一方は 、予測できる地点力もかけ離れているため、原理的には 1点が決定されることとなる。 しかしながら、実際には算出される現在地点の候補点(3つの面の交点)は 2点になら ない。これは、主に GPSユニット 515に搭載された時計の精度力 GPS衛星に搭載 された原子時計に比べて低いため、計算結果に誤差が生じてしまうためである。
[0071] このため、 GPSユニット 515では、合計 4つの GPS衛星から GPS信号を受信する。
これは、 GPSユニット 515側の時計の誤差分を別の未知数として、新たな情報 (方程 式)を導入することで解を得ると考えることができる。このように、 GPSユニット 515は、 4つの GPS衛星からの GPS信号を受信することによって、 1点に収束するほぼ正確 な現在地点を求めることができる。
[0072] 各種センサ 516は、車速センサや加速度センサ、 Gセンサ、角速度センサなどであ り、その出力値は、 GPSユニット 515による現在地点の算出や、速度や方位の変化 量の測定などに用いられる。また、各種センサ 516は、ドライバーによる車両の各操 作を検知するセンサなども含む。車両の各操作の検知は、たとえば、ハンドル操作や ウィンカーの入力やアクセルペダルの踏み込みやブレーキペダルの踏み込みなどを 検知する構成としてもよい。また、各種センサ 516の出力値は、ドライブレコーダ機能 で記録するデータとしてもよ 、。
[0073] また、各種センサ 516は、車両に相対的に接近してくる物体を検出するものであつ てもよい。物体の検出は、たとえば、超音波や電波や赤外線や車車間通信などによ つて検出する構成であればよぐ手法はこれらに限ることはない。また、物体の検出は 、物体の位置や大きさや相対速度などを含む物体情報をあわせて検出する構成でも よい。また、物体の検出に必要な性能は、たとえば、車両に相対的に接近する物体を 検出して力 衝突 (最接近)までにカメラの回転駆動が完了するものであればよい。ま た、衝突の可能性のない物体は検出する必要はなぐ所定の距離を物体の認識距 離として設定してちょい。
[0074] また、各種センサ 516においては、あら力じめ、事故遭遇時におけるドライブレコー ダ用画像を保存する際のトリガーを設定しておき、トリガーが検知された場合にドライ ブレコーダ用画像を保存する構成としてもよい。各種センサ 516におけるトリガーは、 たとえば、振動センサで規定以上の振動や所定の振動パターンを検知した場合に設 定してもよい。所定の振動パターンは、急激な立ち上がりなど、異常を示す振動バタ ーンであればよい。また、トリガーは、たとえば、 Gセンサで規定以上の Gや所定の G の力かり方のパターンを検知した場合に設定してもよい。所定の Gの力かり方は、急 激な立ち上がりなど、異常を示すパターンであればよい。あるいは、車体の接触セン サによる、他との接触の有無やエアバッグなどの作動や車両の停止をトリガーとする 構成でもよい。さらに、前述のトリガーは一つ以上であればよぐ複数を組み合わせて トリガーとしてもよい。
[0075] なお、実施の形態 1にかかる情報記録装置 100の機能的構成のうち、取得部 101 は CPU501や GPSユニット 515や各種センサ 516によって、検出部 102は CPU50 1や磁気ディスク 505や光ディスク 507や通信 IZF514によって、算出部 103は CP U501によって、駆動部 104は CPU501や映像 IZF512によって、それぞれその機 能を実現する。 [0076] また、実施の形態 2にかかる情報記録装置 300の機能的構成のうち、取得部 301 は CPU501や GPSユニット 515や各種センサ 516によって、検出部 302は通信 iZ F514や各種センサ 516によって、算出部 303は CPU501〖こよって、駆動部 304は CPU501や映像 IZF512によって、それぞれその機能を実現する。
[0077] (ナビゲーシヨン装置 500の処理の内容)
つぎに、図 6を用いて、本実施例 1にかかるナビゲーシヨン装置 500の処理の内容 について説明する。図 6は、本実施例 1にかかるナビゲーシヨン装置における処理の 内容を示すフローチャートである。図 6のフローチャートにおいて、まず、ナビゲーショ ン装置 500は、車両が走行中となったか否かを判断する(ステップ S601)。車両の走 行に関する判断は、たとえば、各種センサ 516の出力を参照しておこなってもよい。
[0078] ステップ S601において、車両が走行中となるのを待って、走行中となった場合 (ス テツプ S601 :Yes)は、カメラ 517は、ドライブレコーダ用画像の撮影を開始する (ステ ップ S602)。ドライブレコーダ用画像は、たとえば、車両周辺の画像などで一定時間 における動画でもよい。また、ドライブレコーダ用画像は、磁気ディスク 505や光ディ スク 507などの記録媒体に上書き記録する構成でもよい。上書き記録は、たとえば、 一定時間における動画を、記録媒体の記録容量を超えないように、順次上書きして 記録することであり、上書き記録用の記録媒体や上書き記録用の記録領域を有する 記録媒体に記録する。
[0079] つづいて、 CPU501は、車両情報を取得する(ステップ S603)。車両情報は、たと えば、車両の移動方向および現在地点に関する情報を含むもので、あわせて目的地 点や立ち寄り地点があれば、目的地点や立ち寄り地点に関する情報を取得してもよ い。
[0080] そして、 CPU501は、ステップ S603において取得された車両情報に基づいて、事 故誘引地点がある力否かを判断する (ステップ S604)。事故誘引地点は、たとえば、 交差点、三叉路、合流地点、曲率の高いカーブなどの道路形状に起因する地点や、 曲がる方向に建物などの建造物があり見通しの悪い建造物に起因する地点などであ る。また、過去に起きた事故の原因を含む、事故地点に関する情報などでもよい。さ らに、事故誘引地点は、事故を誘引する事故誘引物などの位置情報を含むものでも よい。また、事故誘引地点に関する判断は、ステップ S603において目的地点や立ち 寄り地点を取得していれば、経路上の事故誘引地点をすベて抽出してもよぐ車両の 現在位置力も所定の範囲にお!、て判断する構成としてもょ 、。
[0081] ステップ S604において、事故誘引地点がない場合 (ステップ S604 : No)は、 CPU 501は、車両の走行が終了したか否かを判断する(ステップ S608)。車両の走行に 関する判断は、たとえば、各種センサ 516の出力を参照しておこなってもよい。より具 体的には、各種センサ 516の出力が停止した時点で車両の走行が終了したと判断し てもよい。
[0082] ステップ S604において、事故誘引地点がある場合 (ステップ S604 : Yes)は、つづ いて、 CPU501は、事故誘引物の位置情報を取得する(ステップ S605)とともに事 故誘引物とカメラ 517の相対位置を算出する (ステップ S606)。事故誘引物の位置 情報は、たとえば、事故誘引地点における事故の原因となりうる位置の情報で、構造 物の位置や過去に起きた事故の原因を含む、事故位置に関する情報などでもよい。 また、相対位置の算出は、たとえば、ステップ S603において取得された車両情報と、 ステップ S605において取得された事故誘引物の位置情報と、に基づいておこなう。 より具体的には、たとえば、交差する道路の角度を把握して、自車位置との相対位置 を算出し、カメラ 517の方向を決める構成でもよい。また、過去の事故の原因から、二 輪車や人との接触が原因であれば曲がる方向の側面、車との衝突であれば交差点 の曲がる方向を撮影するべき位置として決定する構成でもよい。また、車両が事故誘 発地点に進入する進入方向を加味して算出してもよい。
[0083] そして、 CPU501は、映像 IZF512を制御して、ステップ S606において算出され た事故誘引物とカメラ 517の相対位置に基づ 、て、カメラ 517を駆動させる (ステップ S607)。カメラ 517の駆動は、たとえば、上下左右方向に事故誘引物の撮影ができ るように、連続的に回転駆動させるようにしてもょ 、。
[0084] そして、 CPU501は、車両の走行が終了したか否かを判断する(ステップ S608)。
ここで、車両の走行が終了した場合 (ステップ S608 : Yes)は、そのまま一連の処理を 終了する。また、車両の走行が終了しない場合 (ステップ S608 : No)は、ステップ S6 02に戻って処理を繰り返す。 [0085] 以上説明したように、本実施例 1によれば、事故誘引地点における事故誘引物と力 メラの相対位置に基づ 、て、カメラを駆動させてドライブレコーダ用画像を撮影するこ とができる。したがって、前方および後方にかかわらず、事故の要因となりやすい箇 所を撮影して、事故時には映像を保存して事故の検証資料として利用することができ る。
[0086] また、事故の要因とならないような映像は撮影せずに、効率的に記録媒体の容量を 使用して、映像の保存が必要な場合に、容量が不足して保存できなくなることを防止 できる。
実施例 2
[0087] つぎに、本発明の実施例 2について説明する。本実施例 2は、前述の実施例 1で説 明したナビゲーシヨン装置 500で、車両に接近する物体を検出してカメラを駆動させ る場合について説明する。なお、本実施例 2にかかるナビゲーシヨン装置 500のハー ドウエア構成については、図 5とほぼ同様であるため説明を省略する。
[0088] (ナビゲーシヨン装置 500の処理の内容)
ここで、図 7を用いて、本実施例 2にかかるナビゲーシヨン装置 500の処理の内容に ついて説明する。図 7は、本実施例 2にかかるナビゲーシヨン装置における処理の内 容を示すフローチャートである。図 7のフローチャートにおいて、まず、ナビゲーシヨン 装置 500は、車両が走行中となったか否かを判断する(ステップ S 701)。車両の走行 に関する判断は、たとえば、各種センサ 516の出力を参照しておこなってもよい。
[0089] ステップ S701において、車両が走行中となるのを待って、走行中となった場合 (ス テツプ S701 :Yes)は、カメラ 517は、ドライブレコーダ用画像の撮影を開始する (ステ ップ S 702)。ドライブレコーダ用画像は、たとえば、車両周辺の画像などで一定時間 における動画でもよい。また、ドライブレコーダ用画像は、磁気ディスク 505や光ディ スク 507などの記録媒体に上書き記録する構成でもよい。上書き記録は、たとえば、 一定時間における動画を、記録媒体の記録容量を超えないように、順次上書きして 記録することであり、上書き記録用の記録媒体や上書き記録用の記録領域を有する 記録媒体に記録する。
[0090] つづいて、 CPU501は、車両情報を取得する(ステップ S703)。車両情報は、たと えば、車両の移動方向および現在地点に関する情報を含むものでもよ!/、。
[0091] そして、 CPU501は、車両に接近する物体はあるか否かを判断する(ステップ S70 4)。車両に接近する物体は、車両に相対的に接近してくる他の車両や人間など移動 する物体や道路上の固定物などでもよい。物体の検出は、各種センサ 516などによ つておこなう。より具体的には、超音波や電波や赤外線や車車間通信などによって検 出してもよぐ手法はこれらに限ることはない。また、物体の検出は、物体の位置ゃ大 きさや相対速度などを含む物体情報をあわせて検出する構成でもよい。また、物体 の検出に必要な性能は、たとえば、車両に相対的に接近する物体を検出してから衝 突 (最接近)までにカメラ 517の回転駆動が完了するものであればよい。また、衝突の 可能性のない物体は検出する必要はなぐ所定の距離を物体の認識距離として設定 してちよい。
[0092] ステップ S704において、接近する物体がない場合 (ステップ S704 : No)は、 CPU 501は、車両の走行が終了したか否かを判断する(ステップ S 708)。車両の走行に 関する判断は、たとえば、各種センサ 516の出力を参照しておこなってもよい。より具 体的には、各種センサ 516の出力が停止した時点で車両の走行が終了したと判断し てもよい。
[0093] ステップ S704において、接近する物体がある場合 (ステップ S704 : Yes)は、つづ いて、 CPU501は、接近する物体の物体情報を取得する(ステップ S705)とともに力 メラ駆動量を算出する (ステップ S706)。物体情報は、たとえば、ステップ S704にお V、て検出された物体の位置や大きさや相対速度などを含む物体情報などでもよ!/、。 カメラ駆動量の算出は、たとえば、ステップ S 703において取得された車両情報と、ス テツプ S705において取得された物体情報と、に基づいておこなう。より具体的には、 たとえば、物体の相対的な方位とカメラ 517の設置位置とから、カメラ 517から物体へ の相対位置を算出する。算出した相対位置に基づいて、相対的に接近してくる物体 を撮影するように駆動量を算出する。駆動量は、カメラ 517の移動方向や移動量を含 むもので、接近してくる物体にあわせて連続的に駆動するようにしてもよい。なお、ス テツプ S704における接近する物体の判断は、相対的な速度が所定以上であったり、 車両との距離が所定以下であったり所定以上の大きさの物体であった場合などに、 接近する物体があると判断する構成でもよ ヽ。
[0094] そして、 CPU501は、映像 IZF512を制御して、ステップ S706において算出され たカメラ駆動量に基づいて、カメラ 517を駆動させる(ステップ S707)。カメラ 517の 駆動は、たとえば、上下左右方向に物体の撮影ができるように、連続的に回転駆動さ せるようにしてちょい。
[0095] そして、 CPU501は、車両の走行が終了したか否かを判断する(ステップ S708)。
ここで、車両の走行が終了した場合 (ステップ S708 : Yes)は、そのまま一連の処理を 終了する。また、車両の走行が終了しない場合 (ステップ S708 : No)は、ステップ S7 02に戻って処理を繰り返す。
[0096] 以上説明したように、本実施例 2によれば、車両に接近してくる物体に対してカメラ を駆動させて、ドライブレコーダ用画像を撮影することができる。したがって、衝突の 危険性のある物体を適宜撮影することで、事故時には衝突映像を保存して事故の検 証資料として利用することができる。
[0097] また、本実施例 2によれば、接近してくる物体の相対的な速度や位置関係や大きさ に基づいて、接近の判断をおこなうため、事故の危険性がない物体については撮影 をおこなわず、無駄な映像を保存することがない。したがって、効率的に記録媒体の 容量を使用して、映像の保存が必要な場合に、容量が不足して保存できなくなること を防止できる。
[0098] 以上説明したように、本発明によれば、特定地点を検出して、特定地点と移動体の 相対的な位置関係に基づいて、撮像装置を回転駆動させる角度を算出する。そして 、回転駆動させられた撮像装置によって撮像をおこなうため、事故の要因となりうる映 像を的確に保存することができ、事故時の検証資料として正確な利用を図ることがで きる。
[0099] また、本発明によれば、移動体に相対的に接近する物体を検出して、移動体との 相対的な関係に基づいて、撮像装置を回転駆動させる角度を算出する。そして、回 転駆動させられた撮像装置によって撮像をおこなうため、事故の要因となりうる物体 を含んだ映像を的確に保存することができ、事故時の検証資料として正確な利用を 図ることができる。 [0100] さらに、本発明によれば、事故誘引地点における事故誘引物とカメラの相対位置に 基づいて、カメラを駆動させてドライブレコーダ用画像を撮影することができる。したが つて、前方および後方に力かわらず、事故の要因となりやすい箇所を撮影して、事故 時には映像を保存して事故の検証資料として利用することができる。また、事故の要 因とならないような映像は撮影せずに、効率的に記録媒体の容量を使用して、映像 の保存が必要な場合に、容量が不足して保存できなくなることを防止できる。
[0101] また、本発明では、実施例 1と実施例 2の機能を少なくとも一方有していればよぐ 双方を兼ね備えた構成であってもよい。事故誘引地点と接近してくる物体の双方をあ わせて判断して、カメラの駆動を制御することで、的確な映像の撮影を図ることができ る。
[0102] なお、本発明による実施例 1,実施例 2では説明を省略した力 ステップ S602,ス テツプ S702にお 、て撮影されたドライブレコーダ用画像は、事故遭遇時におけるド ライブレコーダ用画像を保存する際のトリガーが検知された場合に、検知前後のドラ イブレコーダ用画像を保存する構成としてもよい。より具体的には、たとえば、ドライブ レコーダ用画像は、ステップ S607,ステップ S707におけるカメラ 517の駆動に応じ たカメラ 517の駆動位置(事故誘引地点がなければ、ステップ S602,ステップ S702 における撮影開始時のカメラ 517の位置)で撮影され、上書き記録用の記録媒体や 上書き記録用の記録領域を有する記録媒体に上書き記録される。そして、上書き記 録された画像について、所定のトリガーが検知された検知時点における前後一定時 間の画像を、保存用の記録媒体や保存用の記録領域を有する記録媒体に保存する こととしてちよい。
[0103] 前述におけるトリガーは、たとえば、各種センサ 516の出力によるドライブレコーダ 用画像を保存するきつかけなどで、振動センサによる規定以上の振動や所定の振動 パターンなどの異常を示す振動パターンや、 Gセンサによる規定以上の Gや所定の Gのカゝかり方のパターンなどの異常を示すパターンでもよい。また、撮影された画像 を解析して、衝突の可能性がある画像と判断された場合をトリガーとして、ドライブレコ ーダ用画像を保存する構成でもよい。さらに、ステップ S607,ステップ S707におけ るカメラ 517の駆動自体をトリガーとしてもよい。より具体的には、たとえば、ステップ S 604における事故誘引地点の危険度が高い場合や、ステップ S704における接近す る物体が衝突する可能性が高い場合に、カメラ 517を駆動させて撮影したドライブレ コーダ用画像を保存する構成でもよい。事故誘引地点の危険度は、たとえば、道路 形状などの所定のパターンや過去の事故履歴などにより判断してもよぐ物体が衝突 する可能性は、たとえば、物体の位置や相対速度について、所定のしきい値と比較 する構成でもよい。くわえて、ドライブレコーダ用画像とあわせて、カメラ 517の駆動位 置や各種センサ 516の出力などを保存する構成としてもよい。このようなトリガーによ つてドライブレコーダ用画像を保存することで、事故時の映像の保存が適切に図るこ とがでさる。
[0104] さらに、本発明によれば、カメラの駆動量を算出して回転駆動させる構成としたが、 複数のカメラを設置して、事故誘引地点や接近してくる物体に基づいて、映像を撮影 するカメラを切り替える構成としてもよい。そうすることで、駆動制御をおこなわなくても 、的確な映像の撮影ができる。また、可動式のカメラを使用する代わりに、全周撮影 可能なカメラを使用することで、駆動制御をおこなわずに的確な映像の撮影を図るこ とができる。また、全周撮影可能なカメラを使用した場合には、撮影方向により事故の 要因とならない映像が保存される可能性が高くなることが予測される。その場合には 、全周撮影可能なカメラで撮影された映像データを撮影方向ごと (たとえば、左方向 、右方向、前方向、後方向毎)に解析して、事故の要因となり得ない (たとえば、近接 する物体や、間近に迫る物体等が存在しない)方向の映像データを削除するようにし てもよい。
[0105] くわえて、カメラで撮影する地点や物体の情報に含まれる相対的な距離を利用して 、カメラの駆動量のみならずピントを設定できる構成としてもよい。撮影対象にピントを あわせて映像を撮影するため、より鮮明な画像の保存ができ、事故検証の資料に役 立てることができる。
[0106] なお、本実施の形態で説明した情報記録方法は、あらかじめ用意されたプログラム をパーソナル 'コンピュータやワークステーションなどのコンピュータで実行することに より実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、 CD-ROM, MO、 DVDなどのコンピュータで読み取り可能な記録媒体に記録され 、コンピュータによって記録媒体力も読み出されることによって実行される。またこの プログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒 体であってもよい。

Claims

請求の範囲
[1] 移動体に搭載された撮像装置によって撮像された前記移動体外の映像データを 記録する情報記録装置にぉ 、て、
前記移動体の移動方向および現在地点に関する情報を取得する取得手段と、 前記取得手段によって取得された情報に基づ!/、て、前記移動体が到達する特定 地点を検出する検出手段と、
前記移動体の移動方向および現在地点と、前記検出手段によって検出された特定 地点と、に基づいて、前記撮像装置を回転させる角度を算出する算出手段と、 前記算出手段によって算出された角度分、前記撮像装置を回転駆動する駆動手 段と、
を備えることを特徴とする情報記録装置。
[2] 前記検出手段は、
さらに、前記特定地点への進入ルートを検出し、
前記算出手段は、
前記移動体の移動方向および現在地点と、前記検出手段によって検出された特定 地点および進入ルートと、に基づいて、前記撮像装置を回転させる角度を算出する ことを特徴とする請求項 1に記載の情報記録装置。
[3] 移動体に搭載された撮像装置によって撮像された前記移動体外の映像データを 記録する情報記録装置にぉ 、て、
前記移動体の移動方向および現在地点に関する情報を取得する取得手段と、 前記移動体に対して相対的に接近する物体を検出する検出手段と、
前記移動体の移動方向および現在地点と、前記検出手段によって検出された物体 と、に基づいて、前記撮像装置を回転させる角度を算出する算出手段と、
前記算出手段によって算出された角度分、前記撮像装置を回転駆動する駆動手 段と、
を備えることを特徴とする情報記録装置。
[4] 移動体に搭載された撮像装置によって撮像された前記移動体外の映像データを 記録する情報記録方法にぉ 、て、 前記移動体の移動方向および現在地点に関する情報を取得する取得工程と、 前記取得工程によって取得された情報に基づ 、て、前記移動体が到達する特定 地点を検出する検出工程と、
前記移動体の移動方向および現在地点と、前記検出工程によって検出された特定 地点と、に基づいて、前記撮像装置を回転させる角度を算出する算出工程と、 前記算出工程によって算出された角度分、前記撮像装置を回転駆動する駆動ェ 程と、
を含んだことを特徴とする情報記録方法。
[5] 移動体に搭載された撮像装置によって撮像された前記移動体外の映像データを 記録する情報記録方法にぉ 、て、
前記移動体の移動方向および現在地点に関する情報を取得する取得工程と、 前記移動体に対して相対的に接近する物体を検出する検出工程と、
前記移動体の移動方向および現在地点と、前記検出工程によって検出された物体 と、に基づいて、前記撮像装置を回転させる角度を算出する算出工程と、
前記算出工程によって算出された角度分、前記撮像装置を回転駆動する駆動ェ 程と、
を含んだことを特徴とする情報記録方法。
[6] 請求項 4または 5に記載の情報記録方法をコンピュータに実行させることを特徴とす る情報記録プログラム。
[7] 請求項 6に記載の情報記録プログラムを記録したことを特徴とするコンピュータに読 み取り可能な記録媒体。
PCT/JP2006/322278 2005-11-10 2006-11-08 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体 WO2007055242A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-326144 2005-11-10
JP2005326144 2005-11-10

Publications (1)

Publication Number Publication Date
WO2007055242A1 true WO2007055242A1 (ja) 2007-05-18

Family

ID=38023244

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/322278 WO2007055242A1 (ja) 2005-11-10 2006-11-08 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体

Country Status (1)

Country Link
WO (1) WO2007055242A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60174999U (ja) * 1984-04-24 1985-11-20 本田技研工業株式会社 車載視界モニタ
JPH05278522A (ja) * 1992-03-31 1993-10-26 Honda Motor Co Ltd 車両用周囲監視装置
JPH06321011A (ja) * 1993-05-17 1994-11-22 Mitsubishi Electric Corp 周辺視野表示装置
JPH06344832A (ja) * 1993-06-14 1994-12-20 Nippondenso Co Ltd 道路状況記録システム
JPH08235491A (ja) * 1995-02-27 1996-09-13 Toyota Motor Corp 車両の走行状態記録装置及び車両の走行状態解析装置
JPH0918863A (ja) * 1995-06-26 1997-01-17 Yazaki Corp 車両用後側方監視装置
JP2000255319A (ja) * 1999-03-10 2000-09-19 Fuji Heavy Ind Ltd 車両の進行方向認識装置
JP2001195699A (ja) * 2000-01-14 2001-07-19 Yazaki Corp 車両用周辺監視装置及び、車両用衝突危険判断処理プログラムを記録した記録媒体
JP2002133117A (ja) * 2000-10-19 2002-05-10 Hirofumi Kawahara 自動車保険システム、自動車保険センターおよび自動車
JP2003063459A (ja) * 2001-08-29 2003-03-05 Matsushita Electric Ind Co Ltd 車両用ドライブレコーダ装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60174999U (ja) * 1984-04-24 1985-11-20 本田技研工業株式会社 車載視界モニタ
JPH05278522A (ja) * 1992-03-31 1993-10-26 Honda Motor Co Ltd 車両用周囲監視装置
JPH06321011A (ja) * 1993-05-17 1994-11-22 Mitsubishi Electric Corp 周辺視野表示装置
JPH06344832A (ja) * 1993-06-14 1994-12-20 Nippondenso Co Ltd 道路状況記録システム
JPH08235491A (ja) * 1995-02-27 1996-09-13 Toyota Motor Corp 車両の走行状態記録装置及び車両の走行状態解析装置
JPH0918863A (ja) * 1995-06-26 1997-01-17 Yazaki Corp 車両用後側方監視装置
JP2000255319A (ja) * 1999-03-10 2000-09-19 Fuji Heavy Ind Ltd 車両の進行方向認識装置
JP2001195699A (ja) * 2000-01-14 2001-07-19 Yazaki Corp 車両用周辺監視装置及び、車両用衝突危険判断処理プログラムを記録した記録媒体
JP2002133117A (ja) * 2000-10-19 2002-05-10 Hirofumi Kawahara 自動車保険システム、自動車保険センターおよび自動車
JP2003063459A (ja) * 2001-08-29 2003-03-05 Matsushita Electric Ind Co Ltd 車両用ドライブレコーダ装置

Similar Documents

Publication Publication Date Title
JP4799565B2 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
US10262234B2 (en) Automatically collecting training data for object recognition with 3D lidar and localization
US11118934B2 (en) Method and system of route guidance for a towing vehicle
WO2007049596A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP2015076078A (ja) 渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラム
WO2007066696A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP2008250463A (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
WO2007052536A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体
WO2007063849A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP4866061B2 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP2009090927A (ja) 情報管理サーバ、駐車支援装置、駐車支援装置を備えたナビゲーション装置、情報管理方法、駐車支援方法、情報管理プログラム、駐車支援プログラム、および記録媒体
WO2008010392A1 (fr) dispositif de traitement d'informations, procédé de traitement d'informations, programme de traitement d'informations et support d'enregistrement lisible par un ordinateur
JP4845481B2 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP4783437B2 (ja) 情報処理装置、情報処理方法、情報処理プログラムおよびコンピュータに読み取り可能な記録媒体
JP4917609B2 (ja) データ記録装置、データ記録方法、データ記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP4825810B2 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体
JP4825555B2 (ja) 表示制御装置、表示制御方法、表示制御プログラムおよびコンピュータに読み取り可能な記録媒体
JP4521036B2 (ja) 経路探索装置、経路探索方法、経路探索プログラムおよびコンピュータに読み取り可能な記録媒体
JP2022023863A (ja) 渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラム
WO2007049520A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
WO2007055241A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体
WO2007055242A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP4987872B2 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよびコンピュータに読み取り可能な記録媒体
JP4348397B2 (ja) 情報表示装置、情報表示方法、情報表示プログラムおよび記録媒体
WO2008038604A1 (fr) Dispositif, procédé, programme d'enregistrement de données vidéo et support d'enregistrement

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06823182

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP