WO2014103272A1 - カメラシステム、カメラモジュールおよびカメラ制御方法 - Google Patents

カメラシステム、カメラモジュールおよびカメラ制御方法 Download PDF

Info

Publication number
WO2014103272A1
WO2014103272A1 PCT/JP2013/007510 JP2013007510W WO2014103272A1 WO 2014103272 A1 WO2014103272 A1 WO 2014103272A1 JP 2013007510 W JP2013007510 W JP 2013007510W WO 2014103272 A1 WO2014103272 A1 WO 2014103272A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
vehicle
image
unit
modules
Prior art date
Application number
PCT/JP2013/007510
Other languages
English (en)
French (fr)
Inventor
圭俊 中田
瑞己 鈴村
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to EP13867217.5A priority Critical patent/EP2939877B1/en
Priority to US14/655,028 priority patent/US10242254B2/en
Publication of WO2014103272A1 publication Critical patent/WO2014103272A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Definitions

  • the present invention relates to a camera system, a camera module, and a camera control method, and more specifically, a plurality of camera images captured by a plurality of camera modules are combined into a vehicle peripheral image, and this is used as a display provided on the vehicle. It relates to what is output to the display means.
  • a vehicle peripheral image is generated by combining camera images captured by a plurality of camera modules attached to the front, rear, left, and right of an automobile, and this is displayed on a display means such as a display installed in a vehicle interior to display the entire circumference of the vehicle.
  • a camera system in which the direction can be visually recognized on one screen.
  • a camera system there is also known one that displays a vehicle peripheral image as a bird's-eye view image by subjecting each camera image to viewpoint conversion processing (for example, Patent Document 1).
  • a control device of a vehicle-side display for example, a navigation system
  • the control device combines the camera images, performs an overhead view process, Object recognition processing and marker addition processing to the recognition object are performed. Therefore, in order to construct such a camera system, a high-level processing capability is required for the display control device on the vehicle side, and the system becomes expensive or a system with low versatility.
  • each camera module is provided with a function for performing a bird's eye view of the captured camera image, a function for detecting a recognized object from the camera image by object recognition processing, and a function for attaching a marker to the recognized object of the camera image.
  • a function for performing a bird's eye view of the captured camera image a function for detecting a recognized object from the camera image by object recognition processing, and a function for attaching a marker to the recognized object of the camera image.
  • An object of the present invention made in view of such circumstances is to provide an inexpensive camera system that facilitates display associated with object recognition even when an image is displayed on a display that does not have a high processing capability. There is.
  • a camera system of the present invention includes a plurality of camera modules that capture images of the periphery of a vehicle, outputs each camera image captured by the plurality of camera modules, and displays the images in the vehicle.
  • the camera system displays a vehicle peripheral image obtained by synthesizing each image
  • the plurality of camera modules each include an object recognition unit that performs object recognition processing from a camera image captured by the camera module, and a vehicle provided in the vehicle
  • a communication unit that performs communication via a network, wherein each of the communication units outputs coordinate information of a recognized object recognized by the object recognition unit to the vehicle network.
  • At least one of the plurality of camera modules acquires coordinate information of the recognition object from another camera module via the vehicle network, and uses the acquired coordinate information to It is preferable to attach a marker for the recognized object in the vehicle periphery image.
  • At least one of the plurality of camera modules uses one of the camera images when the recognition object is located in both of a pair of adjacent camera images. It is preferable to generate a continuous marker that straddles both the camera image and the other camera image.
  • At least one of the plurality of camera modules changes at least one of the position, size, and shape of the marker.
  • each of the plurality of camera modules has a control unit, and any one of the control units serves as a main control unit, and the vehicle surrounding image using the coordinate information is displayed. It is preferable to perform a marker addition process.
  • the main control unit controls the other control units provided in each of the plurality of camera modules via the vehicle network.
  • identification information is assigned to each of the plurality of camera modules by the processing unit of the vehicle connected via the vehicle network, and the main control unit determines according to the identification information. Preferably it is done.
  • the identification information is assigned in accordance with a negotiation protocol in the vehicle network standard.
  • the camera image is a bird's-eye view image obtained by performing viewpoint conversion on the image captured by the imaging unit.
  • the camera module of the present invention is a camera used in a camera system that synthesizes camera images captured by a plurality of camera modules and displays them as a vehicle peripheral image on display means in the vehicle.
  • An imaging unit that images the periphery of the vehicle, an object recognition unit that performs object recognition processing from an image captured by the imaging unit, and a communication unit that performs communication via a vehicle network provided in the vehicle.
  • the communication unit outputs coordinate information of a recognized object recognized by the object recognition unit to the vehicle network.
  • the camera control method of the present invention is a camera control method for combining the respective camera images picked up by a plurality of camera modules and displaying them as a vehicle peripheral image on the display means in the vehicle.
  • a recognition step in which the camera module recognizes a recognition object from a camera image captured by the camera module by object recognition processing, and coordinate information of the recognition object recognized in the recognition step by the camera module is provided in the vehicle. Output to the vehicle network.
  • a camera system that facilitates display associated with object recognition even when displaying an image on a display that does not have a high processing capability is inexpensive. Can be provided.
  • FIG. 1 It is a figure which shows schematic structure of the vehicle provided with the camera system which concerns on one Embodiment of this invention. It is a block diagram which shows the structural example of the camera system which concerns on one Embodiment of this invention. It is a block diagram which shows the structural example of the front camera module and side camera module which are shown in FIG. It is a block diagram which shows the structural example of the rear camera module shown in FIG. It is a figure which shows an example of the vehicle periphery image displayed on a display means. It is a figure which shows an example of the state in which the recognition object in the vehicle periphery image displayed on the display means was located in the boundary of the mutually adjacent camera image.
  • a camera system 1 according to an embodiment of the present invention is provided in a vehicle 2 such as an automobile.
  • the camera system 1 includes four camera modules 3 to 6 attached to the front, rear, left and right of the vehicle 2 and display means 7 installed in the passenger compartment.
  • the front camera module 3 attached to the front end of the vehicle 2 includes a lens unit 3a, an imaging unit 3b, a viewpoint conversion image generation unit 3c, an output unit 3d, a power supply unit 3e, a control unit 3f, and a communication unit. 3g and a storage unit 3h are provided.
  • the side camera module 4 attached to the right side of the vehicle 2 and the side camera module 5 attached to the left side of the vehicle 2 are respectively a lens unit 4a, 5a, an imaging unit 4b, 5b, a viewpoint conversion image generation unit 4c, 5c, output units 4d and 5d, power supply units 4e and 5e, control units 4f and 5f, communication units 4g and 5g, and storage units 4h and 5h. Since the front camera module 3 and both side camera modules 4 and 5 have basically the same configuration, in FIG. 3, each part constituting the camera modules 3 to 5 corresponds to each camera module 3 to 5.
  • symbol is attached
  • the rear camera module 6 attached to the rear end of the vehicle 2 includes a lens unit 6a, an imaging unit 6b, a viewpoint conversion image generation unit 6c, an output unit 6d, a power supply unit 6e, a control unit 6f, A communication unit 6g and a storage unit 6h are provided, and an image composition unit 6i is provided.
  • the image composition unit 6i is a software process that operates on the control unit 6f, and should be described in the control unit 6f like the object recognition units 3j to 6j. Will be described.
  • the image composition unit is described only in the rear camera module 6 and is not described in the front camera module 3 and the both side camera modules 4 and 5.
  • the image composition unit 6i may be provided equally in any camera module 3-6. That is, only the camera module recognized as the rear camera module 6 or the camera module recognized as the main control unit by the processing described later activates the software of the image composition unit, and the other camera modules are software of the image composition unit. If the camera module is configured to be inactivated, the configuration of each camera module can be made the same, leading to a reduction in the overall cost.
  • the power supply units 3e to 6e provided in each of the camera modules 3 to 6 are connected to an in-vehicle battery, and supply power to each unit such as the imaging units 3b to 6b and the control units 3f to 6f of the camera module 3 to 6.
  • the storage units 3h to 6h provided in the camera modules 3 to 6 respectively include imaging units 3b to 6b, viewpoint conversion image generation units 3c to 6c, control units 3f to 6f, and communication units 3g to 6g as necessary. Data necessary for such control can be stored.
  • Each of the camera modules 3 to 6 images the periphery of the vehicle using the lens units 3a to 6a and the imaging units 3b to 6b, respectively.
  • the front camera module 3 images the periphery of the front side of the vehicle 2 at a predetermined angle of view using the lens unit 3a and the imaging unit 3b.
  • the right side camera module 4 uses the lens unit 4a and the imaging unit 4b to image the periphery of the right side of the vehicle 2 at a predetermined angle of view
  • the left side camera module 5 includes the lens unit 5a and the imaging unit 5b.
  • the left side of the vehicle 2 is imaged at a predetermined angle of view.
  • the rear camera module 6 images the periphery of the vehicle 2 in the backward direction with a predetermined angle of view using the lens unit 6a and the imaging unit 6b.
  • imaging units 3b to 6b for example, image sensors such as CMOS and CCD are used.
  • lens portions 3a to 6a lenses having a wide angle of view such as fish-eye lenses are used.
  • the imaging units 3b to 6b of the camera modules 3 to 6 are respectively connected to the viewpoint converted image generating units 3c to 6c, and the images captured by the imaging units 3b to 6b are viewpoint converted images.
  • the data is taken into the generation units 3c to 6c.
  • the viewpoint-converted image generating units 3c to 6c adjust the distortion of the images captured from the image capturing units 3b to 6b, and generate overhead images in which the viewpoints of the images are converted.
  • the front camera module 3 is connected to the rear camera module 6.
  • the bird's-eye view image generated by the front camera module 3 is output from the output unit 3d as a camera image captured by the camera module 3, and input to the image composition unit 6i provided in the rear camera module 6.
  • both side camera modules 4 and 5 are connected to the rear camera module 6.
  • the bird's-eye view images generated by the two side camera modules 4 and 5 are output from the output units 4d and 5d as camera images captured by the camera modules 4 and 5, respectively, and are output to the image composition unit 6i provided in the rear camera module 6. Entered.
  • the image composition unit 6i includes an overhead image (camera image) generated by the viewpoint conversion image generation unit 6c of the rear camera module 6 and three overhead images (camera images) input from the other camera modules 3 to 5.
  • the camera modules 3 to 6 are combined in an arrangement corresponding to the mounting position of the camera modules 3 to 6 on the vehicle 2 to generate a vehicle periphery image.
  • the rear camera module 6 is connected to the display means 7.
  • the output unit 6 d of the rear camera module 6 converts the vehicle surrounding image synthesized by the image synthesis unit 6 i into a format (for example, NTSC) adapted to the display unit 7 and outputs the converted image to the display unit 7.
  • the display means 7 displays the vehicle periphery image input from the rear camera module 6 on the screen 7a. That is, the vehicle model 8 is displayed at the center of the screen 7a of the display means 7, and a camera image (overhead image) captured by the front camera module 3 is displayed in the upper divided range 7a1 around the vehicle model 8. . Further, camera images (overhead images) captured by the side camera modules 4 and 5 are displayed in the divided range 7a2 on the right side of the screen and the divided range 7a3 on the left side of the screen of the display unit 7, respectively. Further, a camera image (overhead image) captured by the rear camera module 6 is displayed in the divided range 7a4 on the lower side of the screen of the display means 7.
  • a display device such as a liquid crystal display or an organic EL display can be used.
  • each of the camera modules 3 to 6 is connected to a vehicle network (in-vehicle LAN) 9 provided in the vehicle 2.
  • vehicle network 9 may be a bus line for a mobile machine using a protocol such as CAN (Controller Area Network), FlexRay, or LIN (Local Interconnect Network).
  • the camera modules 3 to 6 can perform communication via the vehicle network 9 by the communication units 3g to 6g, respectively. That is, the camera modules 3 to 6 can communicate with the other camera modules 3 to 6 via the vehicle network 9 by the communication units 3g to 6g, respectively.
  • a processing unit 10 of the vehicle 2 such as an engine control unit (ECU) and a shift position sensor is connected to the vehicle network 9, and each of the camera modules 3 to 6 communicates with each other.
  • the units 3g to 6g can communicate with the processing unit 10 via the vehicle network 9.
  • a CAN transceiver is used.
  • a communication device conforming to the protocol of the vehicle network 9 is used.
  • One of the functions is a function as the object recognition units 3j to 6j.
  • the object recognition units 3j to 6j perform object recognition processing from images captured by the imaging units 3b to 6b of their own camera modules 3 to 6. That is, the object recognition units 3j to 6j can recognize a predetermined object such as a pedestrian or a bicycle existing in the image by performing an object recognition process on the images captured by the imaging units 3b to 6b.
  • an object recognition technique such as pattern recognition can be used.
  • the control units 3f to 6f of the camera modules 3 to 6 recognize a predetermined object such as a pedestrian or a bicycle from images captured by the imaging units 3b to 6b of their own camera modules 3 to 6, respectively. Based on the coordinate information of the recognized object recognized by the object recognition units 3j to 6j, a marker for the recognized object is displayed on the image.
  • the markers can be attached to the images by the control units 3f to 6f by, for example, a technique of overlaying (superimposing and displaying) the marker images on the images captured by the imaging units 3b to 6b.
  • the camera modules 3 to 6 output the camera images with the markers attached to the output units 3d to 6d.
  • the coordinate information is the coordinates of the drawing recognized as a predetermined object, and each camera module 3 is considered in consideration of the distortion component that is taken through the fisheye lens (lens portions 3a to 6a).
  • the object recognizing units 3j to 6j calculate the coordinates in the images photographed in .about.6.
  • the vehicle peripheral image is synthesized with the camera images of the camera modules 3 to 6.
  • the vehicle peripheral image with the marker 13 attached to the object 12 is displayed.
  • the marker 13 is displayed as a rectangular dotted frame, but can be set to various shapes and sizes such as a rectangular shape and a circular shape according to the shape and size of the object 12, and a solid line or the like. It can also be represented by
  • each of the camera modules 3 to 6 transmits the coordinate information of the predetermined object 12 recognized from the images captured by the imaging units 3b to 6b to the vehicle network 9 by the communication units 3g to 6g.
  • the coordinate information can be shared among the camera modules 3 to 6 via the vehicle network 9.
  • the camera modules 3 to 6 that output one of the adjacent camera images acquire the coordinate information of the recognized object from the camera modules 3 to 6 that output the other camera image via the vehicle network 9.
  • a marker 13 that smoothly connects to the marker 13 displayed in the other camera image can be generated.
  • a predetermined boundary A is formed between the camera image of the front camera module 3 displayed in the divided range 7a1 and the camera image of the right side camera module 4 displayed in the divided range 7a2.
  • the marker 13 is displayed in the following procedure.
  • the coordinate information of the recognized object 12, that is, the recognized object 12 in the image is transmitted by the communication unit 3g. It is output to the vehicle network 9.
  • the coordinate information of the recognized object 12 in the image is transmitted by the communication unit 4g. It is output to the vehicle network 9.
  • the coordinate information of the recognition object 12 output by the communication units 3g and 4g for example, the size information is added to the coordinate information of the center position of the recognition object 12, and the recognition object 12 is enclosed. Information that can generate the marker 13 may be included.
  • each camera module 3 to 6 is assigned identification information such as an address by a processing unit 10 such as an ECU connected to the vehicle network 9 in accordance with a negotiation protocol in the standard of the vehicle network 9. . Based on this identification information, the relationship between the master and slave is set between the camera modules 3-6. For example, in the present embodiment, when the predetermined object 12 is located at the boundary A or the boundary B shown in FIG. 6, the front camera module 3 is set as the master as shown in FIG. , 5 are set as slaves. On the other hand, when the predetermined object 12 is located at the boundary C or the boundary D shown in FIG. 6, the rear camera module 6 is set as a master as shown in FIG. Each is set as a slave. Therefore, when the object 12 is located at the boundary A shown in FIG.
  • the front camera module 3 is set as a master, and the right side camera module 4 is set as a slave. Since the camera image of the front camera module 3 and the camera image of the rear camera module 6 do not have a boundary, a master / slave relationship is not set between these camera modules 3 and 6.
  • the side camera module 4 that is a slave transmits the camera image of the front camera module 3 to the front camera module 3 via the vehicle network 9.
  • the coordinate information of the recognition object 12 is acquired.
  • the control unit 4f of the side camera module 4 uses the coordinate information of the recognized object 12 acquired from the front camera module 3, that is, the coordinate information of the recognized object 12 in its own camera image and the camera image of the front camera module 3.
  • the marker 13 is generated by the front camera module 3 by changing at least one of the position, shape and size of the marker 13 generated by itself based on the coordinate information of the recognition object 12 in FIG. To connect smoothly.
  • the control unit 3f of the side camera module 4 can detect the position of the marker 13 generated by itself according to the position, shape and size of the marker 13 generated by the front camera module 3 obtained via the vehicle network 9. Adjust the shape and size.
  • the front camera module 3 serves as a master and the left side camera module 5 Becomes a slave and the same control is performed.
  • the rear camera module 6 is the master and the right side camera module 4 is the slave, and the object 12 is located at the boundary D of the vehicle peripheral image.
  • the rear camera module 6 becomes the master and the left side camera module 5 becomes the slave, and the same control is performed.
  • the control units 3f to 6f of the one camera module 3 to 6 transmit the other camera via the vehicle network 9.
  • the coordinate information of the recognized object 12 recognized from the images captured by the imaging units 3b to 6b of the other camera modules 3 to 6 is acquired from the modules 3 to 6, and the marker 13 is added to the own camera image using this. Is attached. Therefore, even when the predetermined object 12 is located at the boundaries A to D of the adjacent camera images, the continuous marker 13 straddling both of the adjacent camera images is accurately attached to the recognized object 12. Can do.
  • the marker 13 is attached to the object 12 by the control unit 3f of the front camera module 3. .
  • the marker 13 is attached to the object 12 by the control unit 4 f of the side camera module 4.
  • control units 3f to 6f of the camera modules 3 to 6 communicate with the processing unit 10 of the vehicle 2 via the vehicle network 9 to determine whether or not the gear of the vehicle 2 is reverse (step S1). ). If it is determined in step S1 that the gear of the vehicle 2 is reverse, the control units 3f to 6f acquire images captured from the imaging units 3b to 6b of their own camera modules 3 to 6 (step S2). Further, vehicle information such as vehicle speed and steering angle is acquired via the vehicle network 9 (step S3). In this case, the marker 13 is attached to the object 12 recognized in the vehicle peripheral image only when the vehicle 2 moves backward. However, the vehicle 2 is recognized in the vehicle peripheral image even when the vehicle 2 moves forward or stops. A marker 13 may be attached to the object 12.
  • control units 3f to 6f determine whether or not the predetermined object 12 has been recognized by the object recognition process from the acquired image (step S4, recognition step). If it is determined in step S4 that the recognized object 12 is present in the image, each camera module 3-6 outputs the coordinate information of the recognized object 12 to the vehicle network 9 (step S5, output process). Can be shared by the camera modules 3-6.
  • control units 3f to 6f determine whether or not the recognition object 12 is located at the boundaries A to D of a pair of adjacent camera images (step S6). If it is determined in step S6 that the recognition object 12 is positioned at the boundaries A to D of the adjacent camera images, each camera image is controlled by the control units 3f to 6f of the pair of camera modules 3 to 6 that capture these camera images. Is marked with a marker 13. At this time, the control units 3f to 6f of any one of the camera modules 3 to 6 acquire the coordinate information of the recognition object 12 in the camera images of the other camera modules 3 to 6 via the vehicle network 9. Then, the control units 3f to 6f use this coordinate information to attach the marker 13 smoothly connected to the marker 13 displayed in the adjacent camera image to the own camera image (step S7, additional process).
  • the camera module 3 to 6 when the marker 13 is attached to the recognition object 12 in the image, the camera module 3 to 6 then performs viewpoint conversion on the image by the viewpoint conversion image generation units 3c to 6c, thereby obtaining an overhead image, that is, a camera image. (Step S8). Then, the bird's-eye view images of the camera modules 3 to 6 generated in step S8 are combined by the image combining unit 6i of the rear camera module 6 into a vehicle peripheral image (step S9), and from the output unit 6d of the rear camera module 6 The image is output toward the display means 7 (step S10).
  • step S4 if it is determined in step S4 that the recognition object 12 is not present, the process of steps S8 to S10 is performed without adding the marker 13 to the image.
  • step S6 If it is determined in step S6 that the recognition object 12 is not positioned at the boundary between adjacent camera images, the camera modules 3 to 6 that capture the camera image where the object 12 is positioned recognizes the recognition in the camera image.
  • the marker 13 is attached to the object 12 (step S11), and the processes of steps S8 to S10 are performed.
  • the object recognition units 3j to 6j that detect the recognition object 12 by the object recognition process from the images captured by the camera modules 3 to 6, and the marker for the recognition object 12 in the captured image.
  • Control units 3f to 6f to which reference numeral 13 is attached are provided.
  • the camera system 1 that enables display associated with the object recognition process even when an inexpensive device that has only an image display function, for example, is used as the display unit 7.
  • the cost of the entire system can be reduced.
  • an inexpensive one having only an image display function is used as the display means 7. As a result, the cost of the camera system 1 can be reduced.
  • the communication units 3g to 6g that output the coordinate information of the recognition object 12 recognized from the images captured by the imaging units 3b to 6b to the vehicle network 9 are provided to the camera modules 3 to 6, respectively. Since the recognition object 12 is located at the boundaries A to D of the adjacent camera images, the two camera modules 3 to 6 that attach the markers 13 to these camera images are connected via the vehicle network 9. Thus, the coordinate information of the recognized object 12 recognized in the images of the other camera modules 3 to 6 can be used, and the marker 13 is accurately placed on the recognized object 12 to the control units 3f to 6f of the camera modules 3 to 6. It can be attached.
  • the camera modules 3 to 6 as slaves acquire the coordinate information of the recognition object 12 from the master camera modules 3 to 6 via the vehicle network 9, and use the acquired coordinate information in the image.
  • the marker 13 is attached, it is not limited to this. That is, at least one camera module 3 to 6 acquires the coordinate information of the recognition object 12 from the other camera modules 3 to 6 via the vehicle network 9, and uses the acquired coordinate information to place the marker 13 in the image. Any structure may be used. For example, both camera modules 3 to 6 that output adjacent camera images acquire the coordinate information of the recognition object 12 from the other camera modules 3 to 6 via the vehicle network 9 and use the acquired coordinate information. Thus, the marker 13 may be added to the image.
  • control units 3f to 6f of any one of the camera modules 3 to 6 are set as the main control unit, and the control units 3f to 6f, which are the main control units, all other camera modules via the vehicle network 9. It is also possible to obtain the coordinate information of the recognition object 12 from 3 to 6 and attach the marker 13 to all the camera images, that is, the vehicle peripheral images using the obtained coordinate information.
  • identification information such as an address is assigned to each of the camera modules 3 to 6 in accordance with the negotiation protocol in the standard of the vehicle network 9 by the processing unit 10 such as an ECU connected to the vehicle network 9.
  • the control units 3f to 6f of any one of the camera modules 3 to 6 can be configured to be set as the main control unit according to the identification information.
  • the control units 3f to 6f serving as the main control unit acquire coordinate information of the recognition object 12 in other camera images from the control units 3f to 6f of the other camera modules 3 to 6 via the vehicle network 9. Then, marker addition processing is performed on all camera images (vehicle peripheral images) based on the coordinate information of the recognized object 12 in its own camera image and the coordinate information of the recognized object 12 in other camera images.
  • the control units 3f to 6f which are the main control units, can control the other control units 3f to 6f through the vehicle network 9 to attach the marker 13 to the vehicle periphery image.
  • the control unit 6f set in the main control unit that is, the control unit 6f of the rear camera module 6 activates software having a function of attaching the marker 13 in the image, and controls the other camera modules 3 to 5.
  • the units 3f to 5f are configured such that software having a function of attaching the marker 13 to the image is inactivated.
  • the control unit of another camera module is set as the main control unit, only the control unit activates software having a function of attaching the marker 13 in the image, and the function of the control unit of the other camera module is activated.
  • the software is deactivated. Therefore, even when the control unit set as the main control unit is configured to integrally control other control units via the vehicle network 9, the camera modules 3 to 6 having the same configuration are used. As a result, the overall cost of the camera system 1 can be reduced.
  • the four camera modules 3 to 6 are provided in the vehicle 2.
  • the present invention is not limited to this, and if the periphery of the vehicle 2 can be imaged, the number of camera modules 3 to 6 is as follows. It can be set arbitrarily.
  • the marker 13 is attached to the image captured by the imaging units 3b to 6b, and the image with the marker 13 is output to the display means 7.
  • the present invention is not limited to this.
  • a marker image generated separately from the image may be input to the display unit 7 via the vehicle network 9, and the marker image may be superimposed on the camera image on the display unit 7.
  • the viewpoint conversion image generation units 3c to 6c are provided in the camera modules 3 to 6, and the images captured by the imaging units 3b to 6b are processed into overhead images by the viewpoint conversion image generation units 3c to 6c.
  • the present invention is not limited to this, and the image captured by the imaging units 3b to 6b may be output to the display unit 7 as it is.
  • the viewpoint converted image generation units 3c to 6c may be provided only in the rear camera module 6, and the images synthesized by the image synthesis unit 6i may be collectively processed into an overhead image.
  • the viewpoint conversion image generation units 3c to 6c may be provided in the display unit 7 so that the display unit 7 processes each camera image or vehicle surrounding image into an overhead image.
  • the front camera module 3 and the both side camera modules 4 and 5 are connected to the rear camera module 6, and each of the camera modules 3 to 6 is installed in the image composition unit 6 i provided in the rear camera module 6.
  • the captured camera images are synthesized and output to the display means 7, the present invention is not limited to this, and all camera modules 3 to 6 may be directly connected to the display means 7.
  • the rear camera module 6 has the same configuration as the other camera modules 3 to 5 shown in FIG. 3, and the versatility of the camera modules 3 to 6 can be enhanced.
  • each of the camera modules 3 to 6 outputs the coordinate information of the recognized object 12 recognized from the images captured by the imaging units 3b to 6b to the vehicle network 9 by the communication units 3g to 6g.
  • the coordinate information of the recognition object 12 at least one of the movement vector information of the recognition object 12 and the coordinate information of the marker 13 generated by the control units 3f to 6f of the camera modules 3 to 6 is further stored in the vehicle. You may make it output to the network 9.
  • the slave camera modules 3 to 6 include the movement vector information of the recognition object 12 and each camera module.
  • the own marker 13 can be generated by using the coordinate information of the marker 13 generated by the control units 3f to 6f of 3 to 6. Thereby, the markers 13 can be displayed more accurately by the control units 3f to 6f.
  • the coordinate information of the marker 13 for example, when the marker 13 is rectangular, the coordinate information of the reference position of the marker 13 in the camera image and information such as the length and direction of each side, and when the marker 13 is circular
  • the coordinate information that can generate the marker 13 can be included, such as coordinate information of the center position and information of the radial dimension thereof.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

 車両(2)の周辺を撮像する複数のカメラモジュール(3~6)を備え、複数のカメラモジュール(3~6)が撮像した各カメラ画像を出力し、車両内の表示手段(7)にて各画像を合成した車両周辺画像が表示されるカメラシステム(1)において、複数のカメラモジュール(3~6)に、それぞれ自己の撮像した画像から物体認識処理を行う物体認識部(3j~6j)と、車両(2)に設けられた車両ネットワーク(9)を介した通信を行う通信部(3g~6g)とを設ける。通信部(3g~6g)を、それぞれ物体認識部(3j~6j)で認識した認識物体(12)の座標情報を車両ネットワーク(9)に出力する構成とする。

Description

カメラシステム、カメラモジュールおよびカメラ制御方法 関連出願へのクロスリファレンス
 本出願は、日本国特許出願2012-281745号(2012年12月25日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
 本発明は、カメラシステム、カメラモジュールおよびカメラ制御方法に関し、より詳細には、複数のカメラモジュールが撮像した複数の各カメラ画像を合成して車両周辺画像とし、これを車両に設けたディスプレイ等の表示手段に出力するものに関する。
 従来、自動車の前後左右に取り付けた複数のカメラモジュールが撮像したカメラ画像を合成して車両周辺画像を生成し、これを車室内に設置したディスプレイ等の表示手段に表示して、車両の全周方向を1つの画面で視認できるようにしたカメラシステムが知られている。このようなカメラシステムとしては、各カメラ画像を視点変換加工することにより、車両周辺画像を俯瞰画像として表示するものも知られている(例えば特許文献1)。
 また、表示手段に表示される車両周辺画像から物体認識処理により歩行者や自転車等の物体を認識し、この認識物体にマーカーを付すようにした技術が知られている(例えば特許文献2)。
特許第4742733号公報 特開2012-113605号公報
 従来のカメラシステムでは、各カメラモジュールが撮像した複数のカメラ画像を車両側のディスプレイ(例えばナビゲーションシステム等)の制御装置に入力する構成とし、その制御装置により、各カメラ画像の合成、俯瞰処理、物体認識処理および認識物体へのマーカー付与処理を行うようにしている。そのため、このようなカメラシステムの構築には、車両側のディスプレイの制御装置に高度な処理能力が必要となり、システムが高価となる、あるいは汎用性の低いシステムとなる。
 そこで、各カメラモジュールに、撮像したカメラ画像を俯瞰処理する機能、そのカメラ画像から物体認識処理により認識物体を検出する機能および当該カメラ画像の認識物体にマーカーを付する機能を設けることにより、表示手段として画像の表示機能のみを有する安価なものを用いることを可能とする安価なカメラシステムが考えられる。
 かかる事情に鑑みてなされた本発明の目的は、高度な処理能力を有さないようなディスプレイにおいて画像表示する場合であっても、物体認識に伴う表示を行い易くするカメラシステムを安価に提供することにある。
 上記課題を解決するため、本発明のカメラシステムは、車両の周辺を撮像する複数のカメラモジュールを備え、複数の前記カメラモジュールが撮像した各カメラ画像を出力し、前記車両内の表示手段にて各画像を合成した車両周辺画像が表示されるカメラシステムであって、複数の前記カメラモジュールは、それぞれ自己の撮像したカメラ画像から物体認識処理を行う物体認識部と、前記車両に設けられた車両ネットワークを介した通信を行う通信部と、を有し、前記通信部は、それぞれ前記物体認識部で認識した認識物体の座標情報を前記車両ネットワークに出力することを特徴とする。
 本発明に係るカメラシステムにおいては、前記複数のカメラモジュールの少なくとも一つは、前記車両ネットワークを介して他のカメラモジュールから前記認識物体の座標情報を取得し、当該取得した座標情報を用いて前記車両周辺画像中の前記認識物体に対するマーカーを付すのが好ましい。
 本発明に係るカメラシステムにおいては、複数の前記カメラモジュールの少なくとも一つは、互いに隣り合う一対のカメラ画像の双方に前記認識物体が位置する場合に、前記座標情報を用いて、一方のカメラ画像と他方のカメラ画像との双方に跨る連続したマーカーを生成するのが好ましい。
 本発明に係るカメラシステムにおいては、複数の前記カメラモジュールの少なくとも一つは、前記マーカーの位置、大きさおよび形状の少なくとも一つを変更するのが好ましい。
 本発明に係るカメラシステムにおいては、複数の前記カメラモジュールは、それぞれ制御部を有し、該制御部のいずれか一つが主制御部となって、前記座標情報を用いた前記車両周辺画像へのマーカー付加処理を行うのが好ましい。
 本発明に係るカメラシステムにおいては、前記主制御部は、複数の前記カメラモジュールのそれぞれに設けられた他の制御部を、前記車両ネットワークを介して統括制御するのが好ましい。
 本発明に係るカメラシステムにおいては、複数の前記カメラモジュールは、それぞれ前記車両ネットワークを介して接続される前記車両の処理ユニットにより識別情報が割り当てられ、該識別情報に応じて前記主制御部が決定されるのが好ましい。
 本発明に係るカメラシステムにおいては、前記識別情報の割り当ては、前記車両ネットワークの規格におけるネゴシエーションのプロトコルに準拠して行われるのが好ましい。
 本発明に係るカメラシステムにおいては、前記カメラ画像は、撮像部が撮像した画像を視点変換した俯瞰画像であるのが好ましい。
 また、上記課題を解決するため、本発明のカメラモジュールは、複数のカメラモジュールが撮像した各カメラ画像を合成して、車両内の表示手段に車両周辺画像として表示を行うカメラシステムに用いられるカメラモジュールであって、前記車両の周辺を撮像する撮像部と、前記撮像部が撮像した画像から物体認識処理を行う物体認識部と、前記車両に設けられた車両ネットワークを介した通信を行う通信部と、を有し、前記通信部は、前記物体認識部で認識した認識物体の座標情報を前記車両ネットワークに出力する、ことを特徴とする。
 さらに、上記課題を解決するため、本発明のカメラ制御方法は、複数のカメラモジュールが撮像した各カメラ画像を合成して、車両内の表示手段に車両周辺画像として表示を行う際のカメラ制御方法であって、前記カメラモジュールが、自己が撮像したカメラ画像から物体認識処理により認識物体を認識する認識工程と、前記カメラモジュールが、前記認識工程において認識した認識物体の座標情報を車両に設けられた車両ネットワークに出力する出力工程と、を有することを特徴とする。
 本発明のカメラシステム、カメラモジュールおよびカメラ制御方法によれば、高度な処理能力を有さないようなディスプレイにおいて画像表示する場合であっても、物体認識に伴う表示を行い易くするカメラシステムを安価に提供することができる。
本発明の一実施形態に係るカメラシステムを備えた車両の概略構成を示す図である。 本発明の一実施形態に係るカメラシステムの構成例を示すブロック図である。 図2に示すフロントカメラモジュールおよびサイドカメラモジュールの構成例を示すブロック図である。 図2に示すリアカメラモジュールの構成例を示すブロック図である。 表示手段に表示される車両周辺画像の一例を示す図である。 表示手段に表示された車両周辺画像中の認識物体が互いに隣り合うカメラ画像の境界に位置した状態の一例を示す図である。 主制御部と制御部との関係の一例を示す図である。 互いに隣り合うカメラ画像における各カメラモジュールのマーカー付与の割り当て領域を示す図である。 本発明の一実施形態に係るカメラシステムにおけるマーカー表示制御のフローチャート図である。
 以下、本発明の一実施形態について、図面を参照して例示説明する。
 図1、図2に示すように、本発明の一実施形態に係るカメラシステム1は自動車等の車両2に設けられる。このカメラシステム1は、車両2の前後左右に取り付けられる4つのカメラモジュール3~6と、車室内に設置される表示手段7とを備えている。
 車両2の前方端に取り付けられるフロントカメラモジュール3は、図3に示すように、レンズ部3a、撮像部3b、視点変換画像生成部3c、出力部3d、電源部3e、制御部3f、通信部3gおよび記憶部3hを備えている。同様に、車両2の右側方に取り付けられるサイドカメラモジュール4および車両2の左側方に取り付けられるサイドカメラモジュール5は、それぞれレンズ部4a,5a、撮像部4b,5b、視点変換画像生成部4c,5c、出力部4d,5d、電源部4e,5e、制御部4f,5f、通信部4g,5gおよび記憶部4h,5hを備えている。フロントカメラモジュール3と両サイドカメラモジュール4、5は基本的に同一の構成となっているので、図3においては、カメラモジュール3~5を構成する各部にそれぞれのカメラモジュール3~5に対応した符号を付してある。
 一方、車両2の後方端に取り付けられるリアカメラモジュール6は、図4に示すように、レンズ部6a、撮像部6b、視点変換画像生成部6c、出力部6d、電源部6e、制御部6f、通信部6g、記憶部6hを備えるとともに画像合成部6iを備えている。ここで、画像合成部6iは制御部6f上で動作するソフトウェア処理であり、物体認識部3j~6jのように制御部6f内に記載すべきところであるが、説明の簡素化のために別ブロックとして説明する。
 ところで、図面では、画像合成部を、リアカメラモジュール6にのみ記載し、フロントカメラモジュール3と両サイドカメラモジュール4、5には記載していない。しかしながら、画像合成部6iは、いずれのカメラモジュール3~6に等しく設けられていてもよい。すなわち、後述する処理によってリアカメラモジュール6として認識したカメラモジュール、あるいは主制御部となるべきと認識されたカメラモジュールのみが画像合成部のソフトウェアをアクティブ化し、その他のカメラモジュールは画像合成部のソフトウェアをインアクティブ化するように構成されていると、各カメラモジュールの構成を同じにすることができ、全体的なコストを下げることにもつながる。
 各カメラモジュール3~6に設けられた電源部3e~6eは、それぞれ車載のバッテリに接続されて当該カメラモジュール3~6の撮像部3b~6bや制御部3f~6f等の各部に電力を供給する。また、各カメラモジュール3~6に設けられた記憶部3h~6hは、それぞれ必要に応じて撮像部3b~6b、視点変換画像生成部3c~6c、制御部3f~6f、通信部3g~6gなどの制御に必要なデータ等を格納することができる。
 各カメラモジュール3~6は、それぞれレンズ部3a~6aと撮像部3b~6bとを用いて車両周辺を撮像する。例えば、フロントカメラモジュール3はレンズ部3aと撮像部3bとを用いて車両2の前方側の周辺を所定の画角で撮像する。また、右側のサイドカメラモジュール4はレンズ部4aと撮像部4bとを用いて車両2の右側方の周辺を所定の画角で撮像し、左側のサイドカメラモジュール5はレンズ部5aと撮像部5bとを用いて車両2の左側方の周辺を所定の画角で撮像する。さらに、リアカメラモジュール6はレンズ部6aと撮像部6bとを用いて車両2の後退方向の周辺を所定の画角で撮像する。
 これらの撮像部3b~6bとしては、例えばCMOSやCCD等のイメージセンサが用いられる。また、レンズ部3a~6aとしては例えば魚眼レンズなどの画角の広いレンズが用いられる。
 図3、図4に示すように、各カメラモジュール3~6の撮像部3b~6bは、それぞれ視点変換画像生成部3c~6cに接続され、撮像部3b~6bが撮像した画像は視点変換画像生成部3c~6cに取り込まれる。視点変換画像生成部3c~6cは撮像部3b~6bから取り込んだ画像の歪みを調整し、当該画像の視点を変換した俯瞰画像を生成する。
 図2に示すように、フロントカメラモジュール3はリアカメラモジュール6に接続されている。フロントカメラモジュール3で生成された俯瞰画像は、当該カメラモジュール3が撮像したカメラ画像としてその出力部3dから出力され、リアカメラモジュール6に設けられた画像合成部6iに入力される。同様に、両サイドカメラモジュール4,5はリアカメラモジュール6に接続されている。両サイドカメラモジュール4,5で生成された俯瞰画像は、それぞれ当該カメラモジュール4,5が撮像したカメラ画像として出力部4d,5dから出力され、リアカメラモジュール6に設けられた画像合成部6iに入力される。
 画像合成部6iは、リアカメラモジュール6の視点変換画像生成部6cが生成した俯瞰画像(カメラ画像)と、他のカメラモジュール3~5から入力される3つの俯瞰画像(カメラ画像)とを、各カメラモジュール3~6の車両2への取付け位置に応じた配置で合成し、車両周辺画像を生成する。
 図2に示すように、リアカメラモジュール6は表示手段7に接続されている。リアカメラモジュール6の出力部6dは、画像合成部6iが合成した車両周辺画像を表示手段7に適応したフォーマット(例えばNTSC)に変換し、表示手段7に向けて出力する。
 図5に示すように、表示手段7はリアカメラモジュール6から入力された車両周辺画像をその画面7aに表示する。つまり、表示手段7の画面7aの中心には車両モデル8が表示され、この車両モデル8の周囲の画面上側の分割範囲7a1にフロントカメラモジュール3が撮像したカメラ画像(俯瞰画像)が表示される。また、表示手段7の画面右側の分割範囲7a2と画面左側の分割範囲7a3には、それぞれサイドカメラモジュール4,5が撮像したカメラ画像(俯瞰画像)が表示される。さらに、表示手段7の画面下側の分割範囲7a4にリアカメラモジュール6が撮像したカメラ画像(俯瞰画像)が表示される。
 表示手段7としては、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイ装置を用いることができる。
 図2に示すように、各カメラモジュール3~6は車両2に設けられた車両ネットワーク(車載LAN)9に接続されている。この車両ネットワーク9は、例えばCAN(Controller Area Network)、FlexRay、LIN(Local Interconnect Network)等のプロトコルを用いた移動機械用バスラインとすることができる。
 各カメラモジュール3~6は、それぞれ通信部3g~6gにより車両ネットワーク9を介した通信を行うことができる。つまり、各カメラモジュール3~6は、それぞれ通信部3g~6gにより、車両ネットワーク9を介して他のカメラモジュール3~6と互いに通信することができる。また、図1に示すように、車両ネットワーク9には、例えばエンジンコントロールユニット(ECU)やシフトポジションセンサ等の車両2の処理ユニット10が接続されており、各カメラモジュール3~6は、それぞれ通信部3g~6gにより、車両ネットワーク9を介して処理ユニット10と通信することができる。
 これらの通信部3g~6gとしては、例えば車両ネットワーク9がCANである場合にはCANトランシーバが用いられるなど、その車両ネットワーク9のプロトコルに準拠した通信デバイスが用いられる。
 各カメラモジュール3~6に設けられる制御部3f~6fは、それぞれCPUを備えたマイクロコンピュータ上で動作するソフトウェアの機構ブロックを抽象化したものであって、図3、図4に示すように、その機能の一つとして物体認識部3j~6jとしての機能を備えている。物体認識部3j~6jは、自己のカメラモジュール3~6の撮像部3b~6bが撮像した画像から物体認識処理を行う。つまり、物体認識部3j~6jは、撮像部3b~6bが撮像した画像を物体認識処理することにより、当該画像中に存在する歩行者や自転車等の所定の物体を認識することができる。物体認識部3j~6jによる物体認識処理としては、例えばパターン認識等の物体認識技術を用いることができる。
 各カメラモジュール3~6の制御部3f~6fは、それぞれ自己のカメラモジュール3~6の撮像部3b~6bが撮像した画像中から歩行者や自転車等の所定の物体が認識された場合には、物体認識部3j~6jにより認識された認識物体の座標情報に基づいて、当該画像に認識物体に対するマーカーを表示する。制御部3f~6fによる画像へのマーカーの付与は、例えば撮像部3b~6bが撮像した画像にマーカー画像をオーバーレイ(重畳表示)する手法により行うことができる。このように、各カメラモジュール3~6は、自己の撮像部3b~6bが撮像した画像中に所定の物体が存在する場合には、当該物体にマーカーを付したカメラ画像を出力部3d~6dから出力する。ところで、座標情報とは、所定の物体として認識された描画物の座標であって、魚眼レンズ(レンズ部3a~6a)を介して撮影されるが故のディストーション成分を考慮して、各カメラモジュール3~6において撮影した画像内における座標を各物体認識部3j~6jが算出する。
 したがって、図5に示すように、表示手段7の画面7aに表示される車両周辺画像中に所定の物体12が存在する場合には、車両周辺画像は各カメラモジュール3~6のカメラ画像を合成して形成されるので、当該物体12に対するマーカー13が付された車両周辺画像が表示されることになる。車両周辺画像に当該物体12に対するマーカー13を付すことにより、車両周辺画像中に表示された所定の物体12を運転者等に認識し易くすることができる。図示する場合では、マーカー13は矩形の点線枠で表示されるが、物体12の形状や大きさに合わせて、矩形形状や円形形状など種々の形状とサイズに設定することができ、また実線等により表すこともできる。
 図6に示すように、分割範囲7a1と分割範囲7a2とに表示される、互いに隣り合う一対のカメラ画像の双方つまり一対のカメラ画像の境界Aに所定の物体12が位置する場合には、当該物体12に対するマーカー13はこれらのカメラ画像の双方に跨って表示されることになる。この場合、マーカー13は、その一部が分割範囲7a1に表示される一方のカメラ画像に表示され、残りの一部が分割範囲7a2に表示される他方のカメラ画像に表示されることになる。そのため、各カメラ画像にマーカー13を表示させる際に、各カメラ画像に表示されるマーカー13を滑らかに繋いで1つのマーカー13として正しく表示する必要がある。
 そのため、本発明のカメラシステム1では、各カメラモジュール3~6は、その撮像部3b~6bが撮像した画像から認識した所定の物体12の座標情報を、通信部3g~6gにより車両ネットワーク9に出力し、車両ネットワーク9を介して当該座標情報を各カメラモジュール3~6の間で共有可能とする。そして、互いに隣り合うカメラ画像のうちの一方のカメラ画像を出力するカメラモジュール3~6が他方のカメラ画像を出力するカメラモジュール3~6から車両ネットワーク9を介して認識物体の座標情報を取得し、この座標情報を利用して、他方のカメラ画像に表示されるマーカー13に滑らかに繋がるようなマーカー13を生成することができるようにしている。
 より具体的には、図6に示すように、分割範囲7a1に表示されるフロントカメラモジュール3のカメラ画像と分割範囲7a2に表示される右側のサイドカメラモジュール4のカメラ画像との境界Aに所定の物体12が位置する場合には、以下の手順でマーカー13の表示が行われる。
 フロントカメラモジュール3が、その撮像部3bが撮像した画像中から物体認識部3jにより所定の物体12を認識すると、その認識した物体12つまり認識物体12の当該画像中における座標情報が通信部3gにより車両ネットワーク9に出力される。同様に、右側のサイドカメラモジュール4が、その撮像部4bが撮像した画像中から物体認識部4jにより所定の物体12を認識すると、その認識物体12の当該画像中における座標情報が通信部4gにより車両ネットワーク9に出力される。これらの通信部3g,4gが出力する認識物体12の座標情報としては、例えば、認識物体12の中心位置の座標情報にその大きさの情報を付加したものとするなど、その認識物体12を囲うマーカー13を生成できる情報を含んだものとすることができる。
 ここで、各カメラモジュール3~6は、車両ネットワーク9に接続されたECU等の処理ユニット10により、車両ネットワーク9の規格におけるネゴシエーションのプロトコルに準拠して、アドレス等の識別情報が割り当てられている。そして、この識別情報に基づいて各カメラモジュール3~6の間でマスターとスレーブとの関係が設定されている。例えば、本実施形態では、図6に示す境界Aまたは境界Bに所定の物体12が位置する場合には、図7に示すように、フロントカメラモジュール3がマスターに設定され、両サイドカメラモジュール4,5がそれぞれスレーブに設定される。一方、図6に示す境界Cまたは境界Dに所定の物体12が位置する場合には、同様に図7に示すように、リアカメラモジュール6がマスターに設定され、両サイドカメラモジュール4,5がそれぞれスレーブに設定される。したがって、図6に示す境界Aに物体12が位置する場合には、フロントカメラモジュール3がマスターに設定され、右側のサイドカメラモジュール4がスレーブに設定される。フロントカメラモジュール3のカメラ画像とリアカメラモジュール6のカメラ画像とは境界を有していないので、これらのカメラモジュール3,6の間ではマスター、スレーブの関係は設定されない。
 所定の物体12がフロントカメラモジュール3のカメラ画像と右側のサイドカメラモジュール4のカメラ画像との境界Aに位置する場合、つまり図8に模式的に示すフロントカメラモジュール3のカメラ画像のx1領域とサイドカメラモジュール4のカメラ画像のy1領域とに跨って物体12が位置する場合には、スレーブであるサイドカメラモジュール4は、車両ネットワーク9を介してフロントカメラモジュール3からフロントカメラモジュール3のカメラ画像における認識物体12の座標情報を取得する。そして、サイドカメラモジュール4の制御部4fは、フロントカメラモジュール3から取得した認識物体12の座標情報を利用して、つまり自己のカメラ画像における認識物体12の座標情報とフロントカメラモジュール3のカメラ画像における認識物体12の座標情報とに基づいて、自己が生成するマーカー13の位置、形状および大きさの少なくともいずれか一つを変更して、当該マーカー13がフロントカメラモジュール3により生成されるマーカー13に滑らかに繋がるようにする。このように、サイドカメラモジュール4の制御部3fは、車両ネットワーク9を介して得られるフロントカメラモジュール3が生成するマーカー13の位置、形状および大きさに合わせて自己が生成するマーカー13の位置、形状および大きさを調整する。
 上記では、車両周辺画像の境界Aに物体12が位置する場合について説明したが、車両周辺画像の境界Bに物体12が位置する場合においては、フロントカメラモジュール3がマスターとなり左側のサイドカメラモジュール5がスレーブとなって同様の制御が行われる。また、車両周辺画像の境界Cに物体12が位置する場合においては、リアカメラモジュール6がマスターとなり右側のサイドカメラモジュール4がスレーブとなり、また、車両周辺画像の境界Dに物体12が位置する場合においては、リアカメラモジュール6がマスターとなり左側のサイドカメラモジュール5がスレーブとなって同様の制御が行われることになる。
 このように、所定の物体12が互いに隣り合うカメラ画像の境界A~Dに位置する場合には、一方のカメラモジュール3~6の制御部3f~6fが、車両ネットワーク9を介して他方のカメラモジュール3~6から当該他のカメラモジュール3~6の撮像部3b~6bが撮像した画像中から認識された認識物体12の座標情報を取得し、これを利用して自己のカメラ画像にマーカー13を付する。したがって、所定の物体12が互いに隣り合うカメラ画像の境界A~Dに位置する場合であっても、この認識物体12に対して隣り合うカメラ画像の双方に跨る連続したマーカー13を正確に付すことができる。
 一方、図8に模式的に示すフロントカメラモジュール3のカメラ画像のx領域内に所定の物体12が位置する場合には、フロントカメラモジュール3の制御部3fにより物体12にマーカー13が付される。同様に、所定の物体12がサイドカメラモジュール4のカメラ画像のy領域内にある場合には、サイドカメラモジュール4の制御部4fにより物体12にマーカー13が付される。
 次に、上記カメラシステム1におけるマーカー表示制御(カメラ制御方法)の一例の手順を図9に基づいて説明する。
 まず、各カメラモジュール3~6の制御部3f~6fは、車両ネットワーク9を介して車両2の処理ユニット10と通信し、車両2のギアがリバースになっているか否かを判断する(ステップS1)。ステップS1において車両2のギアがリバースであると判断された場合には、制御部3f~6fは自己のカメラモジュール3~6の撮像部3b~6bから撮像した画像を取得し(ステップS2)、また車両ネットワーク9を介して車両速度やハンドル操舵角等の車両情報を取得する(ステップS3)。この場合では、車両2が後退する際にのみ、車両周辺画像内に認識された物体12にマーカー13を付すようにしているが、車両2が前進または停止中にも車両周辺画像内に認識された物体12にマーカー13を付すようにしてもよい。
 次いで、制御部3f~6fは、取得した画像から物体認識処理により所定の物体12が認識されたか否かを判断する(ステップS4、認識工程)。ステップS4において画像中に認識物体12があると判断された場合には、各カメラモジュール3~6が認識物体12の座標情報を車両ネットワーク9に出力し(ステップS5、出力工程)、これらの情報を各カメラモジュール3~6で共有可能とする。
 次いで、制御部3f~6fは、認識物体12が隣り合う一対のカメラ画像の境界A~Dに位置したか否かを判断する(ステップS6)。ステップS6において、認識物体12が隣り合うカメラ画像の境界A~Dに位置したと判断されると、これらのカメラ画像を撮像する一対のカメラモジュール3~6の制御部3f~6fにより各カメラ画像にマーカー13が付される。このとき、いずれか一方のカメラモジュール3~6の制御部3f~6fが、車両ネットワーク9を介して他のカメラモジュール3~6のカメラ画像における認識物体12の座標情報を取得する。そして、当該制御部3f~6fが、この座標情報を利用して、隣り合うカメラ画像に表示されるマーカー13と滑らかに接続するマーカー13を自己のカメラ画像に付す(ステップS7、付加工程)。
 このように、画像中の認識物体12にマーカー13が付されると、次いで、各カメラモジュール3~6において当該画像が視点変換画像生成部3c~6cにより視点変換され、俯瞰画像つまりカメラ画像とされる(ステップS8)。そして、ステップS8で生成された各カメラモジュール3~6の俯瞰画像がリアカメラモジュール6の画像合成部6iで合成されて車両周辺画像とされ(ステップS9)、リアカメラモジュール6の出力部6dから表示手段7に向けて当該画像が出力される(ステップS10)。
 一方、ステップS4において、認識物体12が無いと判断された場合には、画像にマーカー13が付加されることなく、ステップS8~ステップS10の処理が行われる。
 また、ステップS6において、認識物体12が隣り合うカメラ画像の境界に位置しないと判断された場合には、物体12が位置するカメラ画像を撮像するカメラモジュール3~6により、当該カメラ画像中の認識物体12にマーカー13が付され(ステップS11)、以下ステップS8~ステップS10の処理が行われる。
 以上説明したように、上記カメラシステム1では、各カメラモジュール3~6に撮像した画像から物体認識処理により認識物体12を検出する物体認識部3j~6jと、撮像した画像に認識物体12に対するマーカー13を付す制御部3f~6fとを設けるようにしている。これにより、表示手段7として例えば画像の表示機能のみしか有さないような安価なものを用いた場合であっても、物体認識処理に伴う表示を可能とするカメラシステム1を実現することができ、システム全体としてのコストを低減することができる。また、各カメラモジュール3~6に、そのカメラ画像を俯瞰画像に変換する視点変換画像生成部3c~6cを設けたことによっても、表示手段7として画像の表示機能のみを有する安価なものを用いることを可能として、このカメラシステム1のコストを低減することができる。
 さらに、上記カメラシステム1では、それぞれのカメラモジュール3~6に、その撮像部3b~6bが撮像した画像から認識された認識物体12の座標情報を車両ネットワーク9に出力する通信部3g~6gを設けるようにしたので、互いに隣り合うカメラ画像の境界A~Dに認識物体12が位置した場合に、これらのカメラ画像にマーカー13を付する2つのカメラモジュール3~6が、車両ネットワーク9を介して他のカメラモジュール3~6の画像において認識された認識物体12の座標情報を利用することを可能として、当該カメラモジュール3~6の制御部3f~6fに認識物体12に正確にマーカー13を付させることができる。
 本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。したがって、これらの変形や修正は本発明の範囲に含まれることに留意されたい。
 前記実施形態では、スレーブとなるカメラモジュール3~6が車両ネットワーク9を介してマスターのカメラモジュール3~6から認識物体12の座標情報を取得し、その取得した座標情報を利用して画像中にマーカー13を付すようにしているが、これに限らない。すなわち、少なくとも1つのカメラモジュール3~6が車両ネットワーク9を介して他のカメラモジュール3~6から認識物体12の座標情報を取得し、その取得した座標情報を利用して画像中にマーカー13を付す構成であればよい。例えば、隣り合うカメラ画像を出力する両方のカメラモジュール3~6が、それぞれ車両ネットワーク9を介して他のカメラモジュール3~6から認識物体12の座標情報を取得し、その取得した座標情報を利用して画像中にマーカー13を付す構成とすることもできる。
 また、いずれか一つのカメラモジュール3~6の制御部3f~6fを主制御部に設定し、この主制御部とされた制御部3f~6fが車両ネットワーク9を介して他の全てのカメラモジュール3~6から認識物体12の座標情報を取得し、その取得した座標情報を利用して全てのカメラ画像つまり車両周辺画像にマーカー13を付す構成とすることもできる。この場合、車両ネットワーク9に接続されたECU等の処理ユニット10により、車両ネットワーク9の規格におけるネゴシエーションのプロトコルに準拠して、各カメラモジュール3~6にアドレス等の識別情報が割り当てられ、この割り当てられた識別情報に応じて、いずれか1つのカメラモジュール3~6の制御部3f~6fを主制御部に設定するように構成することができる。主制御部とされた制御部3f~6fは、車両ネットワーク9を介して他のカメラモジュール3~6の制御部3f~6fから他のカメラ画像における認識物体12の座標情報を取得する。そして、自己のカメラ画像における認識物体12の座標情報と、他のカメラ画像における認識物体12の座標情報とに基づいて全てのカメラ画像(車両周辺画像)へのマーカー付加処理を行う。このように主制御部とされた制御部3f~6fは車両ネットワーク9を介して他の制御部3f~6fを統合制御して、車両周辺画像にマーカー13を付すことができる。
 この場合においては、主制御部に設定される制御部6fつまりリアカメラモジュール6の制御部6fのみが画像中にマーカー13を付す機能のソフトウェアがアクティブ化され、他のカメラモジュール3~5の制御部3f~5fは、画像中にマーカー13を付す機能のソフトウェアがインアクティブ化するように構成される。また、他のカメラモジュールの制御部が主制御部に設定されたときには、その制御部のみが、画像中にマーカー13を付す機能のソフトウェアがアクティブ化され、他のカメラモジュールの制御部の当該機能のソフトウェアはインアクティブ化される。したがって、主制御部に設定した制御部により、車両ネットワーク9を介して他の制御部を統合制御する構成とした場合であっても、各カメラモジュール3~6として同じ構成のものを用いることを可能として、このカメラシステム1の全体的なコストを低減することができる。
 さらに、前記実施形態においては、車両2に4つのカメラモジュール3~6を設けるようにしているが、これに限らず、車両2の周辺を撮像することができれば、カメラモジュール3~6の数は任意に設定することができる。
 さらに、前記実施形態においては、撮像部3b~6bが撮像した画像にマーカー13を付し、マーカー13が付された画像を表示手段7に出力するようにしているが、これに限らず、カメラ画像とは別に生成したマーカー画像を、車両ネットワーク9を介して表示手段7に入力し、表示手段7においてカメラ画像にマーカー画像を重畳表示させるようにしてもよい。
 さらに、前記実施形態では、各カメラモジュール3~6に視点変換画像生成部3c~6cを設け、撮像部3b~6bが撮像した画像を視点変換画像生成部3c~6cにより俯瞰画像に加工してから表示手段7に出力するようにしているが、これに限らず、撮像部3b~6bが撮像した画像をそのまま表示手段7に出力するようにしてもよい。また、視点変換画像生成部3c~6cをリアカメラモジュール6にのみ設けて画像合成部6iが合成した画像を一括して俯瞰画像に加工するようにしてもよい。また、視点変換画像生成部3c~6cを表示手段7に設けて表示手段7において各カメラ画像または車両周辺画像を俯瞰画像に加工するようにしてもよい。
 さらに、前記実施形態においては、フロントカメラモジュール3と両サイドカメラモジュール4,5とをリアカメラモジュール6に接続し、リアカメラモジュール6に設けた画像合成部6iおいて各カメラモジュール3~6が撮像したカメラ画像を合成し、表示手段7に出力するようにしているが、これに限らず、全てのカメラモジュール3~6を表示手段7に直接接続する構成としてもよい。この場合、リアカメラモジュール6を、図3に示す他のカメラモジュール3~5と同様の構成として、このカメラモジュール3~6の汎用性を高めることができる。
 さらに、前記実施の形態においては、各カメラモジュール3~6は、通信部3g~6gにより、自己の撮像部3b~6bが撮像した画像から認識した認識物体12の座標情報を車両ネットワーク9に出力するが、認識物体12の座標情報に加えて、認識物体12の移動ベクトル情報や各カメラモジュール3~6の制御部3f~6fが生成したマーカー13の座標情報の少なくともいずれか一つをさらに車両ネットワーク9に出力するようにしてもよい。この場合、スレーブのカメラモジュール3~6は、車両ネットワーク9を介して取得したマスターのカメラモジュール3~6からの認識物体12の座標情報に加えて、認識物体12の移動ベクトル情報や各カメラモジュール3~6の制御部3f~6fが生成したマーカー13の座標情報を利用して、自己のマーカー13を生成することができる。これにより、制御部3f~6fにより、より正確にマーカー13を表示することができる。マーカー13の座標情報としては、例えばマーカー13が矩形の場合には、カメラ画像中におけるマーカー13の基準位置の座標情報および各辺の長さおよび方向等の情報、マーカー13が円形の場合には、その中心位置の座標情報およびその半径寸法の情報とするなど、マーカー13を生成することができる座標情報を含むようにすることができる。
 さらに、前記実施形態では、車両周辺画像において隣り合う一対のカメラ画像が境界A~Dを境に接している場合を示しているが、隣り合うカメラ画像の双方に物体12が位置するように表示することができれば、隣り合うカメラ画像の間に隙間があってもよい。
 1 カメラシステム
 2 車両
 3 フロントカメラモジュール
 4,5 サイドカメラモジュール
 6 リアカメラモジュール
 3a~6a レンズ部
 3b~6b 撮像部
 3c~6c 視点変換画像生成部
 3d~6d 出力部
 3e~6e 電源部
 3f~6f 制御部
 3g~6g 通信部
 3h~6h 記憶部
 6i 画像合成部
 3j~6j 物体認識部
 7 表示手段
 7a 画面
 7a1~7a4 分割範囲
 8 車両モデル
 9 車両ネットワーク
 10 処理ユニット
 11 物体認識部
 12 物体
 13 マーカー
 A~D 境界
 x,x1 領域
 y,y1 領域

Claims (11)

  1.  車両の周辺を撮像する複数のカメラモジュールを備え、複数の前記カメラモジュールが撮像した各カメラ画像を出力し、前記車両内の表示手段にて各画像を合成した車両周辺画像が表示されるカメラシステムであって、
     複数の前記カメラモジュールは、それぞれ自己の撮像したカメラ画像から物体認識処理を行う物体認識部と、前記車両に設けられた車両ネットワークを介した通信を行う通信部と、を有し、
     前記通信部は、それぞれ前記物体認識部で認識した認識物体の座標情報を前記車両ネットワークに出力することを特徴とするカメラシステム。
  2.  前記複数のカメラモジュールの少なくとも一つは、前記車両ネットワークを介して他のカメラモジュールから前記認識物体の座標情報を取得し、当該取得した座標情報を用いて前記車両周辺画像中の前記認識物体に対するマーカーを付す、請求項1に記載のカメラシステム。
  3.  複数の前記カメラモジュールの少なくとも一つは、互いに隣り合う一対のカメラ画像の双方に前記認識物体が位置する場合に、前記座標情報を用いて、一方のカメラ画像と他方のカメラ画像との双方に跨る連続したマーカーを生成する、請求項2に記載のカメラシステム。
  4.  複数の前記カメラモジュールの少なくとも一つは、前記マーカーの位置、大きさおよび形状の少なくとも一つを変更する、請求項3に記載のカメラシステム。
  5.  複数の前記カメラモジュールは、それぞれ制御部を有し、該制御部のいずれか一つが主制御部となって、前記座標情報を用いた前記車両周辺画像へのマーカー付加処理を行う請求項2に記載のカメラシステム。
  6.  前記主制御部は、複数の前記カメラモジュールのそれぞれに設けられた他の制御部を、前記車両ネットワークを介して統括制御する請求項5に記載のカメラシステム。
  7.  複数の前記カメラモジュールは、それぞれ前記車両ネットワークを介して接続される前記車両の処理ユニットにより識別情報が割り当てられ、該識別情報に応じて前記主制御部が決定される請求項6に記載のカメラシステム。
  8.  前記識別情報の割り当ては、前記車両ネットワークの規格におけるネゴシエーションのプロトコルに準拠して行われる請求項7に記載のカメラシステム。
  9.  前記カメラ画像は、撮像部が撮像した画像を視点変換した俯瞰画像である、請求項1に記載のカメラシステム。
  10.  複数のカメラモジュールが撮像した各カメラ画像を合成して、車両内の表示手段に車両周辺画像として表示を行うカメラシステムに用いられるカメラモジュールであって、
     前記車両の周辺を撮像する撮像部と、
     前記撮像部が撮像した画像から物体認識処理を行う物体認識部と、
     前記車両に設けられた車両ネットワークを介した通信を行う通信部と、を有し、
     前記通信部は、前記物体認識部で認識した認識物体の座標情報を前記車両ネットワークに出力する、ことを特徴とするカメラモジュール。
  11.  複数のカメラモジュールが撮像した各カメラ画像を合成して、車両内の表示手段に車両周辺画像として表示を行う際のカメラ制御方法であって、
     前記カメラモジュールが、自己が撮像したカメラ画像から物体認識処理により認識物体を認識する認識工程と、
     前記カメラモジュールが、前記認識工程において認識した認識物体の座標情報を車両に設けられた車両ネットワークに出力する出力工程と、を有することを特徴とするカメラ制御方法。
PCT/JP2013/007510 2012-12-25 2013-12-20 カメラシステム、カメラモジュールおよびカメラ制御方法 WO2014103272A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP13867217.5A EP2939877B1 (en) 2012-12-25 2013-12-20 Camera system, camera module, and camera control method
US14/655,028 US10242254B2 (en) 2012-12-25 2013-12-20 Camera system for a vehicle, camera module, and method of controlling camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012281745A JP6022930B2 (ja) 2012-12-25 2012-12-25 カメラシステム、カメラモジュールおよびカメラ制御方法
JP2012-281745 2012-12-25

Publications (1)

Publication Number Publication Date
WO2014103272A1 true WO2014103272A1 (ja) 2014-07-03

Family

ID=51020390

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/007510 WO2014103272A1 (ja) 2012-12-25 2013-12-20 カメラシステム、カメラモジュールおよびカメラ制御方法

Country Status (4)

Country Link
US (1) US10242254B2 (ja)
EP (1) EP2939877B1 (ja)
JP (1) JP6022930B2 (ja)
WO (1) WO2014103272A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11608102B2 (en) 2016-02-23 2023-03-21 Kyocera Corporation Vehicle and in-vehicle control method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242460B2 (en) 2014-09-26 2019-03-26 Kyocera Corporation Imaging apparatus, car, and variation detection method
US9718405B1 (en) 2015-03-23 2017-08-01 Rosco, Inc. Collision avoidance and/or pedestrian detection system
DE102017209427B3 (de) * 2017-06-02 2018-06-28 Volkswagen Aktiengesellschaft Vorrichtung zur Fahrschlauchabsicherung
JP7263731B2 (ja) * 2018-10-26 2023-04-25 株式会社デンソー 画像処理装置
WO2020116205A1 (ja) 2018-12-07 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、および情報処理方法、並びにプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233864A (ja) * 2006-03-02 2007-09-13 Denso Corp 死角支援情報報知装置及びプログラム
JP2009101984A (ja) * 2007-10-01 2009-05-14 Nissan Motor Co Ltd 駐車支援装置及び方法
JP4742733B2 (ja) 2005-08-05 2011-08-10 日産自動車株式会社 画像つなぎ目処理装置および画像つなぎ目処理方法
JP2011205514A (ja) * 2010-03-26 2011-10-13 Aisin Seiki Co Ltd 車両周辺監視装置
JP2012113605A (ja) 2010-11-26 2012-06-14 Toshiba Alpine Automotive Technology Corp 運転支援装置及び運転支援方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006018951A1 (ja) * 2004-08-18 2006-02-23 Olympus Corporation 画像生成方法および画像生成装置
JP2006143009A (ja) * 2004-11-19 2006-06-08 Fuji Heavy Ind Ltd 車両の運転支援装置
EP1696669B1 (en) * 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Vehicle surrounding monitoring device
JP2007187618A (ja) * 2006-01-16 2007-07-26 Omron Corp 物体識別装置
US9041806B2 (en) * 2009-09-01 2015-05-26 Magna Electronics Inc. Imaging and display system for vehicle
EP2431226B1 (de) * 2010-09-17 2016-07-27 SMR Patents S.à.r.l. Rückblickeinrichtung für ein Kraftfahrzeug
DE102011077398B4 (de) * 2011-06-10 2021-11-04 Robert Bosch Gmbh Fahrzeugkamerasystem zur Bereitstellung eines lückenlosen Bildes der Fahrzeugumgebung und entsprechendes Verfahren

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4742733B2 (ja) 2005-08-05 2011-08-10 日産自動車株式会社 画像つなぎ目処理装置および画像つなぎ目処理方法
JP2007233864A (ja) * 2006-03-02 2007-09-13 Denso Corp 死角支援情報報知装置及びプログラム
JP2009101984A (ja) * 2007-10-01 2009-05-14 Nissan Motor Co Ltd 駐車支援装置及び方法
JP2011205514A (ja) * 2010-03-26 2011-10-13 Aisin Seiki Co Ltd 車両周辺監視装置
JP2012113605A (ja) 2010-11-26 2012-06-14 Toshiba Alpine Automotive Technology Corp 運転支援装置及び運転支援方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2939877A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11608102B2 (en) 2016-02-23 2023-03-21 Kyocera Corporation Vehicle and in-vehicle control method

Also Published As

Publication number Publication date
JP2014125029A (ja) 2014-07-07
JP6022930B2 (ja) 2016-11-09
US10242254B2 (en) 2019-03-26
EP2939877A1 (en) 2015-11-04
US20150347830A1 (en) 2015-12-03
EP2939877B1 (en) 2018-05-16
EP2939877A4 (en) 2016-08-24

Similar Documents

Publication Publication Date Title
WO2014103272A1 (ja) カメラシステム、カメラモジュールおよびカメラ制御方法
CN105308620B (zh) 信息处理设备、接近对象通知方法和程序
JP5321711B2 (ja) 車両用周辺監視装置および映像表示方法
JP2008299676A (ja) 死角情報要求/提供装置及びこれらを利用した車車間通信システム
KR101198206B1 (ko) 휴대 단말을 이용한 차량 주변 영상 제공 시스템 및 그 방법
JP2009081664A (ja) 車両用周辺監視装置および映像表示方法
JP2002367080A (ja) 車両用視覚支援方法及び装置
JP2012040883A (ja) 車両周囲画像生成装置
JP2016168877A (ja) 車両用視認装置
CN111246160A (zh) 信息提供***和方法、服务器、车载装置以及存储介质
JP2008207627A (ja) 車載撮像システム、撮像装置及び表示制御装置
CN106169258A (zh) 用于辅助车辆操纵过程的方法和装置
WO2019142660A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP2006254318A (ja) 車載用カメラ及び車載用監視装置並びに前方道路領域撮像方法
JP5195776B2 (ja) 車両周辺監視装置
JP6185135B2 (ja) 統合画像処理システム
JP2016213708A (ja) 車両用表示装置
JP2007329611A (ja) 車両周辺監視装置、車両周辺監視システム、および車両周辺監視方法
JP5991688B2 (ja) ステレオカメラユニット及び自動車用モニタシステム
JP6054738B2 (ja) カメラモジュール、カメラシステムおよび画像表示方法
CN115883778A (zh) 移动体、图像处理方法和存储介质
US20220224830A1 (en) Imaging device and imaging method
JP4730819B2 (ja) 周辺状況表示装置及び周辺状況表示方法
US20210377485A1 (en) Imaging device
JP6209921B2 (ja) 予測進路提示システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13867217

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14655028

Country of ref document: US

Ref document number: 2013867217

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE