WO2020241953A1 - 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 - Google Patents

차량용 전자 장치 및 차량용 전자 장치의 동작 방법 Download PDF

Info

Publication number
WO2020241953A1
WO2020241953A1 PCT/KR2019/006622 KR2019006622W WO2020241953A1 WO 2020241953 A1 WO2020241953 A1 WO 2020241953A1 KR 2019006622 W KR2019006622 W KR 2019006622W WO 2020241953 A1 WO2020241953 A1 WO 2020241953A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
information
processor
data
cluster
Prior art date
Application number
PCT/KR2019/006622
Other languages
English (en)
French (fr)
Inventor
박찬호
김경희
윤태희
이동하
조계환
이주영
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/006622 priority Critical patent/WO2020241953A1/ko
Priority to US16/500,803 priority patent/US20220076580A1/en
Priority to KR1020190107727A priority patent/KR20190107282A/ko
Publication of WO2020241953A1 publication Critical patent/WO2020241953A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0295Fleet control by at least one leading vehicle of the fleet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/22Platooning, i.e. convoy of communicating vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1863Arrangements for providing special services to substations for broadcast or conference, e.g. multicast comprising mechanisms for improved reliability, e.g. status reports
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0026Lookup tables or parameter maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2754/00Output or target parameters relating to objects
    • B60W2754/10Spatial relation or speed relative to objects
    • B60W2754/30Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9325Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles for inter-vehicle distance regulation, e.g. navigating in platoons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • the present invention relates to an electronic device for a vehicle and a method of operating the electronic device for a vehicle.
  • a vehicle is a device that moves in a direction desired by a boarding user.
  • a typical example is a car.
  • Autonomous vehicle refers to a vehicle that can be driven automatically without human driving operation.
  • a plurality of vehicles may form a cluster and drive autonomously.
  • cluster driving cannot be maintained.
  • information must be efficiently exchanged between the plurality of vehicles.
  • an object of the present invention is to provide a method of operating an electronic device for a vehicle that enables communication to be smoothly performed and information to be exchanged efficiently when a plurality of vehicles are collectively driven autonomously.
  • the obtained information is classified according to a usage purpose,
  • the processing of the first information is allocated to the first processing unit, and when the information is determined to be second information used for cluster monitoring, the second processing unit is referred to And a processor that allocates processing of the second information.
  • the processor transmits the first information to at least one other vehicle in the cluster, and transmits a first signal corresponding to the first information from the other vehicle in a first signal method.
  • the second signal is received through and transmitted to the other vehicle, and a second signal corresponding to the second information is received from the other vehicle through a second signal method different from the first signal method.
  • the processor uses the first information for at least one of an autonomous driving path generation operation, a cluster external object detection operation, and a 3D map data generation operation.
  • the processor uses the second information for at least one of an operation for adjusting a distance between vehicles in the cluster and an operation for confirming reflection of a control command.
  • the first information is generated based on at least a part of first sensing data generated from a first sensor
  • the second information is a first sensing generated from the first sensor. It is created based on at least some of the data.
  • the processor transmits at least one of the first information and the second information to a server, and receives result data generated by processing the information transmitted from the server.
  • the processor when it is determined that the situation of the cluster is changed, reclassifies information obtained after the change of the situation of the cluster according to the usage purpose.
  • the processor obtains information by fusion of sensing data received from a plurality of sensors and sensing data of another vehicle received through a communication device.
  • the processor generates first transmission data by adding vehicle ID data and timestamp data to the first information, in the first processing unit, and the second processing unit In the second information, vehicle ID data and time stamp data are added to generate second transmission data.
  • the processor broadcasts the first transmission data and the second transmission data.
  • At least one processor may use the obtained information for use purposes.
  • Classifying according to; Including, wherein the classifying comprises: when the at least one processor determines that the information is first information used for cluster driving, allocating the processing of the first information to a first processing unit step; And if the at least one processor determines that the information is second information used for cluster monitoring, allocating the processing of the second information to a second processing unit.
  • At least one processor transmitting the first information to at least one other vehicle in the cluster; Receiving, by at least one processor, a first signal corresponding to the first information from the other vehicle through a first signal method; Transmitting, by at least one processor, the second information to the other vehicle; And receiving, by at least one processor, a second signal corresponding to the second information from the other vehicle through a second signal method different from the first signal method.
  • At least one processor uses the first information for at least one of an autonomous driving path generation operation, a cluster external object detection operation, and a 3D map data generation operation.
  • At least one processor uses the second information for at least one of an operation for adjusting a distance between vehicles in the cluster and an operation for confirming reflection of a control command.
  • the first information is generated based on at least a part of first sensing data generated from a first sensor
  • the second information is a first sensing generated from the first sensor. It is created based on at least some of the data.
  • At least one processor transmitting at least one of the first information and the second information to a server; And receiving, by at least one processor, result data generated by processing the information transmitted from the server.
  • reclassifying information obtained after the change of the situation of the cluster according to the usage purpose further includes.
  • At least one processor obtaining information by fusion of sensing data received from a plurality of sensors and sensing data of another vehicle received through the communication device; further includes.
  • At least one processor at the first processing unit, adding vehicle ID data and timestamp data to the first information to generate first transmission data; And generating, by at least one processor, second transmission data by adding vehicle ID data and time stamp data to the second information by the second processing unit.
  • At least one processor broadcasting the first transmission data; And at least one processor broadcasting the second transmission data.
  • FIG. 1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
  • FIG. 2 is a control block diagram of a vehicle according to an embodiment of the present invention.
  • FIG. 3 is a control block diagram of an electronic device for a vehicle according to an embodiment of the present invention.
  • FIG. 4 is a flow chart of an electronic device for a vehicle according to an embodiment of the present invention.
  • 5 to 6 are diagrams referenced for explaining a method of obtaining information according to an embodiment of the present invention.
  • FIGS. 7 to 17 are diagrams referenced for describing a communication method between a plurality of vehicles driving in a cluster according to an embodiment of the present invention.
  • FIG. 1 is a view showing a vehicle according to an embodiment of the present invention.
  • a vehicle 10 is defined as a means of transport running on a road or track.
  • the vehicle 10 is a concept including a car, a train, and a motorcycle.
  • the vehicle 10 may be a concept including both an internal combustion engine vehicle including an engine as a power source, a hybrid vehicle including an engine and an electric motor as a power source, and an electric vehicle including an electric motor as a power source.
  • the vehicle 10 may be a shared vehicle.
  • the vehicle 10 may be an autonomous vehicle.
  • the vehicle 10 may be one of a plurality of vehicles constituting the cluster driving system.
  • the cluster driving system may be described as an aggregate of a plurality of vehicles traveling in a cluster while a plurality of vehicles communicate with each other.
  • the vehicle 10 may be a vehicle running in the forefront of the cluster. In this case, the vehicle 10 may be referred to as a leader vehicle or a master vehicle.
  • the vehicle 10 may be a vehicle running in the middle or rear of the cluster. In this case, the vehicle 10 may be referred to as a slave vehicle.
  • the electronic device 100 may be included in the vehicle 10.
  • the electronic device 100 may be a device for sharing information among a plurality of vehicles when a plurality of vehicles travel in a cluster.
  • FIG. 2 is a control block diagram of a vehicle according to an embodiment of the present invention.
  • the vehicle 10 includes an electronic device 100 for a vehicle, a user interface device 200, an object detection device 210, a communication device 220, a driving operation device 230, and a main ECU 240. ), a vehicle driving device 250, a driving system 260, a sensing unit 270, and a location data generating device 280.
  • the vehicle electronic device 100 may be included in a vehicle that functions as a leader vehicle when driving in a cluster. Depending on the embodiment, the vehicle electronic device 100 may be included in a following vehicle during cluster driving.
  • the vehicle electronic device 100 may be a device that shares information between a plurality of vehicles traveling in a cluster.
  • the vehicle electronic device 100 may classify the obtained information according to a usage purpose and provide it to at least one other vehicle forming a cluster.
  • the in-vehicle electronic device 100 may provide information to at least one other vehicle forming a cluster through local communication.
  • the vehicle electronic device 100 may provide information to at least one other vehicle forming a cluster through a broadcasting method.
  • the user interface device 200 is a device for communicating with the vehicle 10 and a user.
  • the user interface device 200 may receive a user input and provide information generated in the vehicle 10 to the user.
  • the vehicle 10 may implement a user interface (UI) or a user experience (UX) through the user interface device 200.
  • UI user interface
  • UX user experience
  • the object detection device 210 may detect an object outside the vehicle 10.
  • the object detection device 210 may include at least one sensor capable of detecting an object outside the vehicle 10.
  • the object detection device 210 may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor.
  • the object detection device 210 may provide data on an object generated based on a sensing signal generated by a sensor to at least one electronic device included in the vehicle.
  • the communication device 220 may exchange signals with devices located outside the vehicle 10.
  • the communication device 220 may exchange signals with at least one of an infrastructure (eg, a server, a broadcasting station) and another vehicle.
  • the communication device 220 may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
  • RF radio frequency
  • the driving operation device 230 is a device that receives a user input for driving. In the case of the manual mode, the vehicle 10 may be driven based on a signal provided by the driving operation device 230.
  • the driving operation device 230 may include a steering input device (eg, a steering wheel), an acceleration input device (eg, an accelerator pedal), and a brake input device (eg, a brake pedal).
  • the main ECU 240 may control the overall operation of at least one electronic device provided in the vehicle 10.
  • the drive control device 250 is a device that electrically controls various vehicle drive devices in the vehicle 10.
  • the drive control device 250 may include a power train drive control device, a chassis drive control device, a door/window drive control device, a safety device drive control device, a lamp drive control device, and an air conditioning drive control device.
  • the power train drive control device may include a power source drive control device and a transmission drive control device.
  • the chassis drive control device may include a steering drive control device, a brake drive control device, and a suspension drive control device.
  • the safety device driving control device may include a safety belt driving control device for controlling the safety belt.
  • the vehicle drive control device 250 may be referred to as a control Electronic Control Unit (ECU).
  • ECU control Electronic Control Unit
  • the driving system 260 may control a movement of the vehicle 10 or generate a signal for outputting information to a user based on data on an object received by the object detection device 210.
  • the driving system 260 may provide the generated signal to at least one of the user interface device 200, the main ECU 240, and the vehicle driving device 250.
  • the driving system 260 may be a concept including ADAS.
  • ADAS 260 includes an adaptive cruise control system (ACC), an automatic emergency braking system (AEB), a forward collision warning system (FCW), and a lane maintenance assistance system (LKA: Lane Keeping Assist), Lane Change Assist (LCA), Target Following Assist (TFA), Blind Spot Detection (BSD), Adaptive High Beam Control System (HBA: High) Beam Assist), Auto Parking System (APS), PD collision warning system, Traffic Sign Recognition (TSR), Traffic Sign Assist (TSA), At least one of a night vision system (NV: Night Vision), a driver status monitoring system (DSM), and a traffic jam assistance system (TJA) may be implemented.
  • ACC adaptive cruise control system
  • AEB automatic emergency braking system
  • FCW forward collision warning system
  • LKA Lane Keeping Assist
  • Lane Change Assist LCA
  • TFA Target Following Assist
  • BSD Blind Spot Detection
  • the driving system 260 may include an autonomous driving electronic control unit (ECU).
  • the autonomous driving ECU may set an autonomous driving route based on data received from at least one of other electronic devices in the vehicle 10.
  • the autonomous driving ECU is based on data received from at least one of the user interface device 200, the object detection device 210, the communication device 220, the sensing unit 270, and the location data generating device 280, You can set an autonomous driving route.
  • the autonomous driving ECU may generate a control signal so that the vehicle 10 travels along the autonomous driving path.
  • the control signal generated by the autonomous driving ECU may be provided to at least one of the main ECU 240 and the vehicle driving device 250.
  • the sensing unit 270 may sense the state of the vehicle.
  • the sensing unit 270 includes an inertial navigation unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, a tilt sensor, a weight detection sensor, a heading sensor, a position module, and a vehicle.
  • IMU inertial navigation unit
  • a collision sensor a wheel sensor
  • a speed sensor a speed sensor
  • a tilt sensor a weight detection sensor
  • a heading sensor a position module
  • a vehicle At least one of forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle interior temperature sensor, vehicle interior humidity sensor, ultrasonic sensor, illuminance sensor, accelerator pedal position sensor, and brake pedal position sensor It may include.
  • the inertial navigation unit (IMU) sensor may include one or more of an acceleration sensor, a gyro sensor, and a magnetic sensor.
  • the sensing unit 270 may generate state data of the vehicle based on a signal generated by at least one sensor.
  • the sensing unit 270 includes vehicle attitude information, vehicle motion information, vehicle yaw information, vehicle roll information, vehicle pitch information, vehicle collision information, vehicle direction information, vehicle angle information, and vehicle speed.
  • the sensing unit 270 includes an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake air temperature sensor (ATS), a water temperature sensor (WTS), and a throttle position sensor. (TPS), a TDC sensor, a crank angle sensor (CAS), and the like may be further included.
  • the sensing unit 270 may generate vehicle state information based on the sensing data.
  • the vehicle status information may be information generated based on data sensed by various sensors provided inside the vehicle.
  • the vehicle status information includes vehicle attitude information, vehicle speed information, vehicle tilt information, vehicle weight information, vehicle direction information, vehicle battery information, vehicle fuel information, vehicle tire pressure information, It may include vehicle steering information, vehicle interior temperature information, vehicle interior humidity information, pedal position information, vehicle engine temperature information, and the like.
  • the sensing unit may include a tension sensor.
  • the tension sensor may generate a sensing signal based on a tension state of the seat belt.
  • the location data generating device 280 may generate location data of the vehicle 10.
  • the location data generating apparatus 280 may include at least one of a Global Positioning System (GPS) and a Differential Global Positioning System (DGPS).
  • GPS Global Positioning System
  • DGPS Differential Global Positioning System
  • the location data generating apparatus 280 may generate location data of the vehicle 10 based on a signal generated by at least one of GPS and DGPS.
  • the location data generating apparatus 280 may correct the location data based on at least one of an IMU (Inertial Measurement Unit) of the sensing unit 270 and a camera of the object detection apparatus 210.
  • IMU Inertial Measurement Unit
  • the location data generating device 280 may be referred to as a location positioning device.
  • the location data generating device 280 may be referred to as a Global Navigation Satellite System (GNSS).
  • GNSS Global Navigation Satellite System
  • Vehicle 10 may include an internal communication system 50.
  • a plurality of electronic devices included in the vehicle 10 may exchange signals through the internal communication system 50.
  • the signal may contain data.
  • the internal communication system 50 may use at least one communication protocol (eg, CAN, LIN, FlexRay, MOST, Ethernet).
  • FIG. 3 is a control block diagram of an electronic device according to an embodiment of the present invention.
  • the electronic device 100 may include a memory 140, a processor 170, an interface unit 180, and a power supply unit 190.
  • the memory 140 is electrically connected to the processor 170.
  • the memory 140 may store basic data for a unit, control data for controlling the operation of the unit, and input/output data.
  • the memory 140 may store data processed by the processor 170.
  • the memory 140 may be configured with at least one of ROM, RAM, EPROM, flash drive, and hard drive.
  • the memory 140 may store various data for overall operation of the electronic device 100, such as a program for processing or controlling the processor 170.
  • the memory 140 may be implemented integrally with the processor 170. Depending on the embodiment, the memory 140 may be classified as a sub-element of the processor 170.
  • the interface unit 180 may exchange signals with at least one electronic device provided in the vehicle 10 by wire or wirelessly.
  • the interface unit 280 includes an object detection device 210, a communication device 220, a driving operation device 230, a main ECU 140, a vehicle driving device 250, an ADAS 260, and a sensing unit 170. And it is possible to exchange a signal with at least one of the location data generating device 280 wired or wirelessly.
  • the interface unit 280 may be configured with at least one of a communication module, a terminal, a pin, a cable, a port, a circuit, an element, and a device.
  • the interface unit 180 may receive location data of the vehicle 10 from the location data generating device 280.
  • the interface unit 180 may receive driving speed data from the sensing unit 270.
  • the interface unit 180 may receive object data around the vehicle from the object detection device 210.
  • the power supply unit 190 may supply power to the electronic device 100.
  • the power supply unit 190 may receive power from a power source (eg, a battery) included in the vehicle 10 and supply power to each unit of the electronic device 100.
  • the power supply unit 190 may be operated according to a control signal provided from the main ECU 140.
  • the power supply unit 190 may be implemented as a switched-mode power supply (SMPS).
  • SMPS switched-mode power supply
  • the processor 170 may be electrically connected to the memory 140, the interface unit 280, and the power supply unit 190 to exchange signals.
  • the processor 170 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, and controllers. It may be implemented using at least one of (controllers), micro-controllers, microprocessors, and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors and controllers. It may be implemented using at least one of (controllers), micro-controllers, microprocessors, and electrical units for performing other functions.
  • the processor 170 may be driven by power provided from the power supply unit 190.
  • the processor 170 may receive data, process data, generate a signal, and provide a signal while power is supplied by the power supply unit 190.
  • the processor 170 may receive information from another electronic device in the vehicle 10 through the interface unit 180.
  • the processor 170 may provide a control signal to another electronic device in the vehicle 10 through the interface unit 180.
  • the processor 170 may obtain information.
  • the processor 170 may receive sensing data from a plurality of sensors included in the object detection apparatus 210.
  • the processor 170 may receive sensing data of another vehicle from another vehicle forming a cluster through the communication device 210.
  • the processor 170 may generate information by fusion of sensing data of the vehicle 10 and sensing data of another vehicle.
  • the processor 170 may include first sensing data of the vehicle 10 running at the head of the cluster, second sensing data of another vehicle running in the middle of the cluster, and the second sensing data of another vehicle running at the rear of the cluster.
  • First information may be generated by fusion of sensing data.
  • the first sensing data, the second sensing data, and the third sensing data may be sensing data obtained from a sensor facing the outside of the cluster.
  • the processor 170 for example, the processor 170, the fourth sensing data of the vehicle 10 running at the head of the cluster, the fifth sensing data of another vehicle running in the middle of the cluster, Second information may be generated by fusion of the sixth sensing data of another vehicle driving at the rear of the cluster.
  • the fourth sensing data, the fifth sensing data, and the sixth sensing data may be sensing data obtained from a sensor facing the inside of the cluster.
  • the processor 170 may classify the obtained information according to usage purposes. When it is determined that the acquired information is the first information used for cluster driving, the processor 170 may allocate the processing of the first information to the first processing unit.
  • the first information may be defined as information necessary to control the running of the cluster. For example, the first information may be information necessary to generate an autonomous driving route. For example, the first information may be information necessary to detect an object outside the vehicle (or cluster). For example, the first information may be information necessary to generate 3D map data. The first information may be information based on sensing data generated by a sensor that senses the outside of the cluster.
  • the first processing unit may be classified as a sub-element of the processor 170.
  • the first processing unit may be configured as a separate hardware such as a microprocessor, or may be configured as a software block.
  • the processor 170 may allocate the processing of the second information to the second processing unit.
  • the second information may be defined as information necessary to manage the cluster.
  • the second information may be information necessary to adjust the distance between vehicles within the cluster.
  • the second information may be information necessary to confirm whether a control command generated by the vehicle 10 is reflected in another vehicle.
  • the second information may be information based on sensing data generated by a sensor that senses the interior of the cluster.
  • the second processing unit may be classified as a sub-element of the processor 170.
  • the second processing unit may be composed of separate hardware such as a microprocessor, or may be composed of a software block.
  • the second information may be control command information generated by the processor 170.
  • the second information may include a steering control command, an acceleration control command, and a deceleration control command.
  • the processor 170 may divide the plurality of sensors into a first sensor group that acquires first information and a second sensor group that acquires second information. For example, the processor 170 may classify sensors in which a vehicle forming a cluster is not detected among a plurality of sensors into a first sensor group. For example, the processor 170 may classify a sensor in which a vehicle forming a cluster is detected among a plurality of sensors into a second sensor group.
  • the first sensor group may be composed of a combination of a plurality of sensors provided in various vehicles in the cluster.
  • the second sensor group may be configured by a combination of a plurality of sensors provided in various vehicles in the cluster.
  • the processor 170 may classify information received from the first sensor group as first information and information received from the second sensor group as second information.
  • the processor 170 may divide a sensing region of any one of the plurality of sensors into a first region and a second region. For example, the processor 170 may set an area in which vehicles forming a cluster are not detected as the first area in the entire detection area. For example, the processor 170 may set an area in which vehicles forming a cluster are detected as the second area in the entire detection area. The processor 170 may classify information on the first region as first information and information on the second region as second information.
  • the processor 170 may transmit the first information to at least one other vehicle in the cluster. For example, the processor 170 may transmit the first information to at least one other vehicle in the cluster through a first signal method. The processor 170 may receive a first signal corresponding to the first information through a first signal method. The processor 170 may transmit the second information to at least one other vehicle in the cluster. For example, the processor 170 may transmit the second information to at least one other vehicle in the cluster through a second signal method. The processor 170 may receive a second signal corresponding to the second information from at least one other vehicle in the cluster through a second signal method. The second signaling scheme may be different from the first signaling scheme. For example, the second signal method may differ from the first signal method in at least one of a reception period, a reception form, and a reception frequency.
  • the processor 170 may use the first information for at least one of an autonomous driving path generation operation, a cluster external object detection operation, and a 3D map data generation operation.
  • the processor 170 may use the second information for at least one of a distance adjustment operation between vehicles in the cluster and a control command reflection confirmation operation.
  • the first information may be generated based on at least a portion of the first sensing data generated by the first sensor.
  • the second information may be generated based on at least a portion of the first sensing data generated by the first sensor.
  • the first information and the second information may be based on data obtained from a sensor facing the rear of the vehicle 10.
  • the first information may be based on sensing data of an area other than an area occupied by clusters, among data acquired by a sensor facing the rear of the vehicle 10.
  • the second information may be based on sensing data of an area occupied by a cluster among data acquired by a sensor facing the rear of the vehicle 10.
  • the processor 170 may transmit at least one of the first information and the second information to the server.
  • the server may be an autonomous driving control server.
  • the server may perform an operation of generating an autonomous driving route, an operation of detecting an object outside the cluster, and an operation of generating 3D map data based on the received first information.
  • the server may provide result data of the autonomous driving route generation operation, the cluster external object detection operation, and the 3D map data generation operation to the vehicle 10.
  • the processor 170 may receive result data generated by processing information transmitted from the server.
  • the processor 170 may reclassify information acquired after the cluster situation change according to the usage purpose.
  • the change in the cluster situation may be described as a situation in which at least one of the plurality of vehicles forming the cluster is separated or at least one vehicle joins the cluster from the outside.
  • the change in the cluster situation may be described as an emergency function operation situation in at least one of a plurality of vehicles forming a cluster.
  • the processor 170 may acquire information by fusion of sensing data received from a plurality of sensors and sensing data of another vehicle received from the communication device 220.
  • a plurality of sensors may be included in the object detection device 210.
  • the processor 170 may generate first transmission data by adding identification (ID) data and timestamp data of the vehicle that generated the first information to the first information in the first processing unit.
  • the processor 170 may generate second transmission data by adding the ID data and time stamp data of the vehicle that generated the second information to the second information in the second processing unit.
  • the processor 170 may broadcast the first transmission data and the second transmission data.
  • the processor 170 may transmit the first transmission data and the second transmission data to a plurality of vehicles forming a cluster.
  • the vehicle receiving the data may retransmit the received data to another vehicle.
  • the electronic device 100 may include at least one printed circuit board (PCB).
  • the memory 140, the interface unit 180, the power supply unit 190, and the processor 170 may be electrically connected to a printed circuit board.
  • 4 is a flow chart of an electronic device for a vehicle according to an embodiment of the present invention. 4 is referenced for describing each step of a method of operating an electronic device for a vehicle.
  • the processor 170 may receive sensing data from a plurality of sensors through the interface unit 180 (S410 ).
  • the processor 170 may receive sensing data of another vehicle from another vehicle in the cluster through the communication device 220 (S420).
  • the processor 170 may generate information based on the sensing data of the vehicle 10 and the sensing data of another vehicle (S430).
  • the processor 170 may acquire information by fusion of sensing data received from a plurality of sensors and sensing data of another vehicle received through the communication device 220.
  • the processor 170 may include first sensing data of the vehicle 10 running at the head of the cluster, second sensing data of another vehicle running in the middle of the cluster, and the second sensing data of another vehicle running at the rear of the cluster.
  • First information may be generated by fusion of sensing data.
  • the first sensing data, the second sensing data, and the third sensing data may be sensing data obtained from a sensor facing the outside of the cluster.
  • the processor 170 for example, the processor 170, the fourth sensing data of the vehicle 10 running at the head of the cluster, the fifth sensing data of another vehicle running in the middle of the cluster, Second information may be generated by fusion of the sixth sensing data of another vehicle driving at the rear of the cluster.
  • the fourth sensing data, the fifth sensing data, and the sixth sensing data may be sensing data obtained from a sensor facing the inside of the cluster.
  • the processor 170 may classify the obtained information according to usage purposes (S435).
  • the classifying step (S430) when the information is determined to be the first information used for cluster driving, allocating the processing of the first information to the first processing unit and the information is determined as second information used for cluster monitoring. In this case, it may include the step of allocating the processing of the second information to the second processing unit.
  • the at least one processor 170 transmits the first information to at least one other vehicle in the cluster, and the at least one processor 170 provides first information from another vehicle.
  • the at least one processor 170 divides the plurality of sensors into a first sensor group for obtaining first information and a second sensor group for obtaining second information, and at least One processor 170 may include classifying the information received from the first sensor group as first information and the information received from the second sensor group as second information.
  • the at least one processor 170 divides any one sensing region among the plurality of sensors into a first region and a second region, and the at least one processor 170, It may include the step of classifying the information on the first area as first information and the information on the second area as second information.
  • the processor 170 may process the first information in the first processing unit (S440). For example, the processor 170 may use the first information for at least one of an autonomous driving path generation operation, a cluster external object detection operation, and a 3D map data generation operation. Meanwhile, the first information may be generated based on at least a part of the first sensing data generated by the first sensor.
  • the processor 170 may generate first transmission data based on the first information (S445).
  • the processor 170 may generate first transmission data by adding vehicle ID data and time stamp data to the first information in the first processing unit.
  • the processor 170 may broadcast the first transmission data to other vehicles forming the cluster (S450).
  • the processor 170 may receive a first signal corresponding to the first information from another vehicle in the cluster (S455).
  • the processor 170 may process the second information in the second processing unit (S460). For example, the processor 170 may use the second information for at least one of a distance adjustment operation between vehicles in the cluster and a control command reflection confirmation operation. Meanwhile, the second information may be generated based on at least a part of the first sensing data generated by the first sensor.
  • the processor 170 may generate second transmission data based on the second information (S465).
  • the processor 170 may generate second transmission data by adding vehicle ID data and time stamp data to the second information in the second processing unit.
  • the processor 170 may broadcast the second transmission data to other vehicles forming the cluster (S475).
  • the processor 170 may receive a second signal corresponding to the second information from another vehicle in the cluster (S475).
  • the at least one processor 170 transmits at least one of first information and second information to a server, and the at least one processor 170 processes the information transmitted from the server. It may further include receiving the generated result data.
  • the method of operating the electronic device for a vehicle may further include reclassifying information obtained after the change of the cluster situation according to usage purposes when it is determined that the cluster situation is changed.
  • 5 to 6 are diagrams referenced for explaining a method of obtaining information according to an embodiment of the present invention.
  • the processor 170 may receive sensing data for a plurality of regions 511, 512, and 513 from a plurality of sensors of the object detection device 210 through the interface unit 180. .
  • the processor 170 may receive sensing data for a plurality of regions 521 and 522 generated by a plurality of sensors of the other vehicle 20 from the other vehicle 20 forming a cluster through the communication device 220. I can.
  • the processor 170 fusions sensing data for a plurality of regions 511, 512, 513 around the vehicle 10 and sensing data for a plurality of regions 521, 522 around the other vehicle 20, Fusion sensing data can be generated.
  • the fusion sensing data may surround the cluster and may be sensing data for a region around the cluster.
  • a vehicle following the cluster cannot recognize the situation in front of the cluster.
  • a vehicle that follows can also recognize a situation in front of the cluster.
  • relatively much sensor information can be obtained with a small number of sensors.
  • an algorithm for acquiring location information of the vehicle 10 and the other vehicle 20 forming a cluster is required.
  • the other vehicle 20 may determine the obstacle avoidance in advance.
  • the other vehicle 20 may run in clusters using a small number of sensors.
  • the vehicle 10 may recognize the state of the rear by using sensor information of the other vehicle 20. Therefore, the vehicle 10 can be made more secure when changing a lane or determining acceleration or deceleration.
  • the user can easily monitor the obstacle information of the entire vehicle during the entire cluster driving, thereby stably contributing to the user's psychology.
  • cluster driving even if one sensor fails, there is an advantage in that a safety function is improved by explaining a problem using a sensor of another vehicle.
  • a group driving in clusters through sensor fusion through a V2X module (communication module) can acquire all obstacle information.
  • the processor 170 may receive sensing data from a plurality of sensors 210.
  • the processor 170 may fusion sensing data received from the plurality of sensors 210 (S610).
  • the processor 170 may obtain location data (S620).
  • the processor 170 may obtain the location data of the vehicle 10 from the location data generating device 280.
  • the processor 170 may acquire location data of another vehicle based on location data of the vehicle 10 and sensing data received from the plurality of sensors 210. Alternatively, the processor 170 may obtain location data of another vehicle from another vehicle.
  • the processor 170 may receive sensing data of another vehicle from another vehicle through the communication module 220 (S630).
  • the processor 170 may fusion the sensing data of the vehicle 10 and the sensing data of another vehicle based on the location data of the vehicle 10 and the location data of another vehicle, and generate fusion data (S640). .
  • the processor 170 may transmit the fusion data to other vehicles forming a cluster through the communication device 220 (S650).
  • the processor 170 may transmit a control command to other vehicles forming a cluster through the communication device 220.
  • FIGS. 7 to 17 are diagrams referenced for describing a communication method between a plurality of vehicles driving in a cluster according to an embodiment of the present invention.
  • a plurality of vehicles forming a cluster may exchange information, data, and signals with each other using a mobile communication network (eg, a 4G network or a 5G network).
  • a plurality of vehicles forming a cluster may exchange information, data, and signals through local communication with each other.
  • Local communication may be described as a method of exchanging direct information, data, and signals between a plurality of vehicles forming a cluster of a predetermined communication method (eg, wifi).
  • a predetermined communication method eg, wifi
  • the vehicle 10 may transmit data to the first other vehicle 20 and receive a data confirmation response message. However, if the second other vehicle 40 is far from the vehicle 10 or there is jamming, even when the vehicle 10 transmits data to the second other vehicle 40, a data confirmation response You may not be able to receive messages.
  • the vehicle 10 may transmit data to the first other vehicle 20, and the data received by the first other vehicle 20 may be retransmitted to the second other vehicle 40.
  • the first other vehicle 20 may receive a data confirmation response message from the second other vehicle 40 and retransmit it to the vehicle 10. In this case, there is a delay problem due to data transmission, and when a communication problem of the first other vehicle 20 occurs, cluster driving becomes impossible.
  • each of a plurality of vehicles forming a cluster may broadcast data received from another vehicle at a previous sampling time and its own data on one data.
  • a communication jamming problem in any one vehicle or fusion data existing in a previous frame can be used even if data is not transmitted to a specific system abnormality, thereby solving the problem.
  • each vehicle recognizes that a communication problem has occurred and can drive according to the situation, reports to the user or transmits the status to the server, so that emergency measures can be taken. By comparing the difference between the timestamps of the data, all vehicles in the cluster can recognize which vehicle has a communication problem.
  • the data 8 illustrates a data format transmitted and received between a plurality of vehicles forming a cluster.
  • the data may be formed by combining fusion data with ID data and timestamp data of the vehicle that generated the fusion data.
  • a first vehicle 910, a second vehicle 920, and a third vehicle 930 may be driven while being included in a cluster.
  • the first vehicle 910 may be classified as a vehicle 10
  • the second vehicle 920 and the third vehicle 930 may be classified as other vehicles.
  • an operation of generating data, an operation of transmitting and receiving data, etc. may be performed by the processor 170 of the vehicle electronic device 100.
  • the first vehicle 910 may broadcast the first transmission data.
  • the first transmission data may include ID data and timestamp data of the first vehicle in fusion data generated at time t (or immediately before time t).
  • the first vehicle 910 may receive transmission data generated by the third vehicle from the third vehicle 920.
  • the first vehicle 910 may broadcast the second transmission data.
  • the second transmission data may include ID data and timestamp data of the first vehicle in fusion data generated at a time point t+1 (or immediately before a time point t+1).
  • the second transmission data may include transmission data generated by the third vehicle received at time t.
  • the first vehicle 910 may receive transmission data generated by the second vehicle from the second vehicle 920.
  • the first vehicle 910 may broadcast the third transmission data.
  • the third transmission data may include ID data and timestamp data of the first vehicle in fusion data generated at a time point t+2 (or immediately before a time point t+2).
  • the third transmission data may include transmission data generated by the third vehicle 930 received at time t and transmission data generated by the second vehicle 920 received at time t+1.
  • each vehicle transmits not only its own fusion data, but also fusion data generated by other vehicles including ID data and timestamp data, so that data can be shared even in a communication failure state of a specific vehicle, and communication failure vehicles It has the advantage of being able to quickly recognize which vehicle it is.
  • a first vehicle 1001, a second vehicle 1002, a third vehicle 1003, and a fourth vehicle 1004 may be included in a cluster and may be driven.
  • the first vehicle 1001 may be classified as a vehicle 10
  • the second vehicle 1002, the third vehicle 1003, and the fourth vehicle 1004 may be classified as other vehicles.
  • an operation of generating data, an operation of transmitting and receiving data, etc. may be performed by the processor 170 of the vehicle electronic device 100.
  • Each of the vehicles 1001, 1002, 1003, and 1004 included in the cluster may transmit fusion data and location data to another vehicle (S1010). If the number of vehicles included in the cluster increases and the communication distance increases, a vehicle driving in the middle of the cluster may transmit data.
  • Each of the vehicles 1001, 1002, 1003, and 1004 included in the cluster may generate fusion data by fusion of data received from other vehicles with their own data (S1020).
  • the first vehicle 1001 may broadcast a lane change command signal (S1030).
  • the vehicle located in the middle may update the lane change command of the first vehicle 1001 and broadcast it to the rear vehicle.
  • Each of the vehicles 1001, 1002, 1003, and 1004 included in the cluster can be changed to a lane (S1040).
  • the fourth vehicle 1004 running in the rearmost part of the cluster may change lanes first. Vehicles running behind the cluster can change lanes earlier. The vehicle for which the lane change has been completed may lower the speed so that it is easy to change the lane of the vehicle traveling in front. The first vehicle 1001 running in the forefront of the cluster may change the lane last.
  • each vehicle that has acquired sensor fusion data of the entire cluster driving group can be braked at the same time.
  • the first vehicle 1201 running in the front of the cluster transmits a braking command signal to the second vehicle 1202, the third vehicle 1203, and the fourth vehicle 1204. It can be transmitted to (S1120).
  • the first vehicle 1201 may receive a response signal from the second vehicle 1202, the third vehicle 1203, and the fourth vehicle 1204.
  • the first to fourth vehicles 1201, 1202, 1203, and 1204 may perform a braking operation.
  • the communication distance between the first vehicle 1201 in the front and the fourth vehicle 1204 in the rear becomes distant.
  • a vehicle running in the middle may serve as a communication bridge.
  • the first vehicle 1201 transmits a command signal again and waits for a response or acts as a bridge when the distance is far.
  • the command signal must be transmitted again via another vehicle. In this case, responsiveness may be slow, and a problem occurs in the stability of the entire cluster system.
  • the first vehicle 1201 running in the front of the cluster sends a braking command signal to the second vehicle 1202, the third vehicle 1203, and the fourth vehicle 1204. Can be transmitted to (S1220, S1230).
  • the first vehicle 1201 may transmit a braking command signal to the third vehicle 1203 through the second vehicle 1202. have.
  • the first to fourth vehicles 1201, 1202, 1203, and 1204 may perform a braking operation (S1250). In this case, it takes time by step S1240, and the stability of the entire cluster system is a problem.
  • all vehicles in the cluster transmit transmission data including their ID data, timestamp data, sensor fusion data of each vehicle, command data, and response data to a command in a broadcasting method.
  • data received from other vehicles are updated to broadcast data for all vehicles. Even if data is temporarily lost due to communication errors in the middle, the entire data can be used.
  • the distance between the first vehicle 1301 in the front and the fourth vehicle 1304 in the rear is far, there is no need for a vehicle serving as a bridge because vehicles running in the middle update data of adjacent vehicles.
  • the first vehicle 1201 running in the forefront of the cluster sends a brake command signal to the second vehicle 1202, the third vehicle 1203, and the fourth vehicle 1204. It can be transmitted to (S1320, S1330).
  • a response signal may not be received from the third vehicle 1203 due to a communication error or the like.
  • the second vehicle 1302 and the fourth vehicle 1304 may transmit a braking command signal to the third vehicle 1303 in a broadcasting method (S1340).
  • the first to fourth vehicles 1201, 1202, 1203, and 1204 may perform a braking operation (S1350).
  • the third vehicle 1203 is a braking command signal Can receive. In this way, the braking command signal is transmitted and received organically, thereby increasing the system stability of the entire cluster.
  • transmission data transmitted/received between vehicles may further include command data and response data of each vehicle in addition to ID data, timestamp data, and fusion data of each vehicle.
  • Transmission data based on a specified time period may be generated as many as the number of vehicles in the cluster, and all vehicles in the cluster may share transmission data generated by the number of vehicles.
  • the cluster system may include a first vehicle 1501, a second vehicle 1502, a third vehicle 1503, and a fourth vehicle 1504.
  • the first vehicle 1501 may be classified as a vehicle 10
  • the second vehicle 1502, the third vehicle 1503, and the fourth vehicle 1504 may be classified as other vehicles.
  • an operation of generating data, an operation of transmitting and receiving data, etc. may be performed by the processor 170 of the vehicle electronic device 100.
  • the master vehicle 1501 may transmit fusion data and location data to other vehicles.
  • the master vehicle 1501 may overtake other vehicles or allow other vehicles to open a lane so that the master vehicle 1501 may move to the head.
  • the slave vehicles 1502, 1503, and 1504 are assigned vehicle ID numbers in the order of proximity to the master vehicle 1501 and may move to their positions in the order of ID numbers.
  • the master vehicle 1501 may start driving.
  • the first vehicle 1501 may broadcast a master/slave registration mode notification message to the second vehicle 1502, the third vehicle 1503, and the fourth vehicle 1504 (S1510 ). In this case, the first vehicle 1501 may transmit the master and slave registration modes to the second vehicle 1502, the third vehicle 1503, and the fourth vehicle 1504 by including fusion data and vehicle location data.
  • the second to fourth vehicles 1502, 1503, and 1504 may also broadcast a master/slave registration mode notification message received from the first vehicle 1501 (S1520).
  • the master vehicle 1501 may be assigned a vehicle ID number with the highest priority, and a vehicle ID number may be assigned in the order closest to the master vehicle 1502 (S1530). After the ID is assigned, vehicles can move to the rear of the master vehicle 1501 in numerical order.
  • each of the vehicles 1501, 1502, 1503, and 1504 may broadcast a ready message (S1540).
  • the master vehicle 1501 receives a ready message from all vehicles, it may start driving.
  • 16 illustrates a communication method when the number of vehicles forming a cluster is large. Assuming that the number of vehicles in the cluster is 2N, 2N data must be broadcast. When the number of vehicles increases, the number of data to be broadcast increases, which may take a long time to transmit and receive. In this case, data is transmitted/received by N pieces, and the N-th vehicle from the forefront may serve as a bridge. The vehicle serving as a bridge may alternately broadcast data information of the first vehicle (the frontmost vehicle) to the Nth vehicle and the data of the Nth vehicle to the 2Nth vehicle (the rearmost vehicle).
  • the vehicles forming the cluster may perform communication in the above-described manner.
  • the N-th vehicle may serve as a bridge by grouping data into two.
  • the data is grouped into 3, so that the Nth vehicle and the 2Nth vehicle may serve as a bridge.
  • N may be understood as the number of vehicles serving as a reference so that communication can be directly communicated without a communication bridge within the cluster.
  • the vehicles serving as bridges may alternately transmit grouped data and further reduce data latency.
  • the above-described present invention can be implemented as a computer-readable code on a medium on which a program is recorded.
  • the computer-readable medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (e.g., transmission over the Internet). Also, the computer may include a processor or a control unit. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 군집 주행 시, 리더 차량으로 기능하는 차량에 포함되는 차량용 전자 장치에 있어서, 획득되는 정보를 이용 용도에 따라 분류하되, 상기 정보가 군집 주행에 이용되는 제1 정보로 판단되는 경우, 제1 처리부로 상기 제1 정보의 처리를 할당하고, 상기 정보가 군집의 모니터링에 이용되는 제2 정보로 판단되는 경우, 제2 처리부로 상기 제2 정보의 처리를 할당하는 프로세서;를 포함하는 차량용 전자 장치에 관한 것이다.

Description

차량용 전자 장치 및 차량용 전자 장치의 동작 방법
본 발명은 차량용 전자 장치 및 차량용 전자 장치의 동작 방법에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다. 자율 주행 차량은 인간의 운전 조작 없이 자동으로 주행할 수 있는 차량을 의미한다.
한편, 복수의 차량들은 군집을 이루어 자율 주행할 수도 있다. 복수의 차량이 군집을 이루어 자율 주행하는 경우, 트래픽 과다 등의 원인으로 통신에 문제가 발생되는 경우, 군집 주행을 유지할 수 없다. 또한, 복수의 차량이 군집을 이루어 주행하는 경우, 복수의 차량간에는 서로 정보를 효율적으로 교환할 수 있어야 한다.
본 발명은 상기한 문제점을 해결하기 위하여, 복수의 차량이 군집을 이루어 자율 주행하는 경우, 통신이 원활하게 이루어질 수 있게하고, 정보를 효율적으로 교환할 수 있게 하는 차량용 전자 장치를 제공하는데 목적이 있다.
또한, 본 발명은, 복수의 차량이 군집을 이루어 자율 주행하는 경우, 통신이 원활하게 이루어질 수 있게하고, 정보를 효율적으로 교환할 수 있게 하는 차량용 전자 장치의 동작 방법을 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 차량용 전자 장치는, 군집 주행 시, 리더 차량으로 기능하는 차량에 포함되는 차량용 전자 장치에 있어서, 획득되는 정보를 이용 용도에 따라 분류하되, 상기 정보가 군집 주행에 이용되는 제1 정보로 판단되는 경우, 제1 처리부로 상기 제1 정보의 처리를 할당하고, 상기 정보가 군집 모니터링에 이용되는 제2 정보로 판단되는 경우, 제2 처리부로 상기 제2 정보의 처리를 할당하는 프로세서;를 포함한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 상기 제1 정보를 상기 군집 내의 적어도 하나의 타 차량에 전송하고, 상기 타 차량으로부터, 상기 제1 정보에 대응되는 제1 신호를 제1 신호 방식을 통해 수신하고, 상기 제2 정보 상기 타 차량에 전송하고, 상기 타 차량으로부터, 상기 제2 정보에 대응되는 제2 신호를 상기 제1 신호 방식과 다른 제2 신호 방식을 통해 수신한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 상기 제1 정보를 자율 주행 경로 생성 동작, 군집 외부 오브젝트 검출 동작 및 3D 맵 데이터 생성 동작 중 적어도 어느 하나에 이용한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 상기 제2 정보를 군집 내 차량간의 거리 조정 동작 및 제어 명령 반영 확인 동작 중 적어도 어느 하나에 이용한다.
본 발명의 일 실시예에 따르면, 상기 제1 정보는, 제1 센서로부터 생성된 제1 센싱 데이터의 적어도 일부에 기초하여 생성되고, 상기 제2 정보는, 상기 제1 센서로부터 생성된 제1 센싱 데이터의 적어도 일부에 기초하여 생성된다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 상기 제1 정보 및 상기 제2 정보 중 적어도 어느 하나를 서버에 전송하고, 상기 서버로부터 전송된 정보가 처리되어 생성된 결과 데이터를 수신한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 군집의 상황이 변경되는 것으로 판단되는 경우, 군집의 상황 변경 이후에 획득되는 정보를 이용 용도에 따라 재분류한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 복수의 센서로부터 수신되는 센싱 데이터 및 통신 장치를 통해 수신되는 타 차량의 센싱 데이터를 퓨전하여 정보를 획득한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 상기 제1 처리부에서, 상기 제1 정보에 차량 ID 데이터 및 타임 스탬프(timestamp) 데이터를 부가하여, 제1 송신 데이터를 생성하고, 상기 제2 처리부에서, 상기 제2 정보에 차량 ID 데이터 및 타임 스탬프 데이터를 부가하여, 제2 송신 데이터를 생성한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 상기 제1 송신 데이터 및 상기 제2 송신 데이터를 브로드 캐스팅한다.
본 발명의 실시예에 따른 차량용 전자 장치의 동작 방법은, 군집 주행 시, 리더 차량으로 기능하는 차량에 포함되는 차량용 전자 장치의 동작 방법에 있어서, 적어도 하나의 프로세서가, 획득되는 정보를 이용 용도에 따라 분류하는 단계;를 포함하고, 상기 분류하는 단계는, 적어도 하나의 프로세서가, 상기 정보가 군집 주행에 이용되는 제1 정보로 판단되는 경우, 제1 처리부로 상기 제1 정보의 처리를 할당하는 단계; 및 적어도 하나의 프로세서가, 상기 정보가 군집 모니터링에 이용되는 제2 정보로 판단되는 경우, 제2 처리부로 상기 제2 정보의 처리를 할당하는 단계;를 포함한다.
본 발명의 일 실시예에 따르면, 적어도 하나의 프로세서가, 상기 제1 정보를 상기 군집 내의 적어도 하나의 타 차량에 전송하는 단계; 적어도 하나의 프로세서가, 상기 타 차량으로부터, 상기 제1 정보에 대응되는 제1 신호를 제1 신호 방식을 통해 수신하는 단계; 적어도 하나의 프로세서가, 상기 제2 정보를 상기 타 차량에 전송하는 단계; 및 적어도 하나의 프로세서가, 상기 타 차량으로부터, 상기 제2 정보에 대응되는 제2 신호를 상기 제1 신호 방식과 다른 제2 신호 방식을 통해 수신하는 단계;를 더 포함한다.
본 발명의 일 실시예에 따르면, 적어도 하나의 프로세서가, 상기 제1 정보를 자율 주행 경로 생성 동작, 군집 외부 오브젝트 검출 동작 및 3D 맵 데이터 생성 동작 중 적어도 어느 하나에 이용하는 단계;를 더 포함한다.
본 발명의 일 실시예에 따르면, 적어도 하나의 프로세서가, 상기 제2 정보를 군집 내 차량간의 거리 조정 동작, 제어 명령 반영 확인 동작 중 적어도 어느 하나에 이용하는 단계;를 더 포함한다.
본 발명의 일 실시예에 따르면, 상기 제1 정보는, 제1 센서로부터 생성된 제1 센싱 데이터의 적어도 일부에 기초하여 생성되고, 상기 제2 정보는, 상기 제1 센서로부터 생성된 제1 센싱 데이터의 적어도 일부에 기초하여 생성된다.
본 발명의 일 실시예에 따르면, 적어도 하나의 프로세서가, 상기 제1 정보 및 상기 제2 정보 중 적어도 어느 하나를 서버에 전송하는 단계; 및 적어도 하나의 프로세서가, 상기 서버로부터 전송된 정보가 처리되어 생성된 결과 데이터를 수신하는 단계;를 더 포함한다.
본 발명의 일 실시예에 따르면, 적어도 하나의 프로세서가, 군집의 상황이 변경되는 것으로 판단되는 경우, 군집의 상황 변경 이후에 획득되는 정보를 이용 용도에 따라 재분류하는 단계;를 더 포함한다.
본 발명의 일 실시예에 따르면, 적어도 하나의 프로세서가, 복수의 센서로부터 수신되는 센싱 데이터 및 통신 장치를 통해 수신되는 타 차량의 센싱 데이터를 퓨전하여 정보를 획득하는 단계;를 더 포함한다.
본 발명의 일 실시예에 따르면, 적어도 하나의 프로세서가, 상기 제1 처리부에서, 상기 제1 정보에 차량 ID 데이터 및 타임 스탬프(timestamp) 데이터를 부가하여, 제1 송신 데이터를 생성하는 단계; 및 적어도 하나의 프로세서가, 상기 제2 처리부에서, 상기 제2 정보에 차량 ID 데이터 및 타임 스탬프 데이터를 부가하여, 제2 송신 데이터를 생성하는 단계;를 더 포함한다.
본 발명의 일 실시예에 따르면, 적어도 하나의 프로세서가, 상기 제1 송신 데이터를 브로드 캐스팅하는 단계; 및 적어도 하나의 프로세서가, 상기 제2 송신 데이터를 브로드 캐스팅하는 단계;를 더 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 정보를 용도에 따라 분류하여 처리함으로써 데이터 오류 발생 원인을 파악하기 용이한 효과가 있다.
둘째, 브로드 캐스팅 방식을 통해 정보를 전달함으로써, 정보를 수신하지 못하여 발생되는 오동작을 줄이는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 3은 본 발명의 실시예에 따른 차량용 전자 장치의 제어 블럭도이다.
도 4는 본 발명의 실시예에 따른 차량용 전자 장치의 플로우 차트이다.
도 5 내지 도 6은 본 발명의 실시예에 따라 정보를 획득하는 방식을 설명하는데 참조되는 도면이다.
도 7 내지 도 17은 본 발명의 실시예에 따라 군집을 이루어 주행하는 복수의 차량간의 통신 방식을 설명하는데 참조되는 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 본 발명의 실시예에 따른 차량을 도시한 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 차량(10)은, 도로나 선로 위를 달리는 수송 수단으로 정의된다. 차량(10)은, 자동차, 기차, 오토바이를 포함하는 개념이다. 차량(10)은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다. 차량(10)은, 공유형 차량일 수 있다. 차량(10)은 자율 주행 차량일 수 있다.
차량(10)은, 군집 주행 시스템을 구성하는 복수의 차량 중 하나일 수 있다. 군집 주행 시스템은, 복수의 차량이 상호간 통신을 하면서, 군집을 이루어 주행하는 복수의 차량의 집합체로 설명될 수 있다. 차량(10)은, 군집의 최전방에서 주행하는 차량일 수 있다. 이경우, 차량(10)은, 리더 차량 또는 마스터 차량으로 명명될 수 있다. 실시예에 따라, 차량(10)은, 군집의 중간 또는 최후방에서 주행하는 차량일 수 있다. 이경우, 차량(10)은, 슬라이브 차량으로 명명될 수 있다. 차량(10)에는 전자 장치(100)가 포함될 수 있다. 전자 장치(100)는, 군집을 이루어 복수의 차량이 주행하는 경우, 복수의 차량간에 정보를 공유하기 위한 장치일 수 있다.
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 2를 참조하면, 차량(10)은, 차량용 전자 장치(100), 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(240), 차량 구동 장치(250), 주행 시스템(260), 센싱부(270) 및 위치 데이터 생성 장치(280)를 포함할 수 있다.
차량용 전자 장치(100)는, 군집 주행 시, 리더 차량으로 기능하는 차량에 포함될 수 있다. 실시예에 따라, 차량용 전자 장치(100)는, 군집 주행 시 추종 차량에 포함될 수도 있다. 차량용 전자 장치(100)는, 군집을 이루어 주행하는 복수의 차량간에 정보를 공유하는 장치일 수 있다. 차량용 전자 장치(100)는, 획득되는 정보를 이용 용도에 따라 분류하여, 군집을 이루는 적어도 하나의 타 차량에 제공할 수 있다. 차량용 전자 장치(100)는, 군집을 이루는 적어도 하나의 타 차량에, 로컬 통신을 통해, 정보를 제공할 수 있다. 차량용 전자 장치(100)는, 군집을 이루는 적어도 하나의 타 차량에, 브로드 캐스팅 방식을 통해, 정보를 제공할 수 있다.
사용자 인터페이스 장치(200)는, 차량(10)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(200)는, 사용자 입력을 수신하고, 사용자에게 차량(10)에서 생성된 정보를 제공할 수 있다. 차량(10)은, 사용자 인터페이스 장치(200)를 통해, UI(User Interface) 또는 UX(User Experience)를 구현할 수 있다.
오브젝트 검출 장치(210)는, 차량(10) 외부의 오브젝트를 검출할 수 있다. 오브젝트 검출 장치(210)는, 차량(10) 외부의 오브젝트를 검출할 수 있는 적어도 하나의 센서를 포함할 수 있다. 오브젝트 검출 장치(210)는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치(210)는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량에 포함된 적어도 하나의 전자 장치에 제공할 수 있다.
통신 장치(220)는, 차량(10) 외부에 위치하는 디바이스와 신호를 교환할 수 있다. 통신 장치(220)는, 인프라(예를 들면, 서버, 방송국) 및 타 차량 중 적어도 어느 하나와 신호를 교환할 수 있다. 통신 장치(220)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다.
운전 조작 장치(230)는, 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우, 차량(10)은, 운전 조작 장치(230)에 의해 제공되는 신호에 기초하여 운행될 수 있다. 운전 조작 장치(230)는, 조향 입력 장치(예를 들면, 스티어링 휠), 가속 입력 장치(예를 들면, 가속 페달) 및 브레이크 입력 장치(예를 들면, 브레이크 페달)를 포함할 수 있다.
메인 ECU(240)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치의 전반적인 동작을 제어할 수 있다.
구동 제어 장치(250)는, 차량(10)내 각종 차량 구동 장치를 전기적으로 제어하는 장치이다. 구동 제어 장치(250)는, 파워 트레인 구동 제어 장치, 샤시 구동 제어 장치, 도어/윈도우 구동 제어 장치, 안전 장치 구동 제어 장치, 램프 구동 제어 장치 및 공조 구동 제어 장치를 포함할 수 있다. 파워 트레인 구동 제어 장치는, 동력원 구동 제어 장치 및 변속기 구동 제어 장치를 포함할 수 있다. 샤시 구동 제어 장치는, 조향 구동 제어 장치, 브레이크 구동 제어 장치 및 서스펜션 구동 제어 장치를 포함할 수 있다.
한편, 안전 장치 구동 제어 장치는, 안전 벨트 제어를 위한 안전 벨트 구동 제어 장치를 포함할 수 있다.
차량 구동 제어 장치(250)는, 제어 ECU(Electronic Control Unit)로 명명될 수 있다.
주행 시스템(260)는, 오브젝트 검출 장치(210)에서 수신한 오브젝트에 대한 데이터에 기초하여, 차량(10)의 움직임을 제어하거나, 사용자에게 정보를 출력하기 위한 신호를 생성할 수 있다. 주행 시스템(260)는, 생성된 신호를, 사용자 인터페이스 장치(200), 메인 ECU(240) 및 차량 구동 장치(250) 중 적어도 어느 하나에 제공할 수 있다.
주행 시스템(260)은, ADAS를 포함하는 개념일 수 있다. ADAS(260)는, 적응형 크루즈 컨트롤 시스템(ACC : Adaptive Cruise Control), 자동 비상 제동 시스템(AEB : Autonomous Emergency Braking), 전방 충돌 알림 시스템(FCW : Foward Collision Warning), 차선 유지 보조 시스템(LKA : Lane Keeping Assist), 차로 변경 보조 시스템(LCA : Lane Change Assist), 타겟 추종 보조 시스템(TFA : Target Following Assist), 사각 지대 감시 시스템(BSD : Blind Spot Detection), 적응형 하이빔 제어 시스템(HBA : High Beam Assist), 자동 주차 시스템(APS : Auto Parking System), 보행자 충돌 알림 시스템(PD collision warning system), 교통 신호 검출 시스템(TSR : Traffic Sign Recognition), 교통 신호 보조 시스템(TSA : Trafffic Sign Assist), 나이트 비전 시스템(NV : Night Vision), 운전자 상태 모니터링 시스템(DSM : Driver Status Monitoring) 및 교통 정체 지원 시스템(TJA : Traffic Jam Assist) 중 적어도 어느 하나를 구현할 수 있다.
주행 시스템(260)은, 자율 주행 ECU(Electronic Control Unit)를 포함할 수 있다. 자율 주행 ECU는, 차량(10) 내 다른 전자 장치들 중 적어도 어느 하나로부터 수신되는 데이터에 기초하여, 자율 주행 경로를 설정할 수 있다. 자율 주행 ECU는, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 센싱부(270) 및 위치 데이터 생성 장치(280) 중 적어도 어느 하나로부터 수신되는 데이터에 기초하여, 자율 주행 경로를 설정할 수 있다. 자율 주행 ECU는, 자율 주행 경로를 따라 차량(10)이 주행하도록 제어 신호를 생성할 수 있다. 자율 주행 ECU에서 생성된 제어 신호는, 메인 ECU(240) 및 차량 구동 장치(250) 중 적어도 어느 하나로 제공될 수 있다.
센싱부(270)는, 차량의 상태를 센싱할 수 있다. 센싱부(270)는, IMU(inertial navigation unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서 및 브레이크 페달 포지션 센서 중 적어도 어느 하나를 포함할 수 있다. 한편, IMU(inertial navigation unit) 센서는, 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다.
센싱부(270)는, 적어도 하나의 센서에서 생성되는 신호에 기초하여, 차량의 상태 데이터를 생성할 수 있다. 센싱부(270)는, 차량 자세 정보, 차량 모션 정보, 차량 요(yaw) 정보, 차량 롤(roll) 정보, 차량 피치(pitch) 정보, 차량 충돌 정보, 차량 방향 정보, 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.
센싱부(270)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
센싱부(270)는, 센싱 데이터를 기초로, 차량 상태 정보를 생성할 수 있다. 차량 상태 정보는, 차량 내부에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다.
예를 들면, 차량 상태 정보는, 차량의 자세 정보, 차량의 속도 정보, 차량의 기울기 정보, 차량의 중량 정보, 차량의 방향 정보, 차량의 배터리 정보, 차량의 연료 정보, 차량의 타이어 공기압 정보, 차량의 스티어링 정보, 차량 실내 온도 정보, 차량 실내 습도 정보, 페달 포지션 정보 및 차량 엔진 온도 정보 등을 포함할 수 있다.
한편, 센싱부는, 텐션 센서를 포함할 수 있다. 텐션 센서는, 안전 벨트의 텐션 상태에 기초하여 센싱 신호를 생성할 수 있다.
위치 데이터 생성 장치(280)는, 차량(10)의 위치 데이터를 생성할 수 있다. 위치 데이터 생성 장치(280)는, GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 위치 데이터 생성 장치(280)는, GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 차량(10)의 위치 데이터를 생성할 수 있다. 실시예에 따라, 위치 데이터 생성 장치(280)는, 센싱부(270)의 IMU(Inertial Measurement Unit) 및 오브젝트 검출 장치(210)의 카메라 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다.
위치 데이터 생성 장치(280)는, 위치 측위 장치로 명명될 수 있다. 위치 데이터 생성 장치(280)는, GNSS(Global Navigation Satellite System)로 명명될 수 있다.
차량(10)은, 내부 통신 시스템(50)을 포함할 수 있다. 차량(10)에 포함되는 복수의 전자 장치는 내부 통신 시스템(50)을 매개로 신호를 교환할 수 있다. 신호에는 데이터가 포함될 수 있다. 내부 통신 시스템(50)은, 적어도 하나의 통신 프로토콜(예를 들면, CAN, LIN, FlexRay, MOST, 이더넷)을 이용할 수 있다.
도 3은 본 발명의 실시예에 따른 전자 장치의 제어 블럭도이다.
도 3을 참조하면, 전자 장치(100)는, 메모리(140), 프로세서(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.
메모리(140)는, 프로세서(170)와 전기적으로 연결된다. 메모리(140)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)에서 처리된 데이터를 저장할 수 있다. 메모리(140)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(140)는 프로세서(170)의 처리 또는 제어를 위한 프로그램 등, 전자 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)와 일체형으로 구현될 수 있다. 실시예에 따라, 메모리(140)는, 프로세서(170)의 하위 구성으로 분류될 수 있다.
인터페이스부(180)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(280)는, 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(140), 차량 구동 장치(250), ADAS(260), 센싱부(170) 및 위치 데이터 생성 장치(280) 중 적어도 어느 하나와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(280)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.
인터페이스부(180)는, 위치 데이터 생성 장치(280)로부터, 차량(10) 위치 데이터를 수시할 수 있다. 인터페이스부(180)는, 센싱부(270)로부터 주행 속도 데이터를 수신할 수 있다. 인터페이스부(180)는, 오브젝트 검출 장치(210)로부터, 차량 주변 오브젝트 데이터를 수신할 수 있다.
전원 공급부(190)는, 전자 장치(100)에 전원을 공급할 수 있다. 전원 공급부(190)는, 차량(10)에 포함된 파워 소스(예를 들면, 배터리)로부터 전원을 공급받아, 전자 장치(100)의 각 유닛에 전원을 공급할 수 있다. 전원 공급부(190)는, 메인 ECU(140)로부터 제공되는 제어 신호에 따라 동작될 수 있다. 전원 공급부(190)는, SMPS(switched-mode power supply)로 구현될 수 있다.
프로세서(170)는, 메모리(140), 인터페이스부(280), 전원 공급부(190)와 전기적으로 연결되어 신호를 교환할 수 있다. 프로세서(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(170)는, 전원 공급부(190)로부터 제공되는 전원에 의해 구동될 수 있다. 프로세서(170)는, 전원 공급부(190)에 의해 전원이 공급되는 상태에서 데이터를 수신하고, 데이터를 처리하고, 신호를 생성하고, 신호를 제공할 수 있다.
프로세서(170)는, 인터페이스부(180)를 통해, 차량(10) 내 다른 전자 장치로부터 정보를 수신할 수 있다. 프로세서(170)는, 인터페이스부(180)를 통해, 차량(10) 내 다른 전자 장치로 제어 신호를 제공할 수 있다.
프로세서(170)는, 정보를 획득할 수 있다. 프로세서(170)는, 오브젝트 검출 장치(210)에 포함되는 복수의 센서로부터 센싱 데이터를 수신할 수 있다. 프로세서(170)는, 통신 장치(210)를 통해, 군집을 이루는 타 차량으로부터, 타 차량의 센싱 데이터를 수신할 수 있다. 프로세서(170)는, 차량(10)의 센싱 데이터와 타 차량의 센싱 데이터를 퓨전하여, 정보를 생성할 수 있다. 예를 들면, 프로세서(170)는, 군집의 선두에서 주행하는 차량(10)의 제1 센싱 데이터, 군집의 중간에서 주행하는 타 차량의 제2 센싱 데이터, 군집의 후미에서 주행하는 타 차량의 제3 센싱 데이터를 퓨전하여 제1 정보를 생성할 수 있다. 이때, 제1 센싱 데이터, 제2 센싱 데이터 및 제3 센싱 데이터는, 군집의 외부를 향하는 센서로부터 획득된 센싱 데이터일 수 있다. 예를 들면, 프로세서(170)는, 예를 들면, 프로세서(170)는, 군집의 선두에서 주행하는 차량(10)의 제4 센싱 데이터, 군집의 중간에서 주행하는 타 차량의 제5 센싱 데이터, 군집의 후미에서 주행하는 타 차량의 제6 센싱 데이터를 퓨전하여 제2 정보를 생성할 수 있다. 이때, 제4 센싱 데이터, 제5 센싱 데이터 및 제6 센싱 데이터는, 군집의 내부를 향하는 센서로부터 획득된 센싱 데이터일 수 있다.
프로세서(170)는, 획득되는 정보를 이용 용도에 따라 분류할 수 있다. 프로세서(170)는, 획득되는 정보가 군집 주행에 이용되는 제1 정보로 판단되는 경우, 제1 처리부로 제1 정보의 처리를 할당할 수 있다. 제1 정보는, 군집의 주행을 제어하기 위해 필요한 정보로 정의될 수 있다. 예를 들면, 제1 정보는, 자율 주행 경로를 생성하기 위해 필요한 정보일 수 있다. 예를 들면, 제1 정보는, 차량(또는 군집) 외부 오브젝트를 검출하기 위해 필요한 정보일 수 있다. 예를 들면, 제1 정보는, 3D 맵 데이터를 생성하기 위해 필요한 정보일 수 있다. 제1 정보는, 군집의 외부를 센싱하는 센서에 의해 생성된 센싱 데이터에 기초한 정보일 수 있다. 제1 처리부는, 프로세서(170)의 하위 구성으로 분류될 수 있다. 제1 처리부는, 마이크로 프로세서등 별도의 하드웨어로 구성되거나, 소프트웨어 블럭으로 구성될 수도 있다.
프로세서(170)는, 획득되는 정보가 군집의 모니터링에 이용되는 제2 정보로 판단되는 경우, 제2 처리부로 제2 정보의 처리를 할당할 수 있다. 제2 정보는, 군집을 관리하기 위해 필요한 정보로 정의될 수 있다. 예를 들면, 제2 정보는, 군집 내에서 차량간의 거리를 조정하기 위해 필요한 정보일 수 있다. 예를 들면, 제2 정보는, 차량(10)에서 생성된 제어 명령이 타 차량에 반영되는지 확인하기 위해 필요한 정보일 수 있다. 제2 정보는, 군집의 내부를 센싱하는 센서에 의해 생성된 센싱 데이터에 기초한 정보일 수 있다. 제2 처리부는, 프로세서(170)의 하위 구성으로 분류될 수 있다. 제2 처리부는, 마이크로 프로세서 등 별도의 하드웨어로 구성되거나, 소프트웨어 블럭으로 구성될 수 있다.
한편, 실시예에 따라, 제2 정보는, 프로세서(170)에서 생성된 제어 명령 정보일 수 있다. 예를 들면, 제2 정보는, 조향 제어 명령, 가속 제어 명령 및 감속 제어 명령을 포함할 수 있다.
프로세서(170)는, 복수의 센서를 제1 정보를 획득하는 제1 센서 그룹 및 제2 정보를 획득하는 제2 센서 그룹으로 구분할 수 있다. 예를 들면, 프로세서(170)는, 복수의 센서 중 군집을 형성하는 차량이 검출되지 않는 센서를 제1 센서 그룹으로 구분할 수 있다. 예를 들면, 프로세서(170)는, 복수의 센서 중 군집을 형성하는 차량이 검출되는 센서를 제2 센서 그룹으로 구분할 수 있다. 제1 센서 그룹은, 군집 내의 여러 차량에 구비된 복수의 센서의 조합으로 구성될 수 있다. 제2 센서 그룹은, 군집 내의 여러 차량에 구비되는 복수의 센서의 조합으로 구성될 수 있다. 프로세서(170)는, 제1 센서 그룹에서 수신되는 정보를 제1 정보로, 제2 센서 그룹에서 수신되는 정보를 제2 정보로 분류할 수 있다.
프로세서(170)는, 복수의 센서 중 어느 하나의 감지 영역을 제1 영역 및 제2 영역으로 구분할 수 있다. 예를 들면, 프로세서(170)는, 전체 감지 영역에서, 군집을 형성하는 차량이 검출되지 않는 영역을 제1 영역으로 설정할 수 있다. 예를 들면, 프로세서(170)는, 전체 감지 영역에서, 군집을 형성하는 차량이 검출되는 영역을 제2 영역으로 설정할 수 있다. 프로세서(170)는, 제1 영역에 대한 정보를 제1 정보로, 제2 영역에 대한 정보를 제2 정보로 분류할 수 있다.
프로세서(170)는, 제1 정보를 군집 내의 적어도 하나의 타 차량에 전송할 수 있다. 예를 들면, 프로세서(170)는, 제1 정보를 제1 신호 방식을 통해 군집 내의 적어도 하나의 타 차량에 전송할 수 있다. 프로세서(170)는, 제1 정보에 대응되는 제1 신호를 제1 신호 방식을 통해 수신할 수 있다. 프로세서(170)는, 제2 정보를 군집 내의 적어도 하나의 타 차량에 전송할 수 있다. 예를 들면, 프로세서(170)는, 제2 정보를 제2 신호 방식을 통해 군집 내의 적어도 하나의 타 차량에 전송할 수 있다. 프로세서(170)는, 군집 내의 적어도 하나의 타 차량으로부터 제2 정보에 대응되는 제2 신호를 제2 신호 방식을 통해 수신할 수 있다. 제2 신호 방식은 제1 신호 방식과 다를 수 있다. 예를 들면, 제2 신호 방식은, 제1 신호 방식과 수신 주기, 수신 형태 및 수신 주파수 중 적어도 어느 하나가 다를 수 있다.
프로세서(170)는, 제1 정보를 자율 주행 경로 생성 동작, 군집 외부 오브젝트 검출 동작 및 3D 맵 데이터 생성 동작 중 적어도 어느 하나에 이용할 수 있다.
프로세서(170)는, 제2 정보를 군집 내 차량간의 거리 조정 동작 및 제어 명령 반영 확인 동작 중 적어도 어느 하나에 이용할 수 있다.
제1 정보는, 제1 센서로부터 생성된 제1 센싱 데이터의 적어도 일부에 기초하여 생성될 수 있다. 제2 정보는, 제1 센서로부터 생성된 제1 센싱 데이터의 적어도 일부에 기초하여 생성될 수 있다. 예를 들면, 제1 정보 및 제2 정보는, 차량(10)의 후방을 바라보는 센서로부터 획득된 데이터에 기초할 수 있다. 제1 정보는, 차량(10)의 후방을 바라보는 센서에 의해 획득된 데이터 중, 군집이 차지하는 영역을 제외한 영역의 센싱 데이터에 기초할 수 있다. 제2 정보는, 차량(10)의 후방을 바라보는 센서에 의해 획득된 데이터 중, 군집이 차지하는 영역의 센싱 데이터에 기초할 수 있다.
프로세서(170)는, 제1 정보 및 제2 정보 중 적어도 어느 하나를 서버에 전송할 수 있다. 서버는, 자율 주행 관제 서버일 수 있다. 서버는, 수신되는 제1 정보에 기초하여, 자율 주행 경로 생성 동작, 군집 외부 오브젝트 검출 동작 및 3D 맵 데이터 생성 동작을 수행할 수 있다. 서버는, 자율 주행 경로 생성 동작, 군집 외부 오브젝트 검출 동작 및 3D 맵 데이터 생성 동작의 결과 데이터를 차량(10)에 제공할 수 있다. 프로세서(170)는, 서버로부터 전송된 정보가 처리되어 생성된 결과 데이터를 수신할 수 있다.
프로세서(170)는, 군집의 상황이 변경되는 것으로 판단되는 경우, 군집의 상황 변경 이후에 획득되는 정보를 이용 용도에 따라 재분류할 수 있다. 군집 상황 변경은, 군집을 이루는 복수의 차량 중 적어도 어느 하나의 이탈하거나 외부에서 적어도 하나의 차량이 군집으로 합류하는 상황으로 설명될 수 있다. 또는, 군집 상황 변경은, 군집을 이루는 복수의 차량 중 적어도 어느 하나에서의 비상 기능 작동 상황으로 설명될 수 있다.
프로세서(170)는, 복수의 센서로부터 수신되는 센싱 데이터 및 통신 장치(220)로부터 수신되는 타 차량의 센싱 데이터를 퓨전하여 정보를 획득할 수 있다. 복수의 센서는, 오브젝트 검출 장치(210)에 포함될 수 있다.
프로세서(170)는, 제1 처리부에서, 제1 정보에, 제1 정보를 생성한 차량의 ID(identification) 데이터 및 타임 스탬프(timestamp) 데이터를 부가하여 제1 송신 데이터를 생성할 수 있다. 프로세서(170)는, 제2 처리부에서, 제2 정보에, 제2 정보를 생성한 차량의 ID 데이터 및 타임 스탬프 데이터를 부가하여, 제2 송신 데이터를 생성할 수 있다.
프로세서(170)는, 제1 송신 데이터 및 제2 송신 데이터를 브로드 캐스팅할 수 있다. 프로세서(170)는, 군집을 이루는 복수의 차량을 대상으로 제1 송신 데이터 및 제2 송신 데이터를 전송할 수 있다. 데이터를 수신한 차량은, 수신한 데이터를 다른 차량으로 재전송할 수 있다.전자 장치(100)는, 적어도 하나의 인쇄 회로 기판(printed circuit board, PCB)을 포함할 수 있다. 메모리(140), 인터페이스부(180), 전원 공급부(190) 및 프로세서(170)는, 인쇄 회로 기판에 전기적으로 연결될 수 있다.
도 4는 본 발명의 실시예에 따른 차량용 전자 장치의 플로우 차트이다. 도 4는 차량용 전자 장치의 동작 방법의 각 단계를 설명하는데 참조된다.
도 4를 참조하면, 프로세서(170)는, 인터페이스부(180)를 통해, 복수의 센서로부터 센싱 데이터를 수신할 수 있다(S410). 프로세서(170)는, 통신 장치(220)를 통해, 군집 내의 타 차량으로부터, 타 차량의 센싱 데이터를 수신할 수 있다(S420).
프로세서(170)는, 차량(10)의 센싱 데이터와 타 차량의 센싱 데이터를 기초로 정보를 생성할 수 있다(S430). 프로세서(170)는, 복수의 센서로부터 수신되는 센싱 데이터 및 통신 장치(220)를 통해 수신되는 타 차량의 센싱 데이터를 퓨전하여 정보를 획득할 수 있다. 예를 들면, 프로세서(170)는, 군집의 선두에서 주행하는 차량(10)의 제1 센싱 데이터, 군집의 중간에서 주행하는 타 차량의 제2 센싱 데이터, 군집의 후미에서 주행하는 타 차량의 제3 센싱 데이터를 퓨전하여 제1 정보를 생성할 수 있다. 이때, 제1 센싱 데이터, 제2 센싱 데이터 및 제3 센싱 데이터는, 군집의 외부를 향하는 센서로부터 획득된 센싱 데이터일 수 있다. 예를 들면, 프로세서(170)는, 예를 들면, 프로세서(170)는, 군집의 선두에서 주행하는 차량(10)의 제4 센싱 데이터, 군집의 중간에서 주행하는 타 차량의 제5 센싱 데이터, 군집의 후미에서 주행하는 타 차량의 제6 센싱 데이터를 퓨전하여 제2 정보를 생성할 수 있다. 이때, 제4 센싱 데이터, 제5 센싱 데이터 및 제6 센싱 데이터는, 군집의 내부를 향하는 센서로부터 획득된 센싱 데이터일 수 있다.
프로세서(170)는, 획득되는 정보를 이용 용도에 따라 분류할 수 있다(S435). 분류하는 단계(S430)는, 정보가 군집 주행에 이용되는 제1 정보로 판단되는 경우, 제1 처리부로 제1 정보의 처리를 할당하는 단계 및 정보가 군집 모니터링에 이용되는 제2 정보로 판단되는 경우, 제2 처리부로 제2 정보의 처리를 할당하는 단계를 포함할 수 있다.
한편, 차량용 전자 장치의 동작 방법은, 적어도 하나의 프로세서(170)가, 제1 정보를 군집 내의 적어도 하나의 타 차량에 전송하는 단계, 적어도 하나의 프로세서(170)가, 타 차량으로부터 제1 정보에 대응되는 제1 신호를 제1 신호 방식을 통해 수신하는 단계, 적어도 하나의 프로세서(170)가, 제2 정보를 타 차량에 전송하는 단계 및 적어도 하나의 프로세서(170)가, 타 차량으로부터, 제2 정보에 대응되는 제2 신호를 제1 신호 방식과 다른 제2 신호 방식을 통해 수신하는 단계를 더 포함할 수 있다.
정보를 분류하는 단계(S435)는, 적어도 하나의 프로세서(170)가, 복수의 센서를 제1 정보를 획득하는 제1 센서 그룹 및 제2 정보를 획득하는 제2 센서 그룹으로 구분하는 단계 및 적어도 하나의 프로세서(170)가, 제1 센서 그룹에서 수신되는 정보를 제1 정보로, 제2 센서 그룹에서 수신되는 정보를 제2 정보로 분류하는 단계를 포함할 수 있다.
정보를 분류하는 단계(S435)는, 적어도 하나의 프로세서(170)가, 복수의 센서 중 어느 하나의 감지 영역을 제1 영역 및 제2 영역으로 구분하는 단계 및 적어도 하나의 프로세서(170)가, 제1 영역에 대한 정보를 제1 정보로, 제2 영역에 대한 정보를 제2 정보로 분류하는 단계를 포함할 수 있다.
프로세서(170)는, 제1 처리부에서, 제1 정보를 처리할 수 있다(S440). 예를 들면, 프로세서(170)는, 제1 정보를 자율 주행 경로 생성 동작, 군집 외부 오브젝트 검출 동작 및 3D 맵 데이터 생성 동작 중 적어도 어느 하나에 이용할 수 있다. 한편, 제1 정보는, 제1 센서로부터 생성된 제1 센싱 데이터의 적어도 일부에 기초하여 생성될 수 있다.
프로세서(170)는, 제1 정보에 기초하여, 제1 송신 데이터를 생성할 수 있다(S445). 프로세서(170)는, 제1 처리부에서, 제1 정보에 차량 ID 데이터 및 타임 스탬프 데이터를 부가하여, 제1 송신 데이터를 생성할 수 있다.
프로세서(170)는, 군집을 이루는 타 차량에, 제1 송신 데이터를 브로드 캐스팅할 수 있다(S450). 프로세서(170)는, 군집을 이루는 타 차량으로부터, 제1 정보에 대응되는 제1 신호를 수신할 수 있다(S455).
프로세서(170)는, 제2 처리부에서, 제2 정보를 처리할 수 있다(S460). 예를 들면, 프로세서(170)는, 제2 정보를 군집 내 차량간의 거리 조정 동작 및 제어 명령 반영 확인 동작 중 적어도 어느 하나에 이용할 수 있다. 한편, 제2 정보는, 제1 센서로부터 생성된 제1 센싱 데이터의 적어도 일부에 기초하여 생성될 수 있다.
프로세서(170)는, 제2 정보에 기초하여, 제2 송신 데이터를 생성할 수 있다(S465). 프로세서(170)는, 제2 처리부에서, 제2 정보에 차량 ID 데이터 및 타임 스탬프 데이터를 부가하여, 제2 송신 데이터를 생성할 수 있다.
프로세서(170)는, 군집을 이루는 타 차량에, 제2 송신 데이터를 브로드 캐스팅할 수 있다(S475). 프로세서(170)는, 군집을 이루는 타 차량으로부터, 제2 정보에 대응되는 제2 신호를 수신할 수 있다(S475).
차량용 전자 장치의 동작 방법은, 적어도 하나의 프로세서(170)가, 제1 정보 및 제2 정보 중 적어도 하나를 서버에 전송하는 단계 및 적어도 하나의 프로세서(170)가 서버로부터 전송된 정보가 처리되어 생성된 결과 데이터를 수신하는 단계를 더 포함할 수 있다.
차량용 전자 장치의 동작 방법은, 군집의 상황이 변경되는 것으로 판단되는 경우, 군집의 상황 변경 이후에 획득되는 정보를 이용 용도에 따라 재분류하는 단계를 더 포함할 수 있다.
도 5 내지 도 6은 본 발명의 실시예에 따라 정보를 획득하는 방식을 설명하는데 참조되는 도면이다.
도 5를 참조하면, 프로세서(170)는, 인터페이스부(180)를 통해, 오브젝트 검출 장치(210)의 복수의 센서로부터 복수의 영역(511, 512, 513)에 대한 센싱 데이터를 수신할 수 있다. 프로세서(170)는, 통신 장치(220)를 통해, 군집을 이루는 타 차량(20)으로부터 타 차량(20)의 복수의 센서에서 생성한 복수의 영역(521, 522)에 대한 센싱 데이터를 수신할 수 있다. 프로세서(170)는, 차량(10) 주변의 복수의 영역(511, 512, 513)에 대한 센싱 데이터와 타 차량(20) 주변의 복수의 영역(521, 522)에 대한 센싱 데이터를 퓨전하여, 퓨전 센싱 데이터를 생성할 수 있다. 퓨전 센싱 데이터는, 군집의 주변을 둘러싸고, 군집의 주변 영역에 대한 센싱 데이터일 수 있다.
일반적으로 군집 주행시, 후행하는 차량은, 군집 전방의 상황을 인지할 수 없다. 본 발명의 실시예에 따른 전자 장치(100)에 의해, 후행하는 차량도 군집 전방의 상황을 인지할 수 있게된다. 본 발명의 실시예에 따른 전자 장치(100)에 의해, 적은 센서로 상대적으로 많은 센서 정보를 획득할 수 있다. 센서 퓨전을 정확하게 하기 위해서는, 차량(10)과 군집을 이루는 타 차량(20) 위치 정보를 획득하기 위한 알고리즘이 필요하다. 본 발명의 실시예에 따른 전자 장치(100)에 의해, 차량(10) 전방에 갑작스러운 장애물이 발생되는 경우, 타 차량(20)은 사전에 장애물 회피를 판단할 수 있다. 타 차량(20)은 적은 수의 센서를 사용하여 군집 주행을 할 수 있다. 차량(10)은, 타 차량(20)의 센서 정보를 이용하여, 후방의 상태를 인지할 수 있다. 그로 인해, 차량(10)은, 차로 변경이나 가속, 감속 판단시 더 안전하게 할 수 있다. 사용자는, 전체 군집 주행시 전체 차량의 장애물 정보를 쉽게 모니터링할 수 있어, 사용자의 심리에 안정적으로 기여할 수 있다. 군집 주행이 하나의 센서가 고장나더라도 다른 차량의 센서를 이용하여 문제점을 해설하여 세이프티(safety) 기능이 향상되는 장점이 있다. V2X 모듈(통신 모듈)을 통한 센서 퓨전으로 군집 주행하는 그룹은 전체 장애물 정보를 획득할 수 있다.
도 6을 참조하면, 프로세서(170)는, 복수의 센서(210)로부터, 센싱 데이터를 수신할 수 있다. 프로세서(170)는, 복수의 센서(210)로부터 수신된 센싱 데이터를 퓨전할 수 있다(S610).
프로세서(170)는, 위치 데이터를 획득할 수 있다(S620). 프로세서(170)는, 위치 데이터 생성 장치(280)로부터 차량(10)의 위치 데이터를 획득할 수 있다. 프로세서(170)는, 차량(10)의 위치 데이터와 복수의 센서(210)로부터 수신된 센싱 데이터에 기초하여, 타 차량의 위치 데이터를 획득할 수 있다. 또는, 프로세서(170)는, 타 차량으로부터 타 차량의 위치 데이터를 획득할 수 있다.
프로세서(170)는, 통신 모듈(220)을 통해, 타 차량으로부터, 타 차량의 센싱 데이터를 수신할 수 있다(S630).
프로세서(170)는, 차량(10)의 위치 데이터 및 타 차량의 위치 데이터에 기초하여, 차량(10)의 센싱 데이터와 타 차량의 센싱 데이터를 퓨전하고, 퓨전 데이터를 생성할 수 있다(S640).
프로세서(170)는, 통신 장치(220)를 통해, 퓨전 데이터를 군집을 형성하는 타 차량에 전송할 수 있다(S650). 프로세서(170)는, 통신 장치(220)를 통해, 군집을 형성하는 타 차량에 제어 명령을 전송할 수 있다.
도 7 내지 도 17은 본 발명의 실시예에 따라 군집을 이루어 주행하는 복수의 차량간의 통신 방식을 설명하는데 참조되는 도면이다.
도 7을 참조하면, 군집을 이루는 복수의 차량은 서로 이동 통신망(예를 들면, 4G망 또는 5G망)를 이용하여 정보, 데이터, 신호를 교환할 수 있다. 군집을 이루는 복수의 차량은 서로 로컬(local) 통신을 통해, 정보, 데이터, 신호를 교환할 수 있다. 로컬 통신은, 소정의 통신 방식(예를 들면, wifi) 군집을 이루는 복수의 차량간 직접(direct) 정보, 데이터, 신호를 교환하는 방식으로 설명될 수 있다. 로컬 통신을 이용하는 경우, 이동 통신망을 이용하는 경우보다 더 빠르게 정보, 데이터, 신호를 교환할 수 있어, 군집을 이루는 복수의 차량간의 거리를 짧게 형성할 수 있다. 이경우, 상대적으로 전체 군집의 크기가 작아지는 장점이 있다.
차량(10)은, 제1 타 차량(20)에 데이터를 전송하고, 데이터 확인 응답 메시지를 수신할 수 있다. 그러나, 제2 타 차량(40)이 차량(10)에서 멀리 떨어져있거나, 재밍(jamming)이 있는 경우, 차량(10)이 제2 타 차량(40)에 데이터를 전송하는 경우에도, 데이터 확인 응답 메시지를 수신하지 못할 수 있다.
차량(10)이 데이터를 제1 타 차량(20)에 전송하고, 제1 타 차량(20)이 수신되는 데이터를 제2 타 차량(40)에 재전송할 수 있다. 제1 타 차량(20)은, 제2 타 차량(40)으로부터 데이터 확인 응답 메시지를 수신하여, 차량(10)에 재전송할 수 있다. 이경우, 데이터 전달에 따른 지연 문제가 있고, 제1 타 차량(20)의 통신 문제 발생시 군집 주행이 불가능해지게 된다.
도 8을 참조하면, 군집을 형성하는 복수의 차량 각각은, 이전 샘플링 타임에 다른 차량으로부터 수신한 데이터와 자신의 데이터를 한 데이터에 실어서 브로드 캐스팅(broadcasting)할 수 있다. 이경우, 어느 하나의 차량에서 통신 재밍(jamming) 문제나 특정 시스템 이상으로 데이터가 전달되지 않아도 이전 프레임에 있던 퓨전 데이터를 이용할 수 있어, 문제점을 해결할 수 있다. 각각의 차량은 특정한 차량에서 데이터가 업데이트 안될 경우, 통신에 문제가 발생했음을 인지하여 상황에 맞는 운행을 할 수 있고, 사용자에게 보고하거나 서버에 상태를 전달하여, 비상 조치가 이루어지도록 할 수 있다. 데이터의 타임스탬프의 차이를 비교하여 어떤 차량에서 통신 문제가 발생하는지 군집을 형성하는 모든 차량이 인지할 수 있다.
도 8은 군집을 형성하는 복수의 차량간에 송수신하는 데이터 포맷을 예시한다. 데이터는, 퓨전 데이터에, 퓨전 데이터를 생성한 차량의 ID 데이터와 타임스탬프 데이터가 결합되어 형성될 수 있다.
도 9를 참조하면, 제1 차량(910), 제2 차량(920) 및 제3 차량(930)이 군집에포함된 상태로 주행할 수 있다. 제1 차량(910)은, 차량(10)으로, 제2 차량(920) 및 제3 차량(930)은 타 차량으로 분류될 수 있다. 한편, 데이터의 생성 동작, 데이터의 전송 동작 및 수신 동작 등은 차량용 전자 장치(100)의 프로세서(170)에서 수행될 수 있다.
t 시점에서, 제1 차량(910)은, 제1 송신 데이터를 브로드 캐스팅할 수 있다. 상술한 바와 같이, 제1 송신 데이터는, t 시점(또는 t 시점 바로 직전)에 생성된 퓨전 데이터에 제1 차량의 ID 데이터와 타임스탬프 데이터를 포함할 수 있다. 한편, t 시점에서, 제1 차량(910)은, 제3 차량(920)으로부터 제3 차량에서 생성된 송신 데이터를 수신할 수 있다.
t+1 시점에서, 제1 차량(910)은, 제2 송신 데이터를 브로드 캐스팅할 수 있다. 제2 송신 데이터는, t+1 시점(또는 t+1 시점 바로 직전)에 생성된 퓨전 데이터에 제1 차량의 ID 데이터와 타임스탬프 데이터를 포함할 수 있다. 또한, 제2 송신 데이터는, t 시점에 수신된 제3 차량에서 생성된 송신 데이터를 포함할 수 있다. 한편, t+1 시점에서, 제1 차량(910)은, 제2 차량(920)으로부터 제2 차량에서 생성된 송신 데이터를 수신할 수 있다.
t+2 시점에서, 제1 차량(910)은, 제3 송신 데이터를 브로드 캐스팅할 수 있다. 제3 송신 데이터는, t+2 시점(또는 t+2 시점 바로 직전)에 생성된 퓨전 데이터에 제1 차량의 ID 데이터와 타임스탬프 데이터를 포함할 수 있다. 또한, 제3 송신 데이터는, t 시점에 수신된 제3 차량(930)에서 생성된 송신 데이터와 t+1 시점에 수신된 제2 차량(920)에서 생성된 송신 데이터를 포함할 수 있다.
이와 같이, 각각의 차량이 자신의 퓨전 데이터뿐 아니라 다른 차량에서 생성된 퓨전 데이터를 ID 데이터오 타임스탬프 데이터를 포함시켜 전송함으로써, 특정 차량의 통신 장애 상태에서도 데이터를 공유할 수 있고, 통신 장애 차량이 어떤 차량인지 빠르게 인지할 수 있는 장점이 있다.
도 10을 참조하면, 제1 차량(1001), 제2 차량(1002), 제3 차량(1003), 제4 차량(1004)은, 군집에 포함되어 주행할 수 있다. 제1 차량(1001)은, 차량(10)으로, 제2 차량(1002), 제3 차량(1003) 및 제4 차량(1004)은, 타 차량으로 분류될 수 있다. 한편, 데이터의 생성 동작, 데이터의 전송 동작 및 수신 동작 등은 차량용 전자 장치(100)의 프로세서(170)에서 수행될 수 있다.
군집에 포함된 각각의 차량(1001, 1002, 1003, 1004)은, 퓨전 데이터 및 위치 데이터를 다른 차량으로 전송할 수 있다(S1010). 만약, 군집에 포함된 차량이 많아져 통신 거리가 길어지면, 군집의 중간에서 주행하는 차량이 데이터를 전달할 수도 있다.
군집에 포함된 각각의 차량(1001, 1002, 1003, 1004)은, 다른 차량으로부터 수신한 데이터와 자신의 데이터를 퓨전하여 퓨전 데이터를 생성할 수 있다(S1020).
제1 차량(1001)은, 차로 변경 명령 신호를 브로드 캐스팅할 수 있다(S1030). 이때, 중간에 위치하는 차량은 제1 차량(1001)의 차로 변경 명령을 업데이트하여 뒷 차량까지 브로드캐스팅할 수 있다.
군집에 포함된 각각의 차량(1001, 1002, 1003, 1004)은, 차로 변경할 수 있다(S1040). 군집의 최후방에서 주행 중인 제4 차량(1004)이 가장 먼저 차로를 변경할 수 있다. 군집의 뒤쪽에서 주행하는 차량일수록 더 먼저 차로를 변경할 수 있다. 차로 변경이 완료된 차량은, 전방에서 주행 하는 차량의 차로 변경이 용이하도록 속도를 낮출 수 있다. 군집의 최전방에서 주행 중인 제1 차량(1001)이 가장 마지막으로 차로 변경을 할 수 있다.
도 11을 참조하면, 군집 주행시, 차량간의 간격이 짧을수록 에너지 효율은 높아지지만, 급정지시 사고의 위험은 높아지게 된다. 차량간의 통신 레이턴시(latency)를 줄이는 것이 군집 주행 성능과 연관된다. 본원 발명에 따라 군집 주행 그룹 전체의 센서 퓨전 데이터를 획득한 각각의 차량들은 동시에 제동할 수 있다.
도 11은 종래 기술에 따른 군집 주행의 제동 동작을 나타낸다. 군집의 전방에 장애물이 검출되면(S1110), 군집의 최전방에서 주행중인 제1 차량(1201)은, 제동 명령 신호를 제2 차량(1202), 제3 차량(1203) 및 제4 차량(1204)에 전송할 수 있다(S1120). 제1 차량(1201)은, 제2 차량(1202), 제3 차량(1203) 및 제4 차량(1204)로부터 응답 신호를 수신할 수 있다. 제1 내지 제4 차량(1201, 1202, 1203, 1204)은 제동 동작을 수행할 수 있다. 군집의 길이가 길어지는 경우, 최전방의 제1 차량(1201)과 최후방의 제4 차량(1204)의 통신 거리가 멀어지게 된다. 이경우, 가운데서 주행 중인 차량이 통신 브릿지 역할을 할 수 있다. 브릿지 역할을 하는 차량에 통신 재밍(jamming)이나 에러가 발생되는 경우, 군집 주행에 위험을 초래하게 된다.
도 12를 참조하면, 통신 재밍(jamming)이나 차량간 거리가 멀어 통신 에러가 발생되는 경우, 제1 차량(1201)은, 다시 명령 신호를 전송하고 응답을 기다리거나 거리가 먼경우 브릿지 역할을 하는 다른 차량을 통해 명령 신호를 다시 전송해야 한다. 이러한 경우, 응답성이 느려질 수 있고, 전체 군집 시스템의 안정성에 문제가 발생하게 된다.
도 12는 종래 기술에 따른 군집 주행의 제동 동작을 나타낸다. 군집의 전방에 장애물이 검출되면(S1210), 군집의 최전방에서 주행중인 제1 차량(1201)은, 제동 명령 신호를 제2 차량(1202), 제3 차량(1203), 제4 차량(1204)에 전송할 수 있다(S1220, S1230). 통신 에러등의 이유로 제3 차량(1203)으로부터 응답 신호가 수신되지 않는 경우, 제1 차량(1201)은, 제2 차량(1202)을 통해, 제3 차량(1203)으로 제동 명령 신호를 전송할 수 있다. 제1 내지 제4 차량(1201, 1202, 1203, 1204)은 제동 동작을 수행할 수 있다(S1250). 이경우, S1240 단계에 의해 시간이 소요되어, 전체 군집 시스템의 안정성이 문제된다.
도 13을 참조하면, 군집내 모든 차량은 브로드캐스팅 방식으로 송신 데이터에 자신의 ID 데이터, 타임스탬프 데이터, 각 차량의 센서 퓨전 데이터, 명령 데이터 및 명령에 대한 응답 데이터를 포함시켜 전송한다. 매 샘플링 타임마다 타 차량에서 수신한 데이터들을 업데이트하여 전체 차량에 대한 데이터를 브로드캐스팅한다. 중간에 통신 에러등으로 인해 일시적으로 데이터를 손실하더라도 전체 데이터를 사용할 수 있다. 또한 최전방의 제1 차량(1301)과 최후방의 제4 차량(1304) 사이의 거리가 멀어도 중간에서 주행하는 차량들이 인접 차량의 데이터를 업데이트하기 때문에 브릿지 역할을 하는 차량이 필요없다.
군집의 전방에 장애물이 검출되면(S1310), 군집의 최전방에서 주행중인 제1 차량(1201)은, 제동 명령 신호를 제2 차량(1202), 제3 차량(1203), 제4 차량(1204)에 전송할 수 있다(S1320, S1330).
통신 에러등의 이유로 제3 차량(1203)으로부터 응답 신호가 수신되지 않을 수 있다. 이경우에도, 제2 차량(1302) 및 제4 차량(1304)이 브로드캐스팅 방식으로 제3 차량(1303)에 제동 명령 신호를 전송할 수 있다(S1340). 제1 내지 제4 차량(1201, 1202, 1203, 1204)은 제동 동작을 수행할 수 있다(S1350).
제1 차량(1201)에서 생성된 제동 명령 신호가 제1 차량(1201)뿐 아니라 제2 차량(1202) 및 제4 차량(1204)으로부터 수신되기 때문에, 제3 차량(1203)은, 제동 명령 신호를 수신할 수 있다. 이와 같이 유기적으로 제동 명령 신호가 송수신되어, 군집 전체의 시스템 안정도가 높아지게 된다.
도 14를 참조하면, 한편, 차량간 송수신되는 송신 데이터는, 각각의 차량의 ID 데이터, 타임스탬프 데이터, 퓨전 데이터외에 각각의 차량의 명령 데이터 및 응답 데이터를 더 포함할 수 있다. 특정된 시간 기준의 송신 데이터는, 군집을 이루는 차량의 수만큼 생성될 수 있고, 군집을 이루는 모든 차량이 차량이 수만큼 생성된 송신 데이터를 공유할 수 있다.
도 15를 참조하면, 군집 시스템은, 제1 차량(1501), 제2 차량(1502), 제3 차량(1503) 및 제4 차량(1504)를 포함할 수 있다. 제1 차량(1501)은, 차량(10)으로, 제2 차량(1502), 제3 차량(1503) 및 제4 차량(1504)은, 타 차량으로 분류될 수 있다. 한편, 데이터의 생성 동작, 데이터의 전송 동작 및 수신 동작 등은 차량용 전자 장치(100)의 프로세서(170)에서 수행될 수 있다.
마스터 차량(1501)의 군집 주행을 위한 버튼이 온되면, 마스터 차량(1501)은 퓨전 데이터와 위치 데이터를 타 차량에 전송할 수 있다. 마스터 차량(1501)은, 타 차량을 추월하거나 타 차량들이 차로를 열어주어 마스터 차량(1501)은 선두로 이동할 수 있다. 슬레이브 차량(1502, 1503, 1504)은 마스터 차량(1501)과 가까운 순으로 차량 ID 번호를 부여받고 ID 번호 순의 자신의 위치로 이동할 수 있다. 모든 차량의 군집 주행 모드가 완료되면 마스터 차량(1501)은 주행을 시작할 수 있다.
제1 차량(1501)은, 제2 차량(1502), 제3 차량(1503) 및 제4 차량(1504)에 마스터/슬레이브 등록 모드 알림 메시지를 브로드 캐스팅할 수 있다(S1510). 이경우, 제1 차량(1501)은, 퓨전 데이터와 차량 위치 데이터를 포함시켜 마스터와 슬레이브 등록 모드를 제2 차량(1502), 제3 차량(1503) 및 제4 차량(1504)에 전송할 수 있다.
제2 차량 내지 제4 차량(1502, 1503, 1504)도 제1 차량(1501)으로부터 수신한 마스터/슬레이브 등록 모드 알림 메시지를 브로드 캐스팅할 수 있다(S1520).
마스터 차량(1501)은, 최우선 차량 ID 번호가 부여되고, 마스터 차량(1502)에 가까운 순으로 차량 ID 번호가 부여될 수 있다(S1530). ID가 부여된 후 차량들은 마스터 차량(1501) 뒤쪽으로 번호순으로 이동할 수 있다.
군집 주행 준비가 완료되면, 각각의 차량(1501, 1502, 1503, 1504)은 레디(ready) 메시지를 브로드 캐스팅할 수 있다(S1540). 마스터 차량(1501)은 모든 차량으로부터 레디 메시지를 수신하는 경우, 주행을 시작할 수 있다.
도 16을 참조하면, 군집을 이루는 차량의 수가 적은 경우에는, 전술한 방식으로 통신을 수행할 수 있다. 도 16은 군집을 이루는 차량의 수가 많은 경우의 통신 방식을 예시한다. 군집을 이루는 차량의 수가 2N으로 가정하면 2N개의 데이터를 브로드 캐스팅해야 한다. 차량의 수가 많아지면 브로드 캐스팅해야 하는 데이터 수가 많아져 송수신 시간이 오래 걸릴 수 있다. 이경우, 데이터는 N개씩 송수신하고, 최전방에서부터 N번째 차량은 브릿지 역할을 할 수 있다. 브릿지 역할을 하는 차량은 첫번째 차량(최전방 차량)부터 N번째 차량의 데이터 정보와 N번째 차량부터 2N 번째 차량(최후방 차량)의 데이터를 교대로 브로드 캐스팅할 수 있다.
군집이 N개의 차량으로 구성되는 경우, 군집을 이루는 차량들은 전술한 방식으로 통신을 수행할 수 있다. 군집이 2N개의 차량으로 구성되는 경우, 데이터를 2개로 그루핑하여 N번째 차량이 브릿지 역할을 수행 할 수 있다. 군집이 3N개의 차량으로 구성되는 경우, 데이터를 3개로 그루핑하여 N번째 차량과 2N번째 차량이 브릿지 역할을 수행 할 수 있다.
한편, N은, 군집 내에서 통신 브릿지를 두지 않고 다이렉트로 통신할 수 있도록 기준이 되는 차량의 수로 이해될 수 있다.
도 17을 참조하면, 브릿지 역할을 하는 차량이 2대 이상이 되면, 브릿지 역할이 되는 차량은 그루핑된 데이터를 교대로 전송하면서 데이터의 레이턴시(latency)를 더 줄일 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
[부호의 설명]
10 : 차량
100 : 차량용 전자 장치

Claims (20)

  1. 군집 주행 시, 리더 차량으로 기능하는 차량에 포함되는 차량용 전자 장치에 있어서,
    획득되는 정보를 이용 용도에 따라 분류하되,
    상기 정보가 군집 주행에 이용되는 제1 정보로 판단되는 경우, 제1 처리부로 상기 제1 정보의 처리를 할당하고,
    상기 정보가 군집의 모니터링에 이용되는 제2 정보로 판단되는 경우, 제2 처리부로 상기 제2 정보의 처리를 할당하는 프로세서;를 포함하는 차량용 전자 장치.
  2. 제 1항에 있어서,
    상기 프로세서는,
    상기 제1 정보를 상기 군집 내의 적어도 하나의 타 차량에 전송하고, 상기 타 차량으로부터, 상기 제1 정보에 대응되는 제1 신호를 제1 신호 방식을 통해 수신하고,
    상기 제2 정보 상기 타 차량에 전송하고, 상기 타 차량으로부터, 상기 제2 정보에 대응되는 제2 신호를 상기 제1 신호 방식과 다른 제2 신호 방식을 통해 수신하는 차량용 전자 장치.
  3. 제 1항에 있어서,
    상기 프로세서는,
    상기 제1 정보를 자율 주행 경로 생성 동작, 군집 외부 오브젝트 검출 동작 및 3D 맵 데이터 생성 동작 중 적어도 어느 하나에 이용하는 차량용 전자 장치.
  4. 제 1항에 있어서,
    상기 프로세서는,
    상기 제2 정보를 군집 내 차량간의 거리 조정 동작 및 제어 명령 반영 확인 동작 중 적어도 어느 하나에 이용하는 차량용 전자 장치.
  5. 제 1항에 있어서,
    상기 제1 정보는,
    제1 센서로부터 생성된 제1 센싱 데이터의 적어도 일부에 기초하여 생성되고,
    상기 제2 정보는,
    상기 제1 센서로부터 생성된 제1 센싱 데이터의 적어도 일부에 기초하여 생성되는 차량용 전자 장치.
  6. 제 1항에 있어서,
    상기 프로세서는,
    상기 제1 정보 및 상기 제2 정보 중 적어도 어느 하나를 서버에 전송하고, 상기 서버로부터 전송된 정보가 처리되어 생성된 결과 데이터를 수신하는 차량용 전자 장치.
  7. 제 1항에 있어서,
    상기 프로세서는,
    군집의 상황이 변경되는 것으로 판단되는 경우, 군집의 상황 변경 이후에 획득되는 정보를 이용 용도에 따라 재분류하는 차량용 전자 장치.
  8. 제 1항에 있어서,
    상기 프로세서는,
    복수의 센서로부터 수신되는 센싱 데이터 및 통신 장치를 통해 수신되는 타 차량의 센싱 데이터를 퓨전하여 정보를 획득하는 차량용 전자 장치.
  9. 제 1항에 있어서,
    상기 프로세서는,
    상기 제1 처리부에서, 상기 제1 정보에 차량 ID 데이터 및 타임 스탬프(timestamp) 데이터를 부가하여, 제1 송신 데이터를 생성하고,
    상기 제2 처리부에서, 상기 제2 정보에 차량 ID 데이터 및 타임 스탬프 데이터를 부가하여, 제2 송신 데이터를 생성하는 차량용 전자 장치.
  10. 제 9항에 있어서,
    상기 프로세서는,
    상기 제1 송신 데이터 및 상기 제2 송신 데이터를 브로드 캐스팅하는 차량용 전자 장치.
  11. 군집 주행 시, 리더 차량으로 기능하는 차량에 포함되는 차량용 전자 장치의 동작 방법에 있어서,
    적어도 하나의 프로세서가, 획득되는 정보를 이용 용도에 따라 분류하는 단계;를 포함하고,
    상기 분류하는 단계는,
    상기 정보가 군집 주행에 이용되는 제1 정보로 판단되는 경우, 제1 처리부로 상기 제1 정보의 처리를 할당하는 단계; 및
    상기 정보가 군집 모니터링에 이용되는 제2 정보로 판단되는 경우, 제2 처리부로 상기 제2 정보의 처리를 할당하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.
  12. 제 11항에 있어서,
    적어도 하나의 프로세서가, 상기 제1 정보를 상기 군집 내의 적어도 하나의 타 차량에 전송하는 단계;
    적어도 하나의 프로세서가, 상기 타 차량으로부터, 상기 제1 정보에 대응되는 제1 신호를 제1 신호 방식을 통해 수신하는 단계;
    적어도 하나의 프로세서가, 상기 제2 정보를 상기 타 차량에 전송하는 단계; 및
    적어도 하나의 프로세서가, 상기 타 차량으로부터, 상기 제2 정보에 대응되는 제2 신호를 상기 제1 신호 방식과 다른 제2 신호 방식을 통해 수신하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  13. 제 11항에 있어서,
    적어도 하나의 프로세서가, 상기 제1 정보를 자율 주행 경로 생성 동작, 군집 외부 오브젝트 검출 동작 및 3D 맵 데이터 생성 동작 중 적어도 어느 하나에 이용하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  14. 제 11항에 있어서,
    적어도 하나의 프로세서가, 상기 제2 정보를 군집 내 차량간의 거리 조정 동작, 제어 명령 반영 확인 동작 중 적어도 어느 하나에 이용하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  15. 제 11항에 있어서,
    상기 제1 정보는,
    제1 센서로부터 생성된 제1 센싱 데이터의 적어도 일부에 기초하여 생성되고,
    상기 제2 정보는,
    상기 제1 센서로부터 생성된 제1 센싱 데이터의 적어도 일부에 기초하여 생성되는 차량용 전자 장치의 동작 방법.
  16. 제 11항에 있어서,
    적어도 하나의 프로세서가, 상기 제1 정보 및 상기 제2 정보 중 적어도 어느 하나를 서버에 전송하는 단계; 및
    적어도 하나의 프로세서가, 상기 서버로부터 전송된 정보가 처리되어 생성된 결과 데이터를 수신하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  17. 제 11항에 있어서,
    적어도 하나의 프로세서가, 군집의 상황이 변경되는 것으로 판단되는 경우, 군집의 상황 변경 이후에 획득되는 정보를 이용 용도에 따라 재분류하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  18. 제 11항에 있어서,
    적어도 하나의 프로세서가, 복수의 센서로부터 수신되는 센싱 데이터 및 통신 장치를 통해 수신되는 타 차량의 센싱 데이터를 퓨전하여 정보를 획득하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  19. 제 11항에 있어서,
    적어도 하나의 프로세서가, 상기 제1 처리부에서, 상기 제1 정보에 차량 ID 데이터 및 타임 스탬프(timestamp) 데이터를 부가하여, 제1 송신 데이터를 생성하는 단계; 및
    적어도 하나의 프로세서가, 상기 제2 처리부에서, 상기 제2 정보에 차량 ID 데이터 및 타임 스탬프 데이터를 부가하여, 제2 송신 데이터를 생성하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  20. 제 19항에 있어서,
    적어도 하나의 프로세서가, 상기 제1 송신 데이터를 브로드 캐스팅하는 단계; 및
    적어도 하나의 프로세서가, 상기 제2 송신 데이터를 브로드 캐스팅하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
PCT/KR2019/006622 2019-05-31 2019-05-31 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 WO2020241953A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/KR2019/006622 WO2020241953A1 (ko) 2019-05-31 2019-05-31 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
US16/500,803 US20220076580A1 (en) 2019-05-31 2019-05-31 Electronic device for vehicles and operation method of electronic device for vehicles
KR1020190107727A KR20190107282A (ko) 2019-05-31 2019-08-30 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/006622 WO2020241953A1 (ko) 2019-05-31 2019-05-31 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Publications (1)

Publication Number Publication Date
WO2020241953A1 true WO2020241953A1 (ko) 2020-12-03

Family

ID=68067781

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/006622 WO2020241953A1 (ko) 2019-05-31 2019-05-31 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Country Status (3)

Country Link
US (1) US20220076580A1 (ko)
KR (1) KR20190107282A (ko)
WO (1) WO2020241953A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7241642B2 (ja) * 2019-08-09 2023-03-17 本田技研工業株式会社 隊列走行システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6026012B2 (ja) * 1978-02-08 1985-06-21 株式会社明治ゴム化成 合成樹脂製品の溶着装置における溶着制御装置
KR20110060320A (ko) * 2009-11-30 2011-06-08 한국전자통신연구원 인프라 센서 기반 차량 제어 장치 및 방법
JP2013012154A (ja) * 2011-06-30 2013-01-17 Toshiba Corp 情報提供システム、情報提供方法及び情報分割処理プログラム
KR20150113626A (ko) * 2014-03-31 2015-10-08 한국전자통신연구원 차량간 통신 장치 및 방법
JP2018121121A (ja) * 2017-01-23 2018-08-02 株式会社クボタ 作業車無線管理システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102077259B (zh) * 2009-02-27 2013-09-25 丰田自动车株式会社 车辆相对位置推定装置及车辆相对位置推定方法
DE102018114808A1 (de) * 2018-06-20 2019-12-24 Man Truck & Bus Se Verfahren zur automatischen Querführung eines Folgefahrzeugs in einem Fahrzeug-Platoon
KR20200123505A (ko) * 2019-04-15 2020-10-30 현대자동차주식회사 군집 주행 제어 장치, 그를 포함한 시스템 및 그 방법
US11495131B2 (en) * 2020-02-21 2022-11-08 Qualcomm Incorporated Vehicle to vehicle safety messaging congestion control for platooning vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6026012B2 (ja) * 1978-02-08 1985-06-21 株式会社明治ゴム化成 合成樹脂製品の溶着装置における溶着制御装置
KR20110060320A (ko) * 2009-11-30 2011-06-08 한국전자통신연구원 인프라 센서 기반 차량 제어 장치 및 방법
JP2013012154A (ja) * 2011-06-30 2013-01-17 Toshiba Corp 情報提供システム、情報提供方法及び情報分割処理プログラム
KR20150113626A (ko) * 2014-03-31 2015-10-08 한국전자통신연구원 차량간 통신 장치 및 방법
JP2018121121A (ja) * 2017-01-23 2018-08-02 株式会社クボタ 作業車無線管理システム

Also Published As

Publication number Publication date
US20220076580A1 (en) 2022-03-10
KR20190107282A (ko) 2019-09-19

Similar Documents

Publication Publication Date Title
WO2020241955A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020145441A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2021002503A1 (ko) 차량용 전자 장치 및 그 동작 방법
WO2020241952A1 (ko) 자율 주행 차량 시스템 및 차량의 자율 주행 방법
WO2020241954A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2017003013A1 (ko) 차량 주행 보조 장치, 이의 동작 방법, 및 이를 포함하는 차량
WO2021002519A1 (ko) 차량용 광고 제공 장치 및 차량용 광고 제공 방법
CN111308998A (zh) 车辆的控制装置以及自动驾驶***
WO2020122270A1 (ko) 차량 제어 장치 및 그것을 포함하는 차량
WO2015053434A1 (en) Device for performing a camera-based estimation of load on a vehicle and method of estimating load on a vehicle
WO2019077999A1 (ja) 撮像装置、画像処理装置、及び、画像処理方法
WO2021002501A1 (ko) 차량용 전자 장치
WO2021002517A1 (ko) 공유형 차량 관리 장치 및 공유형 차량의 관리 방법
WO2020096083A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020071564A1 (ko) 이동 its 스테이션 및 상기 이동 its 스테이션의 메시지 송수신 방법
WO2021002515A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2020241953A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020241971A1 (ko) 교통 사고 처리 장치 및 교통 사고 처리 방법
WO2020091119A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2017171503A1 (ko) 크라우드 소싱 데이터 기반 교통 신호 조절 방법 및 서버
WO2021201304A1 (ko) 자율주행을 보조하는 방법 및 장치
WO2020145440A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2021002516A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2020096081A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2021002518A1 (ko) 위치 데이터 생성 장치, 자율 주행 차량 및 위치 데이터 생성 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19930532

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19930532

Country of ref document: EP

Kind code of ref document: A1