WO2018182210A1 - 자율주행 자동차 설계를 위한 자율 주행 제어 개발 키트 - Google Patents

자율주행 자동차 설계를 위한 자율 주행 제어 개발 키트 Download PDF

Info

Publication number
WO2018182210A1
WO2018182210A1 PCT/KR2018/002990 KR2018002990W WO2018182210A1 WO 2018182210 A1 WO2018182210 A1 WO 2018182210A1 KR 2018002990 W KR2018002990 W KR 2018002990W WO 2018182210 A1 WO2018182210 A1 WO 2018182210A1
Authority
WO
WIPO (PCT)
Prior art keywords
autonomous driving
driving control
vehicle
development kit
user terminal
Prior art date
Application number
PCT/KR2018/002990
Other languages
English (en)
French (fr)
Inventor
손준우
박명옥
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Publication of WO2018182210A1 publication Critical patent/WO2018182210A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control

Definitions

  • the present invention relates to an autonomous driving control development kit for autonomous vehicle design, and more particularly, to an autonomous driving control development kit for autonomous vehicle design that can develop autonomous vehicle control technology in a state of improving the reality of a development environment. It is about.
  • Autonomous vehicles are cars that can be driven by controlling various sensors and control systems with artificial intelligence, and are expressed in various terms such as an autonomous car, driverless car, self-driving car, and robotic car.
  • Such autonomous vehicles not only prevent accidents or aggressive driving due to inadvertent mistakes of the driver, but also have the advantage that the vehicle can be freely used by unlicensed, blind, and minors.
  • the software-based development support tool does not consider transmission delays and communication errors that may occur in hardware interfaces between a plurality of components in a real vehicle, problems that may not be considered when applied to a real vehicle may occur. have.
  • An object of the present invention is to provide an autonomous driving control development kit for autonomous vehicle design that can develop autonomous vehicle control technology while improving the reality of a development environment.
  • a display unit for displaying a front image of a pre-stored driving car or a simulated front image of the vehicle
  • the Camera unit for photographing the screen displayed through the display unit
  • CAN communication unit for transmitting the captured image to the user terminal through the USB port through the CAN communication
  • a control board for detecting a lane from the photographed image and transmitting it to the user terminal
  • the user terminal generates a driving control signal using the detected lane information and the front image, and displays a front image of the vehicle simulated by the driving control signal through the display unit.
  • the user terminal simulates autonomous driving using a sensor emulator unit for simulating an autonomous driving sensor including a radar or a lidar, surrounding vehicle information sensed by the autonomous driving sensor, the detected lane information, and the front image. And a controller configured to generate the driving control signal for controlling the steering angle and the driving speed, and a simulator for transmitting a screen control command to display the front image of the vehicle simulated by the driving control signal to the display unit.
  • a sensor emulator unit for simulating an autonomous driving sensor including a radar or a lidar, surrounding vehicle information sensed by the autonomous driving sensor, the detected lane information, and the front image.
  • a controller configured to generate the driving control signal for controlling the steering angle and the driving speed
  • a simulator for transmitting a screen control command to display the front image of the vehicle simulated by the driving control signal to the display unit.
  • the display unit, the camera unit, the CAN communication unit, the lower case forming a space for containing the control board, the cover portion coupled to open and close the lower case may be formed to be foldable.
  • One side of the rotating plate is fixed to the side of the lower case, the control board is mounted on the bottom of the rotating plate, the control board can be opened upward when the rotating plate is folded up.
  • the display unit may further include a display support for vertically fixing the display unit to the bottom surface of the lower case, and closing the cover unit to horizontally fix the display unit to the bottom surface of the lower case.
  • the camera unit may include a camera photographing a screen displayed through the display unit, and a camera rail positioned in front of the display unit and moving the camera back and forth.
  • the control board and the user terminal may perform communication through a hardware interface including CAN communication or Ethernet.
  • the present invention by providing a development kit for developing autonomous driving control technology through a hardware interface, it is possible to provide an autonomous driving control development environment with improved reality most similar to the environment of an actual vehicle.
  • 1 is a view for explaining the autonomous driving control development kit and the user terminal according to an embodiment of the present invention.
  • FIG. 2 is a signal flowchart of an autonomous driving control development system according to an embodiment of the present invention.
  • FIG. 3 is a block diagram of an autonomous driving control development kit according to an embodiment of the present invention.
  • FIG. 4 is a configuration diagram of a user terminal according to an embodiment of the present invention.
  • FIG 5 is an exemplary view showing a camera unit according to an embodiment of the present invention.
  • Figure 6 is an exemplary view showing a rotating plate mounted with a control board according to an embodiment of the present invention.
  • FIG. 1 is a view for explaining the autonomous driving control development kit and the user terminal according to an embodiment of the present invention.
  • the autonomous driving control system includes an autonomous driving control development kit 100 and a user terminal 200.
  • the autonomous driving control development kit 100 includes a display unit 110, a camera unit 120, a CAN communication unit 130, and a control board 140, and a lower case and a lower portion forming a space for a corresponding configuration.
  • the cover portion coupled to open and close the case may be formed to be foldable.
  • the autonomous driving control development kit 100 displays a driving image of a pre-stored vehicle or a front image of a simulated vehicle on the display 110, and captures the image through a separate camera 120.
  • the autonomous driving control development kit 100 does not use the pre-stored driving image directly, but uses the image captured by the camera 120 to produce a situation similar to the actual vehicle environment.
  • control board 140 included in the autonomous driving control development kit 100 detects a lane using the captured image and transmits the detected result to the user terminal 200 through Ethernet.
  • control signal obtained by detecting the lane from the image taken by the camera may be transmitted to the user terminal 200 through a separate CAN communication hardware.
  • the user terminal 200 represents a terminal having a development environment that can receive data through a USB port or perform communication using a hardware interface such as Ethernet, and simulate and analyze a driving environment.
  • the user terminal 200 is illustrated as a notebook, but is not necessarily limited thereto.
  • the user terminal 200 may be a smart phone, a smart pad, a tablet, a notebook, a desktop, or the like.
  • the user terminal 200 receives an image captured by the camera 120 or a result of detecting a lane from the control board 140, and simulates an autonomous driving sensor such as a radar or a lidar.
  • the user terminal 200 simulates autonomous driving using the surrounding vehicle information, the detected lane information, and the front image sensed by the simulated autonomous driving sensor, and generates a driving control signal for controlling the steering angle and the driving speed. .
  • the user terminal 200 transmits a screen control command to the autonomous driving control development kit 100 through Ethernet or CAN communication to apply the driving control signal in the received image.
  • the autonomous driving control development kit 100 displays the front image of the vehicle to which the screen control command is applied on the display unit 110, photographs it with the camera 120, and detects the lane again from the control board 140.
  • the development software may be mounted on the control board 140 or the user terminal 200 of the autonomous driving control development kit 100, the autonomous driving through the installed development software Various driving control signals can be generated that can be simulated.
  • FIG. 2 is a signal flow diagram of a self-driving control development system according to an embodiment of the present invention
  • Figure 3 is a block diagram of a self-driving control development kit according to an embodiment of the present invention.
  • the autonomous driving control development kit 100 includes a display unit 110, a camera unit 120, a CAN communication unit 130, and a control board 140.
  • the display 110 displays on a monitor using a pre-stored driving image of a vehicle or a simulated front image of a vehicle.
  • the monitor may be separately provided as a liquid crystal display (LCD) or fixedly installed in a lower case of the autonomous driving control development kit 100.
  • LCD liquid crystal display
  • the support for fixing the monitor and the lower case is formed to be foldable. Therefore, the monitor can be unfolded when the lid is opened, and the monitor can be folded when the lid is closed.
  • the display unit 110 is configured to include a display support that can support the monitor.
  • the display support is provided with a groove having a predetermined size, so that the monitor can be fixed to the bottom surface of the lower case by inserting the lower end of the monitor into the groove.
  • the display support may be attached to the bottom surface of the lower case when the display is attached to the Velcro tape that provides adhesive strength to a specific surface.
  • the velcro tape represents a tape provided with a hook and a hook ring to provide an adhesive force
  • the monitor may be fixed to the lower case by using a connection ring, a belt, a holder, and the like.
  • the display 110 may adjust and play the car driving image to correspond to the screen control command.
  • the camera unit 120 captures a screen displayed on the display 110 in real time.
  • the camera unit 120 includes a camera and a camera rail, and the camera is mounted on the camera rail.
  • the camera rail is located at the front center of the monitor, and is installed to move the camera back and forth toward the monitor.
  • the camera unit 120 may transfer the captured image to the control board 140 or the user terminal 200.
  • the CAN communication unit 130 simulates CAN communication hardware that connects electronic products of a vehicle to a communication bus to enable real-time information exchange between control devices. That is, the CAN communication unit 130 is responsible for exchanging sensor information and control signals between the autonomous driving control development kit 100 and the user terminal 200 and transmits the control information to the user terminal 200 through the USB port.
  • the CAN communication unit 130 may take the form of a bus of both connector types to minimize the package space, and a CAN card shaped housing may be used to prevent contact failure.
  • control board 140 detects a lane from the captured image and transmits the lane to the user terminal 200.
  • the control board 140 is designed to operate in an embedded environment and may include autonomous driving control development software according to a development environment.
  • the control board 140 may transmit / receive data with the user terminal 200 through a hardware interface such as Ethernet or CAN communication.
  • FIG. 4 is a configuration diagram of a user terminal according to an embodiment of the present invention.
  • the user terminal 200 includes a sensor emulator 210, a controller 220, and a simulator 230.
  • the sensor emulator 210, the controller 220, and the simulator 230 may use a hardware interface such as an Ethernet or a CAN communication suitable for a vehicle environment capable of processing a large amount of data at a high transmission speed. Communication can be performed.
  • a hardware interface such as an Ethernet or a CAN communication suitable for a vehicle environment capable of processing a large amount of data at a high transmission speed. Communication can be performed.
  • the sensor emulator unit 210 simulates an autonomous driving sensor including a radar or a lidar. That is, the sensor emulator 210 senses data related to various driving environments by simulating the autonomous driving sensor in the captured image received from the camera unit 120 or the lane detection image received from the control board 140.
  • the sensor emulator 210 may sense a gap between a front vehicle located in an image or a signal that senses a position of a surrounding vehicle or an obstacle.
  • the controller 220 simulates autonomous driving by using the information of the surrounding vehicle sensed by the autonomous driving sensor, the detected lane information, and the front image.
  • the controller 220 generates a driving control signal for controlling the steering angle and the traveling speed.
  • the simulator 230 displays a front image of the vehicle simulated by the driving control signal of the controller 220 and transmits a screen control command according to the driving control signal to the display 110.
  • the simulator 230 may forward the image of the vehicle corresponding to the steering angle.
  • the screen control command for displaying this may be transmitted to the display 110.
  • the simulator 230 may transmit a screen control command to the display 100 using a high definition multimedia interface (HDMI).
  • HDMI high definition multimedia interface
  • FIG 5 is an exemplary view showing a camera unit according to an embodiment of the present invention
  • Figure 6 is an exemplary view showing a rotating plate mounted with a control board according to an embodiment of the present invention.
  • the camera unit 120 is located in front of the camera and the display unit 110 to photograph the screen, and includes a camera rail for moving the camera back and forth.
  • FIG. 5A illustrates that the camera is positioned at the lower end of the camera rail so that the camera is located farthest from the display 110
  • FIG. 5B illustrates that the camera is located closest to the display 110. It is illustrated that the position on the upper portion of the camera rail.
  • the camera unit 120 can take a picture of the front of the vehicle in a similar form to the actual vehicle environment by moving the camera back and forth on the camera rail to take an image.
  • Figure 6 is an exemplary view for explaining the control board 140 mounted on the rotating plate, as shown in Figure 6 (a), the side of the lower case of the autonomous driving control development kit 100 is rotated on one side The plate is mounted. And the control board 140 is attached to the bottom of the rotating plate.
  • control board 140 is located in the lower case space when storing the space for use of the autonomous driving control development kit 100, and when the autonomous driving control development kit 100 is used, the control panel is folded up to control it.
  • the board 140 may be opened upward.
  • control board 140 by attaching the control board 140 to the bottom of the rotating plate, it is possible to efficiently optimize the space of the autonomous driving control development kit 100.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 자율주행 자동차 설계를 위한 자율주행 제어 개발 키트에 관한 것이다. 자율 주행 차량의 운전을 제어하기 위한 개발 키트에 있어서, 기 저장된 주행 중인 자동차의 전방 영상 또는 모사된 자동차의 전방 영상을 표시하는 디스플레이부, 상기 디스플레이부를 통하여 표시된 화면을 촬영하는 카메라부, 상기 촬영된 영상을 CAN 통신을 통하여 USB 포트를 통하여 사용자 단말기로 전달하는 CAN 통신부, 그리고 상기 촬영된 영상으로부터 차선을 검출하여 상기 사용자 단말기로 전달하는 제어보드를 포함하며, 상기 사용자 단말기는, 상기 검출된 차선 정보 및 상기 전방 영상을 이용하여 운전 제어 신호를 생성하고, 상기 운전 제어 신호에 의해 모사된 자동차의 전방 영상을 상기 디스플레이부를 통해 표시하도록 한다. 본 발명에 따르면, 하드웨어 인터페이스를 통하여 자율주행 제어 기술을 개발할 수 있는 개발 키트를 제공함으로써, 실제 차량의 환경과 가장 유사한 리얼리티가 향상된 자율주행 제어 개발 환경을 제공할 수 있다. 또한, 본 발명에 따르면, 자율주행 제어 개발 장치들을 효율적으로 패키징하여 공간활용을 최적화하여 컴팩트 형으로 제공함으로써, 이동이 편리하여 개발 환경의 장소 및 공간 제약을 최소화할 수 있다.

Description

자율주행 자동차 설계를 위한 자율 주행 제어 개발 키트
본 발명은 자율주행 자동차 설계를 위한 자율 주행 제어 개발 키트에 관한 것으로, 보다 상세하게는 개발 환경의 리얼리티를 향상시킨 상태에서 차량 자율 제어 기술을 개발할 수 있는 자율주행 자동차 설계를 위한 자율 주행 제어 개발 키트에 관한 것이다.
최근 자동차 기술의 발달과 더불어 운전자의 조작 없이 스스로 운행할 수 있는 자율주행자동차의 보급이 급속히 진전될 것으로 예상되고 있다. 자율주행자동차는 여러 가지의 센서와 제어 시스템을 인공지능으로 컨트롤하여 스스로 운전이 가능한 자동차를 말하며, an autonomouscar, driverless car, self-driving car, robotic car 등 다양한 용어로 나타낸다.
이러한 자율주행자동차는 운전자의 부주의한 실수로 인한 사고나 공격적인 형태의 운전을 방지할 수 있을 뿐 아니라 무면허, 맹인, 미성년자까지도 차량을 자유롭게 이용할 수 있다는 장점이 있다.
그렇기 때문에, 자율 주행 제어에 관련하여 많은 연구가 진행되고 있지만, 주로 파일에 저장된 자율 주행 데이터를 재생하는 방식으로 소프트웨어 방식의 개발 지원 도구로 한정되고 있다는 문제점이 있다.
이러한, 소프트웨어 방식의 개발 지원 도구는 실제 차량 내에서 다수의 구성간의 하드웨어 인터페이스에서 발생할 수 있는 전송 지연, 통신 오류 등을 고려하지 못하고 있기 때문에, 실제 차량에 적용할 때, 고려하지 못한 문제점들이 발생할 수 있다.
그러므로, 개발 환경이 리얼리티를 향상시키면서 관련 장치를 효율적으로 패키징하여 제공되는 자율주행제어 개발 지원 도구가 요구된다.
본 발명의 배경이 되는 기술은 대한민국 국내등록특허 제 10-1356203호(2014.01.24 공고)에 개시되어 있다.
본 발명이 이루고자 하는 기술적 과제는 개발 환경의 리얼리티를 향상시킨 상태에서 차량 자율 제어 기술을 개발할 수 있는 자율주행 자동차 설계를 위한 자율 주행 제어 개발 키트를 제공하는 것이다.
이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따르면, 자율 주행 차량의 운전을 제어하기 위한 개발 키트에 있어서, 기 저장된 주행 중인 자동차의 전방 영상 또는 모사된 자동차의 전방 영상을 표시하는 디스플레이부, 상기 디스플레이부를 통하여 표시된 화면을 촬영하는 카메라부, 상기 촬영된 영상을 CAN 통신을 통하여 USB 포트를 통하여 사용자 단말기로 전달하는 CAN 통신부, 그리고 상기 촬영된 영상으로부터 차선을 검출하여 상기 사용자 단말기로 전달하는 제어보드를 포함하며, 상기 사용자 단말기는, 상기 검출된 차선 정보 및 상기 전방 영상을 이용하여 운전 제어 신호를 생성하고, 상기 운전 제어 신호에 의해 모사된 자동차의 전방 영상을 상기 디스플레이부를 통해 표시하도록 한다.
상기 사용자 단말기는, 레이더 또는 라이다를 포함하는 자율 주행 센서를 모사하기 위한 센서 에뮬레이터부, 상기 자율 주행 센서로부터 센싱된 주변 차량 정보, 상기 검출된 차선 정보 및 상기 전방 영상을 이용하여 자율 주행을 모사하고, 스티어링 각도 및 주행 속도를 제어하기 위한 상기 운전 제어 신호를 생성하는 제어부, 상기 운전 제어 신호에 의해 모사된 자동차의 전방 영상을 표시하도록 하는 화면 제어 명령을 상기 디스플레이부로 전달하는 시뮬레이터부를 포함할 수 있다.
상기 디스플레이부, 카메라부, CAN 통신부, 제어보드를 담는 공간을 형성하는 하부 케이스, 상기 하부 케이스에 여닫을 수 있도록 결합되는 덮개부가 접이식으로 형성될 수 있다.
상기 하부 케이스의 측면에는 회동판의 일면이 고정되어 있으며, 상기 회동판의 밑면에는 상기 제어보드가 장착되어, 상기 회동판을 접어 올리면 상기 제어 보드가 상측으로 개방될 수 있다.
상기 덮개부가 개방되면 상기 디스플레이부를 상기 하부 케이스의 바닥면에 수직으로 고정시키고, 상기 덮개부가 닫히면, 상기 디스플레이부를 상기 하부 케이스의 바닥면에 수평으로 고정시키는 디스플레이 지지대를 더 포함할 수 있다.
상기 카메라부는, 상기 디스플레이부를 통하여 표시된 화면을 촬영하는 카메라, 그리고 상기 디스플레이 부의 전방에 위치하며, 상기 카메라를 전후로 이동시키기 위한 카메라 레일을 포함할 수 있다.
상기 제어보드와 상기 사용자 단말은 CAN 통신 또는 이더넷을 포함하는 하드웨어 인터페이스를 통하여 통신을 수행할 수 있다.
본 발명에 따르면, 하드웨어 인터페이스를 통하여 자율주행 제어 기술을 개발할 수 있는 개발 키트를 제공함으로써, 실제 차량의 환경과 가장 유사한 리얼리티가 향상된 자율주행 제어 개발 환경을 제공할 수 있다.
또한, 본 발명에 따르면, 자율주행 제어 개발 장치들을 효율적으로 패키징하여 공간활용을 최적화하여 컴팩트 형으로 제공함으로써, 이동이 편리하여 개발 환경의 장소 및 공간 제약을 최소화할 수 있다.
도 1은 본 발명의 실시예에 따른 자율주행 제어 개발 키트 및 사용자 단말을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 자율주행 제어 개발 시스템의 신호 흐름도이다.
도 3은 본 발명의 실시예에 따른 자율주행 제어 개발 키트의 구성도이다.
도 4는 본 발명의 실시예에 따른 사용자 단말의 구성도 이다.
도 5는 본 발명의 실시예에 따른 카메라부를 도시한 예시도이다.
도 6은 본 발명의 실시예에 따른 제어 보드가 장착된 회동판을 나타낸 예시도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
이하에서는 도 1을 이용하여 자율주행 제어 개발 키트와 사용자 단말을 포함하는 자율주행 제어 개발 시스템에 대해서 설명한다. 도 1은 본 발명의 실시예에 따른 자율주행 제어 개발 키트 및 사용자 단말을 설명하기 위한 도면이다.
도 1에 도시한 것처럼, 본 발명의 실시예에 따른 자율주행 제어 시스템은 자율주행 제어 개발 키트(100)와 사용자 단말(200)을 포함한다.
먼저, 자율주행 제어 개발 키트(100)는 디스플레이부(110), 카메라부(120), CAN 통신부(130) 및 제어보드(140)를 포함하며, 해당 구성을 담는 공간을 형성하는 하부 케이스와 하부 케이스에 여닫을 수 있도록 결합되는 덮개부가 접이식으로 형성될 수 있다.
자율주행 제어 개발 키트(100)는 기 저장된 자동차의 주행 영상 또는 모사된 자동차의 전방 영상을 디스플레이부(110)에 디스플레이하고, 해당 영상을 별도의 카메라(120)를 통해 촬영한다.
즉, 자율주행 제어 개발 키트(100)는 기 저장된 주행 영상을 직접적으로 이용하지 않고, 카메라(120)를 통해 촬영된 영상을 이용함으로써, 실제 차량의 환경과 유사한 상황을 연출한다.
그리고 자율주행 제어 개발 키트(100)에 포함된 제어보드(140)는 촬영된 영상을 이용하여 차선을 검출하고, 검출된 결과를 이더넷을 통해 사용자 단말(200)로 전달한다.
이때, 카메라를 통해 촬영된 영상에서 차선을 검출하여 얻은 제어신호는 별도의 CAN 통신 하드웨어를 통해 사용자 단말(200)로 전달될 수 있다.
사용자 단말(200)은 USB 포트를 통해 데이터를 전송받거나 이더넷(Ethernet)과 같은 하드웨어 인터페이스를 이용하여 통신을 수행하고, 주행 환경을 모사하고 분석할 수 있는 개발 환경을 가지는 단말을 나타낸다. 도 1에서는 사용자 단말(200)을 노트북으로 예시하였지만 반드시 이에 한정하는 것은 아니고, 스마트 폰, 스마트 패드, 태블릿, 노트북, 데스크탑 등이 이에 해당될 수 있다.
사용자 단말(200)은 카메라(120)에 의해 촬영된 영상 또는 제어보드(140)로부터 차선이 검출된 결과를 수신하고, 레이더 또는 라이다 등과 같은 자율 주행 센서를 모사한다. 그리고 사용자 단말(200)은 모사된 자율 주행 센서로부터 센싱된 주변 차량 정보, 검출된 차선 정보 및 전방 영상을 이용하여 자율 주행을 모사하고, 스티어링 각도 및 주행 속도를 제어하기 위한 운전 제어 신호를 생성한다.
이와 같이 사용자 단말(200)은 수신한 영상에서 운전 제어 신호를 적용하도록 화면 제어 명령을 이더넷 또는 CAN통신을 통해 자율주행 제어 개발 키트(100)로 전달한다.
자율주행 제어 개발 키트(100)는 화면 제어 명령을 적용한 자동차의 전방 영상을 디스플레이부(110)에 표시하고, 이를 카메라(120)로 촬영하여 다시 제어보드(140)에서 차선을 검출할 수 있다.
한편, 본 발명의 실시예에 따르면, 자율주행 제어 개발 키트(100)의 제어보드(140) 또는 사용자 단말(200)에 개발용 소프트웨어가 장착될 수 있으며, 장착된 개발용 소프트웨어를 통하여 자율 주행을 모사할 수 있는 다양한 운전 제어 신호를 생성할 수 있다.
이하에서는 도 2 내지 도 4를 이용하여 본 발명의 실시예에 따른 자율 주행 제어 개발 시스템에 대해서 상세하게 설명한다.
도 2는 본 발명의 실시예에 따른 자율주행 제어 개발 시스템의 신호 흐름도이고, 도 3은 본 발명의 실시예에 따른 자율주행 제어 개발 키트의 구성도이다.
도 2 및 도 3에서와 같이, 자율주행 제어 개발 키트(100)는 디스플레이부(110), 카메라부(120), CAN 통신부(130) 및 제어보드(140)를 포함한다.
먼저, 디스플레이부(110)는 기 저장된 자동차의 주행 영상 또는 모사된 자동차의 전방 영상을 이용하여 모니터에 디스플레이 한다. 이때, 모니터는 액정 디스플레이(Liquid Crystal Display: LCD)로 별도로 구비되거나 해당 자율주행 제어 개발 키트(100)의 하부 케이스에 고정되어 설치될 수 있다.
디스플레이부(110)의 모니터가 하부 케이스에 고정된 경우, 모니터와 하부 케이스를 고정시키는 지지대는 접이식으로 형성되어 있다. 따라서, 덮개부를 여는 경우 모니터를 펴고, 덮개부를 닫는 경우에는 모니터를 접을 수 있다.
또는 디스플레이부(110)의 모니터가 별도의 독립된 구성인 경우, 디스플레이부(110)는 모니터를 지지할 수 있는 디스플레이 지지대를 포함하여 구성된다.
이때, 디스플레이 지지대는 일정한 크기의 홈이 구비되어 있어 모니터의 하단을 홈에 끼움으로써, 모니터를 하부 케이스의 바닥면에 수직으로 고정시킬 수 있다. 그리고 디스플레이 지지대는 특정 면에 접착력을 제공하는 벨크로 테이프가 부착되어 디스플레이를 수납할 때, 하부 케이스의 바닥면에 수평으로 고정시킬 수 있다.
여기서, 벨크로 테이프는 갈고리와 걸림 고리가 쌍으로 이뤄 접착력을 제공하는 테이프를 나타내고, 벨크로 테이프 이외에도 연결 고리, 벨트, 홀더 등을 이용하여 모니터를 하부 케이스에 고정시킬 수 있다.
한편, 디스플레이부(110)는 사용자 단말(200)로부터 화면 제어 명령을 수신하면, 해당 화면 제어 명령에 대응되도록 자동차 주행 영상을 조정하여 재생할 수 있다.
카메라부(120)는 디스플레이부(110)를 통하여 표시된 화면을 실시간으로 촬영한다. 카메라부(120)는 카메라와 카메라 레일을 포함하며, 카메라는 카메라 레일 위에 장착된다. 여기서, 카메라 레일은 모니터의 전방 중앙에 위치하며, 모니터를 향해서 카메라를 전후로 이동시킬 수 있도록 설치된다.
그리고 카메라부(120)는 촬영 영상을 제어보드(140) 또는 사용자 단말(200)로 전달할 수 있다.
CAN 통신부(130)는 자동차의 전자 제품을 통신 버스로 연결하여 제어 장치 사이에서 실시간 정보 교환을 가능하게 하는 CAN 통신 하드웨어를 모사한다. 즉, CAN 통신부(130)는 자율주행 제어 개발 키트(100)와 사용자 단말기(200)간에 센서 정보와 제어 신호 교환을 담당하며 USB 포트를 통하여 사용자 단말기(200)로 전달한다
CAN 통신부(130)는 패키지 공간을 최소화하기 위하여 양측 커넥터 타입의 버스 형태를 취할 수 있으며, 접촉 불량을 예방하기 위하여 CAN 카드 모양의 하우징이 사용될 수 있다.
다음으로 제어보드(140)는 촬영된 영상으로부터 차선을 검출하여 사용자 단말기(200)로 전달한다.
제어보드(140)는 임베디드 환경에서 동작하도록 설계되며, 개발 환경에 따라 자율주행 제어 개발 소프트웨어를 포함할 수 있다. 그리고 제어보드(140)는 이더넷, CAN 통신과 같은 하드웨어 인터페이스를 통해 사용자 단말(200)과 데이터를 송수신할 수 있다.
다음으로, 도 4는 본 발명의 실시예에 따른 사용자 단말의 구성도이다.
도 4와 같이, 사용자 단말(200)은 센서 에뮬레이터부(210), 제어부(220) 및 시뮬레이터부(230)를 포함한다.
센서 에뮬레이터부(210), 제어부(220) 및 시뮬레이터부(230)는 도 2에서와 같이, 빠른 전송 속도로 대용량의 데이터를 처리할 수 있는 이더넷 또는 차량 환경에 적합한 CAN 통신과 같은 하드웨어 인터페이스를 통해 통신을 수행할 수 있다.
센서 에뮬레이터부(210)는 레이더(Radar) 또는 라이다(Lidar)를 포함하는 자율 주행 센서를 모사한다. 즉, 센서 에뮬레이터부(210)는 카메라부(120)로부터 수신한 촬영 영상 또는 제어보드(140)로부터 수신한 차선 검출 영상에서 자율 주행 센서를 모사하여 다양한 주행 환경과 관련된 데이터를 센싱한다.
예를 들어, 센서 에뮬레이터부(210)는 영상에서 위치하는 전방 차량간의 간격을 센싱하거나 주변 차량 또는 장애물 등의 위치를 센싱한 신호를 모사할 수 있다.
다음으로 제어부(220)는 자율 주행 센서로부터 센싱된 주변 차량 정보, 검출된 차선 정보 및 상기 전방 영상을 이용하여 자율 주행을 모사한다. 그리고 제어부(220)는 스티어링 각도 및 주행 속도를 제어하기 위한 운전 제어 신호를 생성한다.
시뮬레이터부(230)는 제어부(220)의 운전 제어 신호에 의해 모사된 자동차의 전방 영상을 표시하고, 동일하게 운전 제어 신호에 따른 화면 제어 명령을 디스플레이부(110)로 전달한다.
예를 들어, 제어부(220)에서 촬영된 영상으로부터 검출된 차선 또는 주변 환경에 대응하여 스티어링 각도를 조절하는 운전 제어 신호를 생성하면, 시뮬레이터부(230)는 해당 스티어링 각도에 대응되는 자동차의 전방 영상이 표시되도록 하는 화면 제어 명령을 디스플레이부(110)로 전달할 수 있다.
그리고, 시뮬레이터부(230)는 화면 제어 명령을 도 2에 도시한 바와 같이, 고선명 멀티미디어 인터페이스(High Definition MultimediaInterface: HDMI)를 이용하여 디스플레이부(100)로 전달할 수 있다.
이하에서는 도 5 및 도 6을 통하여 카메라부(120)와 제어보드(400)가 자율주행 제어 개발 키트(100)에 장착되는 형상에 대해서 구체적으로 설명한다.
도 5는 본 발명의 실시예에 따른 카메라부를 도시한 예시도이고, 도 6은 본 발명의 실시예에 따른 제어 보드가 장착된 회동판을 나타낸 예시도이다.
도 5의 (a) 및 (b)와 같이, 카메라부(120)는 화면을 촬영하는 카메라와 디스플레이부(110)의 전방에 위치하며, 카메라를 전후로 이동시키기 위한 카메라 레일을 포함한다.
도 5의 (a)는 카메라가 디스플레이부(110)와 가장 멀리 위치하도록 카메라 레일의 하단 부분에 위치시킨 것을 예시하였고, 도 5의 (b)는 카메라가 디스플레이부(110)와 가장 가까이 위치하도록 카메라 레일의 상단 부분에 위치시킨 것을 예시하였다.
도 5의 (a) 및 (b)와 같이, 카메라부(120)는 카메라 레일상에서 카메라를 전 후 이동하며 영상을 촬영함으로써, 실제 차량 환경과 유사한 형태로 차량 전방의 화면을 촬영할 수 있다.
다음으로 도 6은 회동판에 장착된 제어보드(140)를 설명하기 위한 예시도로, 도 6의 (a)와 같이, 자율주행 제어 개발 키트(100)의 하부 케이스의 측면에는 일면이 고정된 회동판이 장착된다. 그리고 회동판의 밑면에는 제어보드(140)가 부착된다.
즉, 자율주행 제어 개발 키트(100)의 공간 활용을 위해 수납시에는 제어보드(140)가 하부 케이스 공간 안에 위치하도록 하고, 자율주행 제어 개발 키트(100)를 이용할 때, 회동판을 접어 올려서 제어보드(140)를 상측으로 개방할 수 있다.
이와 같이 본 발명의 실시예에 따르면, 제어보드(140)를 회동판 밑면에 부착함으로써, 자율주행 제어 개발 키트(100)의 공간을 효율적으로 최적화 시킬 수 있다.
이와 같이 본 발명의 실시예에 따르면, 하드웨어 인터페이스를 통하여 자율주행 제어 기술을 개발할 수 있는 개발 키트를 제공함으로써, 실제 차량의 환경과 가장 유사한 리얼리티가 향상된 자율주행 제어 개발 환경을 제공할 수 있다.
또한, 본 발명의 실시예에 따르면, 자율주행 제어 개발 장치들을 효율적으로 패키징하여 공간활용을 최적화하여 컴팩트 형으로 제공함으로써, 이동이 편리하여 개발 환경의 장소 및 공간 제약을 최소화할 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.

Claims (7)

  1. 자율 주행 차량의 운전을 제어하기 위한 개발 키트에 있어서,
    기 저장된 주행 중인 자동차의 전방 영상 또는 모사된 자동차의 전방 영상을 표시하는 디스플레이부,
    상기 디스플레이부를 통하여 표시된 화면을 촬영하는 카메라부,
    상기 촬영된 영상을 CAN 통신을 통하여 USB 포트를 통하여 사용자 단말기로 전달하는 CAN 통신부, 그리고
    상기 촬영된 영상으로부터 차선을 검출하여 상기 사용자 단말기로 전달하는 제어보드를 포함하며,
    상기 사용자 단말기는,
    상기 검출된 차선 정보 및 상기 전방 영상을 이용하여 운전 제어 신호를 생성하고, 상기 운전 제어 신호에 의해 모사된 자동차의 전방 영상을 상기 디스플레이부를 통해 표시하도록 하는 자율주행 제어 개발 키트.
  2. 제1항에 있어서,
    상기 사용자 단말기는,
    레이더 또는 라이다를 포함하는 자율 주행 센서를 모사하기 위한 센서 에뮬레이터부,
    상기 자율 주행 센서로부터 센싱된 주변 차량 정보, 상기 검출된 차선 정보 및 상기 전방 영상을 이용하여 자율 주행을 모사하고, 스티어링 각도 및 주행 속도를 제어하기 위한 상기 운전 제어 신호를 생성하는 제어부,
    상기 운전 제어 신호에 의해 모사된 자동차의 전방 영상을 표시하도록 하는 화면 제어 명령을 상기 디스플레이부로 전달하는 시뮬레이터부를 포함하는 자율주행 제어 개발 키트.
  3. 제2항에 있어서,
    상기 디스플레이부, 카메라부, CAN 통신부, 제어보드를 담는 공간을 형성하는 하부 케이스,
    상기 하부 케이스에 여닫을 수 있도록 결합되는 덮개부가 접이식으로 형성되는 자율주행 제어 개발 키트.
  4. 제3항에 있어서,
    상기 하부 케이스의 측면에는 회동판의 일면이 고정되어 있으며,
    상기 회동판의 밑면에는 상기 제어보드가 장착되어,
    상기 회동판을 접어 올리면 상기 제어 보드가 상측으로 개방되는 자율주행 제어 개발 키트.
  5. 제3항에 있어서,
    상기 덮개부가 개방되면 상기 디스플레이부를 상기 하부 케이스의 바닥면에 수직으로 고정시키고, 상기 덮개부가 닫히면, 상기 디스플레이부를 상기 하부 케이스의 바닥면에 수평으로 고정시키는 디스플레이 지지대를 더 포함하는 자율주행 제어 개발 키트.
  6. 제3항에 있어서,
    상기 카메라부는,
    상기 디스플레이부를 통하여 표시된 화면을 촬영하는 카메라, 그리고
    상기 디스플레이 부의 전방에 위치하며, 상기 카메라를 전후로 이동시키기 위한 카메라 레일을 포함하는 자율주행 제어 개발 키트.
  7. 제2항에 있어서,
    상기 제어보드와 상기 사용자 단말은 CAN 통신 또는 이더넷을 포함하는 하드웨어 인터페이스를 통하여 통신을 수행하는 자율 주행 제어 개발 키트.
PCT/KR2018/002990 2017-03-28 2018-03-14 자율주행 자동차 설계를 위한 자율 주행 제어 개발 키트 WO2018182210A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170039277A KR101897992B1 (ko) 2017-03-28 2017-03-28 자율주행 자동차 설계를 위한 자율 주행 제어 개발 키트
KR10-2017-0039277 2017-03-28

Publications (1)

Publication Number Publication Date
WO2018182210A1 true WO2018182210A1 (ko) 2018-10-04

Family

ID=63593471

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/002990 WO2018182210A1 (ko) 2017-03-28 2018-03-14 자율주행 자동차 설계를 위한 자율 주행 제어 개발 키트

Country Status (2)

Country Link
KR (1) KR101897992B1 (ko)
WO (1) WO2018182210A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114449888B (zh) * 2019-10-07 2023-11-28 精密种植有限责任公司 用于测试农业器具的***和方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10268749A (ja) * 1997-03-28 1998-10-09 Nissan Motor Co Ltd 自律走行体のシミュレーション方法
KR20030018889A (ko) * 2001-08-31 2003-03-06 현대자동차주식회사 차량의 데이터 로그 방법
KR100709401B1 (ko) * 2005-09-15 2007-04-18 현대모비스 주식회사 차선이탈경보시스템용 힐스 장치 및 그의 시험 방법
KR20110074629A (ko) * 2008-10-24 2011-06-30 그레이 앤 컴퍼니, 인크. 자율 운전 차량의 제어 및 시스템
KR101193484B1 (ko) * 2012-06-11 2012-10-22 주식회사 피엘케이 테크놀로지 차량용 영상 인식장치 테스트를 위한 영상 재생 장치
KR20130052400A (ko) * 2011-11-11 2013-05-22 재단법인대구경북과학기술원 지능형 자동차의 스테레오 비전 시스템에 대한 시뮬레이션 장치 및 이를 이용한 카메라 교정 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2971694B2 (ja) * 1993-03-05 1999-11-08 三菱電機株式会社 車線区分ライン認識装置
JP6426941B2 (ja) * 2014-08-20 2018-11-21 日立建機株式会社 管制制御装置及び運搬車両の走行シミュレーション方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10268749A (ja) * 1997-03-28 1998-10-09 Nissan Motor Co Ltd 自律走行体のシミュレーション方法
KR20030018889A (ko) * 2001-08-31 2003-03-06 현대자동차주식회사 차량의 데이터 로그 방법
KR100709401B1 (ko) * 2005-09-15 2007-04-18 현대모비스 주식회사 차선이탈경보시스템용 힐스 장치 및 그의 시험 방법
KR20110074629A (ko) * 2008-10-24 2011-06-30 그레이 앤 컴퍼니, 인크. 자율 운전 차량의 제어 및 시스템
KR20130052400A (ko) * 2011-11-11 2013-05-22 재단법인대구경북과학기술원 지능형 자동차의 스테레오 비전 시스템에 대한 시뮬레이션 장치 및 이를 이용한 카메라 교정 방법
KR101193484B1 (ko) * 2012-06-11 2012-10-22 주식회사 피엘케이 테크놀로지 차량용 영상 인식장치 테스트를 위한 영상 재생 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A. PALLADINO: "A portable hardware-in-the-loop (HIL) device for automotiv e diagnostic control systems", ISA TRANSACTIONS, vol. 51, no. 1, 2012, pages 229 - 236, XP028341078, ISSN: 0019-0578, Retrieved from the Internet <URL:http://www.sciencedirect.com/science/article/pii/S0019057811001248> DOI: doi:10.1016/j.isatra.2011.10.009 *

Also Published As

Publication number Publication date
KR101897992B1 (ko) 2018-09-13

Similar Documents

Publication Publication Date Title
JP4841545B2 (ja) ブリッジコントローラを用いないポイントツーポイントバスブリッジング
CN104685868B (zh) 用于校准成像装置的方法及设备
CN110111721B (zh) 显示装置及显示装置的拼接结构
WO2015030305A1 (en) Portable device displaying augmented reality image and method of controlling therefor
WO2016088918A1 (ko) 서비스 로봇
WO2020017890A1 (en) System and method for 3d association of detected objects
WO2018070672A1 (en) Electronic device and method for controlling the electronic device
WO2015030307A1 (en) Head mounted display device and method for controlling the same
CN107368219B (zh) 触摸响应方法、芯片及智能设备
CN104571991A (zh) 控制板、点亮设备以及点亮方法
WO2018182210A1 (ko) 자율주행 자동차 설계를 위한 자율 주행 제어 개발 키트
WO2015088101A1 (en) Display device and method of controlling the same
WO2023226888A1 (zh) 基于虚拟现实的车载通信***及车载通信方法
Komorkiewicz et al. FPGA-based hardware-in-the-loop environment using video injection concept for camera-based systems in automotive applications
WO2015102476A1 (ko) 이동형 3d 멀티디스플레이 기반의 실감형 교육 서비스 제공 차량
WO2014133258A1 (en) Pen input apparatus and method for operating the same
WO2019103193A1 (ko) 분산 가상 카메라를 이용한 게임 내 360 vr 영상 획득 시스템 및 방법
CN108318489A (zh) 一种隧道检测数据的实时存储的***及方法
WO2022191424A1 (ko) 전자 장치 및 그 제어 방법
WO2021153961A1 (ko) 가상현실을 이용한 이미지입력시스템 및 이를 이용한 이미지데이터 생성방법
CN107015935B (zh) 对接装置及其控制方法
WO2020101197A1 (ko) 증강현실 콘텐츠 공유 방법 및 시스템
WO2014178477A1 (ko) 헤드 마운트 디스플레이 및 이를 이용한 콘텐츠 제공 방법
WO2023149709A1 (en) Perspective de-skewing of electronic images
WO2023014167A1 (ko) 라인레이저 센서기반의 홀로터치 디스플레이 시스템 및 그에 대한 구현 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18775377

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18775377

Country of ref document: EP

Kind code of ref document: A1