KR20150055184A - Apparatus for correcting augmented reality head up display image and method thereof - Google Patents

Apparatus for correcting augmented reality head up display image and method thereof Download PDF

Info

Publication number
KR20150055184A
KR20150055184A KR1020130136705A KR20130136705A KR20150055184A KR 20150055184 A KR20150055184 A KR 20150055184A KR 1020130136705 A KR1020130136705 A KR 1020130136705A KR 20130136705 A KR20130136705 A KR 20130136705A KR 20150055184 A KR20150055184 A KR 20150055184A
Authority
KR
South Korea
Prior art keywords
display image
augmented reality
coordinates
head
reality head
Prior art date
Application number
KR1020130136705A
Other languages
Korean (ko)
Other versions
KR101559012B1 (en
Inventor
오형석
이준묵
양지혁
금병직
Original Assignee
현대오트론 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대오트론 주식회사 filed Critical 현대오트론 주식회사
Priority to KR1020130136705A priority Critical patent/KR101559012B1/en
Publication of KR20150055184A publication Critical patent/KR20150055184A/en
Application granted granted Critical
Publication of KR101559012B1 publication Critical patent/KR101559012B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a device for correcting an augmented reality image to be displayed on a head-up display device. The correcting device includes: a first imaging unit and a second imaging unit which records the front part of a vehicle from different points; a control unit which controls the device to convert the coordinates of an augmented reality image to be displayed on a head-up display device based on the difference between the record points of the first and second imaging units; and a head-up display image output unit which outputs the augmented reality image with the converted coordinates on the head-up display device according to the control operation of the control unit.

Description

증강현실 헤드업 디스플레이 영상의 보정 장치 및 그 방법{APPARATUS FOR CORRECTING AUGMENTED REALITY HEAD UP DISPLAY IMAGE AND METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and method for correcting a head-

본 발명은 증강현실 헤드업 디스플레이 영상의 보정 장치 및 그 방법에 관한 것으로서, 더욱 상세하게는 증강현실로 구현되는 헤드업 디스플레이 영상을 운전자가 바라보는 시선에 일치하도록 위치를 변환하여 출력하기 위한, 증강현실 헤드업 디스플레이 영상의 보정 장치 및 그 방법에 관한 것이다.
The present invention relates to an apparatus and method for correcting an augmented reality head-up display image, and more particularly, to a method and apparatus for enhancing a head-up display image, which is implemented as an augmented reality, And a method and apparatus for correcting a real head-up display image.

요즘은 전자장치의 발달로 차량의 성능이나 안전에 대한 기능이 발전함과 더불어 운전자의 편의를 위한 장치들도 개발되고 있으며, 특히 차량의 헤드업 디스플레이(Head Up Display, HUD)에 관한 관심이 높아지고 있다.Recently, as the development of electronic devices has developed functions for safety and performance of the vehicle, devices for the convenience of the driver have been developed. In particular, attention has been paid to the head up display (HUD) of the vehicle have.

헤드업 디스플레이 장치는 운행 정보가 차량이나 비행기의 전면 유리에 나타나도록 설계된 장치로서, 초기에는 비행기 조종사의 전방 시야를 확보해 주기 위해 도입되었으나, 최근에는 사고 감소를 위해 차량에도 도입되고 있다.The head-up display device is designed to display driving information on the windshield of a vehicle or an airplane. In the beginning, the head-up display device was introduced to secure the front view of an airplane pilot.

차량용 헤드업 디스플레이는 내비게이션과 연동하여 경로 변경을 안내하는 화살표 정보, 속도 등을 나타내는 텍스트 정보 등의 다양한 차량 정보를 윈드실드 글래스(Windshield Glass) 상에 표시함으로써, 주행 중에 운전자의 시선이 분산되는 것을 방지한다.The head-up display for a vehicle displays various kinds of vehicle information such as arrow information for guiding a route change, text information for indicating a speed, etc. on a windshield glass in cooperation with a navigation system so that the driver's line of sight is dispersed prevent.

즉, 차량 정보를 확인하기 위해서 운전자는 해당 정보를 제공하는 단말기 방향으로 시선을 옮길 필요가 없고, 헤드업 디스플레이 영상이 출력된 전방을 바라보면서 주행할 수 있기 때문에 운전자의 안전에 도움이 된다.That is, the driver does not need to move his or her eyes to the direction of the terminal providing the corresponding information in order to confirm the vehicle information, and can safely drive the driver while viewing the head-up display image.

또한, 운전자의 편의를 위한 장치들이 차량에 부가되면서 늘어나는 차량 정보를 나타낼 수 있는 별도의 표시 수단이 필요해짐에 따라서, 이러한 수단들을 개별적으로 설치할 수 있는 공간 확보가 요구됨에 따라 헤드업 디스플레이에 대한 관심이 더욱 높아지고 있는 추세이다.Further, since a separate display means is required to display the increasing vehicle information as the devices for convenience of the driver are added to the vehicle, it is required to secure space for individually installing these means, Is becoming even higher.

최근에는 헤드업 디스플레이 기술에서 더 나아가 윈드실드 글래스 너머에 증강현실(Augmented Reality) 형태로 헤드업 디스플레이 영상을 출력하는 기술이 개발되고 있다.Recently, a technology for outputting a head-up display image in the form of Augmented Reality over a windshield glass has been developed in a head-up display technology.

증강현실은 실존하는 현실 영상에 3차원의 가상 영상을 겹쳐서 출력하는 기술로서, 헤드업 디스플레이에 적용된 증강현실은 차량 전방의 도로에 표지판이나 안전 속도를 겹쳐서 출력하는 형태로 구현되고 있다.
The augmented reality is a technique for superimposing three-dimensional virtual images on an existing real image, and the augmented reality applied to the head-up display is implemented in such a manner that a signboard or a safe speed is superimposed on the road ahead of the vehicle.

본 발명과 관련된 선행기술로는 한국 공개특허공보 제2012-0059846호(2012.06.11.공개, 발명의 명칭 : 헤드업 디스플레이 장치)가 있다.
A prior art related to the present invention is Korean Patent Laid-Open Publication No. 2012-0059846 (published on Jun. 11, 2012, entitled "Head-Up Display Device").

종래의 증강현실 헤드업 디스플레이 기술은 차량의 중앙에 위치한 카메라를 통해서 차량 전방을 촬영한 후, 촬영된 영상으로부터 추가 정보가 필요한 특정 대상을 추출하고 특정 대상에 대응되는 추가 정보를 겹쳐서 출력하였다.The conventional augmented reality head-up display technology shoots the front of the vehicle through a camera located at the center of the vehicle, extracts a specific object requiring additional information from the captured image, and superimposes and outputs additional information corresponding to a specific object.

이와 같이 종래에는 차량의 중앙에 위치한 카메라를 통해서 촬영된 영상에 기초하여 헤드업 디스플레이 영상을 증강현실로 구현하였기 때문에, 운전자가 실제로 바라보는 시선과는 이질감이 생긴다는 문제가 있었다.As described above, the head-up display image is implemented as an augmented reality on the basis of the image photographed through the camera located at the center of the vehicle, so that there is a problem that the driver feels a sense of heterogeneity from the gaze that the driver actually looks at.

본 발명은 전술한 문제점을 해결하기 위해 창안된 것으로서, 증강현실로 구현되는 헤드업 디스플레이 영상을 운전자가 바라보는 시선에 일치하도록 위치를 변환하여 출력하기 위한, 증강현실 헤드업 디스플레이 영상의 보정 장치 및 그 방법을 제공하는데 그 목적이 있다.
SUMMARY OF THE INVENTION It is an object of the present invention to provide an improved augmented reality head-up display image correcting apparatus for converting a position of a head-up display image implemented as an augmented reality so as to coincide with a line of sight, The purpose of this method is to provide.

본 발명의 일 측면에 따른 증강현실 헤드업 디스플레이 영상의 좌표 보정 장치는 서로 다른 위치에서 차량 전방을 촬영하는 제1촬영부와 제2촬영부; 상기 제1촬영부와 제2촬영부 각각의 촬영범위의 차이에 기초하여 증강현실 헤드업 디스플레이 영상의 좌표를 변환하도록 제어하는 제어부; 및 상기 제어부의 제어에 기초하여 상기 변환된 좌표로 증강현실 헤드업 디스플레이 영상을 출력하는 헤드업 디스플레이 영상 출력부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for correcting a coordinate system of an augmented reality head-up display image, comprising: a first photographing unit and a second photographing unit for photographing the front of the vehicle at different positions; A controller for controlling the conversion of the coordinates of the augmented reality head-up display image based on the difference of the imaging ranges of the first and second imaging units; And a head-up display image output unit for outputting the augmented reality head-up display image in the converted coordinates based on the control of the controller.

본 발명에서 상기 제2촬영부는 상기 제1촬영부와 다른, 운전자의 눈높이에 설치되는 것을 특징으로 한다.In the present invention, the second photographing unit is installed at an eye level of a driver different from the first photographing unit.

본 발명에서 상기 제어부는 상기 제1촬영부와 제2촬영부의 촬영범위 내에 가상의 체커보드(Checkerboard)를 위치시키고, 각각의 촬영범위 내에서의 상기 체커보드의 교차점 좌표를 비교하는 것을 특징으로 한다.In the present invention, the control unit is characterized by placing a virtual checkerboard within the shooting ranges of the first and second shooting units and comparing the intersection coordinates of the checker boards within the respective shooting ranges .

본 발명에서 상기 제어부는 상기 제1촬영부의 촬영범위 내에서의 상기 체커보드의 교차점 좌표를 제1좌표 테이블에 저장하고, 상기 제2촬영부의 촬영범위 내에서의 상기 체커보드의 교차점 좌표를 제2좌표 테이블에 저장하는 것을 특징으로 한다.The controller may store the coordinates of the intersection of the checker board within the shooting range of the first photographing unit in the first coordinate table and set the coordinates of the intersection of the checker board within the photographing range of the second photographing unit to the second In a coordinate table.

본 발명에서 상기 제어부는 상기 헤드업 디스플레이 영상 출력부를 통해 차량 전방에 증강현실 헤드업 디스플레이 영상을 출력하고, 상기 제2촬영부에 의해서 촬영되는 상기 증강현실 헤드업 디스플레이 영상에 포함된 체커보드의 교차점 좌표를 제3좌표 테이블에 저장하는 것을 특징으로 한다.In the present invention, the controller outputs the augmented reality head-up display image to the front of the vehicle through the head-up display image output unit, and outputs the intersection point of the checker board included in the augmented reality head- And the coordinates are stored in the third coordinate table.

본 발명에서 상기 제어부는 상기 제1좌표 테이블에 저장된 좌표와 상기 제3좌표 테이블에 저장된 좌표의 변환 행렬을 연산하고, 상기 연산된 변환 행렬에 기초하여 상기 증강현실 헤드업 디스플레이 영상의 좌표를 변환하도록 제어하는 것을 특징으로 한다.In the present invention, the controller calculates the transformation matrix of the coordinates stored in the first coordinate table and the coordinates stored in the third coordinate table, and transforms the coordinates of the augmented reality head-up display image based on the computed transformation matrix And a control unit.

본 발명의 다른 실시예에 따른 증강현실 헤드업 디스플레이 영상의 좌표 보정 방법은 제어부가 제1촬영부와 제2촬영부의 촬영범위 내에 가상의 체커보드(Checkerboard)를 위치시키는 단계; 및 상기 제1촬영부와 제2촬영부 각각의 촬영범위 내에서의 상기 체커보드의 위치 차이를 반영하여 증강현실 헤드업 디스플레이 영상의 좌표를 변환하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of correcting a coordinate of an augmented reality head-up display image, comprising: positioning a virtual checkerboard within an imaging range of a first imaging unit and a second imaging unit; And converting the coordinates of the augmented reality head-up display image by reflecting the position difference of the checker board within the shooting range of each of the first photographing unit and the second photographing unit.

본 발명의 상기 증강현실 헤드업 디스플레이 영상의 좌표를 변환하는 단계에서, 상기 제어부는 상기 제1촬영부와 제2촬영부 각각의 촬영범위 내에서의 상기 체커보드의 교차점 좌표를 좌표 테이블에 저장하고, 각 좌표 테이블에 저장된 좌표 간의 변환 행렬에 기초하여 상기 증강현실 헤드업 디스플레이 영상의 좌표를 변환하는 것을 특징으로 한다.In the step of converting the coordinates of the augmented reality head-up display image of the present invention, the control unit stores the intersection coordinates of the checkerboard within the shooting range of each of the first and second shooting units in the coordinate table And transforms the coordinates of the augmented reality head-up display image based on a transformation matrix between coordinates stored in each coordinate table.

본 발명에서 상기 증강현실 헤드업 디스플레이 영상의 좌표를 변환하는 단계는, 상기 제어부가 상기 제1촬영부의 촬영범위 내에서의 상기 체커보드의 교차점 좌표를 제1좌표 테이블에 저장하는 단계; 상기 제2촬영부의 촬영범위 내에서의 상기 체커보드의 교차점 좌표를 제2좌표 테이블에 저장하는 단계; 헤드업 디스플레이 영상 출력부를 통해 차량 전방에 증강현실 헤드업 디스플레이 영상을 출력하는 단계; 상기 제2촬영부에 의해서 촬영되는 상기 증강현실 헤드업 디스플레이 영상에 포함된 체커보드의 교차점 좌표를 제3좌표 테이블에 저장하는 단계; 상기 제1좌표 테이블에 저장된 좌표와 상기 제3좌표 테이블에 저장된 좌표 간의 변환 행렬을 연산하는 단계; 및 상기 연산된 변환 행렬에 기초하여 상기 증강현실 헤드업 디스플레이 영상의 좌표를 변환하는 단계를 포함하는 것을 특징으로 한다.In the present invention, the step of converting the coordinates of the augmented reality head-up display image may include: storing the intersection coordinates of the checker board in the first coordinate table within the shooting range of the first photographing unit; Storing an intersection coordinate of the checker board in a second coordinate table within an imaging range of the second photographing unit; Outputting an augmented reality head-up display image in front of the vehicle through a head-up display image output unit; Storing an intersection coordinate of a checkerboard included in the augmented reality head-up display image photographed by the second photographing unit in a third coordinate table; Calculating a transformation matrix between coordinates stored in the first coordinate table and coordinates stored in the third coordinate table; And converting the coordinates of the augmented reality head-up display image based on the computed transformation matrix.

본 발명에서 상기 제1촬영부와 상기 제2촬영부는 서로 다른 위치에서 차량 전방을 촬영하되, 상기 제2촬영부는 운전자의 눈높이에 설치되는 것을 특징으로 한다.
In the present invention, the first photographing unit and the second photographing unit photograph the front of the vehicle at different positions, and the second photographing unit is installed at the eye level of the driver.

본 발명에 따르면, 차량 전방을 촬영한 영상에 포함된 영역과 운전자의 시선의 오차를 반영하여 증강현실 헤드업 디스플레이 영상의 좌표를 변환함으로써, 출력된 영상에 대해서 운전자가 느끼는 이질감을 제거할 수 있다.
According to the present invention, it is possible to eliminate the sense of feeling that the driver feels about the output image by converting the coordinates of the augmented reality head-up display image by reflecting an error between the area included in the image of the front of the vehicle and the driver's line of sight .

도 1은 본 발명의 일 실시예에 따른 증강현실 헤드업 디스플레이 영상의 좌표 보정 장치의 기능 블록도이다.
도 2는 본 발명의 일 실시예에 따른 증강현실 헤드업 디스플레이 영상의 좌표 보정 장치의 제1촬영부와 제2촬영부가 차량에 장착되는 위치를 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따라서 제1촬영부와 제2촬영부의 촬영범위 내에 위치한 체커보드를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따라서 제2촬영부에 의해서 촬영되는 헤드업 디스플레이 영상에 포함된 체커보드를 타나낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 증강현실 헤드업 디스플레이 영상의 좌표 보정 방법의 구현 과정을 설명하는 절차 흐름도이다.
1 is a functional block diagram of an apparatus for correcting coordinates of an augmented reality head-up display image according to an embodiment of the present invention.
FIG. 2 is a view showing a position where a first photographing unit and a second photographing unit of a coordinate correcting device of an augmented reality head-up display image according to an embodiment of the present invention are mounted on a vehicle.
3 is a view showing a checker board positioned within the shooting range of the first and second photographing units according to an embodiment of the present invention.
4 is a view showing a checkerboard included in a head-up display image taken by a second photographing unit according to an embodiment of the present invention.
FIG. 5 is a flowchart illustrating an implementation process of a coordinate correction method of an augmented reality head-up display image according to an embodiment of the present invention.

이하에서는 본 발명의 일 실시예에 따른 증강현실 헤드업 디스플레이 영상의 좌표 보정 장치 및 그 방법을 첨부된 도면들을 참조하여 상세하게 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
Hereinafter, an apparatus and method for correcting a coordinate system of an augmented reality head-up display image according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In this process, the thicknesses of the lines and the sizes of the components shown in the drawings may be exaggerated for clarity and convenience of explanation. In addition, the terms described below are defined in consideration of the functions of the present invention, which may vary depending on the intention or custom of the user, the operator. Therefore, definitions of these terms should be made based on the contents throughout this specification.

도 1은 본 발명의 일 실시예에 따른 증강현실 헤드업 디스플레이 영상의 좌표 보정 장치의 기능 블록도이다.1 is a functional block diagram of an apparatus for correcting coordinates of an augmented reality head-up display image according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 증강현실 헤드업 디스플레이 영상의 좌표 보정 장치의 제1촬영부와 제2촬영부가 차량에 장착되는 위치를 나타낸 도면이다.FIG. 2 is a view showing a position where a first photographing unit and a second photographing unit of a coordinate correcting device of an augmented reality head-up display image according to an embodiment of the present invention are mounted on a vehicle.

도 3은 본 발명의 일 실시예에 따라서 제1촬영부와 제2촬영부의 촬영범위 내에 위치한 체커보드를 나타낸 도면이다.3 is a view showing a checker board positioned within the shooting range of the first and second photographing units according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따라서 제2촬영부에 의해서 촬영되는 헤드업 디스플레이 영상에 포함된 체커보드를 타나낸 도면이다.4 is a view showing a checkerboard included in a head-up display image taken by a second photographing unit according to an embodiment of the present invention.

도 1 내지 도 4를 참조하면 증강현실 헤드업 디스플레이 영상의 좌표 보정 장치는 제1촬영부(10), 제2촬영부(20), 제어부(30), 헤드업 디스플레이 영상 출력부(40) 및 메모리부(50)를 포함한다.1 to 4, the apparatus for correcting the augmented reality head-up display image includes a first imaging unit 10, a second imaging unit 20, a control unit 30, a head-up display image output unit 40, And a memory unit 50.

제1촬영부(10)는 증강현실 헤드업 디스플레이(Augmented Head Up Display) 영상의 출력을 위해 차량 전방을 촬영한다.The first photographing unit 10 photographs the front of the vehicle for outputting an augmented head-up display image.

즉, 제1촬영부(10)에서 차량 전방을 촬영하면, 후술하는 제어부(30)는 해당 촬영 영상으로부터 추가 정보가 필요한 대상을 추출하고, 추출된 대상에 관한 정보를 증강현실로 출력하도록 헤드업 디스플레이 영상 출력부(40)를 제어한다.That is, when the first imaging unit 10 photographs the front of the vehicle, the control unit 30, which will be described later, extracts objects requiring additional information from the photographed images, and outputs information about the extracted objects to the augmented reality And controls the display video output unit 40.

제2촬영부(20)는 운전자의 눈높이에 설치되어 차량 전방을 촬영한다.The second photographing unit 20 is installed at the eye level of the driver and photographs the front of the vehicle.

즉, 본 실시예에서는 증강현실 헤드업 디스플레이 영상의 출력을 위해 차량 전방을 촬영하는 제1촬영부(10) 이외에 운전자 눈높이에 촬영부를 추가로 설치함으로써, 운전자가 바라보는 시점의 영상을 획득한다.That is, in the present embodiment, an image pickup unit is additionally installed at the driver's eye level, in addition to the first image pickup unit 10 for photographing the front of the vehicle for outputting the augmented reality head-up display image.

도 2를 참조하면 제1촬영부(10)와 제2촬영부(20)는 서로 다른 위치에서 차량 전방을 촬영하되, 전술한 바와 같이 제2촬영부(20)는 운전자의 눈높이에 설치된다.Referring to FIG. 2, the first photographing unit 10 and the second photographing unit 20 photograph the front of the vehicle at different positions. As described above, the second photographing unit 20 is installed at the driver's eye level.

제어부(30)는 제1촬영부(10)와 제2촬영부(20) 각각의 촬영범위의 차이에 기초하여 증강현실 헤드업 디스플레이 영상의 좌표를 변환하여 출력하도록 제어함으로써, 운전자가 바라보는 시선에서 해당 증강현실 헤드업 디스플레이 영상에 대해 느낄 수 있는 이질감을 해소한다.The control unit 30 controls to convert and output the coordinates of the augmented reality head-up display image on the basis of the difference in the photographing ranges of the first photographing unit 10 and the second photographing unit 20, Thereby eliminating the sense of heterogeneity of the augmented reality head-up display image.

구체적으로 제어부(30)는 제1촬영부(10)와 제2촬영부(20)의 촬영범위를 비교하기 위해서, 제1촬영부(10)와 제2촬영부(20)의 촬영범위 내에 가상의 체커보드(Checkerboard)(1)를 위치시키고, 각각의 촬영범위 내에서의 체커보드(1)의 교차점 좌표를 메모리부(50)에 저장한다.Specifically, the control unit 30 determines whether or not a virtual image is captured within the shooting range of the first and second shooting units 10 and 20 in order to compare the shooting ranges of the first shooting unit 10 and the second shooting unit 20 And stores the coordinates of the intersection of the checker board 1 in the respective shooting ranges in the memory unit 50. [

이 때, 체커보드(1)의 교차점은 격자무늬의 흰 무늬와 검은 무늬가 만나는 모서리를 의미한다.At this time, the intersection point of the checkerboard 1 means the corner where the white pattern of the plaid pattern and the black pattern meet.

본 실시예에서 제어부(30)는 특히 제1촬영부(10)의 촬영범위 내에서의 체커보드(1)의 교차점 좌표를 메모리부(50)의 제1좌표 테이블에 저장하고, 제2촬영부(20)의 촬영범위 내에서의 체커보드(1)의 교차점의 좌표를 메모리부(50)의 제2좌표 테이블에 저장한다.The control unit 30 stores the coordinates of the intersection of the checker board 1 in the shooting range of the first shooting unit 10 in the first coordinate table of the memory unit 50, The coordinates of the intersection point of the checker board 1 within the shooting range of the checkerboard 20 are stored in the second coordinate table of the memory unit 50. [

전술한 바와 같이 제1촬영부(10)와 제2촬영부(20)는 서로 촬영범위가 다르기 때문에, 동일한 체커보드(1)의 교차점의 좌표는 각각의 촬영범위에서 서로 다르게 나타난다.As described above, since the shooting ranges of the first shooting section 10 and the second shooting section 20 are different from each other, the coordinates of the intersection points of the same checkerboard 1 are different from each other in the respective shooting ranges.

도 3을 참조하면, L1은 제1촬영부(10)의 촬영범위를 나타내고, L2는 제2촬영부(20)의 촬영범위를 나타낸다.Referring to FIG. 3, L1 denotes an imaging range of the first imaging unit 10, and L2 denotes an imaging range of the second imaging unit 20.

도 3에 도시된 바와 같이, 제1촬영부(10)와 제2촬영부(20)는 서로 좌우측으로 촬영하는 범위가 다르기 때문에, 각 촬영범위에서 체커보드(1)의 교차점 좌표는 다르게 산출된다.As shown in Fig. 3, since the first and second photographing sections 10 and 20 have different ranges of photographing from left and right sides, the intersection coordinates of the checker board 1 in each photographing range are calculated differently .

도 3에서는 제1촬영부(10)와 제2촬영부(20)의 촬영 높이가 동일한 것으로 도시하였으나, 본 실시예는 이에 한정되는 것은 아니므로 제1촬영부(10)와 제2촬영부(20)의 설치 높이 등에 따라서 촬영 높이도 달라질 수 있다.3, the first and second photographing units 10 and 20 have the same photographing height. However, the present exemplary embodiment is not limited to this, so that the first photographing unit 10 and the second photographing unit 20 20, the height of the photographing can be changed.

그리고 제어부(30)는 헤드업 디스플레이 영상 출력부(40)를 통해 차량 전방에 증강현실 헤드업 디스플레이 영상을 출력하고, 도 4에 도시된 바와 같이 제2촬영부(20)에 의해서 촬영되는 증강현실 헤드업 디스플레이 영상에 포함된 체커보드(1)의 교차점 좌표를 메모리부(50)의 제3좌표 테이블에 저장한다.The control unit 30 outputs the augmented reality head-up display image to the front of the vehicle through the head-up display image output unit 40, The intersection coordinates of the checker board 1 included in the head-up display image are stored in the third coordinate table of the memory unit 50. [

도 4의 L2는 제2촬영부(20)의 촬영 범위를 나타내고, L3는 제2촬영부(20)에 의해서 촬영되는 증강현실 헤드업 디스플레이 영상을 나타낸다.L3 in Fig. 4 represents an imaging range of the second imaging unit 20, and L3 represents an augmented reality head-up display image taken by the second imaging unit 20. Fig.

즉, 제1촬영부(10), 제2촬영부(20) 및 증강현실 헤드업 디스플레이 영상에 포함되는 범위는 서로 다르기 때문에, 본 실시예에서는 각 영상에서의 체커보드(1)의 교차점 좌표를 서로 다른 좌표 테이블에 저장한다.That is, since the ranges included in the first photographing unit 10, the second photographing unit 20, and the augmented reality head-up display image are different from each other, in this embodiment, the intersection coordinates of the checker board 1 And stores them in different coordinate tables.

다만, 증강현실 헤드업 디스플레이 영상은 제1촬영부(10)와 제2촬영부(20)의 영상과 달리 허상이기 때문에, 증강현실 헤드업 디스플레이 영상 자체에서 체커보드(1)의 교차점 좌표를 직접 추출할 수 없다.Since the augmented reality head-up display image is a virtual image different from the images of the first and second image sensing units 10 and 20, the intersection coordinates of the checker board 1 can be directly Can not be extracted.

따라서 본 실시예에서 제어부(30)는 제2촬영부(20)를 통해서 증강현실 헤드업 디스플레이 영상을 함께 촬영하고, 증강현실 헤드업 디스플레이 영상에 포함된 체커보드(1)의 교차점 좌표를 독출하여 제3좌표 테이블에 저장한다.Therefore, in this embodiment, the control unit 30 photographs the augmented reality head-up display image together through the second photographing unit 20, reads the intersection coordinates of the checker board 1 included in the augmented reality head-up display image And stores it in the third coordinate table.

이러한 과정을 거침으로써, 제3좌표 테이블에 저장된 체커보드(1)의 교차점 좌표를 통해서 증강현실 헤드업 디스플레이 영상이 운전자의 시선에 어떻게 출력되는지에 관한 상대적인 위치를 알 수 있다.Through this process, it is possible to know a relative position of how the augmented reality head-up display image is outputted to the line of sight of the driver through the intersection coordinates of the checkerboard 1 stored in the third coordinate table.

제어부(30)는 제1좌표 테이블에 저장된 좌표와 제3좌표 테이블에 저장된 좌표의 변환 행렬을 연산하고, 연산된 변환 행렬에 기초하여 증강현실 헤드업 디스플레이 영상의 좌표를 변환하도록 헤드업 디스플레이 영상 출력부(40)를 제어한다.The control unit 30 calculates the transformation matrix of the coordinates stored in the first coordinate table and the coordinates stored in the third coordinate table, and outputs the head-up display image output to convert the coordinates of the augmented reality head- (40).

즉, 제1좌표 테이블과 제3좌표 테이블에 저장된 체커보드(1)의 교차점의 수는 동일하기 때문에, 각 좌표 간의 변환 행렬을 연산할 수 있다.In other words, since the number of the intersection points of the checkerboard 1 stored in the first coordinate table and the third coordinate table is the same, the transformation matrix between the respective coordinates can be calculated.

구체적으로 동일한 행과 열의 수를 갖는 행렬 간의 변환 행렬을 연산하는 과정은 이미 공지된 수학적 공식이므로 자세한 설명은 생략하기로 한다.Specifically, the process of calculating the transformation matrix between matrices having the same number of rows and columns is a well-known mathematical formula, and thus a detailed description thereof will be omitted.

헤드업 디스플레이 영상 출력부(40)는 제어부(30)의 제어에 기초하여 변환된 좌표로 증강현실 헤드업 디스플레이 영상을 출력한다.The head-up display image output unit 40 outputs the augmented reality head-up display image in the converted coordinates based on the control of the control unit 30. [

구체적으로 헤드업 디스플레이 영상 출력부(40)는 영상을 투사하는 프로젝터(미도시)와 프로젝터로부터 투사된 영상의 경로를 변경하는 거울(미도시) 등을 포함하여 구성된다.Specifically, the head-up display image output unit 40 includes a projector (not shown) for projecting an image and a mirror (not shown) for changing a path of an image projected from the projector.

헤드업 디스플레이 영상 출력부(40)가 증강현실 헤드업 디스플레이 영상을 출력하는 방식은 이미 공지된 기술이므로, 본 실시예에서는 자세한 구현 방법에 대한 설명은 생략하기로 하며, 공지 또는 기타 공지되지 않은 다양한 기술을 이용하여 증강현실 헤드업 디스플레이 영상을 출력할 수 있다.Since the method of outputting the augmented reality head-up display image by the head-up display image output unit 40 is a well-known technique, the detailed implementation method will not be described in the present embodiment, Technology can be used to output the augmented reality head-up display image.

메모리부(50)는 제1촬영부(10), 제2촬영부(20) 및 증강현실 헤드업 디스플레이 영상에서의 체커보드(1)의 교차점 좌표를 서로 다른 좌표 테이블로 저장한다.
The memory unit 50 stores the coordinates of the intersections of the first photographing unit 10, the second photographing unit 20, and the checkerboard 1 in the augmented reality head-up display image as different coordinate tables.

도 5는 본 발명의 일 실시예에 따른 증강현실 헤드업 디스플레이 영상의 좌표 보정 방법의 구현 과정을 설명하는 절차 흐름도이다.FIG. 5 is a flowchart illustrating an implementation process of a coordinate correction method of an augmented reality head-up display image according to an embodiment of the present invention.

도 5를 참조하여 본 발명의 일 실시예에 따른 증강현실 헤드업 디스플레이 영상의 좌표 보정 방법을 살펴보면, 먼저 제어부(30)는 제1촬영부(10)와 제2촬영부(20)의 촬영범위 내에 가상의 체커보드(1)를 위치시킨다(S10).Referring to FIG. 5, a coordinate correction method of an augmented reality head-up display image according to an exemplary embodiment of the present invention will be described. First, the controller 30 controls the first imaging unit 10 and the second imaging unit 20 The virtual checker board 1 is positioned within the virtual checker board 1 (S10).

그리고 제어부(30)는 제1촬영부(10)의 촬영범위 내에서의 체커보드(1)의 교차점 좌표를 제1좌표 테이블에 저장하고(S20), 제2촬영부(20)의 촬영범위 내에서의 체커보드(1)의 교차점 좌표를 제2좌표 테이블에 저장한다(S30).The control unit 30 stores the coordinates of the intersection of the checker board 1 in the shooting range of the first shooting unit 10 in the first coordinate table (S20) The coordinates of the intersection of the checker board 1 in the first coordinate table are stored in the second coordinate table (S30).

즉, 제1촬영부(10)와 제2촬영부(20)의 촬영범위는 서로 다르기 때문에 본 실시예에서 제어부(30)는 각 촬영범위의 차이를 비교하기 위해서 체커보드(1)의 교차점 좌표를 각각 저장한다.That is, since the imaging ranges of the first imaging unit 10 and the second imaging unit 20 are different from each other, the control unit 30 controls the intersection coordinates of the checkerboard 1 Respectively.

이어서 제어부(30)는 헤드업 디스플레이 영상 출력부(40)를 통해서 차량 전방에 증강현실 헤드업 디스플레이 영상을 출력하고(S40), 제2촬영부(20)에 의해서 촬영되는 증강현실 헤드업 디스플레이 영상에 포함된 체커보드(1)의 교차점 좌표를 제3좌표 테이블에 저장한다(S50).The control unit 30 outputs the augmented reality head-up display image to the front of the vehicle through the head-up display image output unit 40 (S40), and outputs the augmented reality head- The intersection coordinates of the checker board 1 included in the first coordinate table are stored in the third coordinate table (S50).

증강현실 헤드업 디스플레이 영상은 제1촬영부(10)와 제2촬영부(20)의 영상과 달리 허상이기 때문에, 증강현실 헤드업 디스플레이 영상에서의 체커보드(1)의 교차점 좌표를 직접 추출할 수 없다.Since the augmented reality head-up display image is a virtual image different from the images of the first and second imaging units 10 and 20, it is possible to directly extract the intersection coordinates of the checker board 1 in the augmented reality head- I can not.

따라서 본 실시예에서 제어부(30)는 제2촬영부(20)를 통해서 증강현실 헤드업 디스플레이 영상을 함께 촬영하고, 증강현실 헤드업 디스플레이 영상에 포함된 체커보드(1)의 교차점 좌표를 독출하여 제3좌표 테이블에 저장한다.Therefore, in this embodiment, the control unit 30 photographs the augmented reality head-up display image together through the second photographing unit 20, reads the intersection coordinates of the checker board 1 included in the augmented reality head-up display image And stores it in the third coordinate table.

다음으로 제어부(30)는 제1좌표 테이블에 저장된 좌표와 제3좌표 테이블에 저장된 좌표 간의 변환 행렬을 연산하고(S60), 헤드업 디스플레이 영상 출력부(40)는 연산된 변환 행렬에 기초하여 증강현실 헤드업 디스플레이 영상의 좌표를 변환하여(S70), 출력한다.Next, the control unit 30 calculates a transformation matrix between the coordinates stored in the first coordinate table and the coordinates stored in the third coordinate table (S60), and the head-up display image output unit 40 calculates the transformation matrix based on the calculated transformation matrix The coordinates of the real head-up display image are converted (S70) and output.

본 실시예에 따르면, 차량 전방을 촬영한 영상에 포함된 영역과 운전자의 시선의 오차를 반영하여 증강현실 헤드업 디스플레이 영상의 좌표를 변환함으로써, 출력된 영상에 대해서 운전자가 느끼는 이질감을 제거할 수 있다.
According to this embodiment, the coordinates of the augmented reality head-up display image are transformed by reflecting an error between the area included in the image of the front of the vehicle and the driver's line of sight, thereby eliminating the sense of driver's feeling of the driver have.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation, I will understand. Accordingly, the true scope of the present invention should be determined by the following claims.

1: 체커보드
10: 제1촬영부
20: 제2촬영부
30: 제어부
40: 헤드업 디스플레이 영상 출력부
50: 메모리부
1: Checkerboard
10: First shooting section
20: Second shooting section
30:
40: Head-up display image output section
50:

Claims (10)

서로 다른 위치에서 차량 전방을 촬영하는 제1촬영부와 제2촬영부;
상기 제1촬영부와 제2촬영부 각각의 촬영범위의 차이에 기초하여 증강현실 헤드업 디스플레이 영상의 좌표를 변환하도록 제어하는 제어부; 및
상기 제어부의 제어에 기초하여 상기 변환된 좌표로 증강현실 헤드업 디스플레이 영상을 출력하는 헤드업 디스플레이 영상 출력부
를 포함하는 증강현실 헤드업 디스플레이 영상의 좌표 보정 장치.
A first photographing unit and a second photographing unit for photographing the front of the vehicle at different positions;
A controller for controlling the conversion of the coordinates of the augmented reality head-up display image based on the difference of the imaging ranges of the first and second imaging units; And
Up display image output unit for outputting the augmented reality head-up display image in the converted coordinates based on the control of the controller,
Up display image.
제 1항에 있어서,
상기 제2촬영부는 상기 제1촬영부와 다른, 운전자의 눈높이에 설치되는 것을 특징으로 하는 증강현실 헤드업 디스플레이 영상의 좌표 보정 장치.
The method according to claim 1,
Wherein the second photographing unit is installed at an eye level of a driver different from the first photographing unit.
제 2항에 있어서,
상기 제어부는 상기 제1촬영부와 제2촬영부의 촬영범위 내에 가상의 체커보드(Checkerboard)를 위치시키고, 각각의 촬영범위 내에서의 상기 체커보드의 교차점 좌표를 비교하는 것을 특징으로 하는 증강현실 헤드업 디스플레이 영상의 좌표 보정 장치.
3. The method of claim 2,
Wherein the control unit places a virtual checkerboard within the shooting range of the first and second shooting units and compares the intersection coordinates of the checker boards within the respective shooting ranges. Up display image.
제 3항에 있어서,
상기 제어부는 상기 제1촬영부의 촬영범위 내에서의 상기 체커보드의 교차점 좌표를 제1좌표 테이블에 저장하고, 상기 제2촬영부의 촬영범위 내에서의 상기 체커보드의 교차점 좌표를 제2좌표 테이블에 저장하는 것을 특징으로 하는 증강현실 헤드업 디스플레이 영상의 좌표 보정 장치.
The method of claim 3,
The control unit stores the intersection coordinates of the checkerboard within the shooting range of the first shooting unit in the first coordinate table and the coordinates of the intersection of the checkerboard within the shooting range of the second shooting unit in the second coordinate table And displaying the displayed head-up display image.
제 4항에 있어서,
상기 제어부는 상기 헤드업 디스플레이 영상 출력부를 통해 차량 전방에 증강현실 헤드업 디스플레이 영상을 출력하고, 상기 제2촬영부에 의해서 촬영되는 상기 증강현실 헤드업 디스플레이 영상에 포함된 체커보드의 교차점 좌표를 제3좌표 테이블에 저장하는 것을 특징으로 하는 증강현실 헤드업 디스플레이 영상의 좌표 보정 장치.
5. The method of claim 4,
The control unit outputs the augmented reality head-up display image to the front of the vehicle through the head-up display image output unit, and outputs the intersection coordinates of the checker board included in the augmented reality head- 3 coordinate table of the augmented reality head-up display image.
제 5항에 있어서,
상기 제어부는 상기 제1좌표 테이블에 저장된 좌표와 상기 제3좌표 테이블에 저장된 좌표의 변환 행렬을 연산하고, 상기 연산된 변환 행렬에 기초하여 상기 증강현실 헤드업 디스플레이 영상의 좌표를 변환하도록 제어하는 것을 특징으로 하는 증강현실 헤드업 디스플레이 영상의 좌표 보정 장치.
6. The method of claim 5,
The control unit calculates the transformation matrix of the coordinates stored in the first coordinate table and the coordinates stored in the third coordinate table and controls to convert the coordinates of the augmented reality head-up display image based on the computed transformation matrix And a coordinate correction device for augmented reality head-up display image.
제어부가 제1촬영부와 제2촬영부의 촬영범위 내에 가상의 체커보드(Checkerboard)를 위치시키는 단계; 및
상기 제1촬영부와 제2촬영부 각각의 촬영범위 내에서의 상기 체커보드의 위치 차이를 반영하여 증강현실 헤드업 디스플레이 영상의 좌표를 변환하는 단계
를 포함하는 증강현실 헤드업 디스플레이 영상의 좌표 보정 방법.
Placing a virtual checkerboard within a shooting range of the first photographing unit and the second photographing unit; And
Converting the coordinates of the augmented reality head-up display image by reflecting a difference in position of the checker board within an imaging range of each of the first and second imaging units
And displaying the head-up display image.
제 7항에 있어서,
상기 증강현실 헤드업 디스플레이 영상의 좌표를 변환하는 단계에서, 상기 제어부는 상기 제1촬영부와 제2촬영부 각각의 촬영범위 내에서의 상기 체커보드의 교차점 좌표를 좌표 테이블에 저장하고, 각 좌표 테이블에 저장된 좌표 간의 변환 행렬에 기초하여 상기 증강현실 헤드업 디스플레이 영상의 좌표를 변환하는 것을 특징으로 하는 증강현실 헤드업 디스플레이 영상의 좌표 보정 방법.
8. The method of claim 7,
In the step of converting the coordinates of the augmented reality head-up display image, the control unit stores the intersection coordinates of the checkerboard in the shooting range of each of the first and second shooting units in the coordinate table, Wherein the coordinate of the augmented reality head-up display image is converted based on a transformation matrix between coordinates stored in the table.
제 7항에 있어서,
상기 증강현실 헤드업 디스플레이 영상의 좌표를 변환하는 단계는,
상기 제어부가 상기 제1촬영부의 촬영범위 내에서의 상기 체커보드의 교차점 좌표를 제1좌표 테이블에 저장하는 단계;
상기 제2촬영부의 촬영범위 내에서의 상기 체커보드의 교차점 좌표를 제2좌표 테이블에 저장하는 단계;
헤드업 디스플레이 영상 출력부를 통해 차량 전방에 증강현실 헤드업 디스플레이 영상을 출력하는 단계;
상기 제2촬영부에 의해서 촬영되는 상기 증강현실 헤드업 디스플레이 영상에 포함된 체커보드의 교차점 좌표를 제3좌표 테이블에 저장하는 단계;
상기 제1좌표 테이블에 저장된 좌표와 상기 제3좌표 테이블에 저장된 좌표 간의 변환 행렬을 연산하는 단계; 및
상기 연산된 변환 행렬에 기초하여 상기 증강현실 헤드업 디스플레이 영상의 좌표를 변환하는 단계
를 포함하는 것을 특징으로 하는 증강현실 헤드업 디스플레이 영상의 좌표 보정 방법.
8. The method of claim 7,
The step of converting the coordinates of the augmented reality head-up display image includes:
Storing the intersection coordinates of the checker board in the first coordinate table within the shooting range of the first photographing unit;
Storing an intersection coordinate of the checker board in a second coordinate table within an imaging range of the second photographing unit;
Outputting an augmented reality head-up display image in front of the vehicle through a head-up display image output unit;
Storing an intersection coordinate of a checkerboard included in the augmented reality head-up display image photographed by the second photographing unit in a third coordinate table;
Calculating a transformation matrix between coordinates stored in the first coordinate table and coordinates stored in the third coordinate table; And
Converting the coordinates of the augmented reality head-up display image based on the computed transformation matrix
And displaying the head-up display image.
제 7항에 있어서,
상기 제1촬영부와 상기 제2촬영부는 서로 다른 위치에서 차량 전방을 촬영하되, 상기 제2촬영부는 운전자의 눈높이에 설치되는 것을 특징으로 하는 증강현실 헤드업 디스플레이 영상의 좌표 보정 방법.
8. The method of claim 7,
Wherein the first photographing unit and the second photographing unit photograph the front of the vehicle at different positions, and the second photographing unit is installed at an eye level of the driver.
KR1020130136705A 2013-11-12 2013-11-12 Apparatus for correcting augmented reality head up display image and method thereof KR101559012B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130136705A KR101559012B1 (en) 2013-11-12 2013-11-12 Apparatus for correcting augmented reality head up display image and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130136705A KR101559012B1 (en) 2013-11-12 2013-11-12 Apparatus for correcting augmented reality head up display image and method thereof

Publications (2)

Publication Number Publication Date
KR20150055184A true KR20150055184A (en) 2015-05-21
KR101559012B1 KR101559012B1 (en) 2015-10-12

Family

ID=53390838

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130136705A KR101559012B1 (en) 2013-11-12 2013-11-12 Apparatus for correcting augmented reality head up display image and method thereof

Country Status (1)

Country Link
KR (1) KR101559012B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170120958A (en) * 2016-04-22 2017-11-01 한국전자통신연구원 Apparatus and method for transforming augmented reality information of head-up display for vehicle
US10539790B2 (en) 2015-11-24 2020-01-21 Hyundai Autron Co., Ltd. Coordinate matching apparatus for head-up display
WO2020101420A1 (en) * 2018-11-15 2020-05-22 숙명여자대학교산학협력단 Method and apparatus for measuring optical characteristics of augmented reality device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101979276B1 (en) 2017-08-09 2019-05-16 엘지전자 주식회사 User interface apparatus for vehicle and Vehicle
KR102503976B1 (en) 2018-07-02 2023-02-28 한국전자통신연구원 Apparatus and method for correcting augmented reality image

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10539790B2 (en) 2015-11-24 2020-01-21 Hyundai Autron Co., Ltd. Coordinate matching apparatus for head-up display
KR20170120958A (en) * 2016-04-22 2017-11-01 한국전자통신연구원 Apparatus and method for transforming augmented reality information of head-up display for vehicle
US10025096B2 (en) 2016-04-22 2018-07-17 Electronics And Telecommunications Research Institute Apparatus and method for transforming augmented reality information of head-up display for vehicle
WO2020101420A1 (en) * 2018-11-15 2020-05-22 숙명여자대학교산학협력단 Method and apparatus for measuring optical characteristics of augmented reality device
US20220011193A1 (en) * 2018-11-15 2022-01-13 Sookmyung Women's University Industry-Academic Cooperation Foundation Method and apparatus for measuring optical characteristics of augmented reality device
US11953401B2 (en) 2018-11-15 2024-04-09 Sookmyung Women's University Industry-Academic Cooperation Foundation Method and apparatus for measuring optical characteristics of augmented reality device

Also Published As

Publication number Publication date
KR101559012B1 (en) 2015-10-12

Similar Documents

Publication Publication Date Title
US11181743B2 (en) Head up display apparatus and display control method thereof
CN110573369B (en) Head-up display device and display control method thereof
US10223835B2 (en) Augmented reality alignment system and method
KR101559012B1 (en) Apparatus for correcting augmented reality head up display image and method thereof
JP6669569B2 (en) Perimeter monitoring device for vehicles
TWI431250B (en) Navigation device for integrated traffic image recording and navigation information
JP2015015708A (en) Method and device for displaying three-dimensional image using video unit of view field display device for vehicle
EP3444139A1 (en) Image processing method and image processing device
JP2019062532A (en) Method and apparatus for rendering image
WO2023071834A1 (en) Alignment method and alignment apparatus for display device, and vehicle-mounted display system
US10672269B2 (en) Display control assembly and control method therefor, head-up display system, and vehicle
CN112534334A (en) Three-dimensional augmented reality head-up display for realizing augmented reality for driver's viewpoint by locating image on ground
JP2014150304A (en) Display device and display method therefor
US20170146799A1 (en) Coordinate matching apparatus for head-up display
KR20180022374A (en) Lane markings hud for driver and assistant and same method thereof
US10885819B1 (en) In-vehicle augmented reality system
US20160037154A1 (en) Image processing system and method
KR20120066472A (en) Apparatus and method for displaying augmented reality contents using a front object
JP2019102936A (en) Display device, electronic mirror, control method of display device, and display control program
KR20170066749A (en) Apparatus and method for compensating image distortion in head up display for vehicle
US20220072957A1 (en) Method for Depicting a Virtual Element
JP7066271B2 (en) Image processing device, image processing method and head-up display system
JP2018088669A (en) Projection image distortion correction device and method
JP7354846B2 (en) heads up display device
JP2006080626A (en) Method of correcting wide angle image and method of monitoring vehicle periphery

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181001

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190926

Year of fee payment: 5