KR20220032448A - 크로스토크를 보정하는 방법 및 장치 - Google Patents

크로스토크를 보정하는 방법 및 장치 Download PDF

Info

Publication number
KR20220032448A
KR20220032448A KR1020200181939A KR20200181939A KR20220032448A KR 20220032448 A KR20220032448 A KR 20220032448A KR 1020200181939 A KR1020200181939 A KR 1020200181939A KR 20200181939 A KR20200181939 A KR 20200181939A KR 20220032448 A KR20220032448 A KR 20220032448A
Authority
KR
South Korea
Prior art keywords
image
crosstalk
concealer
content object
virtual content
Prior art date
Application number
KR1020200181939A
Other languages
English (en)
Inventor
이희세
이준환
하인우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US17/225,339 priority Critical patent/US11719930B2/en
Publication of KR20220032448A publication Critical patent/KR20220032448A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • H04N13/125Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues for crosstalk reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

일 실시예에 따른 크로스토크를 보정하는 방법 및 장치는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 추정된 영역과 가상 컨텐츠 객체를 기초로, 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 가상 컨텐츠 객체와 컨실러 영상을 합성하여 크로스토크를 보정한다.

Description

크로스토크를 보정하는 방법 및 장치{METHOD AND APPARATUS OF CORRECTING CROSSTALK}
아래의 실시예들은 크로스토크를 보정하는 방법 및 장치에 관한 것이다.
양안 시점에 각각의 영상을 조사하여 3D 입체감을 느낄 수 있는 스테레오(stereo) 방식은 양안에 정확한 그래픽 정보가 들어가면 문제가 없지만, 빛 번짐 등의 물리적인 현상으로 양안에 정확한 그래픽이 조사되지 않으면 3D 크로스토크(crosstalk)가 발생할 수 있다. 예를 들어, 무안경 3D 디스플레이에서 빛 번짐과 같은 광학 현상으로 인해 스테레오 영상이 불완전하게 분리되어 정확한 증강 현실(Augmented Reality; AR) 그래픽이 양쪽 눈에 조사되지 않는 경우, 사용자는 3D 입체 효과를 느끼지 못하게 된다. 이러한 3D 크로스토크를 줄이기 위한 방법으로서 예를 들어, 영상을 흐리게 하거나, 또는 영상의 밝기를 낮추는 방법 등이 이용될 수 있다. 하지만, 전술한 방법들은 모두 영상 품질을 저하시키는 문제가 있다.
위에서 설명한 배경기술은 발명자가 본원의 개시 내용을 도출하는 과정에서 보유하거나 습득한 것으로서, 반드시 본 출원 전에 일반 공중에 공개된 공지기술이라고 할 수는 없다.
일 실시예에 따르면, 크로스토크를 보정하는 방법은 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(virtual image)의 위치 간의 3차원 위치 관계를 기초로, 크로스토크(crosstalk)가 발생할 영역을 추정하는 단계; 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상(concealer image)을 생성하는 단계; 및 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 단계를 포함한다.
상기 컨실러 영상을 생성하는 단계는 상기 컨실러 영상의 잔상 범위(afterimage range), 콘트라스트(contrast), 및 밝기(brightness) 중 적어도 하나의 효과 요소(effect element)를 조절하는 단계를 포함할 수 있다.
상기 적어도 하나의 효과 요소를 조절하는 단계는 상기 3차원 위치 관계를 기초로, 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 조절하는 단계; 상기 3차원 위치 관계를 기초로, 상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 단계; 및 주변 환경의 조도(illumination)를 기초로, 상기 컨실러 영상의 밝기를 조절하는 단계 중 적어도 하나 또는 이들의 조합을 포함할 수 있다.
상기 컨실러 영상의 잔상 범위를 조절하는 단계는 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리 보다 멀어질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 확장시키는 단계; 및 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 축소시키는 단계를 포함할 수 있다.
상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 단계는 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절하는 단계; 및 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절하는 단계를 포함할 수 있다.
상기 컨실러 영상의 밝기를 조절하는 단계는 상기 조도가 기준 조도보다 높아질수록 상기 컨실러 영상의 밝기를 점진적으로 어둡게 조절하는 단계; 및 상기 조도가 상기 기준 조도보다 낮아질수록 상기 컨실러 영상의 밝기를 점진적으로 밝게 조절하는 단계를 포함할 수 있다.
상기 컨실러 영상을 생성하는 단계는 상기 가상 컨텐츠 객체의 형태에 대응되도록 상기 가상 컨텐츠 객체를 블러(blur) 시킴으로써 상기 컨실러 영상을 생성하는 단계를 포함할 수 있다.
상기 컨실러 영상을 생성하는 단계는 상기 가상 컨텐츠 객체를 블러시킨 블러 영상(blurred image)을 생성하는 단계; 및 상기 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절하는 단계를 포함할 수 있다.
상기 블러 영상을 생성하는 단계는 상기 3차원 위치 관계를 기초로 상기 가상 컨텐츠 객체를 확장시킨 형태에 대응되도록 상기 블러 영상을 생성하는 단계를 포함할 수 있다.
상기 블러 영상을 생성하는 단계는 상기 가상 컨텐츠 객체의 형태를 기초로, 상기 사용자 양안 중 좌안에 대응하는 제1 블러 영상 및 우안에 대응하는 제2 블러 영상을 생성하는 단계; 및 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는 단계를 포함할 수 있다.
상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는 단계는 상기 제1 블러 영상 및 상기 제2 블러 영상을 상기 사용자 양안의 시차(disparity)에 기초한 간격만큼 이격시키는 단계; 및 상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는 단계를 포함할 수 있다.
상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는 단계는 상기 이격된 상기 제1 블러 영상과 상기 제2 블러 영상을 보간(interpolation)하여 상기 블러 영상을 생성하는 단계를 포함할 수 있다.
상기 가상 컨텐츠 객체를 포함하는 3차원 공간 상에 상기 컨실러 영상을 배치하는 단계; 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 함께 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하는 단계; 및 상기 좌안 영상과 상기 우안 영상을 투사하는 단계를 포함할 수 있다.
상기 크로스토크를 보정하는 단계는 상기 가상 컨텐츠 객체를 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하는 단계; 및 상기 좌안 영상, 상기 우안 영상, 및 상기 컨실러 영상을 투사하는 단계를 포함할 수 있다.
상기 크로스토크가 발생할 영역을 추정하는 단계는 상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역을 추정하는 단계를 포함할 수 있다.
상기 크로스토크가 발생할 영역을 추정하는 단계는 상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역의 잔상 범위를 조절함으로써 상기 크로스토크가 발생할 영역을 추정하는 단계를 포함할 수 있다.
상기 크로스토크를 보정하는 방법은 상기 가상 컨텐츠 객체의 위치 이동을 감지하는 단계를 더 포함하고, 상기 크로스토크가 발생할 영역을 추정하는 단계는 상기 위치 이동에 따라 변경된 상기 3차원 위치 관계 및 상기 사용자 양안의 시차 중 적어도 하나를 기초로, 상기 크로스토크가 발생할 영역을 추정하는 단계를 포함할 수 있다.
상기 크로스토크가 발생할 영역은 상기 컨실러 영상을 배치시킬 위치 및 범위에 대응될 수 있다.
일 실시예에 따르면, 크로스토크를 보정하는 장치는 사용자 양안의 위치를 감지하는 센서; 및 상기 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서를 포함한다.
상기 프로세서는 상기 컨실러 영상의 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절할 수 있다.
상기 프로세서는 상기 3차원 위치 관계를 기초로, 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 조절하는 동작, 상기 3차원 위치 관계를 기초로, 상기 컨실러 영상의 콘트라스트를 조절하는 동작, 및 주변 환경의 조도를 기초로, 상기 컨실러 영상의 밝기를 조절하는 동작 중 적어도 하나 또는 이들의 조합을 수행할 수 있다.
상기 프로세서는 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 확장시키고, 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 축소시킬 수 있다.
상기 프로세서는 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절하고, 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절할 수 있다.
상기 프로세서는 상기 조도가 기준 조도보다 높아질수록 상기 컨실러 영상의 밝기를 점진적으로 어둡게 조절하고, 상기 조도가 상기 기준 조도보다 낮아질수록 상기 컨실러 영상의 밝기를 점진적으로 밝게 조절할 수 있다.
상기 프로세서는 상기 가상 컨텐츠 객체의 형태에 대응되도록 상기 가상 컨텐츠 객체를 블러 시킴으로써 상기 컨실러 영상을 생성할 수 있다.
상기 프로세서는 상기 가상 컨텐츠 객체를 블러시킨 블러 영상을 생성하고, 상기 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절할 수 있다.
상기 프로세서는 상기 3차원 위치 관계를 기초로 상기 가상 컨텐츠 객체를 확장시킨 형태에 대응되도록 상기 블러 영상을 생성할 수 있다.
상기 프로세서는 상기 가상 컨텐츠 객체의 형태를 기초로, 상기 사용자 양안 중 좌안에 대응하는 제1 블러 영상 및 우안에 대응하는 제2 블러 영상을 생성하고, 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성할 수 있다.
상기 프로세서는 상기 제1 블러 영상 및 상기 제2 블러 영상을 상기 사용자 양안의 시차에 기초한 간격만큼 이격시키고, 상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합할 수 있다.
상기 프로세서는 상기 이격된 상기 제1 블러 영상과 상기 제2 블러 영상을 보간하여 상기 블러 영상을 생성할 수 있다.
상기 프로세서는 상기 가상 컨텐츠 객체를 포함하는 3차원 공간 상에 상기 컨실러 영상을 배치하고, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 함께 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하며, 상기 좌안 영상과 상기 우안 영상을 투사할 수 있다.
상기 프로세서는 상기 가상 컨텐츠 객체를 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하고, 상기 좌안 영상, 상기 우안 영상, 및 상기 컨실러 영상을 투사할 수 있다.
상기 프로세서는 상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역을 추정할 수 있다.
상기 프로세서는 상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역의 잔상 범위를 조절함으로써 상기 크로스토크가 발생할 영역을 추정할 수 있다.
상기 프로세서는 상기 가상 컨텐츠 객체의 위치 이동을 감지하고, 상기 위치 이동에 따라 변경된 상기 3차원 위치 관계 및 상기 사용자 양안의 시차 중 적어도 하나를 기초로, 상기 크로스토크가 발생할 영역을 추정할 수 있다.
상기 크로스토크가 발생할 영역은 상기 컨실러 영상을 배치시킬 위치 및 범위에 대응될 수 있다.
일 실시예에 따르면, 컨텐츠 시각화 장치는 가상 컨텐츠 객체를 프로젝션 평면에 투사하여 시각화하는 디스플레이; 및 사용자 양안의 위치와 상기 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서를 포함한다.
일 실시예에 따르면, 증강 현실 안경(Augmented Reality glass, AR glass) 장치는 가상 컨텐츠 객체를 시각화 하는 투명 디스플레이; 및 사용자 양안의 위치와 상기 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서를 포함한다.
일 실시예에 따르면, 차량은 상기 차량의 위치를 센싱하는 센서; 사용자에게 제공할 가상 컨텐츠 객체를 프로젝션 평면에 시각화하는 헤드업 디스플레이(head-up display, HUD); 및 상기 차량의 위치에 기초하여 상기 가상 컨텐츠 객체를 결정하고, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서를 포함한다.
도 1은 일 실시예에 따라 크로스토크를 보정하는 방법을 개념적으로 설명하기 위한 도면.
도 2는 일 실시예에 따른 가상 컨텐츠 객체의 예시를 설명하는 도면.
도 3은 일 실시예에 따른 크로스토크를 보정하는 장치의 구성을 도시한 블록도.
도 4는 일 실시예에 따라 크로스토크가 보정된 가상 컨텐츠 객체를 표시하는 헤드업 디스플레이(Head Up Display, HUD)의 구성을 도시한 블록도.
도 5는 일 실시예에 따른 크로스토크를 보정하는 방법을 나타낸 흐름도.
도 6은 일 실시예에 따른 크로스토크를 보정하는 방법을 설명하기 위한 도면.
도 7은 일 실시예에 따라 컨실러 영상을 생성하는 방법을 나타낸 흐름도.
도 8은 일 실시예에 따라 블러 영상을 생성하는 방법을 설명하기 위한 도면.
도 9는 일 실시예에 따라 사용자 양안과 가상 컨텐츠 객체와의 거리가 멀어질수록 시차가 증가하는 원리를 도시한 도면.
도 10 내지 도 12는 실시예들에 따라 적어도 하나의 효과 요소를 조절하는 방법을 설명하기 위한 도면.
도 13은 다른 실시예에 따라 크로스토크를 보정하는 방법을 나타낸 흐름도.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 일 실시예에 따라 크로스토크를 보정하는 방법을 개념적으로 설명하기 위한 도면이다. 도 1을 참조하면, 무안경 3D 디스플레이에서 시각화 하고자 하는 대상(101)에 대해 사용자 양안에 정확한 그래픽 정보가 조사되지 않음으로써 가상 화면(virtual screen)(110)에서 시각화되는 가상 컨텐츠 객체(130)의 주변에 발생하는 크로스토크(140)가 도시된다.
예를 들어, 가상 화면(110)에서 사용자의 좌안에 제공되는 좌안 영상(112)과 사용자의 우안에 제공되는 우안 영상(114)을 통해 시각화 하고자 하는 대상(101)의 허상(120)이 시각화될 수 있다. 이때, 빛 번짐과 같은 광학 현상으로 인해 스테레오 영상이 불완전하게 분리되어 좌안 영상(112)이 사용자의 우안으로 제공되고, 우안 영상(114)이 사용자의 좌안에 제공되면, 가상 화면(110)에 표시되는 가상 컨텐츠 객체(130)의 주변에 좌안 영상(112)과 우안 영상(114)이 겹쳐짐으로 인해 크로스토크(140)가 발생할 수 있다. 이때, 가상 화면(110)은 예를 들어, 무안경 3D 디스플레이 또는 헤드 업(Head Up Display; HUD)의 가상 화면이거나, 또는 증강 현실 안경 장치와 같은 증강 현실 장치의 투명 디스플레이의 가상 화면일 수 있으며, 반드시 이에 한정되지는 않는다. 가상 컨텐츠 객체(130) 및 가상 컨텐츠 객체(130)가 시각화되는 공간에 대하여는 아래 도 2를 참조하여 보다 구체적으로 설명한다.
일 실시예에서는 가상 컨텐츠 객체(130)의 주변에 크로스토크(140)의 발생 부위만큼 렌더링(rendering)한 영상(150)를 붙여 크로스토크(140) 발생 부위를 커버할 수 있다. 크로스토크의 발생 부위만큼 렌더링한 영상(150)은 크로스토크 발생 부위를 감추거나 숨긴다는 의미에서 '컨실러 영상(concealer image)'이라고 부를 수 있다. 이하, 크로스토크의 발생 부위만큼 렌더링한 영상(150)과 컨실러 영상은 동일한 의미로 이해될 수 있다.
일 실시예에서는 예를 들어, 가상 컨텐츠 객체(140)의 색상에서 힌트를 얻어 컨실러 영상(150)을 생성함으로써 컨실러 영상(150)에 의해 크로스토크가 발생한 영역이 주변과의 위화감 없이 자연스럽게 커버되도록 할 수 있다. 컨실러 영상을 생성하는 방법은 아래의 도 7 내지 도 8을 참조하여 보다 구체적으로 설명한다.
또한, 일 실시예에서는 컨실러 영상(150)에 대한 거리 별 밝기, 넓이, 실외 휘도, HUD의 밝기, 색상 등과 같은 다양한 효과 요소(effect element)를 조절하여 크로스토크(140)의 발생 부분을 덮음으로써 크로스토크(140)의 잔상을 상쇄할 수 있다. 이때, 효과 요소는 크로스토크(140)의 발생 부분을 덮는 한편, 주변과의 위화감을 줄이기 위해 컨실러 영상(150)에 글로우 효과(glow effect)를 제공하기 위한 것일 수 있다.
컨실러 영상(150)의 범위는 예를 들어, 가상 화면(110)에서 시각화되는 가상 컨텐츠 객체의 허상(120)의 위치와 사용자 양안의 위치 간의 거리에 따른 시차(disparity)의 변화량에 따라 결정될 수 있다. 가상 컨텐츠 객체의 허상(120)의 위치와 사용자 양안의 위치 간의 거리와 시차의 관계는 아래의 도 9를 참조하여 보다 구체적으로 설명한다.
또한, 컨실러 영상(150)의 밝기 레벨은 예를 들어, 외부 환경의 조도와 가상 화면(110)의 밝기에 따라 조정될 수 있다. 일 실시예에서는 컨실러 영상(150)의 효과 요소를 다양하게 조절함으로써 가상 화면(110)에서 발생하는 크로스토크(140)를 제거하는 한편, 가상 화면(110)의 밝기와 선명도를 최적화할 수 있다. 일 실시예에 따라 효과 요소를 조절하는 방법은 아래의 도 10 내지 도 12를 참조하여 보다 구체적으로 설명한다.
도 2는 일 실시예에 따른 가상 컨텐츠 객체의 예시를 설명하는 도면이다. 도 2를 참조하면, 객체 배치 공간(210) 내의 임의의 위치에 가상 컨텐츠 객체(221)가 시각화된 결과가 도시된다. 이하, 설명의 편의를 위하여 가상 컨텐츠 객체(221)의 허상이 표시되는 프로젝션 패널이 헤드업 디스플레이인 경우를 예로 들어 설명하지만, 반드시 이에 한정되는 것은 아니며, 이외에 증강 현실 안경 장치의 투명 디스플레이 등과 같은 다양한 프로젝션 패널에 가상 컨텐츠 객체(221)가 시각화될 수 있다.
일 실시예에 따른 크로스토크를 보정하는 장치(이하, '보정 장치')는 가상 컨텐츠 객체와 컨실러 영상을 합성하여 크로스토크를 보정하고, 크로스토크가 보정된 가상 컨텐츠 객체를 시각화할 수 있다. 가상 컨텐츠 객체는 컨텐츠에 대응하는 그래픽 객체를 나타낼 수 있다. 가상 컨텐츠 객체는 예를 들어, 화살표 형태의 경로 안내 컨텐츠(221)에 대응하는 그래픽 객체를 포함할 수 있다.
예를 들어, 보정 장치는 객체 배치 공간(210) 내의 임의의 위치에 그래픽 객체를 배치하고, 시각화할 수 있다. 보정 장치는 사용자의 좌안에 좌안 영상을 제공하고, 사용자의 우안에 우안 영상을 제공함으로써, 그래픽 객체를 입체적으로 제공할 수 있다. 좌안 영상 및 우안 영상은 서로에 대해 수평축을 따라 깊이에 따른 사용자 양안의 시차만큼 이격된 그래픽 객체를 포함할 수 있다. 따라서 사용자는 입체적으로 렌더링된 그래픽 객체의 깊이감을 인식할 수 있다.
다만, 전술한 것과 같이 좌안 영상이 사용자의 우안으로 제공되고, 우안 영상이 사용자의 좌안에 잘못 제공되는 경우, 좌안 영상과 우안 영상이 겹쳐짐으로써 크로스토크가 발생할 수 있다.
이 경우, 보정 장치는 도 1을 통해 전술한 것과 같이 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상과 가상 컨텐츠 객체를 합성함으로써 크로스토크를 보정할 수 있다. 이를 위한 보정 장치의 구성의 일 예시는 아래의 도 3 내지 도 4를 참조하여 구체적으로 설명한다. 또한, 보정 장치가 크로스토크를 보정하는 방법은 아래의 도 5를 참조하여 구체적으로 설명한다.
이하에서는 크로스토크를 보정하는 방법에 앞서, 가상 컨텐츠 객체 및 가상 컨텐츠 객체가 시각화되는 공간에 대해 먼저 살펴보기로 한다.
객체 배치 공간(210)은 그래픽 객체가 배치될 수 있는 3차원 공간에 해당할 수 있다. 객체 배치 공간(210)은 깊이를 가지는 그래픽 객체가 입체적으로 시각화될 수 있는 공간을 나타낼 수 있다. 객체 배치 공간(210)에 속하는 각 지점의 좌표는 물리적 세계(physical world)의 위치 좌표와 동일하거나 유사한 스케일로 매핑될 수 있다. 객체 배치 공간(210)의 경계(boundary)는 헤드업 디스플레이의 구조에 따라 결정될 수 있다. 예를 들어, 보정 장치는 헤드업 디스플레이의 구조에 따라 결정된 최소 깊이(예를 들어, 최소 거리)로부터 최대 깊이(예를 들어, 최대 거리)까지의 공간 내에서 그래픽 객체를 시각화할 수 있다.
객체 배치 공간(210)은 사용자의 시야에 대응하는 공간에 기초하여 결정될 수 있다. 객체 배치 공간(210)의 형태 및 크기는 아이 박스(290)(eye box)의 크기 및 헤드업 디스플레이에 의해 제공될 수 있는 시야각(FOV, field of view)에 기초하여 결정될 수 있다. 객체 배치 공간(210)은, 예를 들어, 사각뿔(rectangular cone) 형태로서, 아이 박스(290)로부터 시야각에 대응하여 확장되는 형태의 공간일 수 있다. 아이 박스(290)는 사용자의 양안(both eyes)이 위치하는 것으로 설정된 영역을 나타낼 수 있다. 아이 박스(290)의 위치는 고정될 수 있으나, 반드시 이에 한정되는 것은 아니고, 사용자에 대해 검출되는 눈의 위치에 따라 변경될 수도 있다. 객체 배치 공간(210)의 형태 또한 사각뿔 형태로 한정되는 것은 아니고, 설계에 따라 변경될 수 있다.
일 실시예에 따른 보정 장치는, 윈드 쉴드 글래스(wind shield glass)(280) 너머로 객체 배치 공간(210) 내 표시 위치에, 다양한 종류의 그래픽 표현을 시각화 할 수 있고, 서로 다른 종류의 그래픽 표현은 서로 다른 객체 배치 공간(210)에 시각화 할 수 있도록 구현할 수 있다.
객체 배치 공간(210) 내에 표시 가능한 그래픽 표현의 종류는 예를 들어 경로 안내 컨텐츠(221), 경로 지시선(222), 및 경고 컨텐츠(223) 등을 포함할 수 있다. 이 외에도 객체 배치 공간(210) 내에 표시 가능한 그래픽 표현의 종류는 다양한 형태로 변경 및 실시 가능하다.
사용자는 객체 배치 공간(210) 내 표시 위치에 대응하는 물리적 위치에 해당 그래픽 표현들이 존재한다고 인식할 수 있다. 상술한 바와 같이, 객체 배치 공간(210)의 각 좌표는 물리적 좌표와 일대일로 매핑될 수 있다. 또한, 가상 컨텐츠 객체는 해당 형태만큼의 공간을 차지할 수 있다. 예를 들어, 가상 컨텐츠 객체는 객체 배치 공간(210) 내 일부 공간을 차지할 수 있다.
경로 안내 컨텐츠(221)는 목적지까지의 경로를 진행하기 위해 제공되어야 하는 경로 안내 정보가 시각화된 컨텐츠로서, 예를 들어, 사용자가 직진해야 하는 거리를 지시하는 숫자 및 문자, 갈림길에서 방향 전환(예를 들어, 좌회전 및 우회전 등)을 지시하는 화살표, 현재 주행 중인 도로(270)에서의 제한 속도, 현재 주행 중인 위치의 지역명, 및 도로명 등을 포함할 수 있다. 경로 안내 정보는 사용자에 의해 설정된 경로에 따른 사용자의 이동을 안내하는 정보 및 해당 경로와 연관된 정보를 나타낼 수 있다. 예를 들어, 경로 안내 정보는 사용자가 직진해야 하는 거리(distance), 갈림길에서 방향 전환(turn) 등을 포함할 수 있다. 경로는 출발지로부터 목적지까지 사용자가 통과해야 하는 길(path)을 나타낼 수 있다. 또한, 경로 안내 정보는 목적지까지의 경로와 연관된 정보로서, 경로에 포함되는 도로(270)의 위치, 지역, 명칭, 속성, 및 안전 정보(예를 들어, 제한 속도, 공사 정보, 및 사고 정보 등)를 포함할 수 있다. 경로 지시선(222)은 목적지까지의 경로를 지시하는 선이고, 경로 안내 컨텐츠(221)와 구별되는 형태의 경로 안내 정보로서 시각화될 수 있다. 경고 컨텐츠(223)는 현재 주행환경에서 필요한 경우 사용자에게 주어져야 하는 경고 메시지를 포함할 수 있다.
또한, 일 실시예에 따른 보정 장치는 센서(예를 들어, 카메라 센서, GNSS 모듈, 레이더 센서 및 LIDAR 센서 등)를 이용하여, 차량의 위치를 추정할 수 있다. 보정 장치는 차량의 위치로부터 운전자의 눈 위치만큼의 오차 간격을 고려하여, 경로 안내 컨텐츠(221)에 대응하는 그래픽 객체를 실제 도로(270)에 정합하여 시각화할 수 있다. HD(High Definition) 맵 데이터가 사용되는 경우, 보정 장치는 보다 정확한 위치에 경로 안내 컨텐츠(221)를 정합할 수 있다. 이러한 정합을 통해, 운전자의 심리적 안정감을 개선할 수 있다.
이하, 본 명세서에서는 설명의 편의를 위하여, 가상 컨텐츠 객체의 일 예시에 해당하는 경로 안내 컨텐츠(221)에 대해 발생한 크로스토크의 보정을 설명하나, 반드시 이에 한정되는 것은 아니다. 일 실시예에 따른 크로스토크의 보정 및 컨텐츠 시각화는 객체 배치 공간 내에 시각화되는 모든 그래픽 객체에 적용될 수 있다.
도 3은 일 실시예에 따른 크로스토크를 보정하는 장치의 구성을 도시한 블록도이다. 도 3을 참조하면, 일 실시예에 따른 크로스토크를 보정하는 장치(이하, '보정 장치')(300)는 센서(310) 및 프로세서(330)를 포함한다. 보정 장치(300)는 메모리(350), 디스플레이(370) 및 통신 인터페이스(290)를 포함한다.
센서(310)는 사용자 양안의 위치를 감지한다. 센서(310)는 예를 들어, 눈 추적기(eye tracker) 또는 홍채 인식 센서일 수 있다. 또한, 센서(310)는 컨텐츠의 시각화를 위해 필요한 정보를 감지할 수 있다. 일 실시예에 따르면, 센서(310)는 사용자의 주변에 위치하는 객체까지의 거리를 측정할 수 있고, 예를 들어, 라이다(LIDAR, Light Detection and Ranging) 및 레이더(RADAR, Radio Detection and Ranging) 등을 포함할 수 있다. 또한, 센서(310)는 보정 장치(300)가 장착된 기기의 상태와 관련된 정보를 센싱할 수 있다. 예를 들어, 차량에 장착된 경우, 센서(310)는 차량과 관련된 정보를 센싱할 수 있으며, 차량과 관련된 정보는 차량의 위치 정보, 차량의 위치에 대응하는 도로 정보, 및 차량의 주행 관련 정보 등을 포함할 수 있다. 여기서 주행 관련 정보는 차량의 주행과 관련된 정보로서, 예를 들어, 차량의 속도, 가속도, 위치, 연료, 및 정비와 관련된 정보일 수 있다. 또한, 센서(310)는 차량 내부를 촬영하는 내부 센서를 포함할 수도 있다. 내부 센서는 카메라 센서(예를 들어, 컬러 카메라), 적외선 센서, 깊이 센서, 및 열화상 센서 등일 수 있으나, 반드시 이에 한정되는 것은 아니다. 내부 센서는 차량 내 사용자의 눈과 관련된 정보를 획득할 수 있고, 프로세서(330)가 사용자의 눈 위치를 결정하여 객체 배치 공간의 설정 및 입체 영상(예를 들어, 좌영상 및 우영상의 쌍)의 시각화에 이용하도록 할 수도 있다.
차량의 위치 정보는 차량이 위치하는 현재 좌표일 수 있으며, 현재 차량이 주행 중인 차로 정보까지 지시할 수 있다. 예를 들어, 센서(310)는 GNSS(Global Navigation Satellite System)를 통해 차량의 2차원 좌표를 획득할 수 있다. 또한, 센서(310)는 차량의 전방에 대한 전방 영상을 획득할 수 있고, 프로세서(330)가 전방 영상으로부터 도로를 구성하는 복수의 차로들 중 현재 차량이 주행 중인 차로(ego lane)를 결정할 수 있다. 다만, 반드시 이에 한정되는 것은 아니고, 프로세서(330)는 센서(310)로부터 수집된 영상에 기초하여, 현재 차량의 위치를 추정할 수도 있다.
도로 정보는 도로의 폭, 도로를 구성하는 차로(lane)의 개수, 차로의 폭, 중앙선(center line), 방향 전환 지점(turn point), 교통 신호(traffic signal) 및 기타 교통(traffic)과 관련된 정보 중 하나 이상을 포함할 수 있다.
센서(310)는 예를 들어, 다양한 유형의 센서들을 포함하는 센서 모듈일 수 있다.
프로세서(330)는 센서(310)에 의해 감지된 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정한다. 프로세서(330)는 추정된 영역과 가상 컨텐츠 객체를 기초로, 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성한다. 프로세서(330)는 가상 컨텐츠 객체와 컨실러 영상을 합성하여 크로스토크를 보정한다. 프로세서(330)는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 직접 산출할 수도 있고, 또는 통신 인터페이스(390)를 통해 외부로부터 수신할 수도 있다. 이때, 3차원 위치 관계는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리(distance)를 포함하는 것으로 이해될 수 있다.
또한, 프로세서(330)는 디스플레이(370)를 통해 시각화되는 컨텐츠를 생성할 수 있다. 일 실시예에 따르면 프로세서(330)는 추정된 전방 도로 영역에 기초하여 객체 배치 공간을 생성할 수 있다. 프로세서(330)는 객체 배치 공간에 배치된 가상 컨텐츠 객체를 프로젝션 평면에 투사된 형태로 렌더링하여 디스플레이(370)를 통해 사용자에게 제공할 수 있다. 프로세서(330)는 가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 가상 컨텐츠 객체를 조정할 수도 있다. 예를 들어, 프로세서(330)는 임의의 기준점 및 기준 축에 기초하여 가상 컨텐츠 객체를 변형(deform)시키거나 회전(rotate)시킬 수 있다. 다만, 프로세서(330)의 동작을 상술한 바로 한정하는 것은 아니고, 프로세서(330)는 아래 도 4 내지 도 13에서 설명된 동작들 중 적어도 하나와 함께 상술한 동작을 수행할 수도 있다. 프로세서(330)의 보다 구체적인 동작은 아래 도 4 내지 도 13을 통해 설명한다.
프로세서(330)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 영상 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 보정 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(Central Processing Unit; CPU), 그래픽 처리 장치(Graphic Processing Unit; GPU), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array), NPU(Neural Processing Unit) 등을 포함할 수 있다.
프로세서(330)는 프로그램을 실행하고, 보정 장치(300)를 제어할 수 있다. 프로세서(330)에 의하여 실행되는 프로그램 코드는 메모리(350)에 저장될 수 있다.
메모리(350)는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리를 포함하는 3차원 위치 관계 및/또는 프로세서(330)가 추정한 크로스토크가 발생할 영역에 대한 정보를 저장할 수 있다. 또한, 메모리(350)는 컨실러 영상 및/또는 가상 컨텐츠 객체와 컨실러 영상을 합성한 결과 영상을 저장할 수 있다.
이 밖에도, 메모리(350)는 프로세서(330)가 생성한 컨텐츠 시각화에 요구되는 정보를 임시적으로 또는 영구적으로 저장할 수 있다. 예를 들어, 메모리(350)는 프로세서(330)에 의해 실행되어 아래 도 4 내지 도 13에 따른 동작을 수행하기 위한 명령어들을 저장할 수 있다. 또한, 메모리(350)는 가상 컨텐츠 객체, 경로 안내 정보, 및 맵 데이터베이스 등을 저장할 수도 있다. 맵 데이터베이스는 맵 데이터를 저장하는 데이터베이스를 나타낼 수 있다. 맵 데이터베이스는 예를 들어, HD(high definition) 맵 데이터를 저장할 수도 있다. HD 맵 데이터는, 예를 들어, 차로 개수, 차로의 폭, 및 중심선의 위치 등과 같은 정밀 데이터(fine data)에 관한 정보를 포함할 수 있다.
디스플레이(370)는 크로스토크가 보정된 가상 컨텐츠 객체를 시각화하여 사용자에게 제공할 수 있다. 디스플레이(370)는 가상 컨텐츠 객체를 프로젝션 평면에 투사하여 시각화할 수 있다. 일 실시예에 따르면 디스플레이(370)는 헤드업 디스플레이일 수 있고, 사용자의 전방에 프로젝션 평면을 형성하여, 프로젝션 평면을 통해 컨텐츠를 사용자에게 제공할 수 있다. 실시예에 따라서, 디스플레이(370)는 증강 현실 안경(Augmented Reality glass, AR glass) 장치에 있어서, 가상 컨텐츠 객체를 시각화하는 투명 디스플레이일 수 있다. 실시예에 따라서, 투명 디스플레이는 크로스토크가 보정된 가상 컨텐츠 객체를 주변의 실제 환경에 하여 제공할 수 있다.
일 실시예에 따르면, 디스플레이(370)는 사용자의 좌안에 좌영상을 제공하고, 우안에 우영상을 제공할 수 있다. 예를 들어, 프로세서(210)가 운전자의 좌안에 대응하는 제1 그래픽 표현을 포함하는 좌영상 및 운전자의 우안에 대응하는 제2 그래픽 표현을 포함하는 우영상을 생성하면, 디스플레이(370)는 서로에 대해 시차를 가지도록 좌영상 및 우영상을 제공할 수 있다. 디스플레이(370)는, 좌영상에서 컨텐츠가 시각화된 그래픽 객체 및 우영상에서 컨텐츠가 시각화된 그래픽 객체를 양안 시차(binocular disparity)에 기초하여 이격시킴으로써, 깊이를 가지는 컨텐츠를 입체적인 그래픽 객체로 시각화하여 사용자에게 제공할 수 있다. 그래픽 객체의 각 픽셀마다 시차가 결정될 수 있고, 픽셀마다 깊이감이 표현될 수 있다. 예를 들어, 그래픽 객체에서 사용자에게 가까운 근위 부위(proximal part)에 대응하는 픽셀들은 좌안 영상 및 우안 영상에서 큰 시차만큼 이격될 수 있다. 반대로, 그래픽 객체에서 사용자로부터 먼 원위 부위(distal part)에 대응하는 픽셀들은 좌안 영상 및 우안 영상에서 작은 시차만큼 이격될 수 있다.
예를 들어, 디스플레이(370)는 프로세서(330)에 의해 결정된 표시 영역에 경로 안내 컨텐츠에 대응하는 그래픽 객체를 시각화할 수 있다. 사용자 양안의 위치는 상술한 센서(310)(예를 들어, 내부 센서)에 의해 측정되어 프로세서(330)에 제공될 수 있다. 사용자 양안의 위치는 차량이 이동하는 동안 항상 추적되어 운전자가 머리를 상하좌우로 이동하거나 좌석의 높낮이를 조절하더라도 컨텐츠가 입체적으로 전달될 수 있다.
통신 인터페이스(390)는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리를 포함하는 3차원 위치 관계를 보정 장치(300)의 외부로부터 수신할 수 있다. 또는 통신 인터페이스(390)는 프로세서(330)가 가상 컨텐츠 객체와 컨실러 영상을 합성한 결과 영상 및/또는 크로스토크가 보정된 가상 컨텐츠 객체를 프로젝션 평면에서 시각화한 결과 영상을 보정 장치(300)의 외부로 출력할 수 있다.
일 실시예에 따른 보정 장치(300)는 예를 들어, 첨단 운전자 보조 시스템(Advanced Drivers Assistance System; ADAS), HUD(Head Up Display) 장치, 3D 디지털 정보 디스플레이(Digital Information Display, DID), 내비게이션 장치, 뉴로모픽 장치(neuromorphic device), 3D 모바일 기기, 스마트 폰, 스마트 TV, 스마트 차량, IoT(Internet of Things) 디바이스, 의료 디바이스, 및 계측 디바이스 등과 같이 다양한 분야의 장치에 해당할 수 있다. 여기서, 3D 모바일 기기는 예를 들어, 증강 현실(Augmented Reality; AR), 가상 현실(Virtual Reality; VR), 및/또는 혼합 현실(Mixed Reality; MR)을 표시하기 위한 디스플레이 장치, 머리 착용 디스플레이(Head Mounted Display; HMD) 및 얼굴 착용 디스플레이(Face Mounted Display; FMD) 등을 모두 포함하는 의미로 이해될 수 있다.
또는 일 실시예에 따른 보정 장치(300)는 차량용 3차원 헤드업 디스플레이 장치 및 차량의 주행 경로를 지시하는 내비게이션 장치 등으로 구현될 수 있다. 또한, 보정 장치(300)는 사용자에게 증강 현실을 제공하도록 구현될 수 있다. 예를 들어, 보정 장치(300)는 차량의 본네트 너머의 일정 범위(예를 들어, 차량으로부터 3.7m 내지 70m)의 깊이로 컨텐츠를 디스플레이할 수 있다. 다만, 보정 장치(300)의 어플리케이션을 반드시 이에 한정되는 것은 아니다.
도 4는 일 실시예에 따라 크로스토크가 보정된 가상 컨텐츠 객체를 표시하는 헤드업 디스플레이(HUD)의 구성을 도시한 블록도이다. 도 4를 참조하면, 일 실시예에 따른 보정 장치의 헤드업 디스플레이(HUD, head up display)의 구성을 도시한 블록도이다.
컨텐츠 시각화 시스템(400)은 사용자(490)에게 가상 컨텐츠 객체(461)를 제공하는 시스템으로써, 예를 들어, 보정 장치(410)가 장착된 기기일 수 있다.
보정 장치(410)는 센서(411), 프로세서(412), 및 헤드업 디스플레이(413)를 포함할 수 있다.
센서(411)는 전방에 존재하는 객체(object)를 검출할 수 있다. 예를 들어, 센서(411)는 전방에 존재하는 객체까지의 거리(distance)를 측정할 수 있다. 다만, 반드시 이에 한정되는 것은 아니고, 센서(411)는 차량의 주위에 존재하는 객체까지의 거리를 측정할 수 있고, 주변에 존재하는 객체까지의 거리를 지시하는 주변 거리 맵을 생성할 수 있다. 또한, 센서(411)는 차량의 전방, 후방, 좌측, 및 우측의 환경을 촬영하여 영상을 생성할 수 있다. 센서(411)는 GNSS와 같이 보정 장치(410)의 위치를 측정 및 추정하는 모듈을 포함할 수도 있다.
프로세서(412)는 사용자(490)에게 제공할 가상 컨텐츠 객체(461)를 획득할 수 있다. 가상 컨텐츠 객체(461)는 사용자에게 정보를 제공하기 위한 객체를 나타낼 수 있다. 또한, 프로세서(412)는 센서(411)에 의해 센싱된 주변 정보(예를 들어, 주변의 객체까지의 거리 및 객체를 포함하는 영상 등)를 분석하여, 객체를 모델링하거나, 객체의 위치를 검출하거나, 객체를 인식하는 동작 등을 수행할 수 있다. 다른 예를 들어, 프로세서(412)는 보정 장치(410)의 현재 위치를 결정할 수 있다. 프로세서(412)는 현재 위치 및 헤드업 디스플레이(413)의 시야각에 따른 객체 배치 공간에 기초하여, 사용자에게 제공할 가상 컨텐츠 객체(461)를 선택하여 로딩할 수도 있다.
헤드업 디스플레이(413)는 사용자(490)의 전방에 위치되는 사용자(490)의 가시 영역(visible region)에 가상 컨텐츠 객체(461)를 시각화할 수 있다. 예를 들어, 헤드업 디스플레이(413)는 사용자(490)의 전방에 배치되는 유리창(예를 들어, 차량의 윈드쉴드 글래스(windshield glass))에 가상 컨텐츠 객체(461)를 시각화할 수 있다. 헤드업 디스플레이(413)는 가상의 프로젝션 평면(450)을 형성할 수 있다. 프로젝션 평면(450)은 헤드업 디스플레이(413)에 의해 생성된 가상 컨텐츠 객체(461)를 포함하는 허상(virtual image)이 표시되는 평면을 나타낼 수 있다. 사용자(490)는 프로젝션 평면(450)에 허상이 배치된 것으로 인식할 수 있다. 프로젝션 평면(450)는 사용자(490)의 눈에 의해 관측될 수 있는(observable) 영역에 형성될 수 있다.
또한, 헤드업 디스플레이(413)는 프로젝션 평면(450)에 깊이를 가지는 사용자에게 제공할 가상 컨텐츠 객체(461)를 시각화할 수 있다. 예를 들어, 프로세서(412)는, 프로젝션 평면(450)을 기준으로 가상 컨텐츠 객체(461)가 시각화될 수 있는 깊이를 해당 객체를 구성하는 픽셀 별로 결정할 수 있고, 헤드업 디스플레이(413)는 결정된 깊이에 기초하여 사용자(490)를 기준으로 프로젝션 평면(450)으로부터 먼 깊이 또는 가까운 깊이를 가지도록 가상 컨텐츠 객체(461)를 시각화할 수 있다. 다시 말해, 가상 컨텐츠 객체(461)를 구성하는 픽셀 별로 양안 시차가 결정될 수 있다. 헤드업 디스플레이(413)는 가상 영역(360) 내에 해당하는 깊이를 가지는 가상 컨텐츠 객체(461)를 프로젝션 평면(450)에 시각화할 수 있다. 여기서, 프로세서(412)는 헤드업 디스플레이(413)의 광학계에 기초하여, 가상 컨텐츠 객체(461)를 3차원 그래픽 표현(graphic representation)으로 렌더링할 수 있다. 3차원 그래픽 표현은 깊이를 가지는 입체적인 그래픽 표현을 나타낼 수 있고, 아래에서는 그래픽 객체라고 나타낼 수 있다. 헤드업 디스플레이(413)는, 가상 컨텐츠 객체(461)가 가지는 깊이에 기초하여, 좌영상(left image) 및 우영상(right image)이 출력되는 프로젝션 평면(450)을 형성할 수 있고, 프로젝션 평면(450)을 통해 좌영상을 사용자(490)의 좌안(left eye)에, 우영상을 사용자(490)의 우안(right eye)에 제공할 수 있다. 따라서, 사용자(490)는 입체적으로 렌더링된 가상 컨텐츠 객체(461)의 깊이감을 인식할 수 있다.
일 실시예에 따른 헤드업 디스플레이(413)는 예를 들어, 화상 생성부(picture generation unit)(414), 폴드 거울(fold mirror)(415) 및 오목 거울(416)을 포함할 수 있다. 다만, 헤드업 디스플레이(413)의 구성을 반드시 이에 한정되는 것은 아니고, 설계에 따라 사용자(490)의 전방에 배치된 유리창으로의 투사를 통해 허상이 맺히는 프로젝션 평면(450)을 형성하는 다양한 구성요소를 포함할 수도 있다.
일 실시예에서는 보정 장치(410)가 차량에 장착된 예시를 중심으로 설명하지만, 반드시 이에 한정되는 것은 아니다. 예를 들어, 보정 장치(410)는 증강 현실 안경(AR glass, Augmented Reality glass) 및 혼합 현실(MR, mixed reality) 장치 등과 같이 현실과 가상의 정보를 결합시키는 기술에 적용될 수 있다.
일 실시예에 따른 보정 장치(410)는, 가상 컨텐츠 객체(461)의 깊이를 조절함으로써, 헤드업 디스플레이(413)에 의해 형성되는 프로젝션 평면(450)의 위치 변경 없이도, 연속적인 깊이를 표현할 수 있다. 또한, 보정 장치(410)는, 프로젝션 평면(450)의 위치를 변경할 필요가 없으므로, 헤드업 디스플레이(413)에 포함된 구성요소들에 대한 물리적인 조작을 요구하지 않는다. 보정 장치(410)가 차량에 장착된 경우, 보정 장치(410)는 운전자의 전방에 3차원 가상 컨텐츠 객체(461)를 동적으로 시각화할 수 있다. 도 4에 도시된 바와 같이, 사용자에 의해 관측되는 장면(scene)(491)은 실제 물리 사물 및 배경에 중첩되어 시각화되는 가상 컨텐츠 객체(461)를 포함할 수 있다.
일 실시예에 따른 보정 장치(410)는 보다 자연스럽게 시각화되도록 가상 컨텐츠 객체(461)에 대한 컨실러 영상의 적어도 하나의 효과 요소를 조절할 수 있다. 보정 장치(410)의 구체적인 동작은 아래의 도면들을 통해 보다 구체적으로 설명한다.
도 5는 일 실시예에 따른 크로스토크를 보정하는 방법을 나타낸 흐름도이고, 도 6은 일 실시예에 따른 크로스토크를 보정하는 방법을 설명하기 위한 도면이다. 도 5 및 도 6을 참조하면, 일 실시예에 따른 보정 장치가 단계(510) 내지 단계(530)를 통해 가상 컨텐츠 객체의 크로스토크를 보정하는 과정이 도시된다.
단계(510)에서, 보정 장치는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정한다. 여기서, '3차원 위치 관계'는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리를 포함하는 의미로 이해될 수 있다.
단계(510)에서 보정 장치는 사용자 양안의 시차 및 3차원 위치 관계를 기초로, 가상 화면(610)에서 도면(620)에 도시된 크로스토크가 발생할 영역(625)을 추정할 수 있다. 이때, 크로스토크가 발생할 영역(625)은 향후 크로스토크의 보정을 위해 컨실러 영상을 렌더링할 위치, 다시 말해 컨실러 영상을 배치시킬 위치 및 범위에 대응될 수 있다. 보정 장치는 사용자 양안의 시차 및 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역(625)의 잔상 범위를 조절함으로써 크로스토크가 발생할 영역을 추정할 수 있다. 보정 장치는 예를 들어, 사용자 양안의 위치와 허상의 위치 간의 거리가 미리 설정된 기준 거리보다 멀어질수록 잔상 범위를 점진적으로 확장시켜 크로스토크가 발생할 영역(625)을 추정할 수 있다. 또는 보정 장치는 사용자 양안의 위치와 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 잔상 범위를 점진적으로 축소시켜 크로스토크가 발생할 영역(625)을 추정할 수 있다.
또한, 보정 장치는 가상 컨텐츠 객체의 위치 이동을 감지할 수 있다. 이 경우, 보정 장치는 위치 이동에 따라 변경된 3차원 위치 관계 및 사용자 양안의 시차 중 적어도 하나를 기초로, 크로스토크가 발생할 영역(625)을 추정할 수 있다.
단계(520)에서, 보정 장치는 단계(510)에서 추정된 영역(625)과 가상 컨텐츠 객체(640)를 기초로, 크로스토크가 발생할 영역(625)을 보정하기 위한 컨실러 영상(concealer image)(630)을 생성한다. 보정 장치는 예를 들어, 가상 컨텐츠 객체(640)의 색상에 기초하여 컨실러 영상(630)을 생성할 수 있다. 보정 장치는 가상 컨텐츠 객체(640)의 형태에 대응되도록 가상 컨텐츠 객체를 블러(blur)시킴으로써 컨실러 영상(630)을 생성할 수 있다. 이때, 가상 컨텐츠 객체를 블러시키는 정도를 예를 들어, 주변 환경의 조도, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리를 포함하는 3차원 위치 관계 밝기, 가상 컨텐츠 객체(640)의 밝기 등에 의해 다양하게 조절될 수 있다.
또한, 보정 장치는 예를 들어, 컨실러 영상(630)의 잔상 범위(afterimage range), 콘트라스트(contrast), 및 밝기(brightness) 중 적어도 하나의 효과 요소(effect element)를 조절할 수 있다.
단계(520)에서, 보정 장치는 예를 들어, 3차원 위치 관계를 기초로, 가상 컨텐츠 객체의 크기에 대비되는 컨실러 영상(630)의 잔상 범위를 조절하거나, 또는 컨실러 영상(630)의 콘트라스트를 조절할 수 있다. 보정 장치는 주변 환경의 조도를 기초로, 컨실러 영상(630)의 밝기를 조절하거나, 또는 3차원 위치 관계 및 주변 환경의 조도를 기초로, 컨실러 영상(630)의 잔상 범위, 콘트라스트 및 밝기의 조합을 조절할 수 있다. 보정 장치가 컨실러 영상(630)을 생성하는 방법은 아래의 도 7 내지 도 12를 참조하여 보다 구체적으로 설명한다.
단계(530)에서, 보정 장치는 가상 컨텐츠 객체(640)와 컨실러 영상(630)을 합성하여 크로스토크를 보정한다. 보정 장치는 가상 컨텐츠 객체(640)와 컨실러 영상(630)을 합성하여 도면(650)과 같이 크로스토크가 발생한 영역(625)을 덮음으로써 크로스토크를 보정할 수 있다. 여기서, '합성'은 중첩(superposition)을 포함하는 의미로 이해될 수 있다.
일 실시예에 따르면, 보정 장치는 가상 컨텐츠 객체(640)를 포함하는 3차원 공간 상에 컨실러 영상(630)을 배치할 수 있다. 보정 장치는 가상 컨텐츠 객체(640)와 컨실러 영상(630)이 함께 중첩된 영상(650)을 렌더링 할 수 있다. 보정 장치는 렌더링 결과 생성되는 좌안 영상과 우안 영상을 시각화(예를 들어, 투사) 함으로써, 크로스토크가 보정된 가상 컨텐츠 객체를 사용자에게 제공할 수 있다.
다른 실시예에 따르면, 도면에 도시하지 않았으나, 보정 장치는 가상 컨텐츠 객체를 렌더링 할 수 있다. 보정 장치는 렌더링 결과 생성되는 좌안 영상 및 우안 영상을 컨실러 영상과 함께 중첩하여 시각화(예를 들어, 투사) 함으로써, 크로스토크가 보정된 가상 컨텐츠 객체를 사용자에게 제공할 수 있다.
도 7은 일 실시예에 따라 컨실러 영상을 생성하는 방법을 나타낸 흐름도이다. 도 7을 참조하면, 일 실시예에 따른 보정 장치가 단계(710) 내지 단계(720)를 통해 컨실러 영상의 적어도 하나의 효과 요소를 조절하는 과정이 도시된다.
단계(710)에서, 보정 장치는 가상 컨텐츠 객체를 블러시킨 블러 영상(blurred image)을 생성할 수 있다. 보정 장치가 블러 영상을 생성하는 방법은 아래의 도 8을 참조하여 보다 구체적으로 설명한다.
단계(720)에서, 보정 장치는 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절할 수 있다. 보정 장치가 적어도 하나의 효과 요소를 조절하는 방법은 아래의 도 10 내지 도 12를 참조하여 보다 구체적으로 설명한다.
도 8은 일 실시예에 따라 블러 영상을 생성하는 방법을 설명하기 위한 도면이다. 도 8을 참조하면, 일 실시예에 따라 가상 컨텐츠 객체의 고유 형태에 기초하여 블러시킨 블러 영상들(813, 815, 823, 835)과 가상 컨텐츠 객체가 합성된 결과 영상들(810, 820, 830)이 도시된다.
보정 장치는 예를 들어, 결과 영상(810)과 같이 가상 컨텐츠 객체(811)의 고유 형태(예를 들어, 삼각형 형태)가 유지되도록 블러 영상(813, 815)을 생성하여 가상 컨텐츠 객체(811)와 합성할 수 있다. 보정 장치는 가상 컨텐츠 객체(811)의 형태를 기초로, 사용자 양안 중 좌안에 대응하는 제1 블러 영상(813) 및 우안에 대응하는 제2 블러 영상(815)을 생성할 수 있다. 이때, 제1 블러 영상(813)과 제2 블러 영상(815) 각각은 가상 컨텐츠 객체(811)의 고유 형태에 대응될 수 있다.
보정 장치는 제1 블러 영상(813) 및 제2 블러 영상(815)을 결합하여 블러 영상을 생성할 수 있다. 보정 장치는 제1 블러 영상(813) 및 제2 블러 영상(815)을 예를 들어, 사용자 양안의 시차에 기초한 간격만큼 이격시킬 수 있다. 보정 장치는 이격된 간격이 유지되도록 제1 블러 영상(813) 및 제2 블러 영상(815)을 결합할 수 있다. 이때, 사용자 양안의 시차에 따라 제1 블러 영상(813) 및 제2 블러 영상(815)은 일부가 중첩될 수도 있고, 또는 제1 블러 영상(813) 및 제2 블러 영상(815)이 이격될 수도 있다.
보정 장치는 사용자 양안의 시차에 따라 결과 영상(810)과 같이 제1 블러 영상(813) 및 제2 블러 영상(815)을 결합한 블러 영상을 컨실러 영상으로 결정하고, 가상 컨텐츠 객체(811)와 합성하여 크로스토크를 보정할 수 있다. 사용자 양안과 시차 간의 관계는 아래의 도 9를 참조하여 보다 구체적으로 설명한다.
또는, 보정 장치는 결과 영상(820)과 같이 가상 컨텐츠 객체(821)의 고유 형태를 확장시킨 형태로 생성된 블러 영상(823)과 가상 컨텐츠 객체(821)를 합성할 수 있다. 보정 장치는 사용자 양안의 위치와 가상 컨텐츠 객체(821)의 허상의 위치 간의 거리를 포함하는 3차원 위치 관계를 기초로 가상 컨텐츠 객체(821)를 상,하, 좌, 우로 확장시킬 수 있다. 보정 장치는 3차원 위치 관계를 기초로 예를 들어, 결과 영상(820)에 도시된 것과 같이 가상 컨텐츠 객체(821)의 상부만을 확장시키고, 하부는 확장시키지 않을 수도 있고, 또는 가상 컨텐츠 객체(821)의 상부와 하부를 모두 확장시킬 수도 있다.
보정 장치는 가상 컨텐츠 객체(821)를 확장시킨 형태에 대응되도록 블러 영상(823)을 생성할 수 있다. 보정 장치는 블러 영상(823)을 컨실러 영상으로 결정하고, 가상 컨텐츠 객체(821)와 합성하여 크로스토크를 보정할 수 있다.
이 밖에도, 보정 장치는 예를 들어, 결과 영상(830)과 같이 가상 컨텐츠 객체의 고유 형태가 유지되도록 생성된 블러 영상(813, 815)의 좌우를 보간(interpolation)하여 블러 영상(835)을 생성할 수 있다.
보정 장치는 이격된 블러 영상(813) 상의 어느 한 점(예를 들어, 꼭지점)(814)과 블러 영상(815) 상의 어느 한 점(예를 들어, 꼭지점)(816)을 연결하는 보간을 통해 블러 영상(835)을 생성할 수 있다. 보정 장치는 블러 영상(835)을 컨실러 영상으로 결정하고, 가상 컨텐츠 객체(831)와 합성하여 크로스토크를 보정할 수 있다.
도 9는 일 실시예에 따라 사용자 양안과 가상 컨텐츠 객체와의 거리가 멀어질수록 시차가 증가하는 원리를 도시한 도면이다. 도 9를 참조하면, 사용자 양안(910) 각각에 제공되는 좌, 우안 영상(920), 좌, 우안 영상(920)에 의해 시각화된 가상 컨텐츠 객체를 표시하는 디스플레이(930), 및 좌, 우안 영상(920)에 의해 시각화된 가상 컨텐츠 객체의 허상들(950, 970, 990)이 도시된다.
보정 장치는 사용자의 좌안에 좌안 영상을 제공하고, 사용자의 우안에 우안 영상을 제공함으로써, 그래픽 객체를 입체적으로 제공할 수 있다. 좌안 영상 및 우안 영상은 서로에 대해 디스플레이(930)의 수평축을 따라 깊이에 따른 시차만큼 이격된 그래픽 객체를 포함할 수 있다. 따라서 사용자는 입체적으로 렌더링된 그래픽 객체의 깊이감을 인식할 수 있다.
디스플레이(930)는 좌, 우안 영상(920) 각각에서 컨텐츠가 시각화된 그래픽 객체를 사용자 양안(910)의 시차에 따라 이격시킴으로써, 깊이를 가지는 컨텐츠를 사용자에게 입체적인 그래픽 객체로 시각화하여 제공할 수 있다. 그래픽 객체의 각 픽셀마다 시차가 결정될 수 있고, 픽셀마다 깊이감이 표현될 수 있다. 이때, 사용자 양안(910)과 가상 컨텐츠 객체의 허상들(950, 970, 990) 간의 거리에 따라 사용자 양안의 시차가 달라질 수 있다.
예를 들어, 사용자 양안(910)과 가상 컨텐츠 객체의 허상(950) 간의 제1 거리에 비해 사용자 양안(910)과 가상 컨텐츠 객체의 허상(990) 간의 제2 거리가 더 멀다고 하자. 이 경우, 제2 거리에 대응하는 사용자 양안(910)의 시차는 제1 거리에 대응하는 사용자 양안(910)의 시차에 비해 증가할 수 있다. 이와 달리, 사용자 양안(910)과 가상 컨텐츠 객체의 허상(970) 간의 제3 거리가 제1 거리보다 짧다고 하자. 이 경우, 제3 거리에 대응하는 사용자 양안(910)의 시차는 제1 거리에 대응하는 사용자 양안(910)의 시차에 비해 감소할 수 있다. 이와 같이 사용자 양안(910)과 가상 컨텐츠 객체의 허상 간의 거리가 멀어질수록 시차는 증가하고, 사용자 양안(910)과 가상 컨텐츠 객체의 허상 간의 거리가 감소할수록 시차는 감소할 수 있다.
도 10 내지 도 12는 실시예들에 따라 적어도 하나의 효과 요소를 조절하는 방법을 설명하기 위한 도면이다. 도 10을 참조하면, 시차 또는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 거리와 컨실러 영상의 잔상 범위와의 관계를 도시한 그래프들(1010, 1020) 및 전술한 관계를 설명하기 위한 도면들(1030, 1040)이 도시된다. 이하, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 '거리'는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 '깊이' 라고도 부를 수 있다.
무안경 3D 디스플레이 방식에서 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 거리는 크로스토크의 잔상 범위와 밀접한 관련을 가질 수 있다. 크로스토크의 잔상 범위는 시차에 선형적으로 증가하지 않고, 그래프(1010)에 도시된 것과 같이 처음에는 급격히 증가하다가 시차 혹은 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 거리가 멀어질수록 점점 일정 값에 수렴할 수 있다.
보정 장치는 컨실러 영상 또한 그래프(1010)에 도시된 광필드 디스플레이와 동일한 방식으로 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 거리를 판별한 후, 그래프(1020)와 같이 거리에 대응되도록 컨실러 영상의 적어도 하나의 효과 요소를 조절하여 렌더링할 수 있다.
예를 들어, 도면(1030)을 참조하면, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(1031) 간의 거리가 가까운 경우 및 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(1033) 간의 거리가 먼 경우가 도시된다.
그래프(1020)에 도시된 것과 같이, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리가 멀어질수록 크로스토크의 범위가 넓어지고, 거리가 가까워질수록 크로스토크의 범위가 좁아질 수 있다. 이러한 부작용을 제거하기 위해, 보정 장치는 가상 컨텐츠 객체의 허상과의 거리가 가까워질수록 컨실러 영상의 범위를 좁힐 수 있다. 다시 말해, 보정 장치는 도면(1040)의 좌측과 같이 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(1041)의 위치 간의 거리가 기준 거리 보다 가까워질수록 가상 컨텐츠 객체의 허상(1041)의 크기에 대비되는 컨실러 영상의 잔상 범위(1043)를 점진적으로 축소시킬 수 있다.
또한, 보정 장치는 가상 컨텐츠 객체의 허상과의 거리가 멀어질수록 컨실러 영상의 범위를 넓힐 수 있다. 다시 말해, 보정 장치는 도면(1040)의 우측과 같이 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리가 기준 거리 보다 멀어질수록 가상 컨텐츠 객체의 허상(1045)의 크기에 대비되는 컨실러 영상의 잔상 범위(1047)를 점진적으로 확장시킬 수 있다.
도 11을 참조하면, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(virtual image)의 위치 간의 거리와 가상 컨텐츠 객체의 크기와의 관계를 설명하기 위한 도면(1110), 거리 별 가상 컨텐츠 객체의 허상의 크기를 나타낸 도면(1130) 및 거리와 가상 컨텐츠 객체의 밝기 간의 관계를 나타낸 그래프(1130)가 도시된다.
도면(1110)에 도시된 것과 같이, 가상 컨텐츠 객체의 허상(1111)의 위치와 사용자 양안의 위치 간의 거리가 가까워질수록 가상 컨텐츠 객체의 허상(1111)의 크기는 커지고, 가상 컨텐츠 객체의 허상(1115)의 위치와 사용자 양안의 위치 간의 거리가 멀수록 가상 컨텐츠 객체의 허상(1115)의 크기가 작아질 수 있다.
거리 별 가상 컨텐츠 객체의 허상의 크기는 예를 들어, 도면(1130)과 같이 나타낼 수 있다. 이때, 도면(1130)에서 가상 컨텐츠 객체의 허상의 크기가 커짐에 따라 가상 컨텐츠 객체의 허상의 면적 또한 넓어지고 허상의 밝기가 밝아지는 것을 볼 수 있다. 이 경우, 보정 장치는 가상 컨텐츠 객체의 허상에 대응하는 컨실러 영상의 콘트라스트 및 밝기를 밝게 표현함으로써 주변 환경과의 위화감을 줄일 수 있다. 보정 장치는 예를 들어, 그래프(1150)와 같이 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리가 기준 거리보다 가까워질수록 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절할 수 있다.
또한, 도면(1130)에서 가상 컨텐츠 객체의 허상의 크기가 작아짐에 따라 가상 컨텐츠 객체의 허상의 면적 또한 좁아지고 가상 컨텐츠 객체의 허상의 밝기가 어두워지는 것을 볼 수 있다. 이 경우, 보정 장치는 가상 컨텐츠 객체의 허상에 대응하는 컨실러 영상의 콘트라스트 및 밝기를 어둡게 표현함으로써 주변 환경과의 위화감을 줄일 수 있다. 보정 장치는 예를 들어, 그래프(1150)와 같이 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절할 수 있다.
도 12를 참조하면, 주변 환경의 조도(illumination)와 컨실러 영상의 밝기 간의 관계를 나타낸 그래프가 도시된다.
실제 주변 환경의 광원은 크로스토크에 밀접한 영향을 줄 수 있다. 예를 들어, 야간에 헤드 업 디스플레이에 의해 시각화되는 가상 컨텐츠 객체의 밝기가 밝을수록 크로스토크가 강하게 나타나고, 가상 컨텐츠 객체의 밝기가 어두울수록 크로스토크가 약하게 나타날 수 있다.
따라서, 일 실시예에서는 도 12에 도시된 그래프와 같이 주변 환경의 조도가 낮은 야간에 상대적으로 가상 컨텐츠 객체의 밝기가 밝을수록 크로스토크가 심해지는 것에 대비하여 야간에는 컨실러 영상의 밝기를 밝게 하고, 주변 환경의 조도가 높은 주간에는 컨실러 영상의 밝기를 어둡게 할 수 있다.
보정 장치는 예를 들어, 주변 환경의 조도가 기준 조도보다 높아질수록 컨실러 영상의 밝기를 점진적으로 어둡게 조절하고, 주변 환경의 조도가 기준 조도보다 낮아질수록 컨실러 영상의 밝기를 점진적으로 밝게 조절함으로써 함으로써 크로스토크를 약화시킬 수 있다.
도 13은 다른 실시예에 따라 크로스토크를 보정하는 방법을 나타낸 흐름도이다. 도 13을 참조하면, 일 실시예에 따른 보정 장치가 단계(1310) 내지 단계(1360)를 통해 크로스토크를 보정하는 과정이 도시된다.
단계(1310)에서, 보정 장치는 가상 컨텐츠 객체의 이동을 감지할 수 있다.
단계(1320)에서, 보정 장치는 단계(1310)에서 이동된 거리를 판별하여 컨실러 영상을 배치시킬 위치 및 범위를 결정할 수 있다. 여기서, 컨실러 영상을 배치시킬 위치 및 범위는 크로스토크가 발생할 영역에 해당할 수 있다.
단계(1330)에서, 보정 장치는 컨실러 영상을 생성할 수 있다.
단계(1340)에서, 보정 장치는 크로스토크가 발생할 영역, 다시 말해, 단계(1320)에서 결정한 컨실러 영상을 배치시킬 위치 및 범위에 단계(1330)에서 생성한 컨실러 영상을 중첩(superposition)시킬 수 있다.
단계(1350)에서, 보정 장치는 가상 컨텐츠 객체의 허상의 위치와 사용자 양안의 위치 간의 거리를 판별하여 크로스토크가 발생할 영역에 중첩시킨 컨실러 영상을 콘트라스트를 조절할 수 있다.
단계(1360)에서, 보정 장치는 외부 광원을 판별하여 단계(1350)에서 콘트라스트가 조절된 컨실러 영상의 밝기를 조절할 수 있다.
실시예에 따라서, 단계(1350) 및/또는 단계(1360)는 단계(1330)에서 컨실러 영상을 생성하는 과정에서 함께 포함되어 수행될 수도 있고, 도 13과 같이 컨실러 영상의 생성 후에 크로스토크가 발생할 영역에 중첩시킨 컨실러 영상을 수정하는 형태로 수행될 수도 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (40)

  1. 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(virtual image)의 위치 간의 3차원 위치 관계를 기초로, 크로스토크(crosstalk)가 발생할 영역을 추정하는 단계;
    상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상(concealer image)을 생성하는 단계; 및
    상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  2. 제1항에 있어서,
    상기 컨실러 영상을 생성하는 단계는
    상기 컨실러 영상의 잔상 범위(afterimage range), 콘트라스트(contrast), 및 밝기(brightness) 중 적어도 하나의 효과 요소(effect element)를 조절하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  3. 제2항에 있어서,
    상기 적어도 하나의 효과 요소를 조절하는 단계는
    상기 3차원 위치 관계를 기초로, 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 조절하는 단계;
    상기 3차원 위치 관계를 기초로, 상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 단계; 및
    주변 환경의 조도(illumination)를 기초로, 상기 컨실러 영상의 밝기를 조절하는 단계
    중 적어도 하나 또는 이들의 조합을 포함하는, 크로스토크를 보정하는 방법.
  4. 제3항에 있어서,
    상기 컨실러 영상의 잔상 범위를 조절하는 단계는
    상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 확장시키는 단계; 및
    상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 축소시키는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  5. 제3항에 있어서,
    상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 단계는
    상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절하는 단계; 및
    상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  6. 제3항에 있어서,
    상기 컨실러 영상의 밝기를 조절하는 단계는
    상기 조도가 기준 조도보다 높아질수록 상기 컨실러 영상의 밝기를 점진적으로 어둡게 조절하는 단계; 및
    상기 조도가 상기 기준 조도보다 낮아질수록 상기 컨실러 영상의 밝기를 점진적으로 밝게 조절하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  7. 제1항에 있어서,
    상기 컨실러 영상을 생성하는 단계는
    상기 가상 컨텐츠 객체의 형태에 대응되도록 상기 가상 컨텐츠 객체를 블러(blur)시킴으로써 상기 컨실러 영상을 생성하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  8. 제1항에 있어서,
    상기 컨실러 영상을 생성하는 단계는
    상기 가상 컨텐츠 객체를 블러시킨 블러 영상(blurred image)을 생성하는 단계; 및
    상기 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  9. 제8항에 있어서,
    상기 블러 영상을 생성하는 단계는
    상기 3차원 위치 관계를 기초로 상기 가상 컨텐츠 객체를 확장시킨 형태에 대응되도록 상기 블러 영상을 생성하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  10. 제8항에 있어서,
    상기 블러 영상을 생성하는 단계는
    상기 가상 컨텐츠 객체의 형태를 기초로, 상기 사용자 양안 중 좌안에 대응하는 제1 블러 영상 및 우안에 대응하는 제2 블러 영상을 생성하는 단계; 및
    상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  11. 제10항에 있어서,
    상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는 단계는
    상기 제1 블러 영상 및 상기 제2 블러 영상을 상기 사용자 양안의 시차(disparity)에 기초한 간격만큼 이격시키는 단계; 및
    상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  12. 제11항에 있어서,
    상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는 단계는
    상기 이격된 상기 제1 블러 영상과 상기 제2 블러 영상을 보간(interpolation)하여 상기 블러 영상을 생성하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  13. 제1항에 있어서,
    상기 크로스토크를 보정하는 단계는
    상기 가상 컨텐츠 객체를 포함하는 3차원 공간 상에 상기 컨실러 영상을 배치하는 단계;
    상기 가상 컨텐츠 객체와 상기 컨실러 영상을 함께 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하는 단계; 및
    상기 좌안 영상과 상기 우안 영상을 투사하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  14. 제1항에 있어서,
    상기 크로스토크를 보정하는 단계는
    상기 가상 컨텐츠 객체를 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하는 단계; 및
    상기 좌안 영상, 상기 우안 영상, 및 상기 컨실러 영상을 투사하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  15. 제1항에 있어서,
    상기 크로스토크가 발생할 영역을 추정하는 단계는
    상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역을 추정하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  16. 제1항에 있어서,
    상기 크로스토크가 발생할 영역을 추정하는 단계는
    상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역의 잔상 범위를 조절함으로써 상기 크로스토크가 발생할 영역을 추정하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  17. 제1항에 있어서,
    상기 가상 컨텐츠 객체의 위치 이동을 감지하는 단계
    를 더 포함하고,
    상기 크로스토크가 발생할 영역을 추정하는 단계는
    상기 위치 이동에 따라 변경된 상기 3차원 위치 관계 및 상기 사용자 양안의 시차 중 적어도 하나를 기초로, 상기 크로스토크가 발생할 영역을 추정하는 단계
    를 포함하는, 크로스토크를 보정하는 방법.
  18. 제1항에 있어서,
    상기 크로스토크가 발생할 영역은
    상기 컨실러 영상을 배치시킬 위치 및 범위에 대응되는, 크로스토크를 보정하는 방법.
  19. 하드웨어와 결합되어 제1항 내지 제18항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
  20. 사용자 양안의 위치를 감지하는 센서; 및
    상기 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서
    를 포함하는, 크로스토크를 보정하는 장치.
  21. 제20항에 있어서,
    상기 프로세서는
    상기 컨실러 영상의 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절하는, 크로스토크를 보정하는 장치.
  22. 제21항에 있어서,
    상기 프로세서는
    상기 3차원 위치 관계를 기초로, 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 조절하는 동작, 상기 3차원 위치 관계를 기초로, 상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 동작, 및 주변 환경의 조도를 기초로, 상기 컨실러 영상의 밝기를 조절하는 동작 중 적어도 하나 또는 이들의 조합을 수행하는, 크로스토크를 보정하는 장치.
  23. 제22항에 있어서,
    상기 프로세서는
    상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 확장시키고, 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 축소시키는, 크로스토크를 보정하는 장치.
  24. 제23항에 있어서,
    상기 프로세서는
    상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절하고, 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절하는, 크로스토크를 보정하는 장치.
  25. 제22항에 있어서,
    상기 프로세서는
    상기 조도가 기준 조도보다 높아질수록 상기 컨실러 영상의 밝기를 점진적으로 어둡게 조절하고, 상기 조도가 상기 기준 조도보다 낮아질수록 상기 컨실러 영상의 밝기를 점진적으로 밝게 조절하는, 크로스토크를 보정하는 장치.
  26. 제20항에 있어서,
    상기 프로세서는
    상기 가상 컨텐츠 객체의 형태에 대응되도록 상기 가상 컨텐츠 객체를 블러시킴으로써 상기 컨실러 영상을 생성하는, 크로스토크를 보정하는 장치.
  27. 제20항에 있어서,
    상기 프로세서는
    상기 가상 컨텐츠 객체를 블러시킨 블러 영상을 생성하고, 상기 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절하는, 크로스토크를 보정하는 장치.
  28. 제27항에 있어서,
    상기 프로세서는
    상기 3차원 위치 관계를 기초로 상기 가상 컨텐츠 객체를 확장시킨 형태에 대응되도록 상기 블러 영상을 생성하는, 크로스토크를 보정하는 장치.
  29. 제27항에 있어서,
    상기 프로세서는
    상기 가상 컨텐츠 객체의 형태를 기초로, 상기 사용자 양안 중 좌안에 대응하는 제1 블러 영상 및 우안에 대응하는 제2 블러 영상을 생성하고, 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는, 크로스토크를 보정하는 장치.
  30. 제29항에 있어서,
    상기 프로세서는
    상기 제1 블러 영상 및 상기 제2 블러 영상을 상기 사용자 양안의 시차에 기초한 간격만큼 이격시키고, 상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는, 크로스토크를 보정하는 장치.
  31. 제30항에 있어서,
    상기 프로세서는
    상기 이격된 상기 제1 블러 영상과 상기 제2 블러 영상을 보간하여 상기 블러 영상을 생성하는, 크로스토크를 보정하는 장치.
  32. 제20항에 있어서,
    상기 프로세서는
    상기 가상 컨텐츠 객체를 포함하는 3차원 공간 상에 상기 컨실러 영상을 배치하고, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 함께 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하며, 상기 좌안 영상과 상기 우안 영상을 투사하는, 크로스토크를 보정하는 장치.
  33. 제20항에 있어서,
    상기 프로세서는
    상기 가상 컨텐츠 객체를 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하고, 상기 좌안 영상, 상기 우안 영상, 및 상기 컨실러 영상을 투사하는, 크로스토크를 보정하는 장치.
  34. 제20항에 있어서,
    상기 프로세서는
    상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역을 추정하는, 크로스토크를 보정하는 장치.
  35. 제20항에 있어서,
    상기 프로세서는
    상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역의 잔상 범위를 조절함으로써 상기 크로스토크가 발생할 영역을 추정하는, 크로스토크를 보정하는 장치.
  36. 제20항에 있어서,
    상기 프로세서는
    상기 가상 컨텐츠 객체의 위치 이동을 감지하고, 상기 위치 이동에 따라 변경된 상기 3차원 위치 관계 및 상기 사용자 양안의 시차 중 적어도 하나를 기초로, 상기 크로스토크가 발생할 영역을 추정하는, 크로스토크를 보정하는 장치.
  37. 제20항에 있어서,
    상기 크로스토크가 발생할 영역은
    상기 컨실러 영상을 배치시킬 위치 및 범위에 대응되는, 크로스토크를 보정하는 장치.
  38. 컨텐츠 시각화 장치에 있어서,
    가상 컨텐츠 객체를 프로젝션 평면에 투사하여 시각화하는 디스플레이; 및
    사용자 양안의 위치와 상기 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서
    를 포함하는, 컨텐츠 시각화 장치.
  39. 증강 현실 안경(Augmented Reality glass, AR glass) 장치에 있어서,
    가상 컨텐츠 객체를 시각화 하는 투명 디스플레이; 및
    사용자 양안의 위치와 상기 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서
    를 포함하는, 증강 현실 안경 장치.
  40. 차량에 있어서,
    상기 차량의 위치를 센싱하는 센서;
    사용자에게 제공할 가상 컨텐츠 객체를 프로젝션 평면에 시각화하는 헤드업 디스플레이(head-up display, HUD); 및
    상기 차량의 위치에 기초하여 상기 가상 컨텐츠 객체를 결정하고, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서
    를 포함하는, 차량.

KR1020200181939A 2020-09-07 2020-12-23 크로스토크를 보정하는 방법 및 장치 KR20220032448A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/225,339 US11719930B2 (en) 2020-09-07 2021-04-08 Method and apparatus with crosstalk correction

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200114028 2020-09-07
KR20200114028 2020-09-07

Publications (1)

Publication Number Publication Date
KR20220032448A true KR20220032448A (ko) 2022-03-15

Family

ID=80817086

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200181939A KR20220032448A (ko) 2020-09-07 2020-12-23 크로스토크를 보정하는 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20220032448A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116634624A (zh) * 2023-07-21 2023-08-22 珠海中旭承科技股份有限公司 一种透明屏展示柜的照明控制方法和装置
WO2024039154A1 (ko) * 2022-08-18 2024-02-22 삼성전자 주식회사 3d 영상을 표시하기 위한 전자 장치 및 전자 장치의 동작 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024039154A1 (ko) * 2022-08-18 2024-02-22 삼성전자 주식회사 3d 영상을 표시하기 위한 전자 장치 및 전자 장치의 동작 방법
CN116634624A (zh) * 2023-07-21 2023-08-22 珠海中旭承科技股份有限公司 一种透明屏展示柜的照明控制方法和装置
CN116634624B (zh) * 2023-07-21 2023-09-15 珠海中旭承科技股份有限公司 一种透明屏展示柜的照明控制方法和装置

Similar Documents

Publication Publication Date Title
KR102306790B1 (ko) 컨텐츠 시각화 장치 및 방법
EP3444139B1 (en) Image processing method and image processing device
US11646000B2 (en) Image display system, image display method, movable object including the image display system, and non-transitory computer-readable medium
US11247565B2 (en) Virtual image display device
JP2015215510A (ja) 表示装置および表示方法
KR20220032448A (ko) 크로스토크를 보정하는 방법 및 장치
US11869162B2 (en) Apparatus and method with virtual content adjustment
JP2016078498A (ja) 表示制御装置、表示システム
US11719930B2 (en) Method and apparatus with crosstalk correction
CN112703527A (zh) 平视显示器(hud)内容控制***和方法
KR102652943B1 (ko) 3차원 영상 출력 방법 및 그 방법을 수행하는 전자 장치
JP2020033003A (ja) 表示制御装置、及び表示制御プログラム
US20220300120A1 (en) Information processing apparatus, and control method
US20140049540A1 (en) Image Processing Device, Method, Computer Program Product, and Stereoscopic Image Display Device
US11170537B2 (en) Vehicle display device
US20220072957A1 (en) Method for Depicting a Virtual Element
JP2020019369A (ja) 車両用表示装置、方法、及びコンピュータ・プログラム
JP2020158014A (ja) ヘッドアップディスプレイ装置、表示制御装置、及び表示制御プログラム
WO2020039855A1 (ja) 表示制御装置、表示制御プログラム、およびその持続的有形コンピュータ読み取り媒体
KR20240020051A (ko) 자동차 내부 카메라를 이용한 hud 캘리브레이션 방법 및 장치
WO2023121688A1 (en) System and method for displaying images to an augmented reality heads-up display rendering
EP3306373A1 (en) Method and device to render 3d content on a head-up display
CN117275376A (zh) 用于车载平视显示的重影消除方法、以及相关设备和芯片
WO2023089104A1 (en) System and method

Legal Events

Date Code Title Description
A201 Request for examination