KR20240014883A - 복수의 프로젝션부를 포함하는 영상 출력 장치 및 그 제어 방법 - Google Patents

복수의 프로젝션부를 포함하는 영상 출력 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20240014883A
KR20240014883A KR1020220092587A KR20220092587A KR20240014883A KR 20240014883 A KR20240014883 A KR 20240014883A KR 1020220092587 A KR1020220092587 A KR 1020220092587A KR 20220092587 A KR20220092587 A KR 20220092587A KR 20240014883 A KR20240014883 A KR 20240014883A
Authority
KR
South Korea
Prior art keywords
projection
image
unit
projection position
projection unit
Prior art date
Application number
KR1020220092587A
Other languages
English (en)
Inventor
박재성
정영훈
문영수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220092587A priority Critical patent/KR20240014883A/ko
Priority to PCT/KR2023/006145 priority patent/WO2024025095A1/ko
Priority to US18/242,329 priority patent/US20240040077A1/en
Publication of KR20240014883A publication Critical patent/KR20240014883A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/317Convergence or focusing systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

영상 출력 장치가 개시된다. 영상 출력 장치는, 회로를 포함하는 통신 인터페이스, 제1 프로젝션부, 제2 프로젝션부, 제1 프로젝션부의 투사 위치를 조정하는 제1 구동부, 제2 프로젝션부의 투사 위치를 조정하는 제2 구동부 및 통신 인터페이스를 통해 수신된 입력 영상을 분석하여 입력 영상의 컨텍스트 정보(context) 정보를 식별하고, 식별된 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 어느 하나를 식별하고, 식별된 화면 레이아웃에 따라 제1 프로젝션부가 제1 투사 위치로 영상을 투사하도록 제1 구동부를 제어하고 제2 프로젝션부가 제2 투사 위치로 영상을 투사하도록 제2 구동부를 제어하는 하나 이상의 프로세서를 포함한다.

Description

복수의 프로젝션부를 포함하는 영상 출력 장치 및 그 제어 방법 { IMAGE DISPLAY APPARATUS INCLUDING A PLURALITY OF PROJECTION AND CONTROL METHOD THEREOF }
본 발명은 영상 출력 장치 및 그 제어 방법에 관한 것으로, 보다 상세하게는 이동 가능한 복수의 프로젝션부를 이용하여 영상을 출력하는 영상 출력 장치 및 그 제어 방법에 관한 것이다.
최근, 다양한 형태의 디스플레이 장치가 개발 및 보급되는 추세이다.
다양한 영상 디스플레이 환경에서, 하나의 디스플레이 장치만 이용하는 것이 아니라, 복수의 디스플레이 장치 특히, 복수의 프로젝터 장치 등을 이용하는 사례가 증가하고 있다.
복수의 프로젝터 장치를 이용하면, 영상의 크기를 증가시키거나, 영상의 최대 출력 휘도를 증가시키는 등 다양한 효과, 장점이 있으나, 복수의 프로젝터 장치의 투사 위치를 사용자가 직접 조정하기에는 어려움이 있으며, 영상의 특징, 컨텍스트 마다 적절한 투사 위치를 사용자가 직접 판단하기에도 어려움이 있다.
복수의 프로젝터를 이용하는 듀얼(Dual) 프로젝션 환경에서, 영상의 특징을 고려하여 투사 위치를 자동으로 조정하는 장치 및 방법에 대한 요구가 있어왔다.
본 개시의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 영상 출력 장치는, 회로를 포함하는 통신 인터페이스, 제1 프로젝션부, 제2 프로젝션부, 상기 제1 프로젝션부의 투사 위치를 조정하는 제1 구동부, 상기 제2 프로젝션부의 투사 위치를 조정하는 제2 구동부 및 상기 통신 인터페이스를 통해 수신된 입력 영상을 분석하여 상기 입력 영상의 컨텍스트 정보(context) 정보를 식별하고, 상기 식별된 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 어느 하나를 식별하고, 상기 식별된 화면 레이아웃에 따라 상기 제1 프로젝션부가 제1 투사 위치로 영상을 투사하도록 상기 제1 구동부를 제어하고 상기 제2 프로젝션부가 제2 투사 위치로 영상을 투사하도록 상기 제2 구동부를 제어하는 하나 이상의 프로세서를 포함한다.
본 개시의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 영상 출력 장치의 제어 방법은, 입력 영상을 분석하여 상기 입력 영상의 컨텍스트 정보(context) 정보를 식별하는 단계, 상기 식별된 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 어느 하나를 식별하는 단계 및 상기 식별된 화면 레이아웃에 따라 상기 영상 출력 장치에 구비된 제1 프로젝션부가 제1 투사 위치로 영상을 투사하도록 제1 구동부를 제어하고 상기 영상 출력 장치에 구비된 제2 프로젝션부가 제2 투사 위치로 영상을 투사하도록 제2 구동부를 제어하는 단계를 포함한다.
본 개시의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 영상 출력 장치의 제어 방법을 실행하는 프로그램을 포함하는 컴퓨터 판독 가능 기록매체에 있어서, 상기 영상 출력 장치의 제어 방법은, 입력 영상을 분석하여 상기 입력 영상의 컨텍스트 정보(context) 정보를 식별하는 단계, 상기 식별된 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 어느 하나를 식별하는 단계 및 상기 식별된 화면 레이아웃에 따라 상기 영상 출력 장치에 구비된 제1 프로젝션부가 제1 투사 위치로 영상을 투사하도록 제1 구동부를 제어하고 상기 영상 출력 장치에 구비된 제2 프로젝션부가 제2 투사 위치로 영상을 투사하도록 제2 구동부를 제어하는 단계를 포함한다.
도 1은 본 개시의 일 실시 예에 따른 영상 출력 장치의 구성을 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 영상 출력 장치의 구성을 설명하기 위한 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 화면 레이아웃 및 회전 파라미터를 식별하는 영상 출력 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 4는 본 개시의 일 실시 예에 따른 구동부의 동작을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 어레이(Array) 화면 레이아웃을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 어레이 화면 레이아웃을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 오버레이(Overlay) 화면 레이아웃을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시 예에 따른 부분 오버레이(Partial Overlay) 화면 레이아웃을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 구동부의 동작을 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시 예에 따른 복수의 프로젝션부의 캘리브레이션을 설명하기 위한 도면이다.
도 11은 본 개시의 일 실시 예에 따른 영상 출력 장치의 제어 방법을 설명하기 위한 흐름도이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 개시의 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 본 개시의 일 실시 예에 따른 영상 출력 장치의 구성을 설명하기 위한 도면이다.
도 1을 참조하면, 영상 출력 장치(100)는 영상을 출력하는 다양한 형태의 장치가 될 수 있다.
특히, 영상 출력 장치(100)는 벽 또는 스크린으로 영상을 확대하여 투사하는 프로젝터 장치로 구현될 수 있으며, 여기서, 프로젝터 장치는 LCD 프로젝터 또는 DMD(digital micromirror device)를 사용하는 DLP(digital light processing) 방식 프로젝터일 수 있다.
도 1에 도시된 바와 같이, 영상 출력 장치(100)는 영상을 투사하는 프로젝션부(120-1, 120-2)를 여러 개 구비할 수 있다. 여기서, 제1 프로젝션부(120-1)와 제2 프로젝션부(120-2) 각각의 사양, 제원(Specification)이 동일할 수 있다. 일 예로, 제1 프로젝션부(120-1)와 제2 프로젝션부(120-2) 각각의 밝기 단위(안시 루멘(ANSI-Lumens) 단위, LED루멘 단위 등), 명암비, 해상도 등이 동일할 수 있다. 다만, 이는 일 예시이며, 제1 프로젝션부(120-1)와 제2 프로젝션부(120-2) 각각의 사양, 제원이 동일하지 않을 수도 있음은 물론이다.
본 개시의 일 실시 예에 따른 영상 출력 장치(100)는 복수의 프로젝션부(120-1, 120-2)를 구비하며, 복수의 프로젝션부(120-1, 120-2) 각각이 영상을 투사하는 프로젝터 장치(또는, 프로젝터 디스플레이)로 구현될 수 있으나, 이에 한정되는 것은 아니며, TV, 비디오 월(video wall), LFD(large format display), Digital Signage(디지털 간판), DID(Digital Information Display) 등과 같이 다양한 형태의 디스플레이 장치로 구현 가능하다.
여기서, 디스플레이 장치는 LCD(liquid crystal display), OLED(organic light-emitting diode), LCoS(Liquid Crystal on Silicon), DLP(Digital Light Processing), QD(quantum dot) 디스플레이 패널, QLED(quantum dot light-emitting diodes), μLED(Micro light-emitting diodes), Mini LED 등과 같은 다양한 형태의 디스플레이를 구비할 수 있다.
한편, 본 개시의 다양한 실시 예는 복수의 프로젝션부(120-1, 120-2)를 포함하는 하나의 영상 출력 장치(100)를 이용하여 듀얼(Dual) 프로젝션 시스템을 구현할 수 있으나, 이에 한정되지 않음은 물론이다.
예를 들어, 본 개시의 다양한 실시 예는 서로 통신을 수행하는 영상 출력 장치(100) 및 타 영상 출력 장치(100’)를 이용하여 듀얼 프로젝션 시스템을 구현할 수 있으며, 여기서, 영상 출력 장치(100) 및 타 영상 출력 장치(100’) 각각은 적어도 하나의 프로젝션부(120)를 구비할 수 있음은 물론이다.
또한, 영상 출력 장치(100)는 가정용 또는 산업용 디스플레이 장치일 수 있으며, 또는, 일상 생활에서 쓰이는 조명 장치일 수 있으며, 음향 모듈을 포함하는 음향 장치일 수 있으며, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 웨어러블 장치, 또는 가전 장치 등으로 구현될 수 있다.
한편, 본 개시의 일 실시 예에 따른 영상 출력 장치(100)는 상술한 기기에 한정되지 않으며, 영상 출력 장치(100)는 상술한 기기들의 둘 이상의 기능을 갖춘 영상 출력 장치(100)로 구현될 수 있다. 예를 들면, 영상 출력 장치(100)는 프로세서의 조작에 따라 프로젝터 기능은 오프되고 조명 기능 또는 스피커 기능은 온되어 디스플레이 장치, 조명 장치 또는 음향 장치로 활용될 수 있으며, 마이크 또는 통신 장치를 포함하여 AI 스피커로 활용될 수 있다.
본 개시의 일 실시 예에 따라 영상 출력 장치(100)에 구비된 제1 프로젝션부(120-1)와 제2 프로젝션부(120-2)가 결합되어 하나의 영상을 제공할 수 있다.
예를 들어, 영상 출력 장치(100)의 제1 프로젝션부(120-1)가 출력하는 영상(즉, 제1 영상)과 제2 프로젝션부(120-2)가 출력하는 영상(즉, 제2 영상)이 배열(예를 들어, 제1 프로젝션부(120-1)가 출력하는 영상과 제2 프로젝션부(120-2)가 출력하는 영상 중 어느 하나가 좌측에 위치하고 나머지 하나가 우측에 위치하거나, 제1 프로젝션부(120-1)가 출력하는 영상과 제2 프로젝션부(120-2)가 출력하는 영상 중 어느 하나가 상측에 위치하고 나머지 하나가 하측에 위치)되어 하나의 영상을 구성할 수 있다(이하, 어레이(Array) 화면 레이아웃).
여기서, 어레이 화면 레이아웃은, 제1 프로젝션부(120-1)와 제2 프로젝션부(120-2) 각각이 출력하는 영상이 배열되어 하나의 영상을 구성하므로, 영상의 크기 또는 영상의 해상도가 증가할 수 있다.
예를 들어, 제1 프로젝션부(120-1)가 출력하는 영상과 제2 프로젝션부(120-2)가 출력하는 영상이 서로 중첩(오버레이(Overlay))되어 하나의 영상을 구성할 수 있다(이하, 오버레이 화면 레이아웃).
여기서, 오버레이 화면 레이아웃은, 제1 프로젝션부(120-1)와 제2 프로젝션부(120-2) 각각이 출력하는 영상이 중첩되어 하나의 영상을 구성하므로, 영상의 밝기(또는, 휘도))가 증가할 수 있다.
본 개시의 다양한 실시 예에 따른 영상 출력 장치(100)는 영상의 컨텍스트 정보(Context) 정보를 식별하며, 식별된 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 어느 하나를 식별할 수 있다.
예를 들어, 영상 출력 장치(100)는 영상의 컨텍스트 정보(Context) 정보를 식별하며, 식별된 컨텍스트 정보에 기초하여 어레이(Array) 화면 레이아웃을 식별할 수 있다. 이어서, 영상 출력 장치(100)는 어레이 화면 레이아웃에 따라 제1 프로젝션부(120-1)의 투사 위치와 제2 프로젝션부(120-2)의 투사 위치를 조정할 수 있다.
예를 들어, 영상 출력 장치(100)는 영상의 컨텍스트 정보(Context) 정보를 식별하며, 식별된 컨텍스트 정보에 기초하여 오버레이 화면 레이아웃을 식별할 수 있다. 이어서, 영상 출력 장치(100)는 오버레이 화면 레이아웃에 따라 제1 프로젝션부(120-1)의 투사 위치와 제2 프로젝션부(120-2)의 투사 위치를 조정할 수 있다.
일 예로, 영상 출력 장치(100)는 제1 구동부(110-1)를 제어하여 제1 프로젝션부(120-1)의 투사 위치를 조정하며, 제2 구동부(110-2)를 제어하여 제2 프로젝션부(120-2)의 투사 위치를 조정할 수 있다.
도 2는 본 개시의 일 실시 예에 따른 영상 출력 장치의 구성을 설명하기 위한 블록도이다.
도 2에 따르면, 영상 출력 장치(100)는 구동부(110), 프로젝션부(120), 통신 인터페이스(130) 및 하나 이상의 프로세서(140)를 포함한다.
일 실시 예에 따른 구동부(110)는 제1 구동부(110-1) 및 제2 구동부(110-2)를 포함할 수 있다. 여기서, 제1 구동부(110-1) 및 제2 구동부(110-2) 각각은, 하나 이상의 모터를 구비할 수 있다.
예를 들어, 제1 구동부(110-1) 및 제2 구동부(110-2) 각각은, PTZ(Pan, Tilt, Zoom) 모터를 구비할 수 있다. 여기서, PTZ 모터는, 팬(Pan: 수평 방향, 좌우 방향) 방향으로 회전 가능한 모터와, 틸트(Tilt: 수직 방향, 상하 방향) 방향으로 회전 가능한 모터를 포함할 수 있다.
본 개시의 일 실시 예에 따른 하나 이상의 프로세서(140)는 제1 구동부(110-1)의 PTZ 모터를 4 방향(예를 들어, 상하좌우 방향) 중 적어도 하나의 방향으로 회전시켜 제1 구동부(110-1)와 결합된 제1 프로젝션부(120-1)의 투사 위치(이하, 제1 투사 위치)를 조정할 수 있다.
또한, 하나 이상의 프로세서(140)는 제2 구동부(110-2)의 PTZ 모터를 4 방향(예를 들어, 상하좌우 방향) 중 적어도 하나의 방향으로 회전시켜 제2 구동부(110-2)와 결합된 제2 프로젝션부(120-2)의 투사 위치(이하, 제2 투사 위치)를 조정할 수 있다.
일 실시 예에 따른 프로젝션부(120)는 제1 프로젝션부(120-1) 및 제2 프로젝션부(120-2)를 포함할 수 있다. 여기서, 제1 프로젝션부(120-1) 및 제2 프로젝션부(120-2) 각각은, 서로 다른 투사면 또는 동일한 투사면으로 영상을 출력할 수 있다.
일 실시 예에 따른 제1 프로젝션부(120-1) 및 제2 프로젝션부(120-2) 각각은, 프로젝션 렌즈(미도시)를 포함할 수 있다.
여기서, 프로젝션 렌즈는 영상 출력 장치(100)의 본체의 일 면에 형성되며, 렌즈 어레이를 통과한 광을 본체의 외부로 투사하도록 형성된다. 다양한 실시 예의 프로젝션 렌즈는 색수차를 줄이기 위하여 저분산 코팅된 광학 렌즈일 수 있다. 프로젝션 렌즈는 볼록 렌즈 또는 집광 렌즈일 수 있으며, 일 실시 예의 프로젝션 렌즈는 복수의 서브 렌즈의 위치를 조정하여 초점을 조절할 수 있다.
제1 프로젝션부(120-1) 및 제2 프로젝션부(120-2) 각각은 영상을 투사면에 출력하는 기능을 수행할 수 있다.
여기서, 투사면은 이미지가 출력되는 물리적 공간의 일부이거나 별도의 스크린일 수 있다. 한편, 프로젝션부(120)의 구성은 상술한 예에 한정되지 않으며, 영상 출력 장치(100)는 다양한 방법을 이용하여 영상을 투사면에 출력할 수 있다. 예를 들어, 설명의 편의를 위해 프로젝션부(120)가 제1 프로젝션부(120-1) 및 제2 프로젝션부(120-2)를 포함하는 경우를 상정하여 설명하였으나, 3개 이상의 프로젝션부를 포함할 수도 있음은 물론이다. 이하에서는 투사면의 위치를 프로젝션부(120)의 투사 위치로 통칭하여 설명하도록 한다.
본 개시의 일 실시 예에 따른 통신 인터페이스(130)는 다양한 형태의 외부 장치(예를 들어, 영상 제공 장치, 디스플레이 장치), 외부 서버 등과 통신을 수행하여 다양한 유형의 데이터, 정보를 입력받는다.
예를 들어, 통신 인터페이스(130)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN(Wide Area Network), 이더넷(Ethernet), IEEE 1394, HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), 선더볼트(ThunderboltTM), MHL(Mobile High-Definition Link), AES/EBU(Audio Engineering Society/ European Broadcasting Union), 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식/통신 규격을 통해 영상 제공 장치(예를 들어, 소스 장치 등), 외부 저장 매체(예를 들어, USB 메모리), 외부 서버(예를 들어, 클라우드 서버, 웹 하드) 등으로부터 다양한 유형의 데이터, 정보 등을 입력받을 수 있다.
특히, 본 개시의 일 실시 예에 따른 통신 인터페이스(130)는 영상 제공 장치로부터 영상을 수신할 수 있다.
하나 이상의 프로세서(140)는 메모리(미도시)와 전기적으로 연결되며, 영상 출력 장치(100)의 전반적인 동작을 제어한다.
본 개시의 일 실시 예에 따라, 프로세서(140)는 디지털 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서, AI(Artificial Intelligence) 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(140)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다. 프로세서(140)는 메모리에 저장된 컴퓨터 실행가능 명령어(computer executable instructions)를 실행함으로써 다양한 기능을 수행할 수 있다.
우선, 본 개시의 일 실시 예에 따른 하나 이상의 프로세서(140)는 통신 인터페이스(130)를 통해 수신된 입력 영상을 분석하여 입력 영상의 컨텍스트 정보(Context) 정보를 식별할 수 있다.
이어서, 프로세서(140)는 식별된 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 어느 하나를 식별할 수 있다.
이어서, 프로세서(140)는 식별된 화면 레이아웃에 따라 제1 프로젝션부(120-1)가 제1 투사 위치로 영상을 투사하도록 제1 구동부(110-1)를 제어할 수 있고, 제2 프로젝션부(120-2)가 제2 투사 위치로 영상을 투사하도록 제2 구동부(110-2)를 제어할 수 있다.
도 3은 본 개시의 일 실시 예에 따른 화면 레이아웃 및 회전 파라미터를 식별하는 영상 출력 장치의 제어 방법을 설명하기 위한 흐름도이다.
우선, 본 개시의 일 실시 예에 따라 하나 이상의 프로세서(140)는 제1 프로젝션부(120-1)(Project 1) 및 제2 프로젝션부(120-2)(Project 2)의 캘리브레이션을 수행할 수 있다(S310).
예를 들어, 프로세서(140)는 제1 투사 위치로 제1 패턴 영상을 출력하도록 제1 프로젝션부(120-1)를 제어하고, 제2 투사 위치로 제2 패턴 영상을 출력하도록 제2 프로젝션부(120-2)를 제어할 수 있다.
한편, 본 개시의 일 실시 예에 따른 영상 출력 장치(100)는 영상 출력 장치(100)의 전면을 향하도록 배치되며, 제1 프로젝션부(120-1)가 출력하는 제1 패턴 영상과 제2 프로젝션부(120-2)가 출력하는 제2 패턴 영상을 감지하는 센서(미도시)를 구비할 수 있다. 여기서, 센서는 적어도 하나의 카메라를 포함할 수 있다.
일 실시 예에 따른 프로세서(140)는 센서가 감지한 제1 패턴 영상과 제2 패턴 영상에 기초하여 제1 프로젝션부(120-1)(Project 1) 및 제2 프로젝션부(120-2)(Project 2)의 캘리브레이션을 수행할 수 있다.
여기서, 프로세서(140)는 렌즈 시프트(Lens Shift), 컬러 매칭(Color Matching), 엣지 블렌딩(Edge Blending), 키스톤(Keystone) 보정, 레벨링(leveling) 보정(수평 보정), 포커스 보정 등을 수행할 수 있다.
예를 들어, 프로세서(140)는 제1 패턴 영상과 제2 패턴 영상의 색상, 휘도 등이 동일하도록 컬러 매칭을 수행할 수 있다.
예를 들어, 프로세서(140)는 제1 패턴 영상과 제2 패턴 영상이 겹치는 부분의 경계선이 부각되지 않고, 제1 패턴 영상과 제2 패턴 영상이 자연스럽게 연결되도록(예를 들어, 심리스(Seamless)) 엣지 블렌딩을 수행할 수 있다.
예를 들어, 프로세서(140)는 영상 출력 장치(100)의 기울어짐으로 인하여 제1 패턴 영상과 제2 패턴 영상이 사다리꼴 형태이면, 제1 패턴 영상과 제2 패턴 영상이 직사각형 또는 정사각형 형태가 되도록 키스톤 보정을 수행할 수 있다.
예를 들어, 프로세서(140)는 제1 패턴 영상과 제2 패턴 영상 각각이 수평이되도록 특정 각도만큼 회전시키는 레벨링 보정을 수행할 수 있다.
예를 들어, 프로세서(140)는 제1 패턴 영상과 제2 패턴 영상 각각의 초점이 맞도록 포커스 보정을 수행할 수 있다.
여기서, 제1 패턴 영상과 제2 패턴 영상은 영상 출력 장치(100)의 구동 단계(예를 들어, 부팅 단계), 설정 단계, 캘리브레이션 수행 단계 등에서 프로세서(140)의 제어에 따라 제1 프로젝션부(120-1) 및 제2 프로젝션부(120-2) 각각이 출력하는 기 설정된 영상을 의미할 수 있다.
제1 패턴 영상과 제2 패턴 영상 각각은 서로 다른 패턴을 포함하는 영상일 수도 있고, 서로 다른 오브젝트를 포함하는 영상, 서로 다른 색상의 영상 또는, 서로 다른 밝기의 영상일 수도 있음은 물론이다.
이어서, 하나 이상의 프로세서(140)는 입력 영상을 분석하여 입력 영상의 컨텍스트 정보(Context) 정보를 식별할 수 있다(S320).
여기서, 입력 영상의 컨텍스트 정보는, 입력 영상의 크기 정보, 해상도 정보, 비율(ratio) 정보, 휘도 정보, 뎁스 맵(Depth map) 정보, 오브젝트 맵(Object Map) 정보, RGB Histogram, Color Histogram, 샐리언시 맵(Saliency Map) 정보(또는, Saliency Mask), 또는 Peak Highlight Map 정보 중 적어도 하나를 포함할 수 있다.
여기서, 뎁스 맵은, 입력 영상 내에서 관찰 시점(viewpoint)으로부터 영역 별 또는 픽셀 별 거리와 관련된 정보를 포함하는 이미지 채널을 의미할 수 있다.
오브젝트 맵은, 입력 영상 내에서 복수의 오브젝트, 기 정의된 오브젝트, 임계 값 이상의 우선 순위를 가지는 메인 오브젝트 등의 형태, 모양을 나타내는 이미지 채널을 의미할 수 있다.
샐리언시 맵(Saliency Map) 정보는 입력 영상 내에서 픽셀 값이 급격하게 변화하는 영역을 나타내는 이미지 채널이며, 입력 영상 내에서 적어도 하나의 오브젝트를 배경 영상(background)와 분리시켜 나타내는 이미지 채널일 수 있다.
Peak Highlight Map 정보는 high contrast 정보를 포함하며, 입력 영상 내에서 가장 밝은 영역과 가장 어두운 영역의 격차를 증가시켜, 입력 영상 내에서 적어도 하나의 오브젝트와 배경 영상을 분리시켜 나타내는 이미지 채널일 수 있다.
이어서, 프로세서(140)는 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 어느 하나를 식별할 수 있다(S330, S340, S350).
일 실시 예에 따라, 프로세서(140)는 식별된 화면 레이아웃에 따라 제1 프로젝션부(120-1)가 영상을 투사하는 제1 투사 위치를 조정하기 위한 제1 구동부(110-1)의 회전 파라미터와 제2 프로젝션부(120-2)가 영상을 투사하는 제2 투사 위치를 조정하기 위한 제2 구동부(110-2)의 회전 파라미터를 식별할 수 있다(S360).
이어서, 프로세서(140)는 제1 구동부(110-1)의 회전 파라미터에 기초하여 제1 구동부의 제1 투사 위치를 조정하며, 제2 구동부(110-2)의 회전 파라미터에 기초하여 제2 투사 위치를 조정할 수 있다.
본 개시의 일 실시 예에 따른 회전 파라미터에 대해서는 도 4를 참조하여 설명하도록 한다.
도 4는 본 개시의 일 실시 예에 따른 구동부의 동작을 설명하기 위한 도면이다.
도 4를 참조하면, 영상 출력 장치(100)는 제1 프로젝션부(120-1) 및 제1 프로젝션부(120-1)와 결합되어 제1 프로젝션부(120-1)의 제1 투사 위치를 조정하는 제1 구동부(110-1)를 포함할 수 있다. 여기서, 제1 구동부(110-1)는 PTZ(Pan, Tilt, Zoom) 모터를 구비할 수 있다. 일 실시 예에 따른, PTZ 모터는, 팬(Pan: 수평 방향, 좌우 방향) 방향으로 회전 가능한 모터와, 틸트(Tilt: 수직 방향, 상하 방향) 방향으로 회전 가능한 모터를 포함할 수 있다.
또한, 영상 출력 장치(100)는 제2 프로젝션부(120-2) 및 제2 프로젝션부(120-2)와 결합되어 제2 프로젝션부(120-2)의 제2 투사 위치를 조정하는 제2 구동부(110-2)를 포함할 수 있다. 여기서, 제2 구동부(110-2)는 PTZ(Pan, Tilt, Zoom) 모터를 구비할 수 있다. 일 실시 예에 따른, PTZ 모터는, 팬(Pan: 수평 방향, 좌우 방향) 방향으로 회전 가능한 모터와, 틸트(Tilt: 수직 방향, 상하 방향) 방향으로 회전 가능한 모터를 포함할 수 있다.
일 실시 예에 따라, 프로세서(140)는 식별된 화면 레이아웃에 따라 제1 투사 위치를 조정하기 위한 제1 구동부(110-1)의 회전 파라미터를 식별할 수 있고, 제2 투사 위치를 조정하기 위한 제2 구동부(110-2)의 회전 파라미터를 식별할 수 있다.
여기서, 회전 파라미터는 ① 팬 방향(즉, 수평 방향)의 회전 방향(예를 들어, 좌측, 우측 또는 정지) 및 회전 각도(예를 들어, 영상 출력 장치(100)의 전면을 기준으로 -180° 내지 +180°), ② 틸트 방향(즉, 수직 방향)의 회전 방향(예를 들어, 상측, 하측 또는 정지) 및 회전 각도(예를 들어, 영상 출력 장치(100)의 전면을 기준으로 -180° 내지 +180°)를 포함할 수 있다.
이어서, 프로세서(140)는 제1 구동부(110-1)의 회전 파라미터에 기초하여 제1 구동부(110-1)의 PTZ 모터를 4 방향(예를 들어, 상하좌우) 중 적어도 하나의 방향으로 회전시켜 제1 투사 위치를 조정할 수 있다. 또한, 프로세서(140)는 제2 구동부(110-2)의 회전 파라미터에 기초하여 제2 구동부(110-2)의 PTZ 모터를 4 방향(예를 들어, 상하좌우) 중 적어도 하나의 방향으로 회전시켜 제2 투사 위치를 조정할 수 있다.
도 5는 본 개시의 일 실시 예에 따른 어레이(Array) 화면 레이아웃을 설명하기 위한 도면이다.
도 3의 S330 단계에서, 하나 이상의 프로세서(140)가 입력 영상의 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 어레이 화면 레이아웃을 식별하는 경우를 상정할 수 있다(S340).
일 실시 예에 따른 프로세서(140)는 S330 단계에서, 입력 영상의 크기 정보, 비율 정보, 해상도 정보 중 적어도 하나에 기초하여 입력 영상을 왜곡없이 출력하기 위해 복수의 화면 레이아웃 중 어레이 화면 레이아웃을 식별할 수 있다(S340).
이어서, 프로세서(140)는 식별된 어레이 화면 레이아웃에 따라 제1 프로젝션부(120-1)가 제1 투사 위치로 입력 영상의 제1 부분(10-1)(Screen 1)(예를 들어, 제1 부분 영상)을 투사하기 위한 제1 구동부(110-1)의 회전 파라미터를 식별하고, 제2 프로젝션부(120-2)가 제2 투사 위치로 입력 영상의 제2 부분(10-2)(Screen 2)(예를 들어, 제2 부분 영상)을 투사하기 위한 제2 구동부(110-2)의 회전 파라미터를 식별할 수 있다(S350).
이어서, 프로세서(140)는 제1 구동부(110-1)의 회전 파라미터에 따라 제1 구동부(110-1)의 회전을 제어할 수 있다. 예를 들어, 도 5에 점선으로 도시된 바와 같이 프로세서(140)는 제1 구동부(110-1)를 좌측으로 회전시켜 제1 프로젝션부(120-1)의 제1 투사 위치를 좌측으로 조정할 수 있다.
또한, 프로세서(140)는 제2 구동부(110-2)의 회전 파라미터에 따라 제2 구동부(110-2)의 회전을 제어할 수 있다. 예를 들어, 도 5에 점선으로 도시된 바와 같이 프로세서(140)는 제2 구동부(110-2)를 우측으로 회전시켜 제2 프로젝션부(120-2)의 제2 투사 위치를 우측으로 조정할 수 있다.
어레이 화면 레이아웃에서 제1 프로젝션부(120-1)는 입력 영상의 제1 부분(10-1)(예를 들어, 제1 부분 영상)을 출력하고, 제2 프로젝션부(120-2)는 입력 영상의 제2 부분(10-2)(예를 들어, 제2 부분 영상)을 출력하므로, 영상 출력 장치(100)는 제1 부분(10-1)과 제2 부분(10-2)이 결합되어 하나의 영상 즉, 입력 영상을 출력할 수 있다(S370).
여기서, 어레이 화면 레이아웃은 제1 프로젝션부(120-1)의 제1 투사 위치 및 제2 프로젝션부(120-2)의 제2 투사 위치가 서로 인접한 위치에 배열되는 화면 레이아웃을 의미할 수 있다.
도 6은 본 개시의 일 실시 예에 따른 어레이(Array) 화면 레이아웃을 설명하기 위한 도면이다.
도 6에 도시된 바와 같이, 일 실시 예에 따른 하나 이상의 프로세서(140)는 식별된 어레이 화면 레이아웃에 따라 제1 프로젝션부(120-1)가 제1 투사 위치로 입력 영상의 제1 부분(10-1)(Screen 1)(예를 들어, 제1 부분 영상)을 투사하기 위한 제1 구동부(110-1)의 회전 파라미터를 식별하고, 제2 프로젝션부(120-2)가 제2 투사 위치로 입력 영상의 제2 부분(10-2)(Screen 2)(예를 들어, 제2 부분 영상)을 투사하기 위한 제2 구동부(110-2)의 회전 파라미터를 식별할 수 있다(S350).
이어서, 프로세서(140)는 제1 구동부(110-1)의 회전 파라미터에 따라 제1 구동부(110-1)의 회전을 제어할 수 있다. 예를 들어, 도 5에 점선으로 도시된 바와 같이 프로세서(140)는 제1 구동부(110-1)를 우측 및 상측 각각으로 일정 각도 회전시켜 제1 프로젝션부(120-1)의 제1 투사 위치를 상측으로 조정할 수 있다.
또한, 프로세서(140)는 제2 구동부(110-2)의 회전 파라미터에 따라 제2 구동부(110-2)의 회전을 제어할 수 있다. 예를 들어, 도 5에 점선으로 도시된 바와 같이 프로세서(140)는 제2 구동부(110-2)를 좌측 및 하측 각각으로 일정 각도 회전시켜 제2 프로젝션부(120-2)의 제2 투사 위치를 하측으로 조정할 수 있다.
어레이 화면 레이아웃에서 제1 프로젝션부(120-1)는 입력 영상의 제1 부분(10-1)(예를 들어, 제1 부분 영상)을 상측으로 출력하고, 제2 프로젝션부(120-2)는 입력 영상의 제2 부분(10-2)(예를 들어, 제2 부분 영상)을 하측으로 출력하므로, 영상 출력 장치(100)는 제1 부분(10-1)과 제2 부분(10-2)이 결합되어 하나의 영상 즉, 입력 영상을 출력할 수 있다(S370).
도 5는 어레이 화면 레이아웃 중 Horizontal array 화면 레이아웃의 일 예시이며, 도 6은 어레이 화면 레이아웃 중 Vertical array 화면 레이아웃의 일 예시일 수 있다.
도 7은 본 개시의 일 실시 예에 따른 오버레이(Overlay) 화면 레이아웃을 설명하기 위한 도면이다.
도 3의 S330 단계에서, 하나 이상의 프로세서(140)가 입력 영상의 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 오버레이 화면 레이아웃을 식별하는 경우를 상정할 수 있다(S350).
일 실시 예에 따른 프로세서(140)는 S330 단계에서, 입력 영상의 휘도 정보, 뎁스 맵(Depth map) 정보, 오브젝트 맵(Object Map) 정보, RGB Histogram, Color Histogram, 샐리언시 맵(Saliency Map) 정보(또는, Saliency Mask), 또는 Peak Highlight Map 중 적어도 하나에 기초하여 입력 영상을 왜곡없이 출력하기 위해 또는, 입력 영상의 명암비, 깊이감(Depthness) 및 다이내믹 레인지(Dynamic range)를 유지(또는, 증가)시키기 위해 복수의 화면 레이아웃 중 오버레이 화면 레이아웃을 식별할 수 있다(S350).
일 실시 예에 따라, S330 단계에서 프로세서(140)는 입력 영상의 최대 휘도가 제1 프로젝션부(120-1) 및 제2 프로젝션부(120-2) 각각의 출력 가능한 최대 휘도 보다 크면, 복수의 화면 레이아웃 중 오버레이 화면 레이아웃을 식별할 수 있다(S350).
일 실시 예에 따라, S330 단계에서 프로세서(140)는 입력 영상의 뎁스 맵, 오브젝트 맵, 또는 샐리언시 맵(Saliency Map) 정보(또는, Saliency Mask) 중 적어도 하나에 입력 영상에 포함된 복수의 오브젝트가 식별되면, 근거리 오브젝트(관찰 시점으로부터 상대적으로 근거리에 위치하는 오브젝트)의 휘도는 증가시키고, 원거리 오브젝트(관찰 시점으로부터 상대적으로 원거리에 위치하는 오브젝트)의 휘도는 감소시키기 위해 오버레이 화면 레이아웃을 식별할 수 있다(S350).
이어서, 프로세서(140)는 식별된 오버레이 화면 레이아웃에 따라 제1 프로젝션부(120-1)가 제1 투사 위치로 입력 영상의 제1 영상(Screen 1)을 투사하기 위한 제1 구동부(110-1)의 회전 파라미터를 식별하고, 제2 프로젝션부(120-2)가 제2 투사 위치로 입력 영상의 제2 영상(Screen 2)을 투사하기 위한 제2 구동부(110-2)의 회전 파라미터를 식별할 수 있다(S360).
이어서, 프로세서(140)는 제1 구동부(110-1)의 회전 파라미터에 따라 제1 구동부(110-1)의 회전을 제어할 수 있다. 예를 들어, 도 7에 점선으로 도시된 바와 같이 프로세서(140)는 제1 구동부(110-1)를 우측으로 회전시켜 제1 프로젝션부(120-1)의 제1 투사 위치를 우측으로 조정할 수 있다.
또한, 프로세서(140)는 제2 구동부(110-2)의 회전 파라미터에 따라 제2 구동부(110-2)의 회전을 제어할 수 있다. 예를 들어, 도 7에 점선으로 도시된 바와 같이 프로세서(140)는 제2 구동부(110-2)를 좌측으로 회전시켜 제2 프로젝션부(120-2)의 제2 투사 위치를 좌측으로 조정할 수 있다.
여기서, 오버레이 화면 레이아웃에서 제1 프로젝션부(120-1)의 제1 투사 위치와 제2 프로젝션부(120-2)의 제2 투사 위치는 동일한 위치일 수 있다.
오버레이 화면 레이아웃에서 제1 프로젝션부(120-1)는 제1 영상(Screen 1)을 출력하고, 제2 프로젝션부(120-2)는 제2 영상(Screen 2)을 출력하므로, 영상 출력 장치(100)는 제1 영상과 제2 영상이 중첩되어 하나의 영상 즉, 입력 영상을 출력할 수 있다(S380).
여기서, 제1 프로젝션부(120-1)가 출력하는 제1 영상(Screen 1)과 제2 프로젝션부(120-2)가 출력하는 제2 영상(Screen 2)은 동일할 수도 있고, 상이할 수도 있다.
예를 들어, 프로세서(140)는 오버레이 화면 레이아웃이 식별되면, 다이내믹 레인지(DR)을 확장하기 위한 제1 톤 맵 커브(tone map curve)를 입력 영상에 적용하여 입력 영상에 포함된 복수의 영역 중 상대적으로 밝은 영역(예를 들어, 고 계조, 고 휘도)의 휘도가 증가되고 상대적으로 어두운 영역(예를 들어, 저 계조, 저 휘도)의 휘도가 감소된 제1 영상(10-1)을 획득할 수 있다. 또한, 프로세서(140)는 제2 톤 맵 커브를 입력 영상에 적용하여 제2 영상(10-2)을 획득할 수 있다. 여기서, 제1 톤 맵 커브와 제2 톤 맵 커브는 동일할 수도 있고, 상이할 수도 있다.
이어서, 프로세서(140)는 제1 영상(10-1)(Screen 1)을 출력하도록 제1 프로젝션부(120-1)를 제어하고, 제2 영상(10-2)(Screen 2)을 출력하도록 제2 프로젝션부(120-2)를 제어할 수 있다. 영상 출력 장치(100)는 제1 영상(10-1)과 제2 영상(10-2)이 중첩되어 하나의 영상 즉, 다이내믹 레인지(DR)을 확장된 영상을 출력할 수 있다(S380).
도 8은 본 개시의 일 실시 예에 따른 부분 오버레이(Partial Overlay) 화면 레이아웃을 설명하기 위한 도면이다.
도 3의 S330 단계에서, 하나 이상의 프로세서(140)가 입력 영상의 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 부분 오버레이 화면 레이아웃을 식별하는 경우를 상정할 수 있다(S350).
일 실시 예에 따른 프로세서(140)는 S330 단계에서, 뎁스 맵(Depth map) 정보, 오브젝트 맵(Object Map) 정보, RGB Histogram, Color Histogram, 샐리언시 맵(Saliency Map) 정보(또는, Saliency Mask), 또는 Peak Highlight Map 중 적어도 하나에 기초하여 입력 영상에 포함된 복수의 오브젝트 중 특정 오브젝트를 강조하기 위해(또는, 특정 오브젝트에 대한 시인성(Visibility)을 증가시키기 위해) 복수의 화면 레이아웃 중 부분 오버레이 화면 레이아웃을 식별할 수 있다(S350).
일 실시 예에 따라, S330 단계에서 프로세서(140)는 뎁스 맵(Depth map) 정보, 오브젝트 맵(Object Map) 정보에 기초하여 입력 영상에 포함된 복수의 오브젝트 중 사용자 조작에 따라 제어되는 캐릭터 오브젝트(Character object) 또는 사용자 조작에 따라 인터랙션(interaction) 가능한 메인 오브젝트가 식별되거나, 입력 영상이 게임 컨텐츠이면, 복수의 화면 레이아웃 중 오버레이 화면 레이아웃을 식별할 수 있다(S350).
여기서, 사용자 조작에 따라 인터랙션 가능한 오브젝트는 메인 오브젝트로, 입력 영상에 포함된 복수의 오브젝트 중 인터랙션이 불가능한 오브젝트, 입력 영상에 포함된 배경 영상(background) 등은 서브 오브젝트로 통칭하도록 한다.
일 실시 예에 따라, S330 단계에서 프로세서(140)는 입력 영상의 뎁스 맵, 오브젝트 맵, 또는 샐리언시 맵(Saliency Map) 정보(또는, Saliency Mask) 중 적어도 하나에 입력 영상에 포함된 복수의 오브젝트가 식별되면, 근거리 오브젝트(관찰 시점으로부터 상대적으로 근거리에 위치하는 오브젝트)를 나머지 오브젝트(예를 들어, 원거리 오브젝트(관찰 시점으로부터 상대적으로 원거리에 위치하는 오브젝트)) 보다 강조하기 위해 부분 오버레이 화면 레이아웃을 식별할 수 있다(S350).
이어서, 프로세서(140)는 식별된 부분 오버레이 화면 레이아웃에 따라 제1 프로젝션부(120-1)가 제1 투사 위치로 입력 영상의 제1 부분(10-1)(Screen 1)(예를 들어, 제1 부분 영상)을 투사하기 위한 제1 구동부(110-1)의 회전 파라미터를 식별하고, 제2 프로젝션부(120-2)가 제2 투사 위치로 입력 영상의 제2 부분(10-2)(Screen 2)(예를 들어, 제2 부분 영상)을 투사하기 위한 제2 구동부(110-2)의 회전 파라미터를 식별할 수 있다(S360).
일 실시 예에 따라 프로세서(140)는 입력 영상의 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 부분 오버레이 화면 레이아웃이 식별되면, 부분 오버레이 화면 레이아웃에 따라 입력 영상에 포함된 복수의 오브젝트 중 특정 오브젝트를 포함하는 제1 부분(10-1)(예를 들어, 제1 영역, 제1 부분 영상)을 식별하고, 나머지 오브젝트를 포함하는 제2 부분(10-2)(예를 들어, 제2 영역, 제2 부분 영상)을 식별할 수 있다.
여기서, 제1 부분(10-1)은 특정 오브젝트(또는, 캐릭터 오브젝트, 메인 오브젝트 등)를 포함하며, 제2 부분(10-2)은 나머지 오브젝트(또는, 배경 영상, 서브 오브젝트 등)를 포함할 수 있다.
일 실시 예에 따른 프로세서(140)는, 제1 프로젝션부(120-1)가 제1 투사 위치로 제1 부분(10-1)을 투사하도록 제1 구동부(110-1)의 회전을 제어할 수 있고, 제2 프로젝션부(120-2)가 제2 투사 위치로 제2 부분(10-2)을 투사하도록 제2 구동부(110-2)의 회전을 제어할 수 있다.
여기서, 제1 부분(10-1)이 캐릭터 오브젝트이고, 제2 부분(10-2)이 배경 영상이면, 프로세서(140)는 제1 구동부(110-1)의 회전 파라미터에 따라 제1 구동부(110-1)를 회전시키며, 제2 구동부(110-2)는 회전시키지 않을 수 있다.
예를 들어, 도 8에 도시된 바와 같이, 프로세서(140)는 배경 영상을 유지시키기 위해 제2 부분(10-2)의 투사 위치가 유지되도록 제2 구동부(110-2)를 제어하며(예를 들어, 제2 구동부(110-2)를 고정), 입력 영상 내에서 캐릭터 오브젝트의 이동에 따라 제1 부분(10-1)의 투사 위치가 제2 투사 위치 내에서 이동되도록 제1 구동부(110-1)를 제어(예를 들어, 제1 구동부(110-1)를 실시간 회전)할 수 있다.
한편, 상술한 실시 예에서는, 제1 프로젝션부(120-1)가 특정 오브젝트를 포함하는 제1 부분(10-1)을 투사하며, 제2 프로젝션부(120-2)가 나머지 오브젝트를 포함하는 제2 부분(10-2)을 투사하는 경우를 상정하여 도시하였으나, 이에 한정되지 않음은 물론이다.
예를 들어, 도 8에 도시된 바와 같이 프로세서(140)의 제어에 따라 제1 프로젝션부(120-1)가 나머지 오브젝트를 포함하는 제1 부분(10-1)(예를 들어, 배경 영상)을 투사하며, 제2 프로젝션부(120-2)가 특정 오브젝트를 포함하는 제2 부분(10-2)(예를 들어, 캐릭터 오브젝트)을 투사할 수도 있음은 물론이다.
한편, 상술한 예시에서 프로세서(140)는 Edge Blending 기능을 이용하여 제1 부분(10-1) 및 제2 부분(10-2) 각각을 투사하도록 제1 프로젝션부(120-1) 및 제2 프로젝션부(120-2)를 제어할 수 있다.
예를 들어, 도 5 및 도 6에 도시된 바와 같이 어레이(Array) 화면 레이아웃에서, 프로세서(140)는 edge blending 기능을 이용하여 제1 부분(10-1)과 제2 부분(10-2) 사이에 이격된 영역이 발생하거나, 제1 부분(10-1)과 제2 부분(10-2) 사이에 겹치는 영역이 발생하지 않도록 제1 부분(10-1)과 제2 부분(10-2)이 자연스럽게 연결되어 하나의 영상이 되도록(예를 들어, 심리스(Seamless)) 엣지 블렌딩(Edge Blending)을 수행할 수 있다.
예를 들어, 프로세서(140)는 제1 부분((10-1)과 제2 부분(10-2) 각각의 밝기, 투사 위치 등을 조정하여 제1 부분((10-1)과 제2 부분(10-2)의 Seamless 연결에 따라 하나의 영상을 제공할 수 있다.
예를 들어, 제1 부분(10-1)과 제2 부분(10-2)의 맞닿는 일 영역은 제1 부분(10-1)과 제2 부분(10-2) 각각의 밝기가 중첩되므로 경계선이 도드라지는 문제가 발생할 수 있다. 본 개시의 일 실시 예에 따른 프로세서(140)는 제1 부분(10-1)과 제2 부분(10-2)의 맞닿는 일 영역의 밝기를 조정하여(예를 들어, 밝기를 감소시켜) 제1 부분(10-1)과 제2 부분(10-2) 각각의 밝기가 중첩되어도 경계선의 밝기가 나머지 영역(제1 부분(10-1)과 제2 부분(10-2)의 맞닿는 일 영역을 제외한 나머지 영역)의 밝기와 동일하게(또는, 임계 값 이내로 차이가 나도록) 하나의 영상을 제공할 수 있다.
또한, 도 7 또는 도 8에 도시된 바와 같이, 오버레이 화면 레이아웃에서 제1 프로젝션부(120-1)는 제1 영상(Screen 1)을 출력하고, 제2 프로젝션부(120-2)는 제2 영상(Screen 2)을 출력하므로, 프로세서(140)는 제1 영상(Screen 1)과 제2 영상(Screen 2)이 중첩되어 하나의 영상이 되도록(예를 들어, 제1 영상(Screen 1)과 제2 영상(Screen 2)이 어긋나지 않도록) 엣지 블렌딩(Edge Blending)을 수행할 수 있다.
예를 들어, 프로세서(140)는 제1 영상(Screen 1)과 제2 영상(Screen 2) 각각의 밝기, 투사 위치 등을 조정하여 제1 영상(Screen 1)과 제2 영상(Screen 2)의 중첩(Seamless)에 따라 하나의 영상을 제공할 수 있다.예를 들어, 제1 화면(Screen 1)과 제2 영상(Screen 2)이 중첩되는 일 영역은 제1 화면(Screen 1)과 제2 영상(Screen 2) 각각의 밝기가 중첩되므로 일 영역의 밝기가 강조되어 왜곡된 영상이 제공되는 문제가 발생할 수 있다.
본 개시의 일 실시 예에 따른 프로세서(140)는 제1 화면(Screen 1)과 제2 영상(Screen 2)이 중첩되는 일 영역의 밝기를 조정하여(예를 들어, 밝기를 감소시켜) 제1 화면(Screen 1) 내에서 제2 화면(Screen 2)이 중첩되어도 중첩된 일 영역의 밝기가 나머지 영역(제1 화면(Screen 1) 내에서 제2 화면(Screen 2)이 중첩된 일 영역을 제외한 나머지 영역)의 밝기와 동일하게(또는, 임계 값 이내로 차이가 나도록) 하나의 영상을 제공할 수 있다.
도 9는 본 개시의 일 실시 예에 따른 구동부의 동작을 설명하기 위한 도면이다.
상술한 실시 예에서 제1 구동부(110-1) 및 제2 구동부(110-2) 각각이 4 방향(상하좌우) 중 적어도 하나의 방향으로 회전 가능함을 기재하였으나, 이에 한정되지 않음은 물론이다.
예를 들어, 도 9에 도시된 바와 같이, 프로세서(140)는 제1 구동부(110-1) 및 제2 구동부(110-2) 각각은 일정 거리만큼 전진 또는 후진할 수 있다.
일 예로, 프로세서(140)는 제1 프로젝션부(120-1)가 투사하는 제1 영상(10-1)(Screen 1)의 크기를 축소시키기 위해 제1 구동부(110-1)를 후진시킬 수 있으며, 제1 영상(10-1)의 크기를 확대시키기 위해 제1 구동부(110-1)를 전진시킬 수도 있음은 물론이다.
또한, 프로세서(140)는 제2 프로젝션부(120-2)가 투사하는 제2 영상(10-2)(Screen 2)의 크기를 축소시키기 위해 제2 구동부(110-2)를 후진시킬 수 있으며, 제2 영상(10-2)의 크기를 확대시키기 위해 제2 구동부(110-2)를 전진시킬 수도 있음은 물론이다.
도 9는 설명의 편의를 위해 부분 오버레이 화면 레이아웃일 때, 프로세서(140)의 제어에 따라 제1 구동부(110-1) 및 제2 구동부(110-2) 각각은 전진 또는 후진할 수 있음을 도시하였으나, 이에 한정되지 않음은 물론이다.
예를 들어, 어레이 화면 레이아웃일 때, 프로세서(140)는 제1 구동부(110-1) 및 제2 구동부(110-2) 각각을 독립적으로 전진 또는 후진시킬 수 있으며, 제1 부분(10-1)(예를 들어, 제1 부분 영상) 및 제2 부분(10-2)(제2 부분 영상) 각각의 크기를 제어할 수 있다.
또한, 오버레이 화면 레이아웃일 때도, 프로세서(140)는 제1 구동부(110-1) 및 제2 구동부(110-2) 각각을 독립적으로 전진 또는 후진시킬 수 있으며, 제1 영상(10-1)(Screen 1) 및 제2 영상(10-2)(Screen 2) 각각의 크기를 제어할 수 있음은 물론이다.
도 10은 본 개시의 일 실시 예에 따른 복수의 프로젝션부의 캘리브레이션을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 S310 단계에서 프로세서(140)는 제1 프로젝션부(120-1)(Project 1) 및 제2 프로젝션부(120-2)(Project 2)의 캘리브레이션을 수행할 수 있다(S310).
예를 들어, 프로세서(140)는 제1 투사 위치로 제1 패턴 영상(20-1)을 출력하도록 제1 프로젝션부(120-1)를 제어하고, 제2 투사 위치로 제2 패턴 영상(20-2)을 출력하도록 제2 프로젝션부(120-2)를 제어할 수 있다.
본 개시의 일 실시 예에 따른 영상 출력 장치(100)는 센서(미도시)를 구비하며, 센서를 통해 제1 프로젝션부(120-1)가 출력하는 제1 패턴 영상(20-1)과 제2 프로젝션부(120-2)가 출력하는 제2 패턴 영상(20-2)을 감지할 수 있다.
이어서, 프로세서(140)는 센서가 감지한 제1 패턴 영상(20-1)과 제2 패턴 영상(20-2)에 기초하여 제1 프로젝션부(120-1)에 대응되는 제1 투사 위치와 제2 프로젝션부(120-2)에 대응되는 제2 투사 위치를 감지할 수 있다.
또한, 프로세서(140)는 센서가 감지한 제1 패턴 영상(20-1)과 제2 패턴 영상(20-1)에 기초하여 제1 프로젝션부(120-1)(Project 1) 및 제2 프로젝션부(120-2)(Project 2)의 캘리브레이션을 수행할 수 있다. 예를 들어, 프로세서(140)는 렌즈 시프트(Lens Shift), 컬러 매칭(Color Matching), 엣지 블렌딩(Edge Blending), 키스톤(Keystone) 보정, 레벨링(leveling) 보정(수평 보정), 포커스 보정 등을 수행할 수 있다.
본 개시의 일 실시 예에 따른 프로세서(140)는 도 3의 S330 단계에서 식별된 레이아웃에 따라, S310 단계의 캘리브레이션을 재 수행할 수도 있다.
예를 들어, S330 단계에서 프로세서(140)는 어레이 화면 레이아웃이 식별되면, S310 단계를 재 수행하여 어레이 화면 레이아웃에 대응되도록 제1 투사 위치와 제2 투사 위치를 조정하기 위해 제1 구동부(110-1) 및 제2 구동부(110-2) 각각을 회전(또는, 전진/후진)시킬 수 있다.
일 예로, 프로세서(140)는 센서를 통해 제1 프로젝션부(120-1)가 투사하는 제1 패턴 영상(20-1)과 제2 프로젝션부(120-2)가 투사하는 제2 패턴 영상(20-2)을 감지하며, 감지된 제1 패턴 영상(20-1)의 제1 위치 정보와 제2 패턴 영상(20-2)의 제2 위치 정보에 기초하여 제1 구동부(110-1)의 회전 파라미터와 제2 구동부(110-2)의 회전 파라미터를 식별할 수 있다.
이어서, 프로세서(140)는 제1 구동부(110-1)의 회전 파라미터에 따라 제1 구동부(110-1)를 회전시켜 제1 투사 위치를 조정하며, 제2 구동부(110-2)의 회전 파라미터에 따라 제2 구동부(110-2)를 회전시켜 제2 투사 위치를 조정할 수 있다.
상술한 예시에서는 설명의 편의를 위해 어레이 화면 레이아웃을 상정하여 설명하였으나, 이에 한정되지 않음은 물론이다.
일 실시 예에 따른 프로세서(140)는 S330 단계에서 프로세서(140)는 오버레이 화면 레이아웃(또는, 부분 오버레이 화면 레이아웃)이 식별되면, S310 단계를 재 수행하여 오버레이 화면 레이아웃에 대응되도록 제1 투사 위치와 제2 투사 위치를 조정하기 위해 제1 구동부(110-1) 및 제2 구동부(110-2) 각각을 회전(또는, 전진/후진)시킬 수 있다.
한편, 본 개시의 일 실시 예에 따른 프로세서(140)는 제1 프로젝션부(120-1)와 제2 프로젝션부(120-2) 중 어느 하나를 마스터(Master)로 설정하고, 나머지 하나를 슬레이브(Slave)로 설정할 수 있다.
일 예로, 영상 출력 장치(100)는 제1 프로젝션부(120-1)와 제2 프로젝션부(120-2) 각각의 식별 정보(예를 들어, 제원(Specification) 정보)를 비교하고, 비교 결과에 기초하여 어느 하나를 마스터(Master)로 설정하고, 나머지 하나를 슬레이브(Slave)로 설정할 수 있다. 예를 들어, 프로세서(140)는 제1 프로젝션부(120-1)와 제2 프로젝션부(120-2) 중 상대적으로 높은 밝기의 영상 출력이 가능한 어느 하나를 마스터로 설정하고 나머지 하나를 슬레이브로 설정할 수 있다. 여기서, 식별 정보는, 장치를 구성하는 구성 요소의 사양, 제원(예를 들어, 밝기(안시 루멘), 명암비, 해상도 등)을 의미할 수 있다. 다만, 이는 일 예시이며 이에 한정되지 않음은 물론이다.
예를 들어, 프로세서(140)는 임의로(randomly) 제1 프로젝션부(120-1)와 제2 프로젝션부(120-2) 중 어느 하나를 마스터(Master)로 설정하고, 나머지 하나를 슬레이브(Slave)로 설정할 수도 있음은 물론이다.
예를 들어, 프로세서(140)는 제1 프로젝션부(120-1)가 마스터로 설정되고 제2 프로젝션부(120-2)가 슬레이브로 설정되면, 부분 오버레이 화면 레이아웃에서 제1 프로젝션부(120-1)가 배경 영상을 투사하도록 제어하고, 제2 프로젝션부(120-2)가 특정 오브젝트를 포함하는 영상을 투사하도록 제어할 수 있다.
다만, 이는 일 예시이며 이에 한정되지 않음은 물론이다. 예를 들어, 프로세서(140)는 제1 프로젝션부(120-1)가 마스터로 설정되고 제2 프로젝션부(120-2)가 슬레이브로 설정되면, 부분 오버레이 화면 레이아웃에서 제1 프로젝션부(120-1)가 특정 오브젝트를 포함하는 영상을 투사하도록 제어하고, 제2 프로젝션부(120-2)가 배경 영상을 투사하도록 제어할 수도 있다.
도 11은 본 개시의 일 실시 예에 따른 영상 출력 장치의 제어 방법을 설명하기 위한 흐름도이다.
본 개시의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 영상 출력 장치의 제어 방법은, 우선, 입력 영상을 분석하여 입력 영상의 컨텍스트 정보(context) 정보를 식별한다(S1110).
이어서, 식별된 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 어느 하나를 식별한다(S1120).
이어서, 식별된 화면 레이아웃에 따라 영상 출력 장치에 구비된 제1 프로젝션부가 제1 투사 위치로 영상을 투사하도록 제1 구동부를 제어하고 영상 출력 장치에 구비된 제2 프로젝션부가 제2 투사 위치로 영상을 투사하도록 제2 구동부를 제어한다(S1130).
여기서, 제1 구동부 및 제2 구동부 각각은, PTZ(Pan, Tilt, Zoom) 모터를 포함하며, 제어하는 S1130 단계는, 식별된 화면 레이아웃에 따라 제1 투사 위치를 조정하기 위한 제1 구동부의 회전 파라미터 및 제2 투사 위치를 조정하기 위한 제2 구동부의 회전 파라미터를 식별하는 단계, 제1 구동부의 회전 파라미터에 기초하여 제1 구동부의 PTZ 모터를 4 방향 중 적어도 하나의 방향으로 회전시켜 제1 투사 위치를 조정하는 단계 및 제2 구동부의 회전 파라미터에 기초하여 제2 구동부의 PTZ 모터를 4 방향 중 적어도 하나의 방향으로 회전시켜 제2 투사 위치를 조정하는 단계를 포함할 수 있다.
여기서, 복수의 화면 레이아웃은, 제1 프로젝션부의 제1 투사 위치 및 제2 프로젝션부의 제2 투사 위치가 서로 인접한 위치에 배열되는 어레이(array) 화면 레이아웃을 포함하며, 제어하는 S1130 단계는, 식별된 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 어레이 화면 레이아웃이 식별되면, 식별된 어레이 화면 레이아웃에 따라 제1 프로젝션부가 제1 투사 위치로 입력 영상의 제1 부분을 투사하도록 제1 구동부를 제어하고 제2 프로젝션부가 제2 투사 위치로 입력 영상의 제2 부분을 투사하도록 제2 구동부를 제어하는 단계를 포함할 수 있다.
여기서, 복수의 화면 레이아웃은, 제1 프로젝션부의 제1 투사 위치 및 제2 프로젝션부의 제2 투사 위치가 동일한 위치인 오버레이 화면 레이아웃을 포함하며, 제어하는 S1130 단계는, 식별된 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 오버레이 화면 레이아웃이 식별되면, 식별된 오버레이 화면 레이아웃에 따라 제1 프로젝션부가 제1 투사 위치로 입력 영상을 투사하도록 제1 구동부를 제어하고 제2 프로젝션부가 제1 투사 위치와 동일한 위치로 입력 영상을 투사하도록 제2 구동부를 제어하는 단계를 포함할 수 있다.
본 개시의 일 실시 예에 따른 제어 방법은, 입력 영상에 제1 톤 맵 커브를 적용하여 휘도가 조정된 제1 영상을 획득하는 단계, 입력 영상에 제2 톤 맵 커브를 적용하여 휘도가 조정된 제2 영상을 획득하는 단계, 제1 영상을 출력하도록 제1 프로젝션부를 제어하는 단계 및 제2 영상을 출력하도록 제2 프로젝션부를 제어하는 단계를 더 포함할 수 있다.
본 개시의 일 실시 예에 따른 복수의 화면 레이아웃은, 제1 프로젝션부의 제1 투사 위치가 제2 프로젝션부의 제2 투사 위치 내의 일 영역에 오버레이(Overlay)되는 부분 오버레이(Partial overlay) 화면 레이아웃을 포함하며, 제어 방법은, 식별된 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 부분 오버레이 화면 레이아웃이 식별되면, 부분 오버레이 화면 레이아웃에 따라 입력 영상에 포함된 복수의 오브젝트 중 특정 오브젝트를 포함하는 제1 부분을 식별하고 나머지 오브젝트를 포함하는 제2 부분을 식별하는 단계를 더 포함하며, 제어하는 S1130 단계는, 제1 프로젝션부가 제1 투사 위치로 입력 영상의 제1 부분을 투사하도록 제1 구동부를 제어하고. 제2 프로젝션부가 제2 투사 위치로 입력 영상의 제2 부분을 투사하도록 제2 구동부를 제어하는 단계를 포함할 수 있다.
여기서, 제어하는 S1130 단계는, 제2 부분의 투사 위치가 유지되도록 제2 구동부를 제어하는 단계 및 특정 오브젝트의 이동에 따라 제1 부분의 투사 위치가 제2 투사 위치 내에서 이동되도록 제1 구동부를 제어하는 단계를 포함할 수 있다.
또한, 제1 부분에 포함된 특정 오브젝트는, 사용자 조작에 따라 제어되는 캐릭터 오브젝트 또는 사용자 조작에 따라 인터랙션(interaction) 가능한 메인 오브젝트 중 적어도 하나를 포함하며, 제2 부분은, 입력 영상에 포함된 배경 영상일 수 있다.
본 개시의 일 실시 예에 따른 입력 영상의 컨텍스트 정보는, 입력 영상의 해상도 정보, 휘도 정보, 뎁스 맵(Depth Map) 정보, 오브젝트 맵(Object Map) 정보 또는 피크 하이라이트 맵(Peak Highlight Map) 정보 중 적어도 하나를 포함할 수 있다.
본 개시의 일 실시 예에 따른 제어 방법은, 제1 투사 위치로 제1 패턴 영상을 출력하도록 제1 프로젝션부를 제어하는 단계, 제2 투사 위치로 제2 패턴 영상을 출력하도록 제2 프로젝션부를 제어하는 단계, 영상 출력 장치에 구비된 센서를 통해 제1 프로젝션부가 출력하는 제1 패턴 영상의 제1 위치 정보 및 제2 프로젝션부가 출력하는 제2 패턴 영상의 제2 위치 정보를 식별하는 단계 및 식별된 화면 레이아웃, 제1 위치 정보 및 제2 위치 정보에 기초하여 제1 투사 위치와 제2 투사 위치를 조정하기 위한 제1 구동부의 회전 파라미터 및 제2 구동부의 회전 파라미터를 식별하는 단계를 포함할 수 있다.
다만, 본 개시의 다양한 실시 예들은 영상 출력 장치 뿐 아니라, 영상 출력이 가능한 다양한 유형의 전자 장치에 적용될 수 있음은 물론이다.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 전자 장치의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 영상 출력 장치(100)에서의 처리 동작을 특정 기기가 수행하도록 한다.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100: 영상 출력 장치 110: 구동부
120: 프로젝션부 130: 통신 인터페이스
140: 프로세서

Claims (20)

  1. 영상 출력 장치에 있어서,
    회로를 포함하는 통신 인터페이스;
    제1 프로젝션부;
    제2 프로젝션부;
    상기 제1 프로젝션부의 투사 위치를 조정하는 제1 구동부;
    상기 제2 프로젝션부의 투사 위치를 조정하는 제2 구동부; 및
    상기 통신 인터페이스를 통해 수신된 입력 영상을 분석하여 상기 입력 영상의 컨텍스트 정보(context) 정보를 식별하고,
    상기 식별된 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 어느 하나를 식별하고,
    상기 식별된 화면 레이아웃에 따라 상기 제1 프로젝션부가 제1 투사 위치로 영상을 투사하도록 상기 제1 구동부를 제어하고 상기 제2 프로젝션부가 제2 투사 위치로 영상을 투사하도록 상기 제2 구동부를 제어하는 하나 이상의 프로세서;를 포함하는 영상 출력 장치.
  2. 제1항에 있어서,
    상기 제1 구동부 및 상기 제2 구동부 각각은,
    PTZ(Pan, Tilt, Zoom) 모터를 포함하며,
    상기 하나 이상의 프로세서는,
    상기 식별된 화면 레이아웃에 따라 상기 제1 투사 위치를 조정하기 위한 상기 제1 구동부의 회전 파라미터 및 상기 제2 투사 위치를 조정하기 위한 상기 제2 구동부의 회전 파라미터를 식별하고,
    상기 제1 구동부의 회전 파라미터에 기초하여 상기 제1 구동부의 PTZ 모터를 4 방향 중 적어도 하나의 방향으로 회전시켜 상기 제1 투사 위치를 조정하고,
    상기 제2 구동부의 회전 파라미터에 기초하여 상기 제2 구동부의 PTZ 모터를 4 방향 중 적어도 하나의 방향으로 회전시켜 상기 제2 투사 위치를 조정하는, 영상 출력 장치.
  3. 제2항에 있어서,
    상기 복수의 화면 레이아웃은,
    상기 제1 프로젝션부의 상기 제1 투사 위치 및 상기 제2 프로젝션부의 상기 제2 투사 위치가 서로 인접한 위치에 배열되는 어레이(array) 화면 레이아웃을 포함하며,
    상기 하나 이상의 프로세서는,
    상기 식별된 컨텍스트 정보에 기초하여 상기 복수의 화면 레이아웃 중 상기 어레이 화면 레이아웃이 식별되면, 상기 식별된 어레이 화면 레이아웃에 따라 상기 제1 프로젝션부가 제1 투사 위치로 상기 입력 영상의 제1 부분을 투사하도록 상기 제1 구동부를 제어하고 상기 제2 프로젝션부가 제2 투사 위치로 상기 입력 영상의 제2 부분을 투사하도록 상기 제2 구동부를 제어하는, 영상 출력 장치.
  4. 제2항에 있어서,
    상기 복수의 화면 레이아웃은,
    상기 제1 프로젝션부의 상기 제1 투사 위치 및 상기 제2 프로젝션부의 상기 제2 투사 위치가 동일한 위치인 오버레이 화면 레이아웃을 포함하며,
    상기 하나 이상의 프로세서는,
    상기 식별된 컨텍스트 정보에 기초하여 상기 복수의 화면 레이아웃 중 상기 오버레이 화면 레이아웃이 식별되면, 상기 식별된 오버레이 화면 레이아웃에 따라 상기 제1 프로젝션부가 제1 투사 위치로 상기 입력 영상을 투사하도록 상기 제1 구동부를 제어하고 상기 제2 프로젝션부가 상기 제1 투사 위치와 동일한 위치로 상기 입력 영상을 투사하도록 상기 제2 구동부를 제어하는, 영상 출력 장치.
  5. 제4항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 입력 영상에 제1 톤 맵 커브를 적용하여 휘도가 조정된 제1 영상을 획득하고,
    상기 입력 영상에 제2 톤 맵 커브를 적용하여 휘도가 조정된 제2 영상을 획득하고,
    상기 제1 영상을 출력하도록 상기 제1 프로젝션부를 제어하고,
    상기 제2 영상을 출력하도록 상기 제2 프로젝션부를 제어하는, 영상 출력 장치.
  6. 제1항에 있어서,
    상기 복수의 화면 레이아웃은,
    상기 제1 프로젝션부의 상기 제1 투사 위치가 상기 제2 프로젝션부의 상기 제2 투사 위치 내의 일 영역에 오버레이(Overlay)되는 부분 오버레이(Partial overlay) 화면 레이아웃을 포함하며,
    상기 하나 이상의 프로세서는,
    상기 식별된 컨텍스트 정보에 기초하여 상기 복수의 화면 레이아웃 중 상기 부분 오버레이 화면 레이아웃이 식별되면, 상기 부분 오버레이 화면 레이아웃에 따라 상기 입력 영상에 포함된 복수의 오브젝트 중 특정 오브젝트를 포함하는 상기 제1 부분을 식별하고 나머지 오브젝트를 포함하는 상기 제2 부분을 식별하고,
    상기 제1 프로젝션부가 제1 투사 위치로 상기 입력 영상의 상기 제1 부분을 투사하도록 상기 제1 구동부를 제어하고 상기 제2 프로젝션부가 제2 투사 위치로 상기 입력 영상의 상기 제2 부분을 투사하도록 상기 제2 구동부를 제어하는, 영상 출력 장치.
  7. 제6항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 제2 부분의 투사 위치가 유지되도록 상기 제2 구동부를 제어하고,
    상기 특정 오브젝트의 이동에 따라 상기 제1 부분의 투사 위치가 상기 제2 투사 위치 내에서 이동되도록 상기 제1 구동부를 제어하는, 영상 출력 장치.
  8. 제7항에 있어서,
    상기 제1 부분에 포함된 상기 특정 오브젝트는,
    사용자 조작에 따라 제어되는 캐릭터 오브젝트 또는 사용자 조작에 따라 인터랙션(interaction) 가능한 메인 오브젝트 중 적어도 하나를 포함하며,
    상기 제2 부분은,
    상기 입력 영상에 포함된 배경 영상인, 영상 출력 장치.
  9. 제1항에 있어서,
    상기 입력 영상의 컨텍스트 정보는,
    상기 입력 영상의 해상도 정보, 휘도 정보, 뎁스 맵(Depth Map) 정보, 오브젝트 맵(Object Map) 정보 또는 피크 하이라이트 맵(Peak Highlight Map) 정보 중 적어도 하나를 포함하는, 영상 출력 장치.
  10. 제1항에 있어서,
    센서;를 더 포함하며,
    상기 하나 이상의 프로세서는,
    상기 제1 투사 위치로 제1 패턴 영상을 출력하도록 상기 제1 프로젝션부를 제어하며,
    상기 제2 투사 위치로 제2 패턴 영상을 출력하도록 상기 제2 프로젝션부를 제어하며,
    상기 센서를 통해 상기 제1 프로젝션부가 출력하는 상기 제1 패턴 영상의 제1 위치 정보 및 상기 제2 프로젝션부가 출력하는 상기 제2 패턴 영상의 제2 위치 정보를 식별하며,
    상기 식별된 화면 레이아웃, 상기 제1 위치 정보 및 상기 제2 위치 정보에 기초하여 상기 제1 투사 위치와 상기 제2 투사 위치를 조정하기 위한 상기 제1 구동부의 회전 파라미터 및 제2 구동부의 회전 파라미터를 식별하는, 영상 출력 장치.
  11. 영상 출력 장치의 제어 방법에 있어서,
    입력 영상을 분석하여 상기 입력 영상의 컨텍스트 정보(context) 정보를 식별하는 단계;
    상기 식별된 컨텍스트 정보에 기초하여 복수의 화면 레이아웃 중 어느 하나를 식별하는 단계; 및
    상기 식별된 화면 레이아웃에 따라 상기 영상 출력 장치에 구비된 제1 프로젝션부가 제1 투사 위치로 영상을 투사하도록 제1 구동부를 제어하고 상기 영상 출력 장치에 구비된 제2 프로젝션부가 제2 투사 위치로 영상을 투사하도록 제2 구동부를 제어하는 단계;를 포함하는 제어 방법.
  12. 제11항에 있어서,
    상기 제1 구동부 및 상기 제2 구동부 각각은,
    PTZ(Pan, Tilt, Zoom) 모터를 포함하며,
    상기 제어하는 단계는,
    상기 식별된 화면 레이아웃에 따라 상기 제1 투사 위치를 조정하기 위한 상기 제1 구동부의 회전 파라미터 및 상기 제2 투사 위치를 조정하기 위한 상기 제2 구동부의 회전 파라미터를 식별하는 단계;
    상기 제1 구동부의 회전 파라미터에 기초하여 상기 제1 구동부의 PTZ 모터를 4 방향 중 적어도 하나의 방향으로 회전시켜 상기 제1 투사 위치를 조정하는 단계; 및
    상기 제2 구동부의 회전 파라미터에 기초하여 상기 제2 구동부의 PTZ 모터를 4 방향 중 적어도 하나의 방향으로 회전시켜 상기 제2 투사 위치를 조정하는 단계;를 포함하는, 제어 방법.
  13. 제12항에 있어서,
    상기 복수의 화면 레이아웃은,
    상기 제1 프로젝션부의 상기 제1 투사 위치 및 상기 제2 프로젝션부의 상기 제2 투사 위치가 서로 인접한 위치에 배열되는 어레이(array) 화면 레이아웃을 포함하며,
    상기 제어하는 단계는,
    상기 식별된 컨텍스트 정보에 기초하여 상기 복수의 화면 레이아웃 중 상기 어레이 화면 레이아웃이 식별되면, 상기 식별된 어레이 화면 레이아웃에 따라 상기 제1 프로젝션부가 제1 투사 위치로 상기 입력 영상의 제1 부분을 투사하도록 상기 제1 구동부를 제어하고 상기 제2 프로젝션부가 제2 투사 위치로 상기 입력 영상의 제2 부분을 투사하도록 상기 제2 구동부를 제어하는 단계;를 포함하는, 제어 방법.
  14. 제12항에 있어서,
    상기 복수의 화면 레이아웃은,
    상기 제1 프로젝션부의 상기 제1 투사 위치 및 상기 제2 프로젝션부의 상기 제2 투사 위치가 동일한 위치인 오버레이 화면 레이아웃을 포함하며,
    상기 제어하는 단계는,
    상기 식별된 컨텍스트 정보에 기초하여 상기 복수의 화면 레이아웃 중 상기 오버레이 화면 레이아웃이 식별되면, 상기 식별된 오버레이 화면 레이아웃에 따라 상기 제1 프로젝션부가 제1 투사 위치로 상기 입력 영상을 투사하도록 상기 제1 구동부를 제어하고 상기 제2 프로젝션부가 상기 제1 투사 위치와 동일한 위치로 상기 입력 영상을 투사하도록 상기 제2 구동부를 제어하는 단계;를 포함하는, 제어 방법.
  15. 제14항에 있어서,
    상기 제어 방법은,
    상기 입력 영상에 제1 톤 맵 커브를 적용하여 휘도가 조정된 제1 영상을 획득하는 단계;
    상기 입력 영상에 제2 톤 맵 커브를 적용하여 휘도가 조정된 제2 영상을 획득하는 단계;
    상기 제1 영상을 출력하도록 상기 제1 프로젝션부를 제어하는 단계; 및
    상기 제2 영상을 출력하도록 상기 제2 프로젝션부를 제어하는 단계;를 더 포함하는, 제어 방법.
  16. 제11항에 있어서,
    상기 복수의 화면 레이아웃은,
    상기 제1 프로젝션부의 상기 제1 투사 위치가 상기 제2 프로젝션부의 상기 제2 투사 위치 내의 일 영역에 오버레이(Overlay)되는 부분 오버레이(Partial overlay) 화면 레이아웃을 포함하며,
    상기 제어 방법은,
    상기 식별된 컨텍스트 정보에 기초하여 상기 복수의 화면 레이아웃 중 상기 부분 오버레이 화면 레이아웃이 식별되면, 상기 부분 오버레이 화면 레이아웃에 따라 상기 입력 영상에 포함된 복수의 오브젝트 중 특정 오브젝트를 포함하는 상기 제1 부분을 식별하고 나머지 오브젝트를 포함하는 상기 제2 부분을 식별하는 단계;를 더 포함하며,
    상기 제어하는 단계는,
    상기 제1 프로젝션부가 제1 투사 위치로 상기 입력 영상의 상기 제1 부분을 투사하도록 상기 제1 구동부를 제어하고. 상기 제2 프로젝션부가 제2 투사 위치로 상기 입력 영상의 상기 제2 부분을 투사하도록 상기 제2 구동부를 제어하는 단계;를 포함하는, 제어 방법.
  17. 제16항에 있어서,
    상기 제어하는 단계는,
    상기 제2 부분의 투사 위치가 유지되도록 상기 제2 구동부를 제어하는 단계; 및
    상기 특정 오브젝트의 이동에 따라 상기 제1 부분의 투사 위치가 상기 제2 투사 위치 내에서 이동되도록 상기 제1 구동부를 제어하는 단계;를 포함하는, 제어 방법.
  18. 제17항에 있어서,
    상기 제1 부분에 포함된 상기 특정 오브젝트는,
    사용자 조작에 따라 제어되는 캐릭터 오브젝트 또는 사용자 조작에 따라 인터랙션(interaction) 가능한 메인 오브젝트 중 적어도 하나를 포함하며,
    상기 제2 부분은,
    상기 입력 영상에 포함된 배경 영상인, 제어 방법.
  19. 제11항에 있어서,
    상기 입력 영상의 컨텍스트 정보는,
    상기 입력 영상의 해상도 정보, 휘도 정보, 뎁스 맵(Depth Map) 정보, 오브젝트 맵(Object Map) 정보 또는 피크 하이라이트 맵(Peak Highlight Map) 정보 중 적어도 하나를 포함하는, 제어 방법.
  20. 제11항에 있어서,
    상기 제어 방법은,
    상기 제1 투사 위치로 제1 패턴 영상을 출력하도록 상기 제1 프로젝션부를 제어하는 단계;
    상기 제2 투사 위치로 제2 패턴 영상을 출력하도록 상기 제2 프로젝션부를 제어하는 단계;
    상기 영상 출력 장치에 구비된 센서를 통해 상기 제1 프로젝션부가 출력하는 상기 제1 패턴 영상의 제1 위치 정보 및 상기 제2 프로젝션부가 출력하는 상기 제2 패턴 영상의 제2 위치 정보를 식별하는 단계; 및
    상기 식별된 화면 레이아웃, 상기 제1 위치 정보 및 상기 제2 위치 정보에 기초하여 상기 제1 투사 위치와 상기 제2 투사 위치를 조정하기 위한 상기 제1 구동부의 회전 파라미터 및 제2 구동부의 회전 파라미터를 식별하는 단계;를 포함하는, 영상 출력 장치.
KR1020220092587A 2022-07-26 2022-07-26 복수의 프로젝션부를 포함하는 영상 출력 장치 및 그 제어 방법 KR20240014883A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020220092587A KR20240014883A (ko) 2022-07-26 2022-07-26 복수의 프로젝션부를 포함하는 영상 출력 장치 및 그 제어 방법
PCT/KR2023/006145 WO2024025095A1 (ko) 2022-07-26 2023-05-04 복수의 프로젝션부를 포함하는 영상 출력 장치 및 그 제어 방법
US18/242,329 US20240040077A1 (en) 2022-07-26 2023-09-05 Image output apparatus including a plurality of projection parts and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220092587A KR20240014883A (ko) 2022-07-26 2022-07-26 복수의 프로젝션부를 포함하는 영상 출력 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20240014883A true KR20240014883A (ko) 2024-02-02

Family

ID=89706940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220092587A KR20240014883A (ko) 2022-07-26 2022-07-26 복수의 프로젝션부를 포함하는 영상 출력 장치 및 그 제어 방법

Country Status (2)

Country Link
KR (1) KR20240014883A (ko)
WO (1) WO2024025095A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6553168B2 (en) * 2000-05-23 2003-04-22 Honeywell International Inc. Projection system utilizing fiber optic illumination
US6771326B2 (en) * 2000-10-26 2004-08-03 General Atomics, Inc. Multi-screen laser projection system using a shared laser source
US8118435B2 (en) * 2008-03-07 2012-02-21 Carroll David W Multiple projector image overlay systems
US20100177167A1 (en) * 2009-01-12 2010-07-15 Hu Chao Portable integrative stereoscopic video multimedia device
US20100309391A1 (en) * 2009-06-03 2010-12-09 Honeywood Technologies, Llc Multi-source projection-type display

Also Published As

Publication number Publication date
WO2024025095A1 (ko) 2024-02-01

Similar Documents

Publication Publication Date Title
US9554105B2 (en) Projection type image display apparatus and control method therefor
US9497432B2 (en) Multi-projector system, projector device, adjustment device, adjustment method, and computer-readable recording medium
JP6205777B2 (ja) 投影装置、投影方法、及び投影のためのプログラム
US10761624B2 (en) Display apparatus and method for controlling display apparatus
US8717389B2 (en) Projector array for multiple images
JP2019078786A (ja) 画像投射システム、プロジェクター、及び画像投射システムの制御方法
US10354428B2 (en) Display device and method of controlling display device
JP6794983B2 (ja) 情報処理装置、情報処理方法、プログラム、及び画像表示装置
JP2011082798A (ja) 投写型映像表示装置
US20140267341A1 (en) Image processing apparatus, projector, and image processing method
US20200382750A1 (en) Method of controlling display device, and display device
US11277594B2 (en) Control method for image projection system and image projection system
US10847121B2 (en) Display apparatus and method for controlling display apparatus displaying image with superimposed mask
US11832031B2 (en) Projection system controlling method, and projector
KR20240014883A (ko) 복수의 프로젝션부를 포함하는 영상 출력 장치 및 그 제어 방법
US9881363B2 (en) Image processing device, projector and image processing method for correcting a displayed image
CN114760451B (zh) 投影图像校正提示方法、装置、投影设备和存储介质
US20240040077A1 (en) Image output apparatus including a plurality of projection parts and control method thereof
JP2018142856A (ja) プロジェクター、及び、プロジェクターの制御方法
JP6439254B2 (ja) 画像投影装置、画像投影装置の制御方法、および画像投影装置の制御プログラム
KR20240009810A (ko) 영상 출력 장치 및 그 제어 방법
US11778150B2 (en) Image supply device, display system, and method for direct display of second image
WO2021246211A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6880899B2 (ja) 表示装置及び表示装置の制御方法
CN215674865U (zh) 台灯