KR101318552B1 - 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법 - Google Patents

3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법 Download PDF

Info

Publication number
KR101318552B1
KR101318552B1 KR1020120024939A KR20120024939A KR101318552B1 KR 101318552 B1 KR101318552 B1 KR 101318552B1 KR 1020120024939 A KR1020120024939 A KR 1020120024939A KR 20120024939 A KR20120024939 A KR 20120024939A KR 101318552 B1 KR101318552 B1 KR 101318552B1
Authority
KR
South Korea
Prior art keywords
image
dimensional
parameter
distortion
measuring
Prior art date
Application number
KR1020120024939A
Other languages
English (en)
Other versions
KR20130103920A (ko
Inventor
강행봉
Original Assignee
가톨릭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단 filed Critical 가톨릭대학교 산학협력단
Priority to KR1020120024939A priority Critical patent/KR101318552B1/ko
Priority to PCT/KR2012/001946 priority patent/WO2013137506A1/ko
Publication of KR20130103920A publication Critical patent/KR20130103920A/ko
Application granted granted Critical
Publication of KR101318552B1 publication Critical patent/KR101318552B1/ko
Priority to US14/483,342 priority patent/US20140375779A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법에 관한 것이다. 본 발명에 따른 측정 방법은 (a) 3차원 영상을 3차원적으로 인지하는 척도에 대한 복수의 3차원 파라미터 중 어느 하나를 선택하는 단계와; (b) 상기 선택된 3차원 파라미터에 대응하는 테스트 입체 영상을 화면에 표시하는 단계와; (c) 상기 테스트 입체 영상을 상기 선택된 3차원 파라미터의 값을 상이하게 가변시킨 복수의 샘플 영상을 화면에 표시하는 단계와; (d) 상기 복수의 샘플 영상 중 적어도 어느 하나가 선택되는 단계와; (e) 상기 (b) 단계 내지 상기 (d) 단계가 상이한 테스트 입체 영상으로 적어도 2회 이상 수행된 후 상기 (d) 단계에서 선택된 샘플 영상에 기초하여 상기 선택된 3차원 파라미터에 대한 3차원 인지 척도를 측정하는 단계를 포함하는 것을 특징으로 한다. 이에 따라, 시청자가 3차원 영상을 왜곡되게 인식하는지 여부나, 3차원 영상의 크기, 깊이 등의 3차원 파라미터와 관련하여 3차원 영상을 3차원적으로 인식하는 정도를 개별적인 시청자의 3차원 인지 능력으로 측정할 수 있다.

Description

3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법{METHOD FOR MEASURING RECOGNITION WARPING ABOUT 3D IMAGE}
본 발명은 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법에 관한 것으로서, 보다 상세하게는 시청자가 3차원 영상을 왜곡되게 인식하는지 여부나, 3차원 영상의 크기, 깊이 등의 3차원 파라미터와 관련하여 3차원 영상을 3차원적으로 인식하는 정도를 측정하기 위한 측정 방법에 관한 것이다.
2차원 영상을 인위적으로 3차원으로 지각하도록 만드는 과정에서 3D 디스플레이 자체의 문제나 컨텐츠 요인, 개인이 3차원 영상을 인식하는 정도의 차이, 시청 환경 등의 요인들에 의해 다양한 왜곡이나 불편함을 느낄 수 있다.
실제 3차원적인 환경에서는 관찰거리나, 시점, 환경과는 관계없이 왜곡이나 불편함을 느끼지 않지만 인위적인 3D 컨텐츠에 대해서는 앞서 언급한 다양한 요인들에 의해 깊이감이나 모양 등이 왜곡되어 지각될 수 있다.
따라서, 다양한 3D 콘텐츠를 적절하게 감상하기 위해서는 시청자의 입체 지각 능력을 정확하게 측정하는 것이 필요하지만, 실제로 시청자들이 정확하게 왜곡되지 않고, 콘텐츠에 존재하는 3차원 입체의 크기, 형태 및 위치를 인지하는 척도에 대한 검사 방법은 현재 결여되어 있다.
현재 사용되고 있는 입체시 방법으로는 Stereo fly test와 같은 형태 입체시 검사 방법과, Random dot stereo-acuity test와 같은 난점 입체시 검사 방법이 존재한다.
이와 같은 검사에서는 반응 속도가 빠르면 빠를수록 입체 시력이 좋다는 것을 의미하는데, 필요하다면 힌트를 주어서 입체를 인지하도록 한다. 주로 편광안경을 이용하여 검사하지만, 일부 입체시력 검사의 경우 편광안경이 필요 없는 경우도 있다.
The frisby stereotest는 편광안경이 필요 없으며 랜덤하게 배열된 화살표로 이루어져 있다. 각기 다른 4개의 랜덤하게 배열된 화살표 그림들을 볼 때, 입체로 보이는 것을 찾는 것으로 하는데, 거리를 다르게 하면서 실험한다. 하지만 이러한 검사는 주로 입체를 인지하는 것을 평가하는 정도에 머물고 있다.
이와 관련하여 한국공개특허 제2010-0104328호에서는 관찰 방위에 따라 3D 깊이감과 모양감이 왜곡되는 것을 체계적이고 정량적으로 측정할 수 있는 기술을 제안하고 있으나, 이는 개별적인 시청자의 3차원 인지 능력에 따른 차이를 반영하지는 않고 있다.
3D 영화나 TV와 같은 콘텐츠에서 제공되는 입체를 시청자가 정확하게 인지하는지를 측정하기 위해서는 시청자에게 인지되는 3차원 입체의 왜곡, 깊이나 크기와 같은 실감도를 평가 하는 시스템이 필요하다. 입체의 크기, 형태, 위치가 정확하게 인지되는가에 따라 3D 콘텐츠에 대한 왜곡 및 실감도가 정해진다. 이러한 왜곡 및 실감도는 개인에 따라 다르므로 개인이 인지하는 입체 크기, 형태, 위치 정보를 측정하고, 정확한 ground truth와 비교할 수 있다면 시청자의 입체에 대한 왜곡된 인지 현상을 검사할 수 있을 것이다.
이에, 본 발명은 상기와 같은 문제점을 해소하기 위해 안출된 것으로서, 시청자가 3차원 영상을 왜곡되게 인식하는지 여부나, 3차원 영상의 크기, 깊이 등의 3차원 파라미터와 관련하여 3차원 영상을 3차원적으로 인식하는 정도를 개별적인 시청자의 3차원 인지 능력으로 측정할 수 있는 측정 방법을 제공하는데 그 목적이 있다.
상기 목적은 본 발명에 따라, 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법에 있어서, (a) 3차원 영상을 3차원적으로 인지하는 척도에 대한 복수의 3차원 파라미터 중 어느 하나를 선택하는 단계와; (b) 상기 선택된 3차원 파라미터에 대응하는 테스트 입체 영상을 화면에 표시하는 단계와; (c) 상기 테스트 입체 영상의 상기 선택된 3차원 파라미터의 값을 상이하게 가변시킨 복수의 샘플 영상을 화면에 표시하는 단계와; (d) 상기 복수의 샘플 영상 중 적어도 어느 하나가 선택되는 단계와; (e) 상기 (b) 단계 내지 상기 (d) 단계가 상이한 테스트 입체 영상으로 적어도 2회 이상 수행된 후 상기 (d) 단계에서 선택된 샘플 영상에 기초하여 상기 선택된 3차원 파라미터에 대한 3차원 인지 척도를 측정하는 단계를 포함하는 것을 특징으로 하는 측정 방법에 의해서 달성된다.
여기서, 상기 (b) 단계와 상기 (c) 단계는 제1 모니터 및 제2 모니터에 각각 표시되어 수행될 수 있다.
그리고, 상기 (c) 단계에서 상기 복수의 샘플 영상은 3차원 영상으로 표시될 수 있다.
또한, 상기 (e) 단계의 수행 과정 중 상기 (c) 단계는 표시되는 상기 복수의 샘플 영상 중 하나는 상기 테스트 입체 영상과 동일하게 표시하는 단계를 적어도 1회 수행될 수 있다.
그리고, 상기 3차원 파라미터는 형상 왜곡 파라미터, 크기 왜곡 파라미터 및 깊이 왜곡 파라미터 중 적어도 어느 하나를 포함하며; 상기 (a) 단계에서 상기 형상 왜곡 파라미터가 선택된 경우 상기 (b) 단계 내지 상기 (e) 단계의 수행 전에 (a1) 기본 입체 영상을 화면에 표시하는 단계와, (a2) 상기 기본 입체 영상을 2차원적으로 표시하되 상기 형상 왜곡 파라미터의 값을 가변시킨 복수의 기본 샘플 영상을 화면에 표시하는 단계와, (a3) 상기 복수의 기본 샘플 영상 중 어느 하나가 선택되는 단계를 수행하며; 상기 (c) 단계에서 상기 3차원 파라미터의 값은 상기 (a3) 단계에서 선택된 기본 샘플 영상에 적용된 형상 왜곡 파라미터의 값에 기초하여 가변되어 상기 테스트 입체 영상의 왜곡에 적용될 수 있다.
상기와 같은 구성에 따라 본 발명에 따르면, 시청자가 3차원 영상을 왜곡되게 인식하는지 여부나, 3차원 영상의 크기, 깊이 등의 3차원 파라미터와 관련하여 3차원 영상을 3차원적으로 인식하는 정도를 개별적인 시청자의 3차원 인지 능력으로 측정할 수 있는 측정 방법이 제공된다.
도 1은 본 발명에 따른 3차원 영상에 대한 인지 왜곡을 측정하는 측정 시스템을 도시한 도면이고,
도 2는 도 1의 측정 시스템의 측정 장치의 구성의 예를 도시한 도면이고,
도 3은 본 발명에 따른 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법을 설명하기 위한 도면이고,
도 4 및 도 5는 본 발명에 따른 테스트 입체 영상 및 복수의 샘플 영상의 예를 도시한 도면이고,
도 6은 본 발명의 다른 실시예에 따른 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법을 설명하기 위한 도면이고,
도 7은 왜곡 샘플 영상을 형성하는 원리를 설명하기 위한 도면이고,
도 8 및 도 9는 도 6에 도시된 측정 방법에 적용되는 테스트 입체 영상 및 복수의 왜곡 샘플 영상의 예를 도시한 도면이다.
이하에서는 첨부된 도면을 참조하여 본 발명에 따른 실시예들을 상세히 설명한다.
도 1은 본 발명에 따른 3차원 영상에 대한 인지 왜곡을 측정하는 측정 시스템을 도시한 도면이다. 도 1에 도시된 바와 같이, 본 발명에 따른 측정 시스템은 제1 모니터(10), 제2 모니터(11), 측정 장치(30) 및 사용자 입력부(50)를 포함한다.
제1 모니터(10)는 측정 장치(30)로부터 제공되는 3차원 영상을 화면 상에 표시하고, 제2 모니터(11) 또한 측정 장치(30)로부터 제공되는 3차원 영상 또는 2차원 영상을 화면 상에 표시한다.
측정 장치(30)는 사용자 입력부(50)를 통해 입력되는 신호에 기초하여, 제1 모니터(10) 및 제2 모니터(11)에 3차원 영상 또는 2차원 영상을 표시하며, 후술할 측정 방법에 따라 시청자가 3차원 영상에 대한 인지 왜곡의 정도, 즉 시청자가 3차원 영상을 3차원적으로 인식하는데 있어, 형상 왜곡이나, 깊이 왜곡, 크기 왜곡과 같이 실제 표출된 3차원 영상을 어느 정도로 왜곡하여 인식하는지를 측정한다.
도 2는 본 발명에 따른 측정 장치(30)의 구성의 예를 도시한 도면이다. 도 2에 도시된 바와 같이, 측정 장치(30)는 제1 모니터(10) 및/또는 제2 모니터(11)에 3차원 영상을 표시하기 위한 3D 엔진부(31)와, 제1 모니터(10) 및 제2 모니터(11)에 표시될 영상에 대한 데이터를 저장하는 데이터 저장부(32)를 포함할 수 있다.
또한, 측정 장치(30)는 사용자 입력부(50)를 통한 시청자의 조작에 따라 데이터 저장부(32)에 저장된 영상을 3D 엔진부(31)를 통해 제1 모니터(10) 및 제2 모니터(11)에 표시되도록 3D 엔진부(31)를 제어하는 메인 제어부(33)를 포함할 수 있다. 그리고, 메인 제어부(33)는 후술할 측정 방법에 따라 시청자가 3차원 영상에 대한 인지 왜곡의 정도, 즉 시청자가 3차원 영상을 3차원적으로 인식하는데 있어, 형상 왜곡이나, 깊이 왜곡, 크기 왜곡과 같이 실제 표출된 3차원 영상을 어느 정도로 왜곡하여 인식하는지를 측정한다.
이하에서는, 도 3을 참조하여 본 발명에 따른 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법에 대해 상세히 설명한다. 여기서, 본 발명에 따른 측정 방법을 통해 측정되는 인지 왜곡을 위한 3차원 파라미터는 형상 왜곡 파라미터, 크기 왜곡 파라미터 및 깊이 왜곡 파라미터를 포함하는 것을 예로 한다.
먼저, 시청자가 사용자 입력부(50)를 통해 측정하고자 하는 3차원 파라미터를 선택하게 되면, 해당 3차원 파라미터에 대한 인지 왜곡의 측정을 위한 3차원 영상이 준비된다.
상기와 같이 3차원 파라미터가 선택되면, 측정에 필요한 변수인 i 값과 j 값이 '0'으로 초기화된다(S30). 여기서, i 값과 j 값이 갖는 의미에 대해서는 후술한다.
그런 다음, 선택된 3차원 파라미터에 대응하는 테스트 입체 영상이 제1 모니터(10)의 화면 상에 표시된다(S31). 그리고, 테스트 입체 영상에 대응하는 복수의 샘플 영상이 제2 모니터(11)의 화면 상에 표시된다(S32).
여기서, 복수의 샘플 영상은 테스트 입체 영상을 3차원 파리미터의 값을 상이하게 가변시켜 형성된다. 도 4는 3차원 파라미터 중 크기 왜곡 파라미터에 대한 인식 왜곡의 측정을 위한 테스트 입체 영상 및 샘플 영상의 예를 도시한 도면이고, 도 5는 3차원 파라미터 중 깊이 왜곡 파라미터에 대한 인식 왜곡의 측정을 위한 테스트 입체 영상 및 샘플 영상의 예를 도시한 도면이다.
도 4를 참조하여 설명하면, 크기 왜곡 파라미터에 대한 테스트 입체 영상은 2개의 입체 자극으로 구성되며 각각 일정 크기와 깊이를 갖는 3차원 영상으로 표현된다. 그리고, 샘플 영상은 2개의 입체 자극 중 하나의 크기를 동일하게 한 상태에서 다른 하나의 입체 자극의 크기를 가변시킨다.
도 5를 참조하여 설명하면, 깊이 왜곡 파라미터에 대한 테스트 입체 영상은 3개의 입체 자극으로 구성되며 각각 일정한 깊이를 갖는 3차원 영상으로 표현된다. 그리고, 샘플 영상은 2개의 입체 자극 사이에서 하나의 입체 자극의 깊이를 가변시킨다.
상기와 같이 테스트 입체 영상과 복수의 샘플 영상이 각각 제1 모니터(10)와 제2 모니터(11)에 표시되면, 시청자는 3D 안경(70), 예를 들어 편광 안경을 착용하여 시청하면서 테스트 입체 영상과 복수의 샘플 영상을 비교하고, 복수의 샘플 영상 중 테스트 입체 영상과 동일하거나 유사하다고 판단되는 샘플 영상을 적어도 하나 선택하게 된다(S33).
여기서, 상술한 바와 같이 샘플 영상은 테스트 입체 영상에 대해 3D 파라미터의 값을 가변시켜 형성한 것으로, 샘플 영상은 테스트 입체 영상이 왜곡된 상태로 표출되는 것으로, 시청자가 샘플 영상 중 테스트 입체 영상과 동일하거나 극히 유사하다고 판단되는 샘플 영상에 적용된 왜곡의 정도만큼 시청자는 해당 3D 파라미터에 대해 3차원 영상을 왜곡하여 인지하는 것으로 판단할 수 있다.
상기와 같은 측정 과정은 측정의 정확도를 높이가 위해 다른 테스트 입체 영상과 샘플 영상에 대해 기 설정된 횟수만큼 반복하여 측정된다. 도 3을 참조하여 보다 구체적으로 설명하면, S33 단계에서 샘플 영상의 선택이 완료되면 변수 i와 j를 1씩 증가시켜 측정 회수를 반영하게 한다(S34).
그런 다음, 현재의 측정 횟수가 n회인지 여부를 변수 i를 이용하여 판단한다(S35). 여기서, n회, 예를 들어 3회 측정이 완료되면, 중간 점검 과정을 거치게 된다(S37). 여기서, 중간 점검 과정은 S31 단계 내지 S33 단계와 동일한 방법으로 진행되는데, S32 단계에서 표시되는 샘플 영상 중 하나를 테스트 입체 영상과 동일한 영상으로 교체하여 표시하고, 시청자가 해당 영상을 선택하는지 여부를 검사함으로써, 시청자가 동일 및 극히 유사한 샘플 영상을 정확히 선택하고 있는지 여부를 확인하게 된다. 그리고, 중간 점검 과정이 완료되면, 변수 I 값을 '0'으로 초기화하여(S38) 다음 3회 측정 이후에 다시 중간 점검 과정이 진행되도록 한다.
한편, 복수회의 측정을 위해 S36 단계에서 측정 회수가 m회 인지 여부를 변수 j를 이용하여 판단하며, m회 측정이 완료되지 않은 상태에서는 상술한 바와 같이, 테스트 입체 영상과 샘플 영상을 도 4 또는 도 5에 도시된 영상과 다른 영상으로 교체하여(S39) 다시 S31 단계 내지 S36 단계를 반복하여 수행하게 된다.
상기와 같은 과정을 통해, 예를 들여 10회의 측정 과정을 통해 시청자가 각 측정 단계에서 선택한 샘플 영상들에 적용된 3차원 파라미터의 값의 평균 등을 이용하여 해당 시청자가 해당 3차원 파라미터에 대해 어느 정도로 왜곡되어 인지하는지 여부를 나타내는 입체 인식 레벨의 산출이 가능하게 된다(S40). 상기와 같은 과정은 3차원 파라미터 각각에 대해 산출되어 각각의 3차원 파라미터에 대한 입체 인식 레벨이 산출된다.
전술한 실시예에서는 3차원 파라미터 중 도 4 및 도 5에 도시된 바와 같이, 크기 왜곡 파라미터와 깊이 왜곡 파라미터를 예로 하여 설명하였으나, 형상 왜곡 파라미터에 대해서도 동일한 방법이 적용될 수 있음은 물론이다. 또한, 3차원 파라미터 중 입체의 컬러, 입체의 움직임 크기와 같은 다른 3차원 파라미터에 대해서도 적용이 가능함은 물론이다.
이하에서는, 도 6 내지 도 9를 참조하여 본 발명의 다른 실시예에 따른 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법에 대해 상세히 설명한다. 여기서, 본 발명의 다른 실시예에 따른 측정 방법은 3차원 파라미터 중 형상 왜곡 파라미터의 변화에 따른 인지 왜곡을 측정하는 방법으로 적용된다.
도 6을 참조하여 설명하면, 제1 모니터(10)에 기본 입체 영상이 표시되고(S51), 제2 모니터(11)에 복수의 기본 샘플 영상이 표시된다(S52). 여기서, 제1 모니터(10)에 표시되는 기본 입체 영상으로는 3차원의 직육면체와 같이 특정 대상 이미지가 아닌 기본적인 입체 영상이 표시된다.
그리고, 제2 모니터(11)에 표시되는 기본 샘플 영상은 사람의 눈으로 3차원의 직육면체 영상을 볼 때, 형상 왜곡 파라미터의 변화에 따라 인식될 수 있는 2차원으로 표시된 직육면체 영상이 표시된다. 즉, 기본 샘플 영상은 기본 입체 영상을 2차원적으로 표시한 것으로, 형상 왜곡 파라미터의 값을 가변시켰을 때 나타나는 기본 입체 영상을 2차원적으로 표시한 것이다.
상기와 같이, 기본 입체 영상과 복수의 기본 샘플 영상이 제1 모니터(10) 및 제2 모니터(11)에 각각 표시된 상태에서, 시청자는 기본 입체 영상을 3D 안경(70), 예컨대 편광 안경을 착용한 상태에서 시청한 후, 3D 안경(70)을 벗고 복수의 기본 샘플 영상 중 3D 안경(70)을 착용한 상태에서 시청한 기본 입체 영상과 동일하다고 인식되는 어느 하나를 선택하게 된다.
여기서, 시청자가 기본 샘플 영상 중 선택한 기본 샘플 영상에 적용된 형상 왜곡 파라미터가 현재의 시청자가 기본적으로 3차원 영상을 시청할 때 형상 왜곡 파라미터와 관련하여 인식하는 인식 왜곡에 대한 왜곡 레벨이 되며, 해당 왜곡 레벨이 이후에 측정을 위해 현재의 시청자에 대해 설정된다(S54).
상기와 같이, 왜곡 레벨의 설정이 완료되면, 측정에 필요한 변수인 i 값과 j 값이 '0'으로 초기화된다(S55). 그런 다음, 형상 왜곡 파라미터에 대한 인식 왜곡을 측정하기 위한 테스트 입체 영상이 제1 모니터(10)의 화면 상에 표시된다(S56). 그리고, 테스트 입체 영상에 대응하는 복수의 왜곡 샘플 영상이 제2 모니터(11)의 화면 상에 표시된다(S57).
여기서, 복수의 왜곡 샘플 영상은 테스트 입체 영상을 형상 왜곡 파라미터 값을 가변시켜 형성된다. 이 때, 복수의 왜곡 샘플 영상에 적용되는 형상 왜곡 파라미터의 값은 상술한 과정을 통해 설정된 왜곡 레벨, 즉 시청자가 선택한 기본 샘플 영상에 적용된 형상 왜곡 파라미터의 값에 기초하여 결정된다.
예컨대, 왜곡 레벨이 큰 경우에는 왜곡 샘플 영상에 적용되는 형상 왜곡 파라미터의 값을 크게 설정하여 상대적으로 형상 왜곡이 많이 발생한 왜곡 샘플 영상을 표시하게 된다. 반대로, 왜곡 레벨이 작은 경우에는 왜곡 샘플 영상에 적용되는 형상 왜곡 파라미터의 값을 작게 설정하여 상대적으로 형상 왜곡이 적게 발생한 왜곡 샘플 영상을 표시하게 된다. 이에 따라, 현재의 시청자가 3차원 영상을 인지할 때 느끼는 형상 왜곡의 정도에 따라 왜곡 샘플 영상의 형상 왜곡 정도를 가변시킴으로써, 시청자의 형상 왜곡 인식 정도를 보다 정확하게 측정할 수 있게 된다.
도 7은 왜곡 샘플 영상을 형성하는 원리를 설명하기 위한 도면이다. 도 7에 도시된 바와 같이, 3차원 영상은 보는 방향에 따라 다른 형태로 보여지는데, 사용자가 시청자에 따라 동일한 3차원 영상을 다른 방향에서 보는 것과 같은 형상 왜곡을 느끼게 된다.
상기와 같은 시청자에 따른 형상 왜곡이 반영되도록 테스트 입체 영상과 복수의 왜곡 샘플 영상은 도 8 및 도 9에 도시된 바와 같이, 제1 모니터(10) 및 제2 모니터(11)에 각각 표시한다. 도 8은 테스트 입체 영상을 나타낸 도면이고, 도 9는 복수의 왜곡 샘플 영상을 나타낸 도면이다.
상기와 같이, 제1 모니터(10) 및 제2 모니터(11)에 각각 테스트 입체 영상과 복수의 왜곡 샘플 영상이 표시된 상태에서, 시청자는 3D 안경(70)을 착용한 후 테스트 입체 영상과 복수의 왜곡 샘플 영상을 비교하여 복수의 왜곡 샘플 영상 중 테스트 입체 영상과 동일하거나 유사하다고 판단되는 왜곡 샘플 영상을 적어도 하나 선택하게 된다(S58).
상기와 같은 측정 과정은 측정의 정확도를 높이가 위해 다른 테스트 입체 영상과 샘플 영상에 대해 기 설정된 횟수만큼 반복하여 측정된다. 도 6을 참조하여 보다 구체적으로 설명하면, S58 단계에서 샘플 영상의 선택이 완료되면 변수 i와 j를 1씩 증가시켜 측정 회수를 반영하게 한다(S59).
그런 다음, 현재의 측정 횟수가 n회인지 여부를 변수 i를 이용하여 판단한다(S60). 여기서, n회, 예를 들어 3회 측정이 완료되면, 중간 점검 과정을 거치게 된다(S61). 여기서, 중간 점검 과정은 S56 단계 내지 S58 단계와 동일한 방법으로 진행되는데, S57 단계에서 표시되는 왜곡 샘플 영상 중 하나를 테스트 입체 영상과 동일한 영상으로 교체하여 표시하고, 시청자가 해당 영상을 선택하는지 여부를 검사함으로써, 시청자가 동일 및 극히 유사한 왜곡 샘플 영상을 정확히 선택하고 있는지 여부를 확인하게 된다. 그리고, 중간 점검 과정이 완료되면, 변수 i 값을 '0'으로 초기화하여(S62) 다음 3회 측정 이후에 다시 중간 점검 과정이 진행되도록 한다.
한편, 복수회의 측정을 위해 S63 단계에서 측정 회수가 m회 인지 여부를 변수 j를 이용하여 판단하며, m회 측정이 완료되지 않은 상태에서는 상술한 바와 같이, 테스트 입체 영상과 왜곡 샘플 영상을 도 8 및 도 9에 도시된 영상과 다른 영상으로 교체하여(64) 다시 S56 단계 내지 S63 단계를 반복하여 수행하게 된다.
상기와 같은 과정을 통해, 예를 들여 10회의 측정 과정을 통해 시청자가 각 측정 단계에서 선택한 왜곡 샘플 영상들에 적용된 3차원 파라미터의 값, 즉 형상 왜곡 파라미터의 값의 평균 등을 이용하여 해당 시청자가 형상 왜곡 파라미터에 대해 어느 정도로 왜곡되어 인지하는지 여부를 나타내는 입체 인식 레벨의 산출이 가능하게 된다(S40). 상기와 같은 과정은 3차원 파라미터 각각에 대해 산출되어 각각의 3차원 파라미터에 대한 입체 인식 레벨이 산출된다(S65).
비록 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 발명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.
10 : 제1 모니터 11 : 제2 모니터
30 : 측정 장치 31 : 3D 엔진부
32 : 데이터 저장부 33 : 메인 제어부
50 : 사용자 입력부 70 : 3D 안경

Claims (5)

  1. 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법에 있어서,
    (a) 3차원 영상을 3차원적으로 인지하는 척도에 대한 복수의 3차원 파라미터 중 어느 하나를 선택하는 단계와;
    (b) 상기 선택된 3차원 파라미터에 대응하는 테스트 입체 영상을 화면에 표시하는 단계와;
    (c) 상기 테스트 입체 영상의 상기 선택된 3차원 파라미터의 값을 상이하게 가변시킨 복수의 샘플 영상을 화면에 표시하는 단계와;
    (d) 상기 복수의 샘플 영상 중 적어도 어느 하나가 선택되는 단계와;
    (e) 상기 (b) 단계 내지 상기 (d) 단계가 상이한 테스트 입체 영상으로 적어도 2회 이상 수행된 후 상기 (d) 단계에서 선택된 샘플 영상에 기초하여 상기 선택된 3차원 파라미터에 대한 3차원 인지 척도를 측정하는 단계를 포함하는 것을 특징으로 하는 측정 방법.
  2. 제1항에 있어서,
    상기 (b) 단계와 상기 (c) 단계는 제1 모니터 및 제2 모니터에 각각 표시되어 수행되는 것을 특징으로 하는 측정 방법.
  3. 제1항에 있어서,
    상기 (c) 단계에서 상기 복수의 샘플 영상은 3차원 영상으로 표시되는 것을 특징으로 하는 측정 방법.
  4. 제1항에 있어서,
    상기 (e) 단계의 수행 과정 중 상기 (c) 단계는 표시되는 상기 복수의 샘플 영상 중 하나는 상기 테스트 입체 영상과 동일하게 표시하는 단계를 적어도 1회 수행하는 것을 특징으로 하는 측정 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 3차원 파라미터는 형상 왜곡 파라미터, 크기 왜곡 파라미터 및 깊이 왜곡 파라미터 중 적어도 어느 하나를 포함하며;
    상기 (a) 단계에서 상기 형상 왜곡 파라미터가 선택된 경우 상기 (b) 단계 내지 상기 (e) 단계의 수행 전에,
    (a1) 기본 입체 영상을 화면에 표시하는 단계와,
    (a2) 상기 기본 입체 영상을 2차원적으로 표시하되 상기 형상 왜곡 파라미터의 값을 가변시킨 복수의 기본 샘플 영상을 화면에 표시하는 단계와,
    (a3) 상기 복수의 기본 샘플 영상 중 어느 하나가 선택되는 단계를 수행하며;
    상기 (c) 단계에서 상기 3차원 파라미터의 값은 상기 (a3) 단계에서 선택된 기본 샘플 영상에 적용된 형상 왜곡 파라미터의 값에 기초하여 가변되어 상기 테스트 입체 영상의 왜곡에 적용되는 것을 특징으로 하는 측정 방법.
KR1020120024939A 2012-03-12 2012-03-12 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법 KR101318552B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020120024939A KR101318552B1 (ko) 2012-03-12 2012-03-12 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법
PCT/KR2012/001946 WO2013137506A1 (ko) 2012-03-12 2012-03-19 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법
US14/483,342 US20140375779A1 (en) 2012-03-12 2014-09-11 Method for Measuring Recognition Warping about a Three-Dimensional Image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120024939A KR101318552B1 (ko) 2012-03-12 2012-03-12 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법

Publications (2)

Publication Number Publication Date
KR20130103920A KR20130103920A (ko) 2013-09-25
KR101318552B1 true KR101318552B1 (ko) 2013-10-16

Family

ID=49161385

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120024939A KR101318552B1 (ko) 2012-03-12 2012-03-12 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법

Country Status (3)

Country Link
US (1) US20140375779A1 (ko)
KR (1) KR101318552B1 (ko)
WO (1) WO2013137506A1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090125626A (ko) * 2008-06-02 2009-12-07 한국전자통신연구원 왜곡 없는 3차원 영상을 표시하기 위한 장치 및 방법
KR20100071834A (ko) * 2008-12-19 2010-06-29 주식회사 케이티 동영상 왜곡 계산 장치 및 그 방법
KR20100104328A (ko) * 2009-03-17 2010-09-29 광운대학교 산학협력단 3차원 입체영상 시청에서 유발되는 3차원 깊이 및 모양 지각 왜곡을 측정할 수 있는 방법 및 장치
KR20110003758A (ko) * 2009-07-06 2011-01-13 삼성전자주식회사 영상처리장치 및 영상처리방법

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5870097A (en) * 1995-08-04 1999-02-09 Microsoft Corporation Method and system for improving shadowing in a graphics rendering system
US6031564A (en) * 1997-07-07 2000-02-29 Reveo, Inc. Method and apparatus for monoscopic to stereoscopic image conversion
US6330486B1 (en) * 1997-07-16 2001-12-11 Silicon Graphics, Inc. Acoustic perspective in a virtual three-dimensional environment
US6081577A (en) * 1998-07-24 2000-06-27 Wake Forest University Method and system for creating task-dependent three-dimensional images
US6771262B2 (en) * 1998-11-25 2004-08-03 Siemens Corporate Research, Inc. System and method for volume rendering-based segmentation
WO2001043077A1 (fr) * 1999-12-06 2001-06-14 Fujitsu Limited Procede et dispositif d'affichage d'images
JP3766578B2 (ja) * 2000-03-17 2006-04-12 ペンタックス株式会社 写真測量用画像処理装置およびこの写真測量用画像処理装置を用いた写真測量方法
US7643025B2 (en) * 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
EP1875732B1 (en) * 2005-04-26 2016-12-28 Imax Corporation Electronic projection systems and methods
US7747106B2 (en) * 2005-06-13 2010-06-29 Sarnoff Corporation Method and system for filtering, registering, and matching 2.5D normal maps
EP2033164B1 (en) * 2006-06-23 2015-10-07 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
WO2009150529A1 (en) * 2008-06-13 2009-12-17 Imax Corporation Methods and systems for reducing or eliminating perceived ghosting in displayed stereoscopic images
EP2327224A2 (en) * 2008-08-29 2011-06-01 Thomson Licensing View synthesis with heuristic view blending
US9066076B2 (en) * 2009-10-30 2015-06-23 Mitsubishi Electric Corporation Video display control method and apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090125626A (ko) * 2008-06-02 2009-12-07 한국전자통신연구원 왜곡 없는 3차원 영상을 표시하기 위한 장치 및 방법
KR20100071834A (ko) * 2008-12-19 2010-06-29 주식회사 케이티 동영상 왜곡 계산 장치 및 그 방법
KR20100104328A (ko) * 2009-03-17 2010-09-29 광운대학교 산학협력단 3차원 입체영상 시청에서 유발되는 3차원 깊이 및 모양 지각 왜곡을 측정할 수 있는 방법 및 장치
KR20110003758A (ko) * 2009-07-06 2011-01-13 삼성전자주식회사 영상처리장치 및 영상처리방법

Also Published As

Publication number Publication date
US20140375779A1 (en) 2014-12-25
KR20130103920A (ko) 2013-09-25
WO2013137506A1 (ko) 2013-09-19

Similar Documents

Publication Publication Date Title
CN103815866B (zh) 视觉功能检查用方法和视觉功能检查用控制装置
JP5296872B2 (ja) 3次元ディスプレイの光学特性評価装置および3次元ディスプレイの光学特性評価方法
US9959261B2 (en) Method and apparatus for displaying 3D image
IL266461B2 (en) A system for integrally measuring clinical parameters of visual function
CN112053781B (zh) 动静态立体视测试方法及终端
JP5417417B2 (ja) 視機能検査装置
CN110119258B (zh) 一种显示屏与光学***位置测试与调整方法和***
US9760263B2 (en) Image processing device, image processing method, and stereoscopic image display device
CN112493981B (zh) 一种基于裸眼3d的动态立体视觉检测***和方法
CN104980733B (zh) 一种裸眼3d显示器的串扰测试方法及其测试图像
KR101383797B1 (ko) 3차원 디스플레이 장치에서 사용자의 입체 시력을 측정하기 위한 시스템 및 그 방법
KR20100085628A (ko) 3차원 디스플레이 유발 피로감을 삼차원 영상 컨텐츠의 고유 요인별로 체계적으로 측정할 수 있는 방법 및 장치
Bernhard et al. The accuracy of gauge-figure tasks in monoscopic and stereo displays
KR101318552B1 (ko) 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법
CN107483915A (zh) 三维图像的控制方法及装置
US10997455B2 (en) Apparatus and method of correcting 3D image distortion
CN108519215B (zh) 瞳距适应性测试***及方法、测试主机
CN108548655B (zh) 成像精度的测量***及方法、测试主机
CN104683796B (zh) 一种3d显示串扰率的评价方法及装置
US20210319624A1 (en) Image processing device, image processing method, and program
TWI636427B (zh) 對應影像擷取裝置的深度圖品質的驗證方法及其驗證系統
CN106254847A (zh) 一种确定立体显示屏幕的显示极限的方法、装置和***
JP4873103B2 (ja) 視機能検査用プログラム及び視機能検査用制御装置
KR20100104328A (ko) 3차원 입체영상 시청에서 유발되는 3차원 깊이 및 모양 지각 왜곡을 측정할 수 있는 방법 및 장치
KR101367315B1 (ko) 입체시 검사 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161007

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170926

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181005

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191010

Year of fee payment: 7