KR20140102560A - 화각 조정 방법, 이 방법을 채용한 카메라 및 감시 시스템 - Google Patents

화각 조정 방법, 이 방법을 채용한 카메라 및 감시 시스템 Download PDF

Info

Publication number
KR20140102560A
KR20140102560A KR1020130016051A KR20130016051A KR20140102560A KR 20140102560 A KR20140102560 A KR 20140102560A KR 1020130016051 A KR1020130016051 A KR 1020130016051A KR 20130016051 A KR20130016051 A KR 20130016051A KR 20140102560 A KR20140102560 A KR 20140102560A
Authority
KR
South Korea
Prior art keywords
camera
view
angle
length
focal length
Prior art date
Application number
KR1020130016051A
Other languages
English (en)
Other versions
KR102029206B1 (ko
Inventor
신동학
김지만
이준성
Original Assignee
삼성테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성테크윈 주식회사 filed Critical 삼성테크윈 주식회사
Priority to KR1020130016051A priority Critical patent/KR102029206B1/ko
Publication of KR20140102560A publication Critical patent/KR20140102560A/ko
Application granted granted Critical
Publication of KR102029206B1 publication Critical patent/KR102029206B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

제2 카메라의 화각이 제1 카메라의 설정 화각과 일치되도록 제2 카메라의 화각을 조정하는 방법이 개시된다. 이 방법은 단계들 (a) 및 (b)를 포함한다. 단계 (a)에서는, 제1 카메라의 설정 화각이 제2 카메라의 목표 화각으로 설정되어, 제2 카메라의 목표 화각에 상응하는 제2 카메라의 초점 거리가 구해진다. 단계 (b)에서는, 제2 카메라의 초점 거리에 따라 상기 제2 카메라의 주밍(zooming)이 수행된다.

Description

화각 조정 방법, 이 방법을 채용한 카메라 및 감시 시스템{View-angle tuning method, camera and surveillance system adopting the method}
본 발명은, 화각 조정 방법, 이 방법을 채용한 카메라 및 감시 시스템에 관한 것으로서, 보다 상세하게는, 제2 카메라의 화각이 제1 카메라의 설정 화각과 일치되도록 제2 카메라의 화각을 조정하는 방법, 이 방법을 채용한 카메라 및 감시 시스템에 관한 것이다.
감시 시스템에 있어서, 적어도 두 대의 카메라들이 동일한 촬영 영역을 촬영할 수 있다. 이 경우, 다음과 같은 효과들이 있다.
첫째, 감시자의 정보 인지력 및 상황 대응력이 향상될 수 있다.
예를 들어, 피사체의 가시(可視) 영상을 취득하는 가시 영상 카메라의 미비점을 보완하기 위하여 피사체의 온도에 따른 열(熱) 영상을 취득하는 열 영상 카메라가 함께 사용될 수 있다.
여기에서, 현재의 주위 조도가 주간 조도 범위에 속하면, 가시 영상 카메라로부터의 컬러 가시(可視) 영상과 열 영상 카메라로부터의 열(熱) 영상이 융합되어, 융합된 결과로서의 컬러 융합 영상이 디스플레이된다.
이와 마찬가지로, 현재의 주위 조도가 야간 조도 범위에 속하면, 가시 영상 카메라로부터의 흑백 가시(可視) 영상과 열 영상 카메라로부터의 열(熱) 영상이 융합되어, 융합된 결과로서의 흑백 융합 영상이 디스플레이된다.
따라서, 감시자의 정보 인지력 및 상황 대응력이 향상될 수 있다.
둘째, 잘 알려져 있는 바와 같이, 두 영상들을 이용하여 피사체의 삼차원 공간 정보 예를 들어, 깊이 정보 등을 구할 수 있다.
상기와 같은 효과들을 얻기 위하여 적어도 제1 카메라 및 제2 카메라가 사용될 경우, 제1 카메라로부터의 제1 영상 및 제2 카메라의 제2 영상을 정합(matching)시키는 것이 필수적이다.
또한, 이와 같은 영상 정합(matching)을 위해서는 두 카메라들의 화각이 실제로 일치되어야만 한다.
하지만, 제1 카메라 및 제2 카메라의 전체적 특성이 동일할 수 없다. 즉, 제1 카메라 및 제2 카메라에서 각각 제1 화각을 적용하여 동일 영역을 촬영할 경우, 실제로 제1 카메라의 제1 화각과 제2 카메라의 제1 화각은 동일하지 않다.
이에 따라, 종래에는, 제1 카메라 및 제2 카메라의 설치 단계에서 실험 및 수작업 조정을 하거나, 복잡한 화각 조정 프로그램을 실행하여야만 하는 문제점이 있다.
대한민국 등록특허공보 제688456호 (출원인 : 한국방송공사, 발명의 명칭 : 평행이동축 방식 스테레오 카메라 시스템에서의 줌-주시각 연동 제어 방법).
본 발명의 실시예는, 적어도 두 대의 카메라들이 동일한 촬영 영역을 촬영할 경우, 카메라들의 설치 단계에서의 실험 및 수작업 조정을 하지 않을 뿐만 아니라, 복잡한 화각 조정 프로그램을 실행하지 않고서도, 두 카메라들의 화각을 실제로 일치시킬 수 있는 화각 조정 방법, 이 방법을 채용한 카메라 및 감시 시스템을 제공하고자 한다.
본 발명의 제1 측면에 따르면, 제2 카메라의 화각이 제1 카메라의 설정 화각과 일치되도록 상기 제2 카메라의 화각을 조정하는 방법에 있어서, 단계들 (a) 및 (b)를 포함한다.
상기 단계 (a)에서는, 상기 제1 카메라의 설정 화각이 상기 제2 카메라의 목표 화각으로 설정되어, 상기 제2 카메라의 목표 화각에 상응하는 상기 제2 카메라의 초점 거리가 구해진다.
상기 단계 (b)에서는, 상기 제2 카메라의 초점 거리에 따라 상기 제2 카메라의 주밍(zooming)이 수행된다.
바람직하게는, 상기 단계 (a)는 단계들 (a1) 내지 (a3)을 포함한다.
상기 단계 (a1)에서는 상기 제2 카메라의 광전 변환 영역에서의 대각선 길이 또는 가로 길이 또는 세로 길이가 구해진다. 상기 단계 (a2)에서는 상기 제2 카메라의 목표 화각의 절반 값에 대한 탄젠트(tangent) 값이 구해진다. 상기 단계 (a3)에서는, 상기 대각선 길이 또는 가로 길이 또는 세로 길이를 상기 탄젠트(tangent) 값의 2 배 값으로써 나눈 결과가 상기 제2 카메라의 초점 거리로서 설정된다.
또한, 바람직하게는, 상기 단계 (b)는 단계들 (b1) 및 (b2)를 포함한다.
상기 단계 (b1)에서는, 상기 제2 카메라의 초점 거리에 상응하는 상기 제2 카메라의 줌(zoom) 배율이 구해진다. 상기 단계 (b2)에서는, 구해진 줌(zoom) 배율에 따라 상기 제2 카메라의 주밍(zooming)이 수행된다.
본 발명의 제2 측면에 따르면, 광학계, 광전 변환부 및 제어부를 구비한 카메라가 제공될 수 있다. 여기에서, 상기 제어부는, 상기 다른 카메라의 설정 화각의 데이터를 수신하고, 상기 설정 화각을 자신의 카메라의 목표 화각으로 설정하여, 상기 목표 화각에 상응하는 자신의 카메라의 초점 거리를 구하고, 구해진 초점 거리에 따라 주밍(zooming)을 수행한다.
바람직하게는, 상기 제어부가 상기 목표 화각에 상응하는 자신의 카메라의 초점 거리를 구함에 있어서, 상기 광전 변환부의 광전 변환 영역에서의 대각선 길이 또는 가로 길이 또는 세로 길이를 구하고, 상기 목표 화각의 절반 값에 대한 탄젠트(tangent) 값을 구하여, 상기 대각선 길이 또는 가로 길이 또는 세로 길이를 상기 탄젠트(tangent) 값의 2 배 값으로써 나눈 결과를 상기 제2 카메라의 초점 거리로서 설정한다.
또한, 바람직하게는, 상기 제어부가 초점 거리에 따라 주밍(zooming)을 수행함에 있어서, 상기 초점 거리에 상응하는 줌(zoom) 배율을 구하고, 구해진 줌(zoom) 배율에 따라 주밍(zooming)을 수행한다.
본 발명의 제3 측면에 따르면, 적어도 제1 카메라 및 제2 카메라가 호스트 장치에 연결되고, 상기 호스트 장치가 상기 제1 카메라의 설정 화각에 상기 제2 카메라의 화각을 일치시키는 감시 시스템이 제공될 수 있다. 여기에서, 상기 호스트 장치는, 상기 제1 카메라의 설정 화각의 데이터를 수신하고, 상기 설정 화각을 상기 제2 카메라의 목표 화각으로 설정하여, 상기 목표 화각에 상응하는 상기 제2 카메라의 초점 거리를 구하고, 구해진 초점 거리에 따라 상기 제2 카메라의 주밍(zooming)을 제어한다.
바람직하게는, 상기 호스트 장치가 상기 목표 화각에 상응하는 상기 제2 카메라의 초점 거리를 구함에 있어서, 상기 제2 카메라의 광전 변환부의 광전 변환 영역에서의 대각선 길이 또는 가로 길이 또는 세로 길이를 구하고, 상기 목표 화각의 절반 값에 대한 탄젠트(tangent) 값을 구하여, 상기 대각선 길이 또는 가로 길이 또는 세로 길이를 상기 탄젠트(tangent) 값의 2 배 값으로써 나눈 결과를 상기 제2 카메라의 초점 거리로서 설정한다.
또한, 바람직하게는, 상기 호스트 장치가 초점 거리에 따라 상기 제2 카메라의 주밍(zooming)을 제어함에 있어서, 상기 초점 거리에 상응하는 줌(zoom) 배율을 구하고, 구해진 줌(zoom) 배율의 데이터를 상기 제2 카메라에 전송한다.
본 발명의 실시예의 화각 조정 방법, 이 방법을 채용한 카메라 및 감시 시스템에 의하면, 상기 제1 카메라의 설정 화각에 상응하는 상기 제2 카메라의 초점 거리에 따라, 상기 제2 카메라의 주밍(zooming)이 수행된다.
즉, 상기 제2 카메라의 주밍(zooming)이 수행됨에 있어서, 상기 제1 카메라의 설정 화각이 직접적으로 적용되지 않고, 상기 제2 카메라의 초점 거리를 통하여 간접적으로 적용된다.
여기에서, 상기 제1 카메라의 설정 화각에 상응하는 상기 제2 카메라의 초점 거리는, 상기 제1 카메라의 설정 화각에 상응하여 상기 제2 카메라의 전체적 특성이 반영된 결과이다.
따라서, 상기 제1 카메라 및 제2 카메라의 전체적 특성이 동일하지 않음에도 불구하고, 상기 제2 카메라의 화각은 상기 제1 카메라의 설정 화각에 실제적으로 일치될 수 있다.
따라서, 적어도 두 대의 카메라들이 동일한 촬영 영역을 촬영할 경우, 카메라들의 설치 단계에서의 실험 및 수작업 조정을 하지 않을 뿐만 아니라, 복잡한 화각 조정 프로그램을 실행하지 않고서도, 두 카메라들의 화각이 실제로 일치될 수 있다.
도 1은 본 발명의 일 실시예의 방법을 채용한 카메라 또는 감시 시스템을 보여주는 도면이다.
도 2는 도 1의 어느 한 카메라의 구성의 일 예를 보여주는 도면이다.
도 3은 도 2의 인터페이스부의 구성을 보여주는 블록도이다.
도 4는 도 1의 제1 및 제2 카메라들이 동일한 피사체 영역을 촬영함을 보여주는 도면이다.
도 5는 도 1의 제2 카메라의 제어부 또는 호스트 장치에 의하여 수행되는 화각 조정 방법을 보여주는 흐름도이다.
도 6 및 7은 도 5의 화각 조정 방법을 상세히 설명하기 위한 카메라 구조의 도면들이다.
도 8은 도 5의 단계 (a)를 상세히 보여주는 흐름도이다.
도 9는 도 5의 단계 (b)를 상세히 보여주는 흐름도이다.
하기의 설명 및 첨부된 도면은 본 발명에 따른 동작을 이해하기 위한 것이며, 본 기술 분야의 통상의 기술자가 용이하게 구현할 수 있는 부분은 생략될 수 있다.
또한 본 명세서 및 도면은 본 발명을 제한하기 위한 목적으로 제공된 것은 아니고, 본 발명의 범위는 청구의 범위에 의하여 정해져야 한다. 본 명세서에서 사용된 용어들은 본 발명을 가장 적절하게 표현할 수 있도록 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.
이하 첨부된 도면들을 참조하여 본 발명의 실시예가 상세히 설명된다.
도 1은 본 발명의 일 실시예의 방법을 채용한 카메라(11a 내지 11n 중에서 어느 하나) 또는 감시 시스템을 보여준다.
도 1을 참조하면, 감시 카메라들(11a 내지 11n) 각각은 촬영에 의하여 라이브-뷰(live-view)의 영상 신호를 발생시킨다.
또한, 감시 카메라들(11a 내지 11n) 각각은, 호스트 장치(13)와 통신 신호(Dcom)를 주고 받으면서 라이브-뷰(Live-view)의 비디오 신호(Svid)를 호스트 장치(13)에 전송한다.
잘 알려져 있는 바와 같이, 통신 신호(Dcom)와 비디오 신호(Svid)는 서로 다른 케이블에 실릴 수 있지만, 동축 케이블에 함께 실릴 수도 있다.
카메라(예를 들어, 11b)가 본 발명의 일 실시예의 화각 조정 방법을 수행할 경우, 해당 카메라의 제어부는, 다른 카메라(예를 들어, 11a)로부터 전송되는 설정 화각의 데이터를 수신하고, 상기 설정 화각을 자신의 카메라(11b)의 목표 화각으로 설정하여, 상기 목표 화각에 상응하는 자신의 카메라(11b)의 초점 거리를 구하고, 구해진 초점 거리에 따라 주밍(zooming)을 수행한다.
한편, 도 1의 감시 시스템의 호스트 장치(13)는, 본 발명의 일 실시예의 화각 조정 방법을 수행하여, 제1 카메라(예를 들어, 11a)의 설정 화각에 제2 카메라(예를 들어, 11b)의 화각을 일치시킬 수도 있다.
이 경우, 호스트 장치(13)는, 제1 카메라(11a)로부터 전송되는 설정 화각의 데이터를 수신하고, 수신된 설정 화각을 제2 카메라(11b)의 목표 화각으로 설정하여, 목표 화각에 상응하는 제2 카메라(11b)의 초점 거리를 구하고, 구해진 초점 거리에 따라 제2 카메라(11b)의 주밍(zooming)을 제어한다.
즉, 제2 카메라(11b)의 주밍(zooming)이 수행됨에 있어서, 제1 카메라(11a)의 설정 화각이 직접적으로 적용되지 않고, 제2 카메라(11b)의 초점 거리를 통하여 간접적으로 적용된다.
여기에서, 제1 카메라(11a)의 설정 화각에 상응하는 제2 카메라(11b)의 초점 거리는, 제1 카메라(11a)의 설정 화각에 상응하여 제2 카메라(11b)의 전체적 특성이 반영된 결과이다.
따라서, 제1 카메라(11a) 및 제2 카메라(11b)의 전체적 특성이 동일하지 않음에도 불구하고, 제2 카메라(11b)의 화각은 제1 카메라(11a)의 설정 화각에 실제적으로 일치될 수 있다.
따라서, 적어도 두 대의 카메라들(11a,11b)이 동일한 촬영 영역을 촬영할 경우, 카메라들(11a,11b)의 설치 단계에서의 실험 및 수작업 조정을 하지 않을 뿐만 아니라, 복잡한 화각 조정 프로그램을 실행하지 않고서도, 두 카메라들(11a,11b)의 화각이 실제로 일치될 수 있다.
도 2는 본 발명의 일 실시예에 의한 감시 카메라(예를 들어, 도 1의 11b)를 보여준다. 도 2를 참조하면, 본 발명의 일 실시예에 의한 감시 카메라는 본체부(21)와 인터페이스부(22)로 구분될 수 있다.
본체부(21)는 광학계(OPS), 광전 변환부(OEC), 디지털 신호 발생부로서의 CDS-ADC(Correlation Double Sampler and Analog-to-Digital Converter, 201), 디지털 신호 처리기(DSP, Digital Signal Processor, 207) 및 비디오-신호 발생부(208)를 포함한다.
렌즈부와 필터부를 포함한 광학계(OPS)는 피사체로부터의 빛을 광학적으로 처리한다.
광학계(OPS)의 렌즈부는 줌 렌즈 및 포커스 렌즈를 포함한다. 광학계(OPS)의 필터부에 있어서, 야간 동작 모드에 사용되는 광학적 저역통과필터(OLPF, Optical Low Pass Filter)는 고주파 함량의 광학적 노이즈를 제거한다. 주간 동작 모드에 사용되는 적외선 차단 필터(IRF, Infra-Red cut Filter)는 입사되는 빛의 적외선 성분을 차단한다.
CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal-Oxide- Semiconductor)의 광전 변환부(OEC)는 광학계(OPS)로부터의 빛을 전기적 아날로그 신호로 변환시킨다. 여기에서, 디지털 신호 처리기(207)는 타이밍 회로(202)를 제어하여 광전 변환부(OEC)와 CDS-ADC(201)의 동작을 제어한다.
디지털 신호 발생부로서의 CDS-ADC(201)는 광전 변환부(OEC)로부터의 아날로그 영상 신호를 처리하여 디지털 영상 신호를 발생시킨다. 보다 상세하게는, CDS-ADC(201)는, 광전 변환부(OEC)로부터의 아날로그 영상 신호를 처리하여, 그 고주파 노이즈를 제거하고 진폭을 조정한 후, 디지털 영상 데이터로 변환시킨다. 이 디지털 영상 데이터는 디지털 신호 처리기(207)에 입력된다.
디지털 신호 처리기(207)는 광학계(OPS), 광전 변환부(OEC) 및 디지털 신호 발생부로서의 CDS-ADC(201)의 동작을 제어하면서 CDS-ADC(201)로부터의 디지털 영상 신호의 형식을 변환한다. 보다 상세하게는, 디지털 신호 처리기(207)는 CDS-ADC 소자(201)로부터의 디지털 신호를 처리하여 휘도 및 색도 신호로 분류된 디지털 영상 신호를 발생시킨다.
비디오-신호 발생부(208)는, 본체부(21)는 디지털 신호 처리기(207)로부터의 디지털 영상 신호를 아날로그 영상 신호인 비디오 신호(Svid1)로 변환한다.
디지털 신호 처리기(207)는, 인터페이스부(22)를 통하여 호스트 장치(도 1의 13)와 통신하면서, 비디오-신호 발생부(2408)로부터의 비디오 신호(Svid1)를 호스트 장치(13)에 전송한다.
한편, 마이크로-컴퓨터(213)는 구동부(210)를 제어하여 조리개 모터(Ma), 줌 모터(Mz), 포커스 모터(Mf), 필터 모터(Md), 패닝 모터(Mp) 및 틸팅 모터(Mt)를 구동한다.
조리개 모터(Ma)는 조리개를 구동하고, 줌 모터(Mz)는 줌 렌즈를 구동하며, 포커스 모터(Mf)는 포커스 렌즈를 구동한다. 필터 모터(Md)는 필터부에서의 광학적 저역통과필터(OLPF)와 적외선 차단 필터(IRF)를 구동한다.
패닝 모터(Mp)는 광학계(OPS)를 좌우로 회전시킨다. 틸팅 모터(Mt)는 광학계(OPS)를 상하로 회전시킨다.
마이크로-컴퓨터(213)는, 주기적으로 또는 호스트 장치(도 1의 13)로부터 인터페이스부(22) 및 디지털 신호 처리기(207)를 통하여 입력된 사용자 명령에 따라, 구동부(210)를 제어하여 광학계(OPS)를 좌우로 회전시키는 패닝(panning) 및 광학계(OPS)를 상하로 회전시키는 틸팅(tilting)을 수행한다.
또한, 마이크로-컴퓨터(213)는 디지털 신호 처리기(207)로부터의 제어에 따라 조명부(215)를 구동한다.
한편, 카메라(예를 들어, 도 1의 11b)의 제어부로서의 디지털 신호 처리기(207)는 본 발명의 일 실시예의 화각 조정 방법을 수행한다. 여기에서, 디지털 신호 처리기(207)는, 다른 카메라(예를 들어, 도 1의 11a)로부터 전송되는 설정 화각의 데이터를 수신하고, 상기 설정 화각을 자신의 카메라(11b)의 목표 화각으로 설정하여, 상기 목표 화각에 상응하는 자신의 카메라(11b)의 초점 거리를 구하고, 구해진 초점 거리에 따라 주밍(zooming)을 수행한다.
도 3은 도 2의 인터페이스부(22)의 구성을 보여준다.
도 2 및 3을 참조하면, 인터페이스부(22)는 전원 공급부(51), 통신 인터페이스(52), 식별번호 입력부(54), 비디오-신호 출력부(56), 센서 인터페이스(53) 및 기능설정 입력부(55)를 포함한다.
전원 공급부(51)는, 입력 교류 전압(ACin)을 정류하여, 제1 직류 전압(DCout1)을 인터페이스부(22) 내의 각 부에 제공하고, 제2 직류 전압(DCout2)을 본체부(21) 내의 각 부에 제공한다.
통신 인터페이스(52)는 본체부(21) 내의 디지털 신호 처리기(407)와 외부 장치로서의 호스트 장치(도 1의 13) 사이에서 통신 신호(Sco1, Sco)를 인터페이싱한다.
식별번호 입력부(54)는 사용자 설정 조작에 의한 식별 번호의 신호(Sid)를 본체부 (21) 내의 디지털 신호 처리기(407)에 입력한다.
비디오-신호 출력부(56)는 본체부(21) 내의 비디오-신호 발생부(408)로부터의 비디오 신호(Svid1)를 인터페이싱하고, 인터페이싱된 비디오 신호(Svid)를 비엔씨(BNC : Bayonet Neil-Concelman) 리셉터클을 사용하여 출력한다.
센서 인터페이스(53)는 본체부(21) 내의 디지털 신호 처리기(407)와 외부 센서들 사이에서 통신 신호(Sse1, Sse)를 인터페이싱한다.
기능설정 입력부(55)는 사용자 설정 조작에 의한 기능 설정의 신호(Sfu)를 본체부(21) 내의 디지털 신호 처리기(407)에 입력한다.
도 4는 도 1의 제1 및 제2 카메라들(11a,11b)이 동일한 피사체 영역(41)을 촬영함을 보여준다. 도 4에서 참조 부호 θ1 및 θ2는 각 카메라(11a,11b)의 화각을 가리킨다.
도 5는 도 1의 제2 카메라(11b)의 제어부(도 2의 207) 또는 호스트 장치(13)에 의하여 수행되는 화각 조정 방법을 보여준다.
도 6 및 7은 도 5의 화각 조정 방법을 상세히 설명하기 위한 카메라 구조의 도면들이다. 도 6 및 7에서 참조 부호 θ1은 제2 카메라(도 1의 11b)의 목표 화각을, 601은 광학계(도 2의 OPS)를, 602는 광전 변환 소자(도 2의 OEC)를, Lf는 초점 거리를, Sc는 센서 중심 지점을, Lc는 광학계의 광학적 중심 지점을, 그리고 Ls는 광전 변환 영역에서의 대각선 길이 또는 가로 길이 또는 세로 길이를 각각 가리킨다. 즉, 참조 부호 Ls는 광전 변환 영역의 크기를 가리킨다.
도 6은 목표 화각(θ1)이 최대라고 가정한 경우에, 그리고 도 7은 목표 화각(θ1)이 최소라고 가정한 경우에 각각 해당된다.
도 4 내지 7을 참조하여 도 5의 화각 조정 방법을 설명하면 다음과 같다.
단계 (a)에서는, 제2 카메라(도 1의 11b)의 제어부(도 2의 207) 또는 호스트 장치(13)는, 제1 카메라(도 1의 11a)의 설정 화각(θ1)을 제2 카메라(11b)의 목표 화각(θ1)으로 설정하여, 제2 카메라(11b)의 목표 화각(θ1)에 상응하는 제2 카메라(11b)의 초점 거리(Lf)를 구한다.
단계 (b)에서는, 제2 카메라(11b)의 제어부(207) 또는 호스트 장치(13)는, 제2 카메라(11b)의 초점 거리(Lf)에 따라 제2 카메라(11b)의 주밍(zooming)을 수행한다.
요약하면, 제2 카메라(11b)의 주밍(zooming)이 수행됨에 있어서, 제1 카메라(11a)의 설정 화각이 직접적으로 적용되지 않고, 제2 카메라(11b)의 초점 거리를 통하여 간접적으로 적용된다.
여기에서, 제1 카메라(11a)의 설정 화각에 상응하는 제2 카메라(11b)의 초점 거리는, 제1 카메라(11a)의 설정 화각에 상응하여 제2 카메라(11b)의 전체적 특성이 반영된 결과이다.
따라서, 제1 카메라(11a) 및 제2 카메라(11b)의 전체적 특성이 동일하지 않음에도 불구하고, 제2 카메라(11b)의 화각은 제1 카메라(11a)의 설정 화각에 실제적으로 일치될 수 있다.
따라서, 적어도 두 대의 카메라들(11a,11b)이 동일한 촬영 영역을 촬영할 경우, 카메라들(11a,11b)의 설치 단계에서의 실험 및 수작업 조정을 하지 않을 뿐만 아니라, 복잡한 화각 조정 프로그램을 실행하지 않고서도, 두 카메라들(11a,11b)의 화각이 실제로 일치될 수 있다.
도 8은 도 5의 단계 (a)를 상세히 보여준다.
도 8을 참조하면, 도 5의 단계 (a)는 단계들 (a1) 내지 (a3)을 포함한다. 도 8의 단계들 (a1) 내지 (a3)와 관련하여, 도 6 및 7을 참조하면, 아래의 수학식 1이 성립된다.
Figure pat00001
상기 수학식 1에서 θ1은 제2 카메라(도 1의 11b)의 목표 화각을, Lf는 초점 거리를, 그리고 Ls는 광전 변환부(602, 도 2의 OEC)의 광전 변환 영역에서의 대각선 길이 또는 가로 길이 또는 세로 길이를 각각 가리킨다.
따라서, 제2 카메라(11b)의 초점 거리는 아래의 수학식 2에 의하여 구해질 수 있다.
Figure pat00002
따라서, 도 6 내지 8을 참조하여, 도 5의 단계 (a)를 상세히 설명하면 다음과 같다.
단계 (a1)에 있어서, 제2 카메라(도 1의 11b)의 제어부(도 2의 207) 또는 호스트 장치(도 1의 13)는, 제2 카메라(11b)의 광전 변환부(602, 도 2의 OEC)의 광전 변환 영역에서의 대각선 길이 또는 가로 길이 또는 세로 길이(Ls)를 구한다.
단계 (a2)에 있어서, 제2 카메라(11b)의 제어부(207) 또는 호스트 장치(13)는, 제2 카메라(11b)의 목표 화각(θ1)의 절반 값(θ1/2)에 대한 탄젠트(tangent) 값을 구한다.
그리고 단계 (a3)에 있어서, 제2 카메라(11b)의 제어부(207) 또는 호스트 장치(13)는, 상기 대각선 길이 또는 가로 길이 또는 세로 길이(Ls)를 상기 탄젠트(tangent) 값의 2 배 값으로써 나눈 결과를 상기 제2 카메라의 초점 거리(Lf)로서 설정한다.
도 9는 도 5의 단계 (b)를 상세히 보여준다.
도 6, 7 및 9를 참조하여, 도 5의 단계 (b)를 상세히 설명하면 다음과 같다.
단계 (b1)에 있어서, 제2 카메라(도 1의 11b)의 제어부(도 2의 207) 또는 호스트 장치(도 1의 13)는, 제2 카메라(11b)의 초점 거리(Lf)에 상응하는 제2 카메라(11b)의 줌(zoom) 배율을 구한다.
그리고 단계 (b2)에 있어서, 제2 카메라(11b)의 제어부(207) 또는 호스트 장치(13)는, 구해진 줌(zoom) 배율에 따라 제2 카메라(11b)의 주밍(zooming)을 수행한다. 예를 들어, 호스트 장치(13)가 단계 (b2)를 수행할 경우, 단계 (b1)에서 구해진 줌(zoom) 배율의 데이터를 제2 카메라(11b)에 전송한다.
아래의 표 1은, 도 8 및 9의 수행을 위하여 구해진 실험 결과의 예이다. 여기에서, 적용되는 상기 대각선 길이(Ls)는 4.5 밀리미터(mm)이다. 물론, 상기 대각선 길이(Ls)가 적용되지 않고, 상기 가로 길이(Ls) 또는 상기 세로 길이(Ls)가 적용될 수도 있다. 이 경우, 동일한 목표 화각에 대하여 대각선 길이(Ls) 적용 시의 초점 거리의 값, 상기 가로 길이(Ls) 적용 시의 초점 거리의 값, 및 상기 세로 길이(Ls) 적용 시의 초점 거리의 값은 각각 다르게 나타난다. 하지만, 동일한 카메라 내에서 그들에 대응하는 줌(zoom) 배율은 동일하게 나타난다.
목표 화각(도) 초점 거리(mm) 줌(zoom) 배율 줌(zoom) 단계 번호
5.6003 46.0021 11.646 921
5.6305 45.7550 11.584 920
......... .......... .......... ..........
6.6414 38.7783 9.8173 885
6.6697 38.6134 9.7755 884
......... ........... .......... ..........
9.2723 27.7459 7.0243 798
......... ........... .......... ..........
14.2650 17.9809 4.5522 672
......... ........... .......... ..........
34.8640 7.1657 1.8141 329
34.9350 7.1502 1.8102 328
............ ............ ........... .............
59.2580 3.9561 1.0015 1
59.3330 3.9500 1.0000 0
이상 설명된 바와 같이, 본 발명에 따른 실시예의 화각 조정 방법, 이 방법을 채용한 카메라 및 감시 시스템에 의하면, 제1 카메라의 설정 화각에 상응하는 제2 카메라의 초점 거리에 따라, 제2 카메라의 주밍(zooming)이 수행된다.
즉, 제2 카메라의 주밍(zooming)이 수행됨에 있어서, 제1 카메라의 설정 화각이 직접적으로 적용되지 않고, 제2 카메라의 초점 거리를 통하여 간접적으로 적용된다.
여기에서, 제1 카메라의 설정 화각에 상응하는 제2 카메라의 초점 거리는, 상기 제1 카메라의 설정 화각에 상응하여 상기 제2 카메라의 전체적 특성이 반영된 결과이다.
따라서, 제1 카메라 및 제2 카메라의 전체적 특성이 동일하지 않음에도 불구하고, 제2 카메라의 화각은 제1 카메라의 설정 화각에 실제적으로 일치될 수 있다.
따라서, 적어도 두 대의 카메라들이 동일한 촬영 영역을 촬영할 경우, 카메라들의 설치 단계에서의 실험 및 수작업 조정을 하지 않을 뿐만 아니라, 복잡한 화각 조정 프로그램을 실행하지 않고서도, 두 카메라들의 화각이 실제로 일치될 수 있다.
이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다.
그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.
서로 다른 모델의 영상 시스템들에서 이용될 가능성이 있다.
11a 내지 11n : 카메라들, 12 : 통신 네트워크,
13 : 호스트 장치, 21 : 본체부,
22 : 인터페이스부, OPS : 광학계,
OEC : 광전 변환부, 201 : CDS-ADC,
202 : 타이밍 회로, 207 : 디지털 신호 처리기,
208 : 비디오-신호 발생부, 210 : 구동부,
213 : 마이크로-컴퓨터, 215...조명부,
31 : 전원 공급부, 32 : 통신 인터페이스,
33 : 센서 인터페이스, 34 : 식별번호 입력부,
35 : 기능설정 입력부, 36 : 비디오-신호 출력부,
41 : 촬영 영역, θ1,θ2 : 화각,
601 : 광학계, 602 : 광전 변환 소자,
Lf : 초점 거리, Sc : 센서 중심 지점,
Lc : 광학계의 광학적 중심 지점,
Ls : 광전 변환 영역에서의 대각선 길이 또는 가로 길이 또는 세로 길이.

Claims (9)

  1. 제2 카메라의 화각이 제1 카메라의 설정 화각과 일치되도록 상기 제2 카메라의 화각을 조정하는 방법에 있어서,
    (a) 상기 제1 카메라의 설정 화각을 상기 제2 카메라의 목표 화각으로 설정하여, 상기 제2 카메라의 목표 화각에 상응하는 상기 제2 카메라의 초점 거리를 구함; 및
    (b) 상기 제2 카메라의 초점 거리에 따라 상기 제2 카메라의 주밍(zooming)을 수행함을 포함한 화각 조정 방법.
  2. 제1항에 있어서, 상기 단계 (a)는,
    (a1) 상기 제2 카메라의 광전 변환 영역에서의 대각선 길이 또는 가로 길이 또는 세로 길이를 구함;
    (a2) 상기 제2 카메라의 목표 화각의 절반 값에 대한 탄젠트(tangent) 값을 구함; 및
    (a3) 상기 대각선 길이 또는 가로 길이 또는 세로 길이를 상기 탄젠트(tangent) 값의 2 배 값으로써 나눈 결과를 상기 제2 카메라의 초점 거리로서 설정함을 포함한 화각 조정 방법.
  3. 제1항에 있어서, 상기 단계 (b)는,
    (b1) 상기 제2 카메라의 초점 거리에 상응하는 상기 제2 카메라의 줌(zoom) 배율을 구함; 및
    (b2) 구해진 줌(zoom) 배율에 따라 상기 제2 카메라의 주밍(zooming)을 수행함을 포함한 화각 조정 방법.
  4. 광학계, 광전 변환부 및 제어부를 구비한 카메라에 있어서, 상기 제어부는,
    상기 다른 카메라의 설정 화각의 데이터를 수신하고, 상기 설정 화각을 자신의 카메라의 목표 화각으로 설정하여, 상기 목표 화각에 상응하는 자신의 카메라의 초점 거리를 구하고, 구해진 초점 거리에 따라 주밍(zooming)을 수행하는 카메라.
  5. 제4항에 있어서, 상기 제어부가 상기 목표 화각에 상응하는 자신의 카메라의 초점 거리를 구함에 있어서,
    상기 광전 변환부의 광전 변환 영역에서의 대각선 길이 또는 가로 길이 또는 세로 길이를 구하고, 상기 목표 화각의 절반 값에 대한 탄젠트(tangent) 값을 구하여, 상기 대각선 길이 또는 가로 길이 또는 세로 길이를 상기 탄젠트(tangent) 값의 2 배 값으로써 나눈 결과를 상기 제2 카메라의 초점 거리로서 설정하는 카메라.
  6. 제4항에 있어서, 상기 제어부가 초점 거리에 따라 주밍(zooming)을 수행함에 있어서,
    상기 초점 거리에 상응하는 줌(zoom) 배율을 구하고,
    구해진 줌(zoom) 배율에 따라 주밍(zooming)을 수행하는 카메라.
  7. 적어도 제1 카메라 및 제2 카메라가 호스트 장치에 연결되고, 상기 호스트 장치가 상기 제1 카메라의 설정 화각에 상기 제2 카메라의 화각을 일치시키는 감시 시스템에 있어서,
    상기 호스트 장치는,
    상기 제1 카메라의 설정 화각의 데이터를 수신하고, 상기 설정 화각을 상기 제2 카메라의 목표 화각으로 설정하여, 상기 목표 화각에 상응하는 상기 제2 카메라의 초점 거리를 구하고, 구해진 초점 거리에 따라 상기 제2 카메라의 주밍(zooming)을 제어하는 감시 시스템.
  8. 제7항에 있어서, 상기 호스트 장치가 상기 목표 화각에 상응하는 상기 제2 카메라의 초점 거리를 구함에 있어서,
    상기 제2 카메라의 광전 변환부의 광전 변환 영역에서의 대각선 길이 또는 가로 길이 또는 세로 길이를 구하고, 상기 목표 화각의 절반 값에 대한 탄젠트(tangent) 값을 구하여, 상기 대각선 길이 또는 가로 길이 또는 세로 길이를 상기 탄젠트(tangent) 값의 2 배 값으로써 나눈 결과를 상기 제2 카메라의 초점 거리로서 설정하는 감시 시스템.
  9. 제7항에 있어서, 상기 호스트 장치가 초점 거리에 따라 상기 제2 카메라의 주밍(zooming)을 제어함에 있어서,
    상기 초점 거리에 상응하는 줌(zoom) 배율을 구하고,
    구해진 줌(zoom) 배율의 데이터를 상기 제2 카메라에 전송하는 감시 시스템.
KR1020130016051A 2013-02-14 2013-02-14 화각 조정 방법, 이 방법을 채용한 카메라 및 감시 시스템 KR102029206B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130016051A KR102029206B1 (ko) 2013-02-14 2013-02-14 화각 조정 방법, 이 방법을 채용한 카메라 및 감시 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130016051A KR102029206B1 (ko) 2013-02-14 2013-02-14 화각 조정 방법, 이 방법을 채용한 카메라 및 감시 시스템

Publications (2)

Publication Number Publication Date
KR20140102560A true KR20140102560A (ko) 2014-08-22
KR102029206B1 KR102029206B1 (ko) 2019-10-07

Family

ID=51747335

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130016051A KR102029206B1 (ko) 2013-02-14 2013-02-14 화각 조정 방법, 이 방법을 채용한 카메라 및 감시 시스템

Country Status (1)

Country Link
KR (1) KR102029206B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017051975A1 (ko) * 2015-09-22 2017-03-30 엘지전자 주식회사 이동 단말기 및 그 제어방법
WO2019124824A1 (ko) * 2017-12-21 2019-06-27 삼성전자 주식회사 복수 개의 카메라를 포함하는 전자 장치 및 그 동작 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083246A (ja) * 1998-09-04 2000-03-21 Canon Inc カメラ制御システム、カメラ制御方法、およびその処理を実行するプログラムを記憶した記録媒体
JP2002077880A (ja) * 2000-08-31 2002-03-15 Toshiba Corp 遠隔監視システム
KR100688456B1 (ko) 2005-09-13 2007-03-02 한국방송공사 평행이동축 방식 스테레오 카메라 시스템에서의 줌-주시각연동 제어방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083246A (ja) * 1998-09-04 2000-03-21 Canon Inc カメラ制御システム、カメラ制御方法、およびその処理を実行するプログラムを記憶した記録媒体
JP2002077880A (ja) * 2000-08-31 2002-03-15 Toshiba Corp 遠隔監視システム
KR100688456B1 (ko) 2005-09-13 2007-03-02 한국방송공사 평행이동축 방식 스테레오 카메라 시스템에서의 줌-주시각연동 제어방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017051975A1 (ko) * 2015-09-22 2017-03-30 엘지전자 주식회사 이동 단말기 및 그 제어방법
US10291833B2 (en) 2015-09-22 2019-05-14 Lg Electronics Inc. Mobile terminal for image capturing and method for controlling the same
WO2019124824A1 (ko) * 2017-12-21 2019-06-27 삼성전자 주식회사 복수 개의 카메라를 포함하는 전자 장치 및 그 동작 방법
US11736792B2 (en) 2017-12-21 2023-08-22 Samsung Electronics Co., Ltd. Electronic device including plurality of cameras, and operation method therefor

Also Published As

Publication number Publication date
KR102029206B1 (ko) 2019-10-07

Similar Documents

Publication Publication Date Title
JP6238184B2 (ja) 撮像装置
CN105187726B (zh) 一种多功能移动图像处理装置、处理方法
WO2017049922A1 (zh) 一种图像信息采集装置、图像采集方法及其用途
EP2178292B1 (en) Auto focus system having af frame auto-tracking function
US9838667B2 (en) Image pickup apparatus, image pickup method, and non-transitory computer-readable medium
KR20190010322A (ko) 전자 장치 및 전자 장치의 이미지 압축 방법
US11588973B2 (en) Camera apparatus
EP2178291B1 (en) Auto focus system having of frame auto-tracking function
KR102029206B1 (ko) 화각 조정 방법, 이 방법을 채용한 카메라 및 감시 시스템
KR20210080875A (ko) 이미지 센서를 포함하는 전자 장치 및 그의 동작 방법
US8994793B2 (en) Image capture device, controller and computer program
JP2014192745A (ja) 撮像装置、情報処理装置及びそれらの制御方法、プログラム
KR102104406B1 (ko) 패닝 및 틸팅을 수행하는 감시 카메라
JP2007006285A (ja) 複眼撮像装置及び複眼撮像システム及び複眼撮像装置の制御プログラム
EP2187625B1 (en) Autofocus system
KR101012075B1 (ko) 와이드 화면과 텔레 화면 및 분할 화면을 선택적으로 구현할 수 있는 감시카메라 및 그 제어방법
CN113497877A (zh) 摄像设备、控制方法和存储介质
KR101238250B1 (ko) 감시 카메라
KR101153388B1 (ko) 카메라 모듈 및 그의 노출 제어 방법
KR102158835B1 (ko) 감시 카메라
KR102450363B1 (ko) 감시 카메라
KR101279565B1 (ko) 조명 장치를 구비한 감시 카메라
JP2010096963A (ja) Af枠自動追尾機能を備えたオートフォーカスシステム
KR20160094590A (ko) 휴대 단말기를 이용한 외장형 촬영 장치
KR20150063869A (ko) 센서를 이용하는 감시 카메라

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant