KR20190041289A - 카메라의 자동초점 기능을 이용한 수치 계측 방법 - Google Patents

카메라의 자동초점 기능을 이용한 수치 계측 방법 Download PDF

Info

Publication number
KR20190041289A
KR20190041289A KR1020170132702A KR20170132702A KR20190041289A KR 20190041289 A KR20190041289 A KR 20190041289A KR 1020170132702 A KR1020170132702 A KR 1020170132702A KR 20170132702 A KR20170132702 A KR 20170132702A KR 20190041289 A KR20190041289 A KR 20190041289A
Authority
KR
South Korea
Prior art keywords
distance
feature points
information
image information
camera
Prior art date
Application number
KR1020170132702A
Other languages
English (en)
Inventor
고시라
Original Assignee
주식회사 에이알컴
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이알컴 filed Critical 주식회사 에이알컴
Priority to KR1020170132702A priority Critical patent/KR20190041289A/ko
Publication of KR20190041289A publication Critical patent/KR20190041289A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N5/23212
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • H04N5/2254

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

본 발명의 카메라의 자동초점 기능을 이용한 수치 계측 방법에 따르면, 자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하고, 상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하고, 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 '-' 방향 이격되는지 인식하고, 상기 앱이 상기 '+' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하거나, 상기 '-' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하고, 상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하고, 둘 이상의 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하고, 상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하며, 상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출한다.

Description

카메라의 자동초점 기능을 이용한 수치 계측 방법{Method for Measuring Numerical Value by using Automatic Focussing Function of Camera}
본 발명은, 자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하고, 상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하고, 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 '-' 방향 이격되는지 인식하고, 상기 앱이 상기 '+' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하거나, 상기 '-' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하고, 상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하고, 둘 이상의 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하고, 상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하며, 상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 카메라의 자동초점 기능을 이용한 수치 계측 방법에 관한 것이다.
무선단말의 카메라를 이용하여 피사체의 크기나 높이를 측정하는 방식이 제안되었다. 한편 종래에 무선단말의 카메라를 이용하여 측정하는 방식은, 사람의 눈처럼 같은 방향을 촬영하는 두 개의 카메라를 이용하여 측정하는 방식(공개특허공보 제10-2004-005432호(2004년06월25일)), 카메라 외에 별도의 센서를 이용하여 측정하는 방식(공개특허공보 제10-2008-0076338호(2008년08월20일)), 카메라를 통해 피사체 촬영하고 실제 높이를 키 입력하여 측정하는 방식(공개특허공보 제10-2004-0104798호(2004년12월13일)) 등 다양한 방식이 제안되었다.
그러나 종래에 제안된 측정 방식은 무선단말에 같은 방향을 촬영하는 두 개의 카메라를 탑재하거나 별도의 센서를 탑재한 경우에만 측정 가능하며 하나의 카메라를 통해서는 측정하기 불가능한 문제점을 지니고 있으며, 만약 무선단말에 탑재된 하나의 카메라를 통해 측정하기 위해서는 사용자가 실제 높이를 키 입력해야 하는 불편함을 지니고 있다.
본 발명의 목적은, 자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 제1 단계와 상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 제2 단계와 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 '-' 방향 이격되는지 인식하는 제3 단계와 상기 앱이 상기 '+' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하거나, 상기 '-' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계와 상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계와 둘 이상의 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하는 제6 단계와 상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 제7 단계 및 상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 제8 단계를 포함하는 카메라의 자동초점 기능을 이용한 수치 계측 방법을 제공함에 있다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 제1 단계와 상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 제2 단계와 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 '-' 방향 이격되는지 인식하는 제3 단계와 상기 앱이 상기 '+' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하거나, 상기 '-' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계와 상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계와 둘 이상의 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하는 제6 단계와 상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 제7 단계 및 상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 제8 단계를 포함하는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제1 단계는, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 이미지 센서부를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제2 단계는, 화면 영역 상의 지정된 영상출력 영역에 카메라모듈을 통해 입력되어 버퍼링되는 영상정보를 출력하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제2 단계는, 상기 앱이 상기 카메라모듈의 자동초점 기능을 활성화하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제2 단계는, 상기 앱이 상기 카메라모듈의 자동초점 주기를 최소값으로 설정하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 N개의 특징점은, 상기 카메라모듈을 통해 입력되는 영상정보 내의 픽셀영역 중 색상, 명암, 채도 중 하나 이상의 값이 인접한 영역의 값보다 지정된 기준값 이상 차이가 발생하는 점 영역, 선 영역, 면 영역 중 적어도 하나의 영역을 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 N개의 특징점은, 지정된 허용 오차 범위 내에서 상기 카메라렌즈의 시선방향과 직교 관계를 형성하는 가상의 평면 영역에 형성된 특징점, 또는 지정된 허용 오차 범위 내에서 상기 카메라렌즈의 이미지 센서부의 센서영역과 평행 관계를 형성하는 가상의 평면 영역에 형성된 특징점을 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제2 단계는, 상기 앱이 상기 피사체 상의 N개의 특징점을 형성한 면과 상기 카메라렌즈의 시선방향 사이에 직교 관계를 형성하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제2 단계는, 상기 앱이 상기 카메라모듈의 자동초점 주기 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제2 단계는, 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 지정 개수의 프레임을 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요되는 소요 시간 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서,상기 이격 속도는, 적어도 10cm/s 이내로 이동하는 속도를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 이격 속도는, 적어도 5cm/s 이내로 이동하는 속도를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제3 단계는, 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 F개의 프레임 중 제i(1≤f<F) 프레임 화상정보에 포함된 적어도 하나의 특징점 간 픽셀거리와 제j(i<j≤F) 프레임 화상정보에 포함된 동일한 특징점 간 픽셀거리를 비교하여 상기 특징점 간 픽셀거리가 증가하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '+' 방향 이격하는 영상정보로 확인하고 상기 특징점 간 픽셀거리가 감소하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '-' 방향 이격되는 영상정보로 확인하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 이미지 센서부를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 단계를 더 포함하며, 상기 제4 단계는, 상기 앱이 상기 f개의 화상정보에 존재하는 n개의 특징점 간 픽셀거리를 산출하는 단계 및 상기 앱이 상기 환산정보를 이용하여 n개의 특징점 간 픽셀거리를 지정된 도량형 단위의 n개의 특징점 간 거리로 환산하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 환산정보는, 상기 픽셀영역 상의 지정된 단위 픽셀거리를 상기 이미지 센서부의 센서셀 사이의 실제거리로 환산하는 정보를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제4 단계는, 상기 '0' 시점에 대응하는 둘 이상의 프레임 화상정보에 존재하는 둘 이상의 n개의 특징점 간 거리를 산출한 경우, 상기 앱이 상기 산출된 둘 이상의 n개의 특징점 간 거리를 통계처리하여 지정된 오차 범위의 n개의 특징점 간 거리를 산출하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 T개의 계측대상 특징점은, 상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보에 포함된 특징점을 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 T개의 계측대상 특징점은, 상기 기준 특징점 중 적어도 하나의 특징점을 포함 가능한 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 T개의 계측대상 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 적어도 p(p≥3)개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우, 상기 앱이 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하는 단계 및 상기 앱이 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 거리관계는, 상기 p개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보와, 상기 p개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 각도관계는, 상기 p개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보와, 상기 p개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 지정된 저장영역에 상기 기준 기하학 관계정보가 저장된 후 상기 카메라모듈을 통해 입력되는 영상정보에 포함된 적어도 q(q≥3)개의 특징점이 인식된 경우, 상기 앱이 상기 인식된 q개의 특징점 간의 거리관계와 각도관계를 포함하는 기하학 관계정보를 인식하는 단계와 상기 앱이 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인하는 단계 및 상기 매칭된 기준 기하학 관계정보를 확인한 경우, 상기 앱이 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 앱이 상기 인식된 q개의 특징점이나 상기 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계와 상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계 및 상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 매칭된 기준 기하학 관계정보를 확인하지 못한 경우, 상기 앱이 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 상기 피사체와 카메라렌즈 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따르면, 무선단말에 탑재된 하나의 카메라모듈을 통해 둘 이상의 특징점을 지닌 피사체를 근접 촬영하면서 상기 피사체와 카메라렌즈 사이의 촬영거리를 '+' 방향이나 '-' 방향으로 이격하는 캘리브레이션(Calibration) 과정을 통해 상기 피사체 상에 존재하는 적어도 둘 이상의 특징점 간의 실제거리의 수치를 정밀하게 산출하는 이점이 있다.
본 발명에 따르면, 무선단말에 탑재된 하나의 카메라모듈을 통해 둘 이상의 특징점을 지닌 피사체를 근접 촬영하면서 상기 캘리브레이션 과정을 통해 상기 피사체 상에 존재하는 적어도 둘 이상의 특징점 간의 실제거리를 산출한 이후에는 상기 근접 촬영과 무관하게 상기 산출된 특징점 간의 실제거리를 이용하여 상기 피사체에 존재하는 다른 특징점 간의 실제거리의 수치를 정밀하게 산출하는 이점이 있다.
본 발명에 따르면, 피사체 상에 존재하는 특징점 간의 실제거리를 산출한 경우 상기 산출된 특징점 간의 실제거리와 상기 특징점 간의 거리관계 및 상기 특징점들이 형성하는 각도관계를 포함하는 특징점 간의 기하학 관계정보를 생성하여 저장한 이후에 카메라모듈을 통해 동일한 피사체를 다시 촬영하는 경우 별도의 캘리브레이션 과정 없이 상기 특징점 간의 기하학 관계정보를 통해 상기 피사체에 존재하는 특징점 간의 실제거리의 수치를 정밀하게 결정하는 이점이 있다.
도 1은 본 발명의 실시 방법에 따라 카메라모듈을 이용하여 수치를 계측하는 무선단말과 앱의 기능 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 카메라모듈의 구조를 도시한 도면이다.
도 3은 본 발명의 제1 실시 방법에 따라 카메라모듈을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.
도 4는 본 발명의 제2 실시 방법에 따라 카메라모듈을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.
도 5는 본 발명의 제3 실시 방법에 따라 카메라모듈을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.
도 6은 본 발명의 실시 방법에 따라 실제거리의 수치가 산출된 특징점 간의 기하학 관계정보를 생성하여 저장 관리하는 과정을 도시한 도면이다.
이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.
즉, 하기의 실시예는 본 발명의 수 많은 실시예 중에 바람직한 합집합 형태의 실시예 예에 해당하며, 하기의 실시예에서 특정 구성(또는 단계)를 생략하는 실시예, 또는 특정 구성(또는 단계)에 구현된 기능을 특정 구성(또는 단계)로 분할하는 실시예, 또는 둘 이상의 구성(또는 단계)에 구현된 기능을 어느 하나의 구성(또는 단계)에 통합하는 실시예, 특정 구성(또는 단계)의 동작 순서를 교체하는 실시예 등은, 하기의 실시예에서 별도로 언급하지 않더라도 모두 본 발명의 권리범위에 속함을 명백하게 밝혀두는 바이다. 따라서 하기의 실시예를 기준으로 부분집합 또는 여집합에 해당하는 다양한 실시예들이 본 발명의 출원일을 소급받아 분할될 수 있음을 분명하게 명기하는 바이다.
또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.
도면1은 본 발명의 실시 방법에 따라 카메라모듈(105)을 이용하여 수치를 계측하는 무선단말(100)과 앱(110)의 기능 구성을 도시한 도면이다.
보다 상세하게 본 도면1은 무선단말(100)에 탑재된 카메라모듈(105)의 카메라렌즈(200)를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하고, 상기 카메라렌즈(200)의 시선방향을 N(N≥2)개의 특징점과 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시키도록 유도하면서 상기 피사체와 무선단말(100) 중 적어도 하나를 움직여 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 상기 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리 사이를 이격하도록 유도하고, 상기 카메라모듈(105)을 통해 입력되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인식된 m개의 엣지 영역의 초점이 맞춰지는 '0' 시점에 상기 인식된 n개의 특징점 간 거리를 산출하고, 상기 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 기능을 구현하는 앱(110)의 구성과 무선단말(100)의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 무선단말(100) 기능에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다. 바람직하게, 본 도면1의 무선단말(100)은 상기 앱(110)을 설치한 이동통신단말, 휴대폰, 스마트폰, 태블릿PC 중 적어도 하나를 포함할 수 있다. 한편 본 도면1의 무선단말(100)은 상기 이동통신단말, 휴대폰, 스마트폰, 태블릿PC 중 적어도 하나 이외에 카메라모듈(105)을 탑재한 모든 장치를 포함할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.
도면1을 참조하면, 상기 무선단말(100)은, 제어부(101)와 메모리부(109)와 화면 출력부(102)와 사용자 입력부(103)와 사운드 처리부(104)와 카메라모듈(105)과 무선망 통신부(106)와 근거리망 통신부(107)와 USIM 리더부(108) 및 USIM를 구비하며, 전원 공급을 위한 배터리를 구비한다.
상기 제어부(101)는 상기 무선단말(100)의 동작을 제어하는 구성의 총칭으로서, 적어도 하나의 프로세서와 실행 메모리를 포함하여 구성되며, 상기 무선단말(100)에 구비된 각 구성부와 버스(BUS)를 통해 연결된다. 본 발명에 따르면, 상기 제어부(101)는 상기 프로세서를 통해 상기 무선단말(100)에 구비되는 적어도 하나의 프로그램코드를 상기 실행 메모리에 로딩하여 연산하고, 그 결과를 상기 버스를 통해 적어도 하나의 구성부로 전달하여 상기 무선단말(100)의 동작을 제어한다. 이하, 편의상 프로그램코드 형태로 구현되는 본 발명의 앱(110) 구성을 본 제어부(101) 내에 도시하여 설명하기로 한다.
상기 메모리부(109)는 상기 무선단말(100)의 저장 자원에 대응되는 비휘발성 메모리의 총칭으로서, 상기 제어부(101)를 통해 실행되는 적어도 하나의 프로그램코드와, 상기 프로그램코드가 이용하는 적어도 하나의 데이터셋트를 저장하여 유지한다. 상기 메모리부(109)는 기본적으로 상기 무선단말(100)의 운영체제에 대응하는 시스템프로그램코드와 시스템데이터셋트, 상기 무선단말(100)의 무선 통신 연결을 처리하는 통신프로그램코드와 통신데이터셋트 및 적어도 하나의 응용프로그램코드와 응용데이터셋트를 저장하며, 본 발명의 앱(110)에 대응하는 프로그램코드와 데이터셋트도 상기 메모리부(109)에 저장된다.
상기 화면 출력부(102)는 화면출력기(예컨대, LCD(Liquid Crystal Display) 등)와 이를 구동하는 구동 모듈로 구성되며, 상기 제어부(101)와 연동되어 상기 제어부(101)의 각종 연산 결과 중 화면 출력에 대응하는 연산 결과를 상기 화면출력기로 출력한다.
상기 사용자 입력부(103)는 하나 이상의 사용자입력기(예컨대, 버튼, 키패드, 터치패드, 화면 출력부(102)와 연동하는 터치스크린 등)와 이를 구동하는 구동 모듈로 구성되며, 상기 제어부(101)와 연동되어 상기 제어부(101)의 각종 연산을 명령하는 명령을 입력하거나, 또는 상기 제어부(101)의 연산에 필요한 데이터를 입력한다.
상기 사운드 처리부(104)는 스피커와 마이크로폰과 및 이를 구동하는 구동 모듈로 구성되며, 상기 제어부(101)의 각종 연산 결과 중 사운드 출력에 대응하는 사운드 데이터를 디코딩(Decoding)하여 상기 스피커를 통해 출력하거나, 또는 상기 마이크로폰을 통해 입력되는 사운드 신호를 엔코딩(Encoding)하여 상기 제어부(101)로 전달한다.
상기 카메라모듈(105)은 피사체로부터 반사된 광신호를 입력받는 하나 이상의 카메라렌즈(200)와 상기 카메라렌즈(200)를 통해 입력되는 광신호를 검지하여 전기적 영상신호로 변환하는 이미지 센서부(210) 및 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에서 자동초점 기능이나 손떨림 보정 기능을 구현하는 액츄에이터부(Actuator)(205)를 포함하여 이루어지며, 실시 방법에 따라 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에 하나 이상의 필터부(예컨대, 적외선 필더 등)를 더 구비할 수 있다. 상기 이미지 센서부(210)는 상기 카메라렌즈(200)를 통해 입력되는 광신호를 실시간 검지하여 가로방향 h(h≥100)개의 픽셀 수(또는 해상도)와 세로방향 v(v≥100)개의 픽셀 수(또는 해상도)를 지닌 비트맵 이미지 형태의 화상정보를 생성하거나, 또는 가로세로 h개와 v개의 픽셀 수(또는 해상도)와 지정된 단위 시간당 프레임수를 지닌 영상정보를 생성할 수 있다. 한편 상기 카메라모듈(105)은 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보를 제어부(101)로 제공하기 위한 PCB부를 더 구비하며, 실시 방법에 따라 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보의 품질 향상을 위해 기 설정된 절차에 따라 가공하는 이미지 신호처리 프로세서(Image Signal Processor; ISP)를 더 구비할 수 있다.
상기 무선망 통신부(106)와 근거리망 통신부(107)는 상기 무선단말(100)을 지정된 통신망에 접속시키는 통신 자원의 총칭이다. 바람직하게, 상기 무선단말(100)은 무선망 통신부(106)를 기본 통신 자원으로 구비할 수 있으며, 하나 이상의 근거리망 통신부(107)를 구비할 수 있다.
상기 무선망 통신부(106)는 상기 무선단말(100)을 기지국을 경유하는 무선 통신망에 접속시키는 통신 자원의 총칭으로서, 특정 주파수 대역의 무선 주파수 신호를 송수신하는 안테나, RF모듈, 기저대역모듈, 신호처리모듈을 적어도 하나 포함하여 구성되며, 상기 제어부(101)와 연결되어 상기 제어부(101)의 각종 연산 결과 중 무선 통신에 대응하는 연산 결과를 무선 통신망을 통해 전송하거나 또는 무선 통신망을 통해 데이터를 수신하여 상기 제어부(101)로 전달함과 동시에, 상기 무선 통신의 접속, 등록, 통신, 핸드오프의 절차를 수행한다. 본 발명에 따르면, 상기 무선망 통신부(106)는 상기 무선단말(100)을 교환기를 경유하는 통화채널과 데이터채널을 포함하는 통화망에 연결할 수 있으며, 경우에 따라 상기 교환기를 경유하지 않고 패킷 통신 기반의 무선망 데이터 통신(예컨대, 인터넷)을 제공하는 데이터망에 연결할 수 있다.
본 발명의 실시 방법에 따르면, 상기 무선망 통신부(106)는 CDMA/WCDMA/LTE 규격에 따라 이동 통신망에 접속, 위치등록, 호처리, 통화연결, 데이터통신, 핸드오프를 적어도 하나 수행하는 이동 통신 구성을 포함한다. 한편 당업자의 의도에 따라 상기 무선망 통신부(106)는 IEEE 802.16 관련 규격에 따라 휴대인터넷에 접속, 위치등록, 데이터통신, 핸드오프를 적어도 하나 수행하는 휴대 인터넷 통신 구성을 더 포함할 수 있으며, 상기 무선망 통신부(106)가 제공하는 무선 통신 구성에 의해 본 발명이 한정되지 아니함을 명백히 밝혀두는 바이다. 즉, 상기 무선망 통신부(106)는 무선 구간의 주파수 대역이나 통신망의 종류 또는 프로토콜에 무관하게 셀 기반의 기지국을 통해 무선 통신망에 접속하는 구성부의 총칭이다.
상기 근거리망 통신부(107)는 일정 거리 이내(예컨대, 10m)에서 무선 주파수 신호를 통신매체로 이용하여 통신세션을 연결하고 이를 기반으로 상기 무선단말(100)을 통신망에 접속시키는 통신 자원의 총칭으로서, 바람직하게는 와이파이 통신, 블루투스 통신, 공중무선 통신, UWB 중 적어도 하나를 통해 상기 무선단말(100)을 통신망에 접속시킬 수 있다. 본 발명의 실시 방법에 따르면, 상기 근거리망 통신부(107)는 상기 무선망 통신부(106)와 통합 또는 분리된 형태로 구현될 수 있다. 본 발명에 따르면, 상기 근거리망 통신부(107)는 무선AP를 통해 상기 무선단말(100)을 패킷 통신 기반의 근거리 무선 데이터 통신을 제공하는 데이터망에 연결한다.
상기 USIM 리더부(108)는 ISO/IEC 7816 규격을 기반으로 상기 무선단말(100)에 탑재 또는 이탈착되는 범용가입자식별모듈(Universal Subscriber Identity Module)과 적어도 하나의 데이터셋트를 교환하는 구성의 총칭으로서, 상기 데이터셋트는 APDU(Application Protocol Data Unit)를 통해 반이중 통신 방식으로 교환된다.
상기 USIM은 상기 ISO/IEC 7816 규격에 따른 IC칩이 구비된 SIM 타입의 카드로서, 상기 USIM 리더부(108)와 연결되는 적어도 하나의 접점을 포함하는 입출력 인터페이스와, 적어도 하나의 IC칩용 프로그램코드와 데이터셋트를 저장하는 IC칩 메모리와, 상기 입출력 인터페이스와 연결되어 상기 무선단말(100)로부터 전달되는 적어도 하나의 명령에 따라 상기 IC칩용 프로그램코드를 연산하거나 상기 데이터셋트를 추출(또는 가공)하여 상기 입출력 인터페이스로 전달하는 프로세서를 포함하여 이루어진다.
상기 무선단말(100)의 제어부(101)는 상기 통신 자원이 접속 가능한 데이터망을 통해 지정된 프로그램제공서버(예컨대, 애플사의 앱(110)스토어 등)로부터 본 발명의 앱(110)을 다운로드하여 설치하는 과정을 수행한다. 한편 상기 무선단말(100)에 다운로드 설치된 앱(110)은 설치 후 최초 실행(또는 정보 등록 전 실행) 시 상기 무선단말(100)과 앱(110)의 조합(또는 상기 앱(110)을 설치한 무선단말(100), 또는 상기 무선단말(100)에 설치된 앱(110))을 고유한 매체로 식별하는 매체식별정보(예컨대, 디바이스토큰, UUID 등)를 생성하거나 지정된 서버를 통해 할당받는 절차를 수행하며, 상기 무선단말(100)과 앱(110)의 조합을 고유한 매체로 고유 식별하는 매체식별정보를 지정된 운영서버(190)에 등록하는 절차를 수행할 수 있다. 한편 상기 무선단말(100)의 앱(110)은 상기 무선단말(100)을 고유 식별하는 무선단말정보(예컨대, 전화번호, IMSI, IMEI 등)를 지정된 운영서버(190)에 등록하는 절차를 수행할 수 있으며, 이 경우 상기 운영서버(190)는 상기 매체식별정보와 상기 무선단말정보를 연계 저장하여 관리할 수 있다. 한편 상기 무선단말(100)의 앱(110)은 상기 앱(110)을 설치한 무선단말(100)의 사용자를 고유 식별하는 사용자 정보(예컨대, 고유ID, 성명, 생년월일 등)를 등록하는 절차를 수행할 수 있으며, 이 경우 상기 운영서버(190)는 상기 매체식별정보와 상기 사용자 정보를 연계 저장하여 관리할 수 있다.
도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 무선단말(100)에 탑재된 카메라모듈(105)의 카메라렌즈(200)를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 거리정보 확인부(112)를 구비하며, 무선단말(100)에 탑재된 카메라모듈(105)의 이미지 센서부(210)를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 환산정보 확인부(116)를 구비한다.
상기 거리정보 확인부(112)는 상기 앱(110)을 구동한 무선단말(100)의 기종이나 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 확인하고, 지정된 운영서버(190)의 DB를 조회하거나 및/또는 상기 메모리부(109)의 지정된 저장영역을 조회하거나 및/또는 상기 앱(110)에 대응하는 프로그램코드 상에 정의된 파라미터를 참조하여 상기 무선단말(100)의 기종이나 카메라모듈(105)의 종류에 대응하는 최근접한계거리정보와 기준초점거리정보를 확인할 수 있다. 다만 상기 거리정보 확인부(112)는 앱(110) 내에서 상기 최근접한계거리정보와 기준초점거리정보를 이용하는 절차를 수행하기 전에만 지정된 절차에 따라 상기 최근접한계거리정보와 기준초점거리정보를 확인하면 본 발명의 권리범위에 포함된 것으로 간주하며, 본 발명은 상기 거리정보 확인부(112)가 상기 최근접한계거리정보 및/또는 기준초점거리정보를 확인하는 시점에 의해 한정되지 아니한다.
본 발명의 실시 방법에 따르면, 무선단말(100)에 탑재되는 카메라모듈(105)은 피사체로부터 반사된 광신호를 입력받는 대물렌즈를 포함하는 하나 이상의 카메라렌즈(200)와 상기 카메라렌즈(200)를 통해 입력되는 광신호를 검지하여 전기적 영상신호로 변환하는 이미지 센서부(210)를 구비하고 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에서 자동초점 기능이나 손떨림 보정 기능을 구현하는 액츄에이터부(205)를 포함하여 이루어지는데, 상기 액츄에이터부(205)의 기구적 구조 상 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에는 허용된 이격 간격 범위가 존재하게 되는데, 이 때문에 무선단말(100)에 탑재된 카메라모듈(105)의 카메라렌즈(200)를 피사체에 근접시켜 촬영 시 지정된 근접거리까지는 액츄에이터부(205)에 의해 자동초점이 맞추어지지만 상기 지정된 근접거리 미만으로 더 근접시켜 촬영하면 아무리 액츄에이터부(205)라도 자동초점을 맞추지 못하게 된다. 예를들어, 애플사의 아이폰6 기종에 탑재된 카메라모듈(105)의 경우 피사체와 카메라렌즈(200) 사이의 촬영거리가 7cm 이상일 경우에는 액츄에이터부(205)에 의해 자동초점이 맞춰지지만, 상기 촬영거리를 7cm미만으로 근접 시킬 경우에는 자동초점이 맞춰지지 않고 경계가 흐릿해지거나 번지는 블러링(Blurring)이 발생하는데, 이러한 블러링은 촬영거리를 근접시킴에 따라 선형적으로 증가하는 것이 아니라 지수함수 형태로 증가하여 상기 촬영거리를 대략 6.5cm미만으로 근접 시킬 경우에는 블러링에 의해 가로세로 1㎠에 인쇄된 글자나 숫자를 판독할 수 없을 정도로 블러링이 급속하게 증가하게 된다. 본 발명에서 상기 최근접한계거리정보는 상기 카메라렌즈(200)와 피사체 사이의 거리가 자동초점 가능한 원거리에서 근접시키면서 촬영하다가 자동초점이 맞춰지지 않고 상기 블러링이 발생하는 시점(또는 반대로 상기 카메라렌즈(200)와 피사체 사이의 거리가 초근접하여 자동초점이 맞춰지지 않다가 멀어지면서 자동초점이 맞춰지는 시점)의 촬영거리로 정의할 수 있으며, 상기 기준초점거리정보는 상기 카메라렌즈(200)와 피사체 사이의 거리가 상기 최근접한계거리정보인 경우에 자동초점 가능한 카메라렌즈(200)와 이미지 센서부(210)의 센서영역 사이의 초점거리로 정의할 수 있다. 한편 각 무선단말(100)의 기종 별로 해당 무선단말(100)에 탑재되는 카메라모듈(105)의 종류(예컨대, 제조사, 모델명, 스펙 등)가 상이하며, 결과적으로 상기 최근접한계거리정보와 기준초점거리정보는 각 무선단말(100)의 기종이나 카메라모듈(105)의 종류 별로 상이한 정보를 포함하게 된다.
본 발명의 제1 거리정보 확인 실시예에 따르면, 상기 앱(110)과 연동하는 운영서버(190)는 각 무선단말(100)의 기종 별로 최근접한계거리정보와 기준초점거리정보를 확인하고, 상기 확인된 각 무선단말(100)의 기종 별 최근접한계거리정보와 기준초점거리정보를 각 무선단말(100)의 기종을 식별하는 기종 식별정보와 연계하여 지정된 DB에 저장할 수 있다. 이 경우 상기 거리정보 확인부(112)는 상기 앱(110)을 구동한 무선단말(100)의 기종을 식별하는 절차를 수행하여 상기 무선단말(100)의 기종 식별정보를 확인하고, 통신망을 통해 상기 운영서버(190)로 상기 무선단말(100)의 기종 식별정보를 제공하여 상기 기종 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 요청할 수 있다. 상기 운영서버(190)는 상기 무선단말(100)의 앱(110)으로부터 상기 기종 식별정보를 수신하고, 상기 DB로부터 상기 기종 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 추출하여 상기 무선단말(100)의 앱(110)으로 제공할 수 있으며, 상기 거리정보 확인부(112)는 상기 운영서버(190)로부터 상기 무선단말(100)의 기종 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 수신할 수 있다.
본 발명의 제2 거리정보 확인 실시예에 따르면, 상기 앱(110)과 연동하는 운영서버(190)는 각 무선단말(100)(또는 각 무선단말(100) 기종)에 탑재된 카메라모듈(105) 별로 최근접한계거리정보와 기준초점거리정보를 확인하고, 상기 확인된 각 무선단말(100)(또는 각 무선단말(100) 기종)의 카메라모듈(105) 별 최근접한계거리정보와 기준초점거리정보를 각 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 모듈 식별정보와 연계하여 지정된 DB에 저장할 수 있다. 이 경우 상기 거리정보 확인부(112)는 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 절차를 수행하여 상기 무선단말(100)에 탑재된 카메라모듈(105)의 모듈 식별정보를 확인하고, 통신망을 통해 상기 운영서버(190)로 상기 카메라모듈(105)의 모듈 식별정보를 제공하여 상기 모듈 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 요청할 수 있다. 상기 운영서버(190)는 상기 무선단말(100)의 앱(110)으로부터 상기 카메라모듈(105)의 모듈 식별정보를 수신하고, 상기 DB로부터 상기 모듈 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 추출하여 상기 무선단말(100)의 앱(110)으로 제공할 수 있으며, 상기 거리정보 확인부(112)는 상기 운영서버(190)로부터 상기 무선단말(100)에 탑재된 카메라모듈(105)의 모듈 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 수신할 수 있다.
본 발명의 제3 거리정보 확인 실시예에 따르면, 상기 무선단말(100)에 상기 앱(110)을 설치(또는 설치 후 최초 구동) 시 상기 거리정보 확인부(112)는 각 무선단말(100)의 기종 별로 최근접한계거리정보와 기준초점거리정보를 각 무선단말(100)의 기종을 식별하는 기종 식별정보와 연계하여 상기 메모리부(109)의 지정된 저장영역에 연계 저장하거나 및/또는 상기 최근접한계거리정보와 기준초점거리정보를 상기 기종 식별정보와 연계하여 프로그램코드 상에 유지할 수 있다. 이 경우 상기 거리정보 확인부(112)는 상기 앱(110)을 구동한 무선단말(100)의 기종을 식별하는 절차를 수행하여 상기 무선단말(100)의 기종 식별정보를 확인하고, 상기 확인된 기종 식별정보와 연계된 최근접한계거리정보와 기준초점거리정보를 확인할 수 있다.
본 발명의 제4 거리정보 확인 실시예에 따르면, 상기 무선단말(100)에 상기 앱(110)을 설치(또는 설치 후 최초 구동) 시 상기 거리정보 확인부(112)는 각 무선단말(100)(또는 각 무선단말(100) 기종)에 탑재된 카메라모듈(105) 별로 최근접한계거리정보와 기준초점거리정보를 각 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 모듈 식별정보와 연계하여 상기 메모리부(109)의 지정된 저장영역에 연계 저장하거나 및/또는 상기 최근접한계거리정보와 기준초점거리정보를 상기 모듈 식별정보와 연계하여 프로그램코드 상에 유지할 수 있다. 이 경우 상기 거리정보 확인부(112)는 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 절차를 수행하여 상기 카메라모듈(105)의 모듈 식별정보를 확인하고, 상기 확인된 모듈 식별정보와 연계된 최근접한계거리정보와 기준초점거리정보를 확인할 수 있다.
상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)의 기종이나 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 확인하고, 지정된 운영서버(190)의 DB를 조회하거나 및/또는 상기 메모리부(109)의 지정된 저장영역을 조회하거나 및/또는 상기 앱(110)에 대응하는 프로그램코드 상에 정의된 파라미터를 참조하여 상기 무선단말(100)의 기종이나 카메라모듈(105)의 종류에 대응하는 환산정보를 확인할 수 있다. 다만 상기 환산정보 확인부(116)는 앱(110) 내에서 상기 환산정보를 이용하는 절차를 수행하기 전에만 지정된 절차에 따라 상기 환산정보를 확인하면 본 발명의 권리범위에 포함된 것으로 간주하며, 본 발명은 상기 환산정보 확인부(116)가 상기 환산정보를 확인하는 시점에 의해 한정되지 아니한다.
본 발명의 실시 방법에 따르면, 카메라모듈(105)에 구비되는 이미지 센서부(210)는 카메라렌즈(200)를 통해 입력되는 광신호를 검지하여 가로세로 h개와 v개의 픽셀 수(또는 해상도)를 지닌 비트맵 이미지 형태의 화상정보를 생성하거나, 또는 가로세로 h개와 v개의 픽셀 수(또는 해상도)와 지정된 단위 시간당 프레임수를 지닌 영상정보를 생성하며, 이를 위해 상기 이미지 센서부(210)는 가로방향 x(1≥1㎛)와 세로방향 y(y≥1㎛)의 센서영역 위에 가로세로 h개와 v개의 센서셀을 포함하여 이루어질 수 있다. 따라서 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보 상의 픽셀 수와 상기 이미지 센서부(210)에 구비된 센서영역 상의 실제거리(예컨대, 지정된 도량형 단위의 실제거리)에는 지정된 대응관계가 형성될 수 있다. 예를들어, 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보 상의 필셀 수 100개는 센서영역 상의 10㎛에 대응할 수 있다. 본 발명에서 상기 환산정보는 상기 카메라모듈(105)의 이미지 센서부(210)를 통해 획득되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역 상의 실제거리(예컨대, 지정된 도량형 단위의 실제거리)로 환산하는 정보로 정의할 수 있다. 한편 각 무선단말(100)의 기종 별로 해당 무선단말(100)에 탑재되는 카메라모듈(105)의 종류(예컨대, 제조사, 모델명, 스펙 등)가 상이하며, 결과적으로 상기 환산정보는 각 무선단말(100)의 기종이나 카메라모듈(105)의 종류 별로 상이한 정보를 포함하게 된다.
본 발명의 제1 환산정보 확인 실시예에 따르면, 상기 앱(110)과 연동하는 운영서버(190)는 각 무선단말(100)의 기종 별로 카메라모듈(105)의 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역에 대한 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하고, 상기 확인된 각 무선단말(100)의 기종 별 환산정보와 각 무선단말(100)의 기종을 식별하는 기종 식별정보를 연계하여 지정된 DB에 저장할 수 있다. 이 경우 상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)의 기종을 식별하는 절차를 수행하여 상기 무선단말(100)의 기종 식별정보를 확인하고, 통신망을 통해 상기 운영서버(190)로 상기 무선단말(100)의 기종 식별정보를 제공하여 상기 기종 식별정보에 대응하는 환산정보를 요청할 수 있다. 상기 운영서버(190)는 상기 무선단말(100)의 앱(110)으로부터 상기 기종 식별정보를 수신하고, 상기 DB로부터 상기 기종 식별정보에 대응하는 환산정보를 추출하여 상기 무선단말(100)의 앱(110)으로 제공할 수 있으며, 상기 환산정보 확인부(116)는 상기 운영서버(190)로부터 상기 무선단말(100)의 기종 식별정보에 대응하는 환산정보를 수신할 수 있다.
본 발명의 제2 환산정보 확인 실시예에 따르면, 상기 앱(110)과 연동하는 운영서버(190)는 각 무선단말(100)(또는 각 무선단말(100) 기종)에 탑재된 카메라모듈(105) 별로 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역에 대한 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하고, 상기 확인된 각 무선단말(100)(또는 각 무선단말(100) 기종)의 카메라모듈(105) 별 환산정보와 각 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 모듈 식별정보를 연계하여 지정된 DB에 저장할 수 있다. 이 경우 상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 절차를 수행하여 상기 무선단말(100)에 탑재된 카메라모듈(105)의 모듈 식별정보를 확인하고, 통신망을 통해 상기 운영서버(190)로 상기 카메라모듈(105)의 모듈 식별정보를 제공하여 상기 모듈 식별정보에 대응하는 환산정보를 요청할 수 있다. 상기 운영서버(190)는 상기 무선단말(100)의 앱(110)으로부터 상기 카메라모듈(105)의 모듈 식별정보를 수신하고, 상기 DB로부터 상기 모듈 식별정보에 대응하는 환산정보를 추출하여 상기 무선단말(100)의 앱(110)으로 제공할 수 있으며, 상기 환산정보 확인부(116)는 상기 운영서버(190)로부터 상기 무선단말(100)에 탑재된 카메라모듈(105)의 모듈 식별정보에 대응하는 환산정보를 수신할 수 있다.
본 발명의 제3 환산정보 확인 실시예에 따르면, 상기 무선단말(100)에 상기 앱(110)을 설치(또는 설치 후 최초 구동) 시 상기 환산정보 확인부(116)는 각 무선단말(100)의 기종 별로 카메라모듈(105)의 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역에 대한 지정된 도량형 단위의 실제거리로 환산하는 환산정보와 각 무선단말(100)의 기종을 식별하는 기종 식별정보를 연계하여 상기 메모리부(109)의 지정된 저장영역에 연계 저장하거나 및/또는 상기 환산정보와 기종 식별정보를 연계하여 프로그램코드 상에 유지할 수 있다. 이 경우 상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)의 기종을 식별하는 절차를 수행하여 상기 무선단말(100)의 기종 식별정보를 확인하고, 상기 확인된 기종 식별정보와 연계된 환산정보를 확인할 수 있다.
본 발명의 제4 환산정보 확인 실시예에 따르면, 상기 무선단말(100)에 상기 앱(110)을 설치(또는 설치 후 최초 구동) 시 상기 환산정보 확인부(116)는 각 무선단말(100)(또는 각 무선단말(100) 기종)에 탑재된 카메라모듈(105) 별로 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역에 대한 지정된 도량형 단위의 실제거리로 환산하는 환산정보와 각 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 모듈 식별정보를 연계하여 상기 메모리부(109)의 지정된 저장영역에 연계 저장하거나 및/또는 상기 환산정보와 모듈 식별정보를 연계하여 프로그램코드 상에 유지할 수 있다. 이 경우 상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 절차를 수행하여 상기 카메라모듈(105)의 모듈 식별정보를 확인하고, 상기 확인된 모듈 식별정보와 연계된 환산정보를 확인할 수 있다.
도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 자동초점 기능이 활성화된 카메라모듈(105)을 통해 입력되는 영상정보를 지정된 버퍼영역에 버퍼링하거나 기 지정된 버퍼영역에 버퍼링된 영상정보를 확인하는 입력영상 확인부(124)와, 상기 화면 출력부(102)를 통해 화면 영역 상의 지정된 영상출력 영역에 상기 영상정보를 출력하는 입력영상 출력부(128)와, 상기 카메라렌즈(200)의 시선방향을 N(N≥2)개의 특징점과 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시키도록 유도하면서 상기 피사체와 무선단말(100) 중 적어도 하나를 움직여 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 상기 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리 사이를 이격하도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 인터페이스 표시부(132)를 구비하며, 상기 카메라모듈(105)의 자동초점 기능을 활성화(또는 활성화 상태를 유지)하거나 상기 카메라모듈(105)의 자동초점 주기를 지정된 최소값으로 설정하는 촬영조건 설정부(120)를 구비한다.
상기 무선단말(100)의 카메라를 이용한 계측이 개시되면, 상기 촬영조건 설정부(120)는 상기 무선단말(100)에 탑재된 카메라모듈(105)의 자동초점 기능을 활성화한다. 만약 상기 카메라모듈(105)의 자동초점 기능이 기 활성화된 상태라면(예컨대, 대부분의 카메라모듈(105)은 자동초점 기능을 활성화함), 상기 촬영조건 설정부(120)는 상기 카메라모듈(105)의 자동초점 기능의 활성화 상태를 유지한다. 만약 상기 카메라모듈(105)의 자동초점 주기를 조정 가능한 경우, 상기 촬영조건 설정부(120)는 상기 카메라모듈(105)의 자동초점 주기를 지정된 한도 내에서 최소값(예컨대, 가장 빠른 주기로 자동초점을 시도하는 설정값)으로 설정하는 것이 바람직하다.
상기 입력영상 확인부(124)는 자동초점 기능이 활성화된 카메라모듈(105)의 이미지 센서부(210)를 통해 생성된 영상정보를 확인하여 지정된 버퍼영역에 버퍼링할 수 있다. 만약 상기 카메라모듈(105)을 통해 입력되는 영상정보가 운영체제에 의해 지정된 버퍼영역에 버퍼링되는 경우, 상기 입력영상 확인부(124)는 상기 카메라모듈(105)의 이미지 센서부(210)를 통해 생성되어 상기 버퍼영역에 버퍼링되는 영상정보를 확인할 수 있다.
상기 입력영상 출력부(128)는 상기 화면 출력부(102)와 연동하여 상기 무선단말(100)의 화면 영역 상의 지정된 영상출력 영역에 상기 확인된 영상정보를 출력한다. 본 발명의 실시 방법에 따르면, 상기 입력영상 출력부(128)는 상기 화면 영역 상의 전체 영역에 상기 영상정보를 출력하거나, 또는 상기 화면 영역 상의 지정된 일부 영역에 상기 영상정보를 출력할 수 있다.
본 발명의 실시 방법에 따르면, 상기 입력영상 출력부(128)는 인터페이스 표시부(132)를 통해 지정된 인터페이스가 표시되기 전에 지정된 영상출력 영역을 통해 상기 영상정보를 출력하거나, 또는 상기 인터페이스 표시부(132)를 통해 지정된 인터페이스가 표시됨과 동시에 지정된 영상출력 영역을 통해 상기 영상정보를 출력하거나, 또는 상기 인터페이스 표시부(132)를 통해 지정된 인터페이스가 표시된 후에 지정된 영상출력 영역을 통해 상기 영상정보를 출력하는 것이 가능하며, 이에 의해 본 발명이 한정되지 아니한다.
상기 인터페이스 표시부(132)는 상기 입력영상 출력부(128)를 통해 상기 화면 영역 상의 지정된 영상출력 영역에 상기 영상정보가 출력되기 전 또는 중 또는 후의 지정된 일 시점에, 상기 카메라렌즈(200)의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도하는 촬영 유도 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시할 수 있다.
본 발명의 실시 방법에 따르면, 상기 N개의 특징점은 상기 카메라모듈(105)을 통해 피사체를 촬영하여 생성되는 영상정보(또는 프레임 화상정보) 내의 픽셀영역 중 색상, 명암, 채도 중 하나 이상의 값이 인접한 영역의 값보다 지정된 기준값 이상 차이가 발생하는 점 영역, 선 영역, 면 영역 중 적어도 하나의 영역을 포함하여 이루어진다. 바람직하게, 상기 N개의 특징점은 거리 산출의 기준점으로 이용될 수 있다. 즉, 상기 인터페이스 표시부(132)는 카메라모듈(105)을 통해 아무런 특징점도 없는 면을 포함하는 피사체를 촬영하는 것이 아니라, 거리 산출의 기준점이 되는 N개의 특징점을 지닌 피사체를 촬영하도록 유도하는 촬영 유도 인터페이스를 표시할 수 있다.
본 발명의 실시 방법에 따르면, 상기 인터페이스 표시부(132)는 상기 영상정보를 출력할 예정이거나 출력 중인 화면 영역 상의 영상출력 영역에 상기 촬영 유도 인터페이스를 중첩하여 표시할 수 있다. 예를들어, 본 발명을 통해 손톱의 실측 크기를 계측하는 경우 상기 인터페이스 표시부(132)는 사람의 손등을 촬영하도록 유도하는 손 모양의 유도선을 포함하는 촬영 유도 인터페이스 및/또는 손톱을 촬영하도록 유도하는 손톱 모양의 유도선을 포함하는 촬영 유도 인터페이스를 상기 영상출력 영역에 중첩하여 표시하거나, 손등을 촬영하도록 유도하거나 손톱을 촬영하도록 유도하는 문자열을 포함하는 촬영 유도 인터페이스를 상기 영상출력 영역에 중첩하여 표시할 수 있다. 한편 상기 영상출력 영역이 화면 영역 상의 일부 영역에 설정된 경우, 상기 인터페이스 표시부(132)는 상기 화면 영역 중 영상출력 영역을 제외한 나머지 영역에 상기 촬영 유도 인터페이스를 표시할 수 있다. 한편 본 발명의 다른 실시 방법에 따르면, 본 발명을 통해 수치를 계측하려는 대상을 미리 지정하지 않은 경우 상기 인터페이스 표시부(132)는 상기 촬영 유도 인터페이스를 표시하지 않아도 무방하며, 이에 의해 본 발명이 한정되지 아니한다.
본 발명의 실시 방법에 따르면, 상기 N개의 특징점은 지정된 허용 오차 범위 내에서 상기 카메라렌즈(200)의 시선방향과 직교 관계를 형성하는 가상의 평면 영역에 형성된 특징점 또는 지정된 허용 오차 범위 내에서 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역과 평행 관계를 형성하는 가상의 평면 영역에 형성된 특징점을 포함하여 이루어지는 것이 바람직하다. 즉, 본 발명은 카메라렌즈(200)와 피사체 사이의 촬영거리와 상기 카메라렌즈(200)와 이미지 센서부(210)의 센서영역 사이의 초점거리의 비례 관계를 근거로 상기 이미지 센서부(210)를 통해 생성된 영상정보에 포함된 하나 이상의 프레임 화상정보를 판독하여 인식된 특징점 간 거리에 대응하는 피사체 상에 실제로 존재하는 특정점 간 실제거리를 산출하는데, 상기 영상정보(또는 영상정보에 포함된 프레임 화상정보)나 상기 이미지 센서부(210)의 센서영역이 평면이므로 상기 N개의 특징점은 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역과 평행 관계를 형성하는 평면에 존재해야만 왜곡이나 오차를 최소화할 수 있다. 그러나 대부분의 피사체는 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역과 평행 관계(또는 상기 카메라렌즈(200)의 시선방향과 직교 관계)를 형성하지 못할 확률이 매우 높다. 이에, 상기 인터페이스 표시부(132)는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라렌즈(200)의 시선방향 사이에 직교 관계를 형성하도록 유도하거나 및/또는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역(예컨대, 무선단말(100)에 카메라렌즈(200)가 노출된 일 면)이 평행 관계를 형성하도록 유도하는 인터페이스를 더 포함하는 촬영 유도 인터페이스를 표시할 수 있으며, 이로써 상기 카메라렌즈(200)의 시선방향과 N개의 특징점 사이에 지정된 허용 오차 범위 내의 직교 관계(또는 이미지 센서부(210)의 센서영역과 N개의 특징점 사이에 지정된 허용 오차 범위 내의 평행 관계)를 형성할 수 있다. 한편 본 발명의 다른 실시 방법에 따르면, 본 발명을 통해 수치를 계측하려는 대상을 미리 지정하지 않은 경우 상기 인터페이스 표시부(132)는 상기 촬영 유도 인터페이스를 표시하지 않아도 무방하며, 이에 의해 본 발명이 한정되지 아니한다.
본 발명의 실시 방법에 따르면, 일부 무선단말(100)에 탑재되는 일부 카메라모듈(105)의 카메라렌즈(200)(예컨대, 대물렌즈)는 도면2의 예시와 같은 볼록렌즈 계열의 렌즈가 아니라, 통상의 볼록렌즈보다 더 넓은 영역을 촬영하기 위해 렌즈의 가장자리를 오목렌즈 형태로 제작할 수 있다. 즉, 렌즈 중심에서 지정된 범위 이내는 지정된 곡률의 볼록렌즈이지만 그 외 가장자리는 오목렌즈 형태로 제작될 수 있다. 예를들어, 각 렌즈마다 차이가 있지만 일부 렌즈는 렌즈 중심에서 대략 80% 이내의 범위를 지정된 곡률의 볼록렌즈로 제작하고 그외 가장자리를 오목렌즈 형태로 제작할 수 있으며, 다른 일부 렌즈는 렌즈 중심에서 대략 90% 이내의 범위를 지정된 곡률의 볼록렌즈로 제작하고 그외 가장자리를 오목렌즈 형태로 제작할 수 있으며, 또 다른 일부 렌즈는 렌즈 중심에서 대략 95% 이내의 범위를 지정된 곡률의 볼록렌즈로 제작하고 그외 가장자리를 오목렌즈 형태로 제작할 수 있다. 이 경우 렌즈 중심에서 지정된 범위 이내의 특징점 간 거리는 왜곡이 없거나 적지만, 상기 지정된 범위를 벗어난 가장자리에 위치하는 특징점 간 거리는 렌즈에 의한 왜곡에 의해 오차가 발생할 수 있다. 이에, 상기 인터페이스 표시부(132)는 상기 카메라모듈(105)을 통해 입력되어 영상출력 영역에 출력되는 픽셀영역의 중심에서 지정된 범위 이내(예컨대, 직사각형의 픽셀영역 중 긴 변을 기준으로 지정된 범위 이내)의 영역에 피사체에 형성된 N개의 특징점을 위치시켜 촬영하도록 유도하는 유도선이나 문자열 형태의 인터페이스를 더 포함하는 촬영 유도 인터페이스를 표시할 수 있다.
한편 상기 인터페이스 표시부(132)는 상기 입력영상 출력부(128)를 통해 상기 화면 영역 상의 지정된 영상출력 영역에 상기 영상정보가 출력되기 전 또는 중 또는 후의 지정된 일 시점에, 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 상기 카메라모듈(105)의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 및/또는 상기 촬영거리를 상기 카메라모듈(105)의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 이격 유도 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시할 수 있다.
본 발명의 실시 방법에 따르면, 상기 인터페이스 표시부(132)는 상기 영상정보를 출력할 예정이거나 출력 중인 화면 영역 상의 영상출력 영역에 상기 이격 유도 인터페이스를 중첩하여 표시할 수 있다. 예를들어, 본 발명을 통해 손톱의 실측 크기를 계측하는 경우 상기 인터페이스 표시부(132)는 사람의 손등을 촬영하도록 유도하는 손 모양의 유도선에서 손톱을 촬영하도록 유도하는 손톱 모양의 유도선으로 '-' 방향 변환되는 이격 유도 인터페이스 및/또는 손톱을 촬영하도록 유도하는 손톱 모양의 유도선에서 손등을 촬영하도록 유도하는 손 모양의 유도선으로 '+' 방향 변환되는 이격 유도 인터페이스를 상기 영상출력 영역에 중첩하여 표시하거나, 상기 '-' 방향 이격 및/또는 '+' 방향 이격을 유도하는 문자열을 포함하는 이격 유도 인터페이스를 상기 영상출력 영역에 중첩하여 표시할 수 있다. 한편 상기 영상출력 영역이 화면 영역 상의 일부 영역에 설정된 경우, 상기 인터페이스 표시부(132)는 상기 화면 영역 중 영상출력 영역을 제외한 나머지 영역에 상기 이격 유도 인터페이스를 표시할 수 있다.
본 발명의 실시 방법에 따르면, 상기 인터페이스 표시부(132)는 상기 카메라모듈(105)의 자동초점 주기 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. 또는 상기 인터페이스 표시부(132)는 상기 앱(110)을 구동한 무선단말(100)의 카메라모듈(105)을 통해 입력되어 버퍼링되는 영상정보에 포함된 프레임 화상정보 중 지정된 단위 개수의 프레임 화상정보를 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요(만약 보정변환 처리부(136)를 통해 프레임 화상정보를 보정하는 경우 상기 보정에 사용되는 시간을 더 포함)되는 기준 소요 시간(예컨대, 상기 소요 시간은 동일 개수의 동일 해상도의 프레임을 판독하는 경우 무선단말(100)의 프로세서 성능에 좌우되며, 최신 기종의 무선단말(100)이나 고성능 프로세서를 탑재할수록 짧아짐)을 확인하고, 상기 기준 소요 시간을 근거로 상기 카메라모듈(105)을 통해 입력되어 버퍼링되는 영상정보에 포함된 프레임 화상정보 중 지정 개수의 프레임을 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요되는 소요 시간 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. 예를들어, 본 발명을 통해 손톱의 실측 크기를 계측하는 경우 상기 인터페이스 표시부(132)는 상기 손 모양의 유도선에서 손톱 모양의 유도선으로 변환되는 시간을 조정하거나 및/또는 상기 손톱 모양의 유도선에서 손 모양의 유도선으로 변환되는 시간을 조정하여 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. 또는 문자열 형태로 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다.
본 발명의 제1 이격 속도 실시예에 따르면, 상기 인터페이스 표시부(132)는 적어도 10cm/s 이내의 이격 속도로 '-' 방향 이격하거나 및/또는 '+' 방향 이격하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다.
본 발명의 제2 이격 속도 실시예에 따르면, 상기 인터페이스 표시부(132)는 적어도 5cm/s 이내의 이격 속도로 '-' 방향 이격하거나 및/또는 '+' 방향 이격하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다.
본 발명의 제3 이격 속도 실시예에 따르면, 상기 인터페이스 표시부(132)는 적어도 2.5cm/s 이내의 이격 속도로 '-' 방향 이격하거나 및/또는 '+' 방향 이격하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다.
본 발명의 제4 이격 속도 실시예에 따르면, 상기 인터페이스 표시부(132)는 적어도 1cm/s 이내의 이격 속도로 '-' 방향 이격하거나 및/또는 '+' 방향 이격하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다.
도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점을 인식하는 특징점 인식부(140)와, 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 m(1≤n≤M)개의 엣지 영역을 인식하는 엣지 영역 인식부(144)와, 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 상기 영상정보가 '-' 방향 이격되는지 인식하는 이격 방향 인식부(148) 중 적어도 하나의 인식부를 구비하며, 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 지정된 변환 규칙에 따라 보정하는 보정변환 처리부(136)를 더 구비할 수 있다.
본 발명의 실시 방법에 따르면, 상기 인터페이스 표시부(132)를 통해 아무리 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라렌즈(200)의 시선방향 사이에 직교 관계를 형성하도록 유도하거나 및/또는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역이 평행 관계를 형성하도록 유도하더라도 카메라모듈(105)(또는 카메라모듈(105)을 탑재한 무선단말(100))과 피사체를 물리적으로 고정하지 않는 한, 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라렌즈(200)의 시선방향 사이에 직교 관계를 형성하거나 및/또는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역이 평행 관계를 형성하는 것이 난해하며, 다만 허용된 오차 범위 내에서 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라렌즈(200)의 시선방향 사이에 직교 관계를 형성하거나 및/또는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역이 평행 관계를 형성하도록 유도할 수 있다.
상기 보정변환 처리부(136)는 상기 카메라모듈(105)을 통해 입력(예컨대, 카메라모듈(105)의 이미지 센서부(210)를 통해 생성)되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F개의 프레임 화상정보를 확인하고, 상기 F개의 프레임 화상정보를 판독하여 상기 프레임 화상정보 내에 존재하는 D(D≥1)개의 원근 식별 영역을 인식한다. 본 발명의 실시 방법에 따르면, 상기 보정변환 처리부(136)는 상기 프레임 화상정보 내에 존재하는 피사체의 외곽선이 특정 방향으로 좁아지거나 넓어지는 패턴을 을 지닌 원근 식별 영역을 인식하거나 및/또는 피사체 주변의 사물이 형성하는 경계선이 특정 방향을 지향하여 좁아지거나 넓어지는 패턴을 을 지닌 원근 식별 영역을 인식함으로써, 상기 프레임 화상정보 내에 존재하는 D개의 원근 식별 영역을 인식할 수 있다. 한편 상기 보정변환 처리부(136)는 상기 무선단말(100)의 중력센서를 통해 센싱된 중력 방향 정보를 확인하거나 및/또는 상기 무선단말(100)의 자이로센서를 통해 센싱된 무선단말(100)의 자세 정보(또는 무선단말(100)의 카메라모듈(105)의 카메라렌즈(200) 시선이 지향하는 카메라 지향 방향 정보)을 확인하고, 상기 무선단말(100)에 구비된 하나 이상의 센서를 통해 센싱된 정보를 근거로 상기 프레임 화상정보 내에서 인식된 원근 식별 영역을 판독하여 상기 센싱된 정보에 부합하지 않는 원근 식별 영역을 배제시킴으로써, 상기 프레임 화상정보 내에 존재하는 d(1≤d≤D)개의 유효한 원근 식별 영역을 인식할 수 있다.
상기 보정변환 처리부(136)는 상기 인식된 d개의 유효한 원근 식별 영역과 상기 무선단말(100)에 구비된 하나 이상의 센서를 통해 센싱된 정보를 결합 분석하여 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 상기 카메라모듈(105)의 카메라렌즈(200)의 시선 방향이 직교 방향에서 이격된 이격 각도를 산출한다. 예를들어, 상기 이격 각도는 3차원 좌표축 성분의 이격 각도를 포함할 수 있다.
한편 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향 사이의 이격 각도가 산출되면, 상기 보정변환 처리부(136)는 아핀 변환(Affine Transformation)을 포함하는 각종 기하학 변환식을 이용하여 상기 영상정보에 포함된 F개의 프레임 화상정보를 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향이 직교 관계를 형성하도록 변환 보정할 수 있다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 보정변환 처리부(136)는 상기 특징점 인식부(140)를 통해 n개의 특징점이 인식되거나 및/또는 상기 엣지 영역 인식부(144)를 통해 m개의 엣지 영역이 인식된 후에 상기 인식된 n개의 특징점 및/또는 m개의 엣지 영역을 상기 카메라렌즈(200)의 시선 방향과 직교 관계로 보정할 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함할 수 있다.
본 발명의 실시 방법에 따르면, 상기 보정변환 처리부(136)를 통해 보정된 프레임 화상정보는 상기 입력영상 출력부(128)를 통해 표시될 수 있으나, 바람직하게는 상기 보정된 프레임 화상정보를 표시하지 않고 앱(110)의 내부적으로 특징점이나 엣지 영역을 인식하거나 보정하는데 이용되는 것이 바람직하다.
상기 특징점 인식부(140)는 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보(또는 상기 보정변환 처리부(136)를 통해 보정된 프레임 화상정보)를 판독하여 피사체 상에 실제 존재하는 N개의 특징점 중 적어도 n(2≤n≤N)개의 특징점을 인식한다. 한편 상기 특정점을 인식하기 전에 상기 프레임 화상정보가 상기 직교 관계를 형성하도록 보정되지 않은 경우, 상기 보정변환 처리부(136)는 상기 이격 각도를 산출하거나 기 산출된 이격 각도를 확인하고, 상기 인식된 n개의 특징점에 대해 아핀 변환을 포함하는 각종 기하학 변환식을 적용하여 상기 n개의 특징점을 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향이 직교 관계를 형성하도록 보정할 수 있다.
본 발명의 실시 방법에 따르면, 상기 특징점 인식부(140)는 상기 프레임 화상정보(또는 상기 보정변환 처리부(136)를 통해 보정된 프레임 화상정보)에 포함된 특징점 중 픽셀영역의 중심에서 지정된 범위 이내(예컨대, 카메라렌즈(200)가 볼록렌즈에 해당하는 범위 이내)에 존재하는 n(2≤n≤N)개의 특징점을 인식하는 것이 바람직하며, 이로써 렌즈의 왜곡에 의한 n개의 특징점 간 거리의 오차를 최소화한다.
한편 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향 사이의 이격 각도가 산출되면, 상기 보정변환 처리부(136)는 아핀 변환(Affine Transformation)을 포함하는 각종 기하학 변환식을 이용하여 상기 영상정보에 포함된 F개의 프레임 화상정보를 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향이 직교 관계를 형성하도록 보정할 수 있다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 보정변환 처리부(136)는 상기 특징점 인식부(140)를 통해 n개의 특징점이 인식되거나 및/또는 상기 엣지 영역 인식부(144)를 통해 m개의 엣지 영역이 인식된 후에 상기 인식된 n개의 특징점 및/또는 m개의 엣지 영역을 상기 카메라렌즈(200)의 시선 방향과 직교 관계로 보정할 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함할 수 있다.
상기 엣지 영역 인식부(144)는 기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보(또는 상기 보정변환 처리부(136)를 통해 보정된 프레임 화상정보)를 판독하여 피사체 상에 실제 존재하는 M개의 엣지 영역 중 적어도 m(1≤n≤M)개의 엣지 영역을 인식한다.
상기 이격 방향 인식부(148)는 상기 카메라모듈(105)을 통해 입력되어 버퍼링되는 F개의 프레임 중 제i(1≤f<F) 프레임 화상정보에 포함된 특징점과 제j(i<j≤F) 프레임 화상정보에 포함된 특징점을 인식하고, 상기 제i 프레임 화상정보에 포함된 적어도 하나의 특징점 간 픽셀거리와 제j 프레임 화상정보에 포함된 특징점 중 상기 제i 프레임 화상정보에 포함된 특징점과 동일한 특징점 간 픽셀거리를 비교하여 상기 특징점 간 픽셀거리가 증가하는 경우에 상기 카메라모듈(105)을 통해 입력되는 영상정보를 '+' 방향 이격하는 영상정보로 확인하고 상기 특징점 간 픽셀거리가 감소하는 경우에 상기 카메라모듈(105)을 통해 입력되는 영상정보를 '-' 방향 이격되는 영상정보로 확인한다.
도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 상기 엣지 영역 인식부(144)를 통해 인식된 m개의 엣지 영역의 초점이 맞춰지는 '0' 시점에 상기 특징점 인식부(140)를 통해 인식된 n개의 특징점 간 거리를 산출하는 인식거리 산출부(152)와, 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 실제거리 산출부(156)를 구비한다.
본 발명의 제1 인식거리 산출 실시예에 따르면, 상기 이격 방향 인식부(148)를 통해 상기 카메라모듈(105)을 통해 입력되는 영상정보를 '+' 방향 이격하는 영상정보로 확인되거나 또는 이전에 '-' 방향 이격하다가 '+' 방향 이격하는 것으로 확인된 경우, 상기 인식거리 산출부(152)는 상기 영상정보에 포함된 F개의 프레임 화상정보에 포함되어 블러(Blur) 비율이 기 설정된 기준 비율 이상인 m개의 엣지 영역을 확인하고, 상기 확인된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가(예컨대, 엣지 영역이 점차 선명해지다가) 일정해지는(예컨대, 엣지 영역이 더 이상 선명해지지 않거나 최고로 선명해진 상태를 유지하는) '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 이용하여 상기 특징점 인식부(140)를 통해 인식된 n개의 특징점을 확인하고, 상기 '0' 시점에 인식된 n개의 특징점 간 거리를 산출한다.
본 발명의 제2 인식거리 산출 실시예에 따르면, 상기 이격 방향 인식부(148)를 통해 상기 카메라모듈(105)을 통해 입력되는 영상정보를 '-' 방향 이격하는 영상정보로 확인되거나 또는 이전에 '+' 방향 이격하다가 '-' 방향 이격하는 것으로 확인된 경우, 상기 인식거리 산출부(152)는 상기 영상정보에 포함된 F개의 프레임 화상정보에 포함되어 블러(Blur) 비율이 기 설정된 기준 비율 미만인 m개의 엣지 영역을 확인하고, 상기 확인된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가(예컨대, 엣지 영역이 더 이상 선명해지지 않거나 최고로 선명해진 상태를 유지하다가) 증가하는(예컨대, 엣지 영역이 점차 흐려지거나 번지는) '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 이용하여 상기 특징점 인식부(140)를 통해 인식된 n개의 특징점 간 거리를 산출한다.
본 발명의 제3 인식거리 산출 실시예에 따르면, 상기 인식거리 산출부(152)는 상기 제1 내지 제2 인식거리 산출 실시예를 적어도 부분적으로 조합한 형태로 상기 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 이용하여 상기 특징점 인식부(140)를 통해 인식된 n개의 특징점 간 거리를 산출할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.
본 발명의 실시 방법에 따르면, 상기 인식거리 산출부(152)는 상기 영상정보의 이격 방향에 따라 확인된 '0' 시점에 대응하는 상기 f개의 화상정보에 존재하는 n개의 특징점 간 픽셀거리를 산출하고, 상기 환산정보 확인부(116)를 통해 확인된 환산정보를 이용하여 상기 산출된 n개의 특징점 간 픽셀거리를 지정된 도량형 단위의 n개의 특징점 간 거리로 환산하여 산출한다. 만약 상기 환산정보 확인부(116)를 통해 상기 환산정보가 확인되지 않은 경우, 상기 환산정보 확인부(116)는 상기 n개의 특징점 간 픽셀거리가 산출된 경우에 상기 무선단말(100)에 탑재된 카메라모듈(105)의 이미지 센서부(210)를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인할 수 있다. 한편 상기 '0' 시점에 대응하는 둘 이상의 프레임 화상정보에 존재하는 둘 이상의 n개의 특징점 간 거리를 산출한 경우, 상기 앱(110)이 상기 산출된 둘 이상의 n개의 특징점 간 거리를 통계처리하여 지정된 오차 범위의 n개의 특징점 간 거리를 산출(예컨대, n개의 특징점 간 평균 거리와 편차 등을 산출)할 수 있다.
상기 실제거리 산출부(156)는 상기 거리정보 확인부(112)를 통해 확인된 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 인식거리 산출부(152)를 통해 산출된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출한다.
도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 피사체 상에 존재하는 둘 이상의 실제 특징점 간 실제거리의 수치가 계산된 경우, 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하는 계측기준 설정부(160)와, 상기 설정된 기준 특징점을 이용하여 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 계측대상 인식부(164)와, 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 계측대상 계측부(168)를 구비하며, 상기 계측기준 설정부(160)는 상기 T개의 계측대상 특징점 간 실제거리의 수치가 계산된 경우, 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정 가능하며, 이로써 상기 앱(110)은 상기 카메라모듈(105)을 통해 입력된 영상정보에 포함된 적어도 둘 하나의 기준 특징점이 인식되고 상기 기준 특정점 간의 기준거리가 산출된 이후에 상기 카메라모듈(105)을 통해 이어서 입력되는 영상정보에 포함된 다양한 특징점 간의 실제거리를 실시간 계측할 수 있다.
상기 실제거리 산출부(156)를 통해 피사체 상에 존재하는 둘 이상의 실제 특징점 간 실제거리의 수치가 산출된 경우, 상기 계측기준 설정부(160)는 상기 실제거리 산출부(156)를 통해 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 계측대상 특징점을 식별하기 위한 기준 특징점으로 설정하고, 상기 기준 특징점 간의 실제거리를 지정된 계측대상 특징점 간의 실제거리를 산출하기 위한 기준거리로 설정한다.
상기 계측기준 설정부(160)를 통해 적어도 하나의 기준 특징점이 설정되면, 상기 계측대상 인식부(164)는 상기 설정된 기준 특징점을 이용하여 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식한다.
본 발명의 실시 방법에 따르면, 상기 T개의 계측대상 특징점은 상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보 내에 포함된 특징점을 포함할 수 있다. 한편 실시 방법에 따라 상기 T개의 계측대상 특징점은 상기 기준 특징점 중 적어도 하나의 특징점을 포함할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.
상기 계측대상 인식부(164)를 통해 T개의 계측대상 특징점이 인식되면, 상기 계측대상 계측부(168)는 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출한다. 본 발명의 실시 방법에 따르면, 상기 기준 특징점과 T개의 계측대상 특징점은 모두 동일한 프레임 화상정보 내에 포함되어 있고, 상기 기준 특징점 간의 실제거리를 기준거리로 이용하므로, 상기 계측대상 계측부(168)는 상기 계측대상 특징점과 카메라렌즈(200) 사이의 촬영거리가 변동되더라도 상기 T개의 계측대상 특징점 간의 실제거리의 수치를 산출할 수 잇다.
상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 계측대상 계측부(168)를 구비하며, 상기 계측기준 설정부(160)는 상기 T개의 계측대상 특징점 간 실제거리의 수치가 계산된 경우, 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정 가능하며, 이로써 상기 앱(110)은 상기 카메라모듈(105)을 통해 입력된 영상정보에 포함된 적어도 둘 하나의 기준 특징점이 인식되고 상기 기준 특정점 간의 기준거리가 산출된 이후에 상기 카메라모듈(105)을 통해 이어서 입력되는 영상정보에 포함된 다양한 특징점 간의 실제거리를 실시간 계측할 수 있다.
한편 상기 계측대상 계측부(168)를 통해 상기 T개의 측대상 특징점 간 실제거리의 수치가 산출된 경우, 상기 계측기준 설정부(160)는 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 다른 계측대상 특징점을 식별하기 위한 기준 특징점으로 재이용 설정하거나 및/또는 상기 t개의 계측대상 특징점 간 실제거리를 다른 계측대상 특징점 간 실제거리를 산출하기 위한 기준거리로 재이용 설정할 수 있다. 이로써, 상기 앱(110)은 상기 카메라모듈(105)을 통해 입력된 영상정보에 포함된 적어도 둘 하나의 기준 특징점이 인식되고 상기 기준 특정점 간의 기준거리가 산출된 이후에 상기 카메라모듈(105)을 통해 이어서 입력되는 영상정보에 포함된 다양한 특징점 간의 실제거리를 지속적으로 실시간 계측할 수 있다.
도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 영상정보를 통해 적어도 p(p≥3)개의 특징점이 인식된 경우 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하는 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하고, 적어도 p(p≥3)개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하는 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하는 기하학 관계 생성부(172)와, 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하는 기하학 관계 관리부(176)를 구비한다.
상기 기하학 관계 생성부(172)는 카메라모듈(105)로부터 입력되어 지정된 버퍼영역에 버퍼링된 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 p개의 특징점을 인식하거나 기 인식된 p개의 특징점을 확인하여 p개의 특징점 간의 거리관계와 각도관계를 포함하는 기준 기하학 관계정보를 생성하거나, 및/또는 상기 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우에 상기 p개의 특징점 간 실제거리를 포함하고 상기 p개의 특징점 간의 거리관계와 각도관계를 포함하는 기준 기하학 관계정보를 생성할 수 있다.
본 발명의 제1 기하학 관계 생성 실시예에 따르면, 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링된 영상정보가 확인되면, 상기 기하학 관계 생성부(172)는 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 p(p≥3)개의 특징점을 인식할 수 있다. 바람직하게, 상기 기하학 관계 생성부(172)는 상기 보정변환 처리부(136)를 통해(또는 상기 보정변환 처리부(136)의 기능을 수행하여) 보정된 프레임 화상정보를 판독하여 적어도 p개의 특징점을 인식할 수 있다. 만약 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 p개의 특징점이 인식되면, 상기 기하학 관계 생성부(172)는 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성할 수 있다. 여기서, 상기 p개의 특징점 간의 거리관계는 상기 p개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보(예컨대, 지정된 좌표계 상의 좌표거리)와, 상기 p개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보(예컨대, 지정된 좌표계 상의 벡터성분) 중 적어도 하나의 정보를 포함할 수 있다. 한편 상기 p개의 특징점 간의 각도관계는 상기 p개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보(예컨대, 지정된 좌표계 상의 좌표각도)와, 상기 p개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보(예컨대, 지정된 좌표계 상의 벡터성분) 중 적어도 하나의 정보를 포함할 수 있다.
본 발명의 제2 기하학 관계 생성 실시예에 따르면, 상기 제1 기하학 관계 생성 실시예를 통해 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 피사체 상에 존재하는 적어도 p(p≥3)개의 특징점이 인식된 경우, 상기 기하학 관계 생성부(172)는 상기 인식거리 산출부(152)와 실제거리 산출부(156)를 통해 특징점 간 실제거리의 수치를 산출하는 방식이나 상기 계측대상 계측부(168)를 통해 특징점 간 실제거리의 수치를 산출하는 방식 중 적어도 하나의 방식을 이용하여 상기 p개의 특징점을 연결하여 형성되는 적어도 둘 이상 직선의 실제거리를 포함하는 p개의 특징점 간 실제거리를 산출할 수 있다. 한편 상기 p개의 특징점 간 실제거리가 산출된 경우, 상기 기하학 관계 생성부(172)는 상기 산출된 p개의 특징점 간 실제거리를 포함하며 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성할 수 있다.
본 발명의 제3 기하학 관계 생성 실시예에 따르면, 상기 특징점 인식부(140)나 계측대상 인식부(164)를 통해 인식한 특징점의 개수가 적어도 p(p≥3)개인 경우, 상기 기하학 관계 생성부(172)는 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성할 수 있다.
본 발명의 제4 기하학 관계 생성 실시예에 따르면, 상기 특징점 인식부(140)나 계측대상 인식부(164)를 통해 인식한 특징점의 개수가 적어도 p(p≥3)개인 경우, 상기 기하학 관계 생성부(172)는 상기 인식거리 산출부(152)와 실제거리 산출부(156)를 통해 특징점 간 실제거리의 수치를 산출하는 방식이나 상기 계측대상 계측부(168)를 통해 특징점 간 실제거리의 수치를 산출하는 방식 중 적어도 하나의 방식을 이용하여 상기 p개의 특징점을 연결하여 형성되는 적어도 둘 이상 직선의 실제거리를 포함하는 p개의 특징점 간 실제거리를 산출할 수 있다. 한편 상기 p개의 특징점 간 실제거리가 산출된 경우, 상기 기하학 관계 생성부(172)는 상기 산출된 p개의 특징점 간 실제거리를 포함하며 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성할 수 있다.
만약 상기 기하학 관계 생성부(172)를 통해 상기 제1 내지 제4 기하학 관계 생성 실시예 중 적어도 하나(또는 둘 이상 실시예의 적어도 부분적 조합)를 통해 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보가 생성되면, 상기 기하학 관계 관리부(176)는 상기 생성된 기준 기하학 관계정보를 지정된 저장영역(예컨대, 메모리부(109)의 저장영역 및/또는 운영서버(190) 상의 저장매체에 구비된 저장영역)에 저장하여 관리할 수 있다.
도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 지정된 저장영역에 하나 이상의 기준 기하학 관계정보가 저장된 후, 상기 카메라모듈(105)을 통해 입력되는 영상정보에 포함된 적어도 q(q≥3)개의 특징점이 인식된 경우, 상기 인식된 q개의 특징점 간의 거리관계와 각도관계를 포함하는 기하학 관계정보를 인식하는 기하학 관계 인식부(180)와, 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인하는 기하학 관계 매칭부(184)와, 상기 매칭된 기준 기하학 관계정보를 확인한 경우 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 실제거리 결정부(188)를 구비한다.
상기 기하학 관계 인식부(180)는 피사체 상에 존재하는 적어도 q(q≥3)개의 특징점 간의 고유한 기하학 관계에 대응하는 기하학 관계정보를 인식한다.
본 발명의 제1 기하학 관계 인식 실시예에 따르면, 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링된 영상정보가 확인되면, 상기 기하학 관계 인식부(180)는 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 q(q≥3)개의 특징점을 인식할 수 있다. 바람직하게, 상기 기하학 관계 인식부(180)는 상기 보정변환 처리부(136)를 통해(또는 상기 보정변환 처리부(136)의 기능을 수행하여) 보정된 프레임 화상정보를 판독하여 적어도 q(q≥3)개의 특징점을 인식할 수 있다. 만약 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 q(q≥3)개의 특징점이 인식되면, 상기 기하학 관계 인식부(180)는 상기 q개의 특징점 간의 거리관계와 상기 q개의 특징점들이 형성하는 각도관계를 포함하여 상기 q개의 특징점 간의 고유한 기하학 관계에 대응하는 기하학 관계정보를 생성할 수 있다. 여기서, 상기 q개의 특징점 간의 거리관계는 상기 q개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보(예컨대, 지정된 좌표계 상의 좌표거리)와, 상기 q개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보(예컨대, 지정된 좌표계 상의 벡터성분) 중 적어도 하나의 정보를 포함할 수 있다. 한편 상기 q개의 특징점 간의 각도관계는 상기 q개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보(예컨대, 지정된 좌표계 상의 좌표각도)와, 상기 q개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보(예컨대, 지정된 좌표계 상의 벡터성분) 중 적어도 하나의 정보를 포함할 수 있다.
본 발명의 제2 기하학 관계 인식 실시예에 따르면, 상기 특징점 인식부(140)나 계측대상 인식부(164)를 통해 인식한 특징점의 개수가 적어도 q(q≥3)개인 경우, 상기 기하학 관계 인식부(180)는 상기 q개의 특징점 간의 거리관계와 상기 q개의 특징점들이 형성하는 각도관계를 포함하여 상기 q개의 특징점 간의 고유한 기하학 관계에 대응하는 기하학 관계정보를 생성할 수 있다.
만약 상기 기하학 관계 인식부(180)를 통해 상기 제1 내지 제2 기하학 관계 인식 실시예 중 적어도 하나(또는 둘 실시예의 적어도 부분적 조합)를 통해 상기 q개의 특징점 간의 고유한 기하학 관계에 대응하는 기하학 관계정보가 생성되면, 상기 기하학 관계 매칭부(184)는 상기 기하학 관계 관리부(176)를 통해 지정된 저장영역에 저장되어 관리되는 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인한다.
만약 상기 기하학 관계 매칭부(184)를 통해 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭된 어느 한 기준 기하학 관계정보를 확인한 경우, 상기 실제거리 결정부(188)는 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정할 수 있다.
만약 상기 q개의 특징점 간의 실제거리를 결정한 경우, 상기 계측기준 설정부(160)는 상기 기하학 관계 인식부(180)를 통해 인식된 q개의 특징점이나 지정된 저장영역으로부터 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정할 수 있다. 만약 상기 인식된 q개의 특징점이나 상기 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정한 경우, 상기 상기 계측대상 인식부(164)는 상기 설정된 기준 특징점을 이용하여 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하고, 상기 계측대상 계측부(168)는 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출할 수 있다. 이로써 상기 앱(110)은 상기 카메라모듈(105)을 통해 상기 저장된 기준 기하학 관계정보와 매칭되는 특징점을 지닌 피사체를 촬영한 영상정보가 입력되는 경우에, 상기 인터페이스 표시부(132)를 통해 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 및/또는 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하여 이를 기반으로 상기 N개의 특징점 중 n개의 특징점 간 실제거리의 수치를 산출하기 위한 일련의 과정을 수행하지 않고도, 상기 입력되는 영상정보에 포함된 q개의 특징점 간의 실제거리는 물론 상기 q개의 특징점 근처에 형성된 T(T≥2)개의 계측대상 특징점 간의 실제거리까지 실시간 산출할 수 있다.
한편 상기 기하학 관계 인식부(180)를 통해 q개의 특징점을 인식하였으나 상기 기하학 관계 매칭부(184)를 통해 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭된 기준 기하학 관계정보를 확인하지 못한 경우, 상기 실제거리 결정부(188)는 상기 인터페이스 표시부(132)를 통해 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 및/또는 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하며, 이를 기반으로 상기 앱(110)은 상기 N개의 특징점 중 n개의 특징점 간 실제거리의 수치를 산출하기 위한 일련의 과정을 수행할 수 있다.
도면2는 본 발명의 실시 방법에 따른 카메라모듈(105)의 구조를 도시한 도면이다.
보다 상세하게 본 도면2는 카메라렌즈(200)와 이미지 센서부(210) 및 액츄에이터부(205)를 포함하는 카메라모듈(105)의 간략한 구조와 촬영거리와 초점거리의 관계 및 이미지 센서부(210)의 센서영역(또는 이미지 센서부(210)를 통해 생성된 영상정보나 화상정보)를 통해 산출되는 특징점 간 거리와 피사체에 존재하는 실제 특징점 간 실제거리의 관계를 도시한 것이다. 한편 무선단말(100)의 카메라모듈(105)은 본 도면2에 도시된 카메라렌즈(200)와 이미지 센서부(210) 및 액츄에이터부(205) 이외에 다양한 구성부를 더 구비하여 이루어질 것이나, 발명이 속한 기술분야에서 통상의 지식을 가진 자라면 무선단말(100)의 카메라모듈(105)에 구비되는 다양한 구성부의 실시예를 유추할 수 있을 것이므로, 본 도면2는 이에 대한 설명이나 도시를 생략하기로 한다.
도면2를 참조하면, 카메라모듈(105)은, 피사체로부터 반사된 광신호를 입력받는 하나 이상의 카메라렌즈(200)와, 상기 카메라렌즈(200)를 통해 입력되는 광신호를 검지하여 전기적 영상신호로 변환하는 이미지 센서부(210)와, 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에서 자동초점 기능이나 손떨림 보정 기능을 구현하는 액츄에이터부(205)를 구비한다.
상기 카메라렌즈(200)는 피사체로부터 반사된 광신호를 입력받는 대물렌즈에 해당하는 렌즈를 포함하여 이루어지며, 상기 대물렌즈와 이미지 센서부(210) 사이에 영상정보나 화상정보의 품질을 향상시키거나 각종 촬영 효과를 부여하기 위한 하나 이상읠 렌즈를 더 포함할 수 있다.
상기 이미지 센서부(210)는 상기 카메라렌즈(200)를 통해 입력되는 광신호를 실시간 검지하여 가로방향으로 지정된 h(h≥100)개의 픽셀 수(또는 해상도)와 세로방향으로 지정된 v(v≥100)개의 픽셀 수(또는 해상도)를 지닌 비트맵 이미지 형태의 화상정보를 생성하거나, 또는 가로세로 h개와 v개의 픽셀 수(또는 해상도)와 지정된 단위 시간당 프레임수를 지닌 영상정보를 생성하며, 이를 위해 가로방향 x(2≥1㎛)와 세로방향 y(y≥1㎛)의 센서영역을 구비하여 이루어진다.
상기 센서영역은 가로세로 x와 y의 영역 상에 가로세로 h개와 v개의 센서셀을 포함하여 이루어질 수 있으며, 이에 의해 상기 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보 상의 픽셀 수와 상기 이미지 센서부(210)에 구비된 센서영역 상의 실제거리(예컨대, 지정된 도량형 단위의 실제거리)에는 지정된 대응관계가 형성될 수 있다. 예를들어, 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보 상의 필셀 수 100개는 센서영역 상의 10㎛에 대응할 수 있다.
상기 액츄에이터부(205)는 상기 카메라렌즈(200)와 이미지 센서부(210) 사이의 초점거리를 조정하여 자동초점 기능을 제공하며, 실시 방법에 따라 손떨림 보정 기능을 구현하기도 한다.
본 발명의 실시 방법에 따르면, 상기 액츄에이터부(205)는 구조적으로 상기 카메라렌즈(200)(예컨대, 대물렌즈)와 이미지 센서부(210) 사이에는 허용된 이격 간격 범위가 존재하게 되는데, 이 때문에 무선단말(100)에 탑재된 카메라모듈(105)의 카메라렌즈(200)를 피사체에 근접시켜 촬영 시 지정된 근접거리까지는 액츄에이터부(205)에 의해 자동초점이 맞추어지지만 상기 지정된 근접거리 미만으로 더 근접시켜 촬영하면 아무리 액츄에이터부(205)라도 자동초점을 맞추지 못하게 된다. 예를들어, 애플사의 아이폰6 기종에 탑재된 카메라모듈(105)의 경우 피사체와 카메라렌즈(200) 사이의 촬영거리가 7cm 이상일 경우에는 액츄에이터부(205)에 의해 자동초점이 맞춰지지만, 상기 촬영거리를 7cm미만으로 근접 시킬 경우에는 자동초점이 맞춰지지 않고 경계가 흐릿해지거나 번지는 블러링(Blurring)이 발생하는데, 이러한 블러링은 촬영거리를 근접시킴에 따라 선형적으로 증가하는 것이 아니라 지수함수 형태로 증가하여 상기 촬영거리를 대략 6.5cm미만으로 근접 시킬 경우에는 블러링에 의해 가로세로 1㎠에 인쇄된 글자나 숫자를 판독할 수 없을 정도로 블러링이 급속하게 증가하게 된다.
상기 초점거리는 카메라렌즈(200)(예컨대, 대물렌즈)와 이미지 센서부(210)의 센성영역 사이의 거리이고, 상기 촬영거리는 피사체의 촬영면과 카메라렌즈(200)(예컨대, 대물렌즈) 사이의 거리를 포함한다. 본 발명의 실시 방법에 따르면, 상기 액츄에이터부(205)는 자동초점을 위해 상기 카메라렌즈(200)와 이미지 센서부(210)의 센성영역 사이의 초점거리를 미세하게 조정하며, 이에 의해 자동초점이 맞춰지는 촬영거리도 조정되게 된다.
본 발명의 실시 방법에 따르면, 최근접한계거리정보는 피사체의 촬영면과 카메라렌즈(200)(예컨대, 대물렌즈) 사이의 다양한 촬영거리 중 상기 카메라렌즈(200)와 피사체 사이의 거리가 자동초점 가능한 원거리에서 근접시키면서 촬영하다가 자동초점이 맞춰지지 않고 상기 블러링이 발생하는 시점(또는 반대로 상기 카메라렌즈(200)와 피사체 사이의 거리가 초근접하여 자동초점이 맞춰지지 않다가 멀어지면서 자동초점이 맞춰지는 시점)의 촬영거리로 정의할 수 있다. 한편 기준초점거리정보는 카메라렌즈(200)(예컨대, 대물렌즈)와 이미지 센서부(210)의 센성영역 사이의 다양한 초점거리 중 상기 카메라렌즈(200)와 피사체 사이의 거리가 상기 최근접한계거리정보인 경우에 자동초점 가능한 카메라렌즈(200)와 이미지 센서부(210)의 센서영역 사이의 초점거리로 정의할 수 있다.
본 발명의 실시 방법에 따르면, 상기 카메라모듈(105)을 통해 입력되는 영상정보에 포함된 F개의 프레임 화상정보를 이용하여 산출되는 n개의 특징점 간 거리는 상기 프레임 화상정보를 판독하여 인식된 n개의 특징점 간 픽셀거리를 포함할 수 있다. 또는 상기 n개의 특징점 간 거리는 상기 이미지 센서부(210)에 구비된 가로세로 x와 y의 센서영역과 상기 프레임 화상정보의 가로세로 h와 v의 픽셀 수(또는 해상도)의 관계를 근거로 환산된 지정된 도량형 단위의 특징점 간 실제거리를 포함할 수 있다.
본 발명의 실시 방법에 따르면, 상기 기준초점거리와 최근접한계거리 사이의 비례 관계를 근거로 상기 산출된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출할 수 있다.
도면3은 본 발명의 제1 실시 방법에 따라 카메라모듈(105)을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.
보다 상세하게 본 도면3은 카메라모듈(105)을 통해 입력되어 버퍼링되는 영상정보를 확인하는 과정을 수행하되, 지정된 저장영역에 적어도 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보가 저장되고 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 q개의 특징점이 인식된 경우 상기 저장된 기준 기하학 관계정보를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3을 참조 및/또는 변형하여 상기 특징점 간 실제거리의 수치 계측 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면3을 참조하면, 무선단말(100)의 앱(110)은 무선단말(100)의 카메라모듈(105)을 통해 피사체를 촬영하여 생성된 영상정보를 지정된 버퍼영역에 버퍼링하거나 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링된 영상정보를 확인한다(300). 한편 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링된 영상정보는 도면4 내지 6의 과정에 이용될 수 있다. 한편 본 발명의 실시 방법에 따르면, 상기 무선단말(100)의 앱(110)은 상기 카메라모듈(105)의 자동초점 기능을 활성화하거나 및/또는 상기 카메라모듈(105)의 자동초점 주기를 최소값으로 설정할 수 있다.
만약 상기 카메라모듈(105)을 통해 입력되어 버퍼링된 영상정보가 확인되면, 상기 무선단말(100)의 앱(110)은 도면6의 과정을 통해 지정된 저장영역에 하나 이상의 유효한 기준 기하학 관계정보가 저장되어 있는지 확인한다(305). 만약 지정된 저장영역에 하나 이상의 유효한 기준 기하학 관계정보가 저장되어 있지 않은 경우, 상기 무선단말(100)의 앱(110)은 도면4의 과정을 통해 지정된 인터페이스를 표시하여 상기 영상정보에 포함된 F개의 프레임 화상정보로부터 n개의 특징점과 m개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 및/또는 '-' 방향으로 이격되는 중에 상기 m개의 엣지 영역을 통해 초점이 맞추어지는 '0' 시점의 n개의 특징점 간 거리를 산출한 후 상기 카메라모듈(105)의 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 n개의 특징점 간 거리에 대응하는 실제 n개의 특징점 간 실제거리의 수치를 산출하는 과정을 수행할 수 있다.
한편 지정된 저장영역에 하나 이상의 유효한 기준 기하학 관계정보가 저장된 경우, 상기 무선단말(100)의 앱(110)은 상기 영상정보에 포함된 프레임 화상정보 중 판독 대상에 해당하는 F개의 프레임 화상정보를 확인한다(310). 한편 상기 영상정보에 포함된 F개의 프레임 화상정보를 변환 보정하는 실시예의 경우, 상기 무선단말(100)의 앱(110)은 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 상기 프레임 화상정보 내에 존재하는 D(D≥1)개의 원근 식별 영역 중 유효한 d(1≤d≤D)개의 유효한 원근 식별 영역을 인식하고, 상기 인식된 d개의 유효한 원근 식별 영역과 상기 무선단말(100)에 구비된 하나 이상의 센서를 통해 센싱된 정보를 결합 분석하여 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 상기 카메라모듈(105)의 카메라렌즈(200)의 시선 방향이 직교 방향에서 이격된 이격 각도를 산출한 후, 아핀 변환을 포함하는 각종 기하학 변환식을 이용하여 상기 영상정보에 포함된 F개의 프레임 화상정보를 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향이 직교 관계를 형성하도록 변환 보정할 수 있다(315). 한편 실시 방법에 따라 상기 보정된 영상정보는 도면4 내지 6의 과정에 이용될 수 있다. 한편 본 발명의 다른 실시 방법에 따라 상기 변환 보정을 생략하거나 또는 지정된 특징점이 인식된 후에 변환 보정하는 경우 상기 영상정보에 포함된 F개의 프레임 화상정보를 변환 보정하는 과정을 생략 가능하며, 이에 의해 본 발명이 한정되지 아한다.
상기 무선단말(100)의 앱(110)은 상기 카메라모듈(105)을 통해 입력되어 버퍼링된 영상정보에 포함된 F개의 프레임 화상정보(또는 상기 보정된 F개의 프레임 화상정보)를 판독하여 적어도 q개의 특징점을 인식 시도한다(320). 만약 상기 F개의 프레임 화상정보를 판독하여 적어도 q개의 특징점을 인식하지 못한 경우, 상기 무선단말(100)의 앱(110)은 도면4의 과정을 통해 지정된 인터페이스를 표시하여 상기 영상정보에 포함된 F개의 프레임 화상정보로부터 n개의 특징점과 m개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 및/또는 '-' 방향으로 이격되는 중에 상기 m개의 엣지 영역을 통해 초점이 맞추어지는 '0' 시점의 n개의 특징점 간 거리를 산출한 후 상기 카메라모듈(105)의 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 n개의 특징점 간 거리에 대응하는 실제 n개의 특징점 간 실제거리의 수치를 산출하는 과정을 수행할 수 있다.
한편 상기 F개의 프레임 화상정보를 판독하여 적어도 q개의 특징점을 인식한 경우, 상기 무선단말(100)의 앱(110)은 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인한다(325). 만약 상기 q개의 특징점 간의 기하학 관계정보와 매칭되는 기준 기하학 관계정보가 확인되지 않으면, 상기 무선단말(100)의 앱(110)은 도면4의 과정을 통해 지정된 인터페이스를 표시하여 상기 영상정보에 포함된 F개의 프레임 화상정보로부터 n개의 특징점과 m개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 및/또는 '-' 방향으로 이격되는 중에 상기 m개의 엣지 영역을 통해 초점이 맞추어지는 '0' 시점의 n개의 특징점 간 거리를 산출한 후 상기 카메라모듈(105)의 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 n개의 특징점 간 거리에 대응하는 실제 n개의 특징점 간 실제거리의 수치를 산출하는 과정을 수행할 수 있다.
한편 상기 q개의 특징점 간의 기하학 관계정보와 매칭되는 기준 기하학 관계정보가 확인되면, 상기 무선단말(100)의 앱(110)은 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하고(330), 상기 결정된 특징점 간 실제거리를 표시하거나 이용하는 절차를 수행한다(335). 바람직하게, 상기 결정된 특징점 간 실제거리는 카메라를 통해 입력되는 영상정보에 존재하는 객체(=피사체)의 수치 계측을 기반으로 하는 증강현실 서비스에 이용될 수 있다.
도면4는 본 발명의 제2 실시 방법에 따라 카메라모듈(105)을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.
보다 상세하게 본 도면4는 카메라모듈(105)의 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리를 이용하여 피사체에 존재하는 적어도 둘 이상의 특징점 간 실제거리의 수치를 산출하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4를 참조 및/또는 변형하여 상기 특징점 간 실제거리의 수치 계측 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면4를 참조하면, 무선단말(100)의 앱(110)은 상기 무선단말(100)에 탑재된 카메라모듈(105)의 카메라렌즈(200)를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인한다(400).
만약 상기 최근접한계거리정보와 기준초점거리정보가 확인되면, 상기 무선단말(100)의 앱(110)은 상기 카메라렌즈(200)의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도하는 촬영 유도 인터페이스 및/또는 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 상기 카메라모듈(105)의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 카메라모듈(105)의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 이격 유도 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하고(405), 상기 도면3의 과정에서 카메라모듈(105)을 통해 입력되어 버퍼링된 영상정보를 화면 영역 상의 지정된 영상출력 영역에 출력하며(410), 상기 도면3의 과정을 통해 버퍼링되거나 보정된 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 n개의 특징점과 m개의 엣지 영역을 인식한다(415). 만약 상기 F개의 프레임 화상정보를 판독하여 n개의 특징점과 m개의 엣지 영역이 인식되면, 상기 무선단말(100)의 앱(110)은 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 '-' 방향 이격되는지 인식한다(420).
만약 상기 영상정보가 '+' 방향 이격되는 경우, 상기 무선단말(100)의 앱(110)은 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출한다(425). 한편 상기 영상정보가 '-' 방향 이격되는 경우, 상기 무선단말(100)의 앱(110)은 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출한다(430).
한편 상기의 과정을 통해 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리가 산출되면, 상기 무선단말(100)의 앱(110)은 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하고(445), 상기 산출된 특징점 간 실제거리를 표시하거나 이용하는 절차를 수행한다(450). 바람직하게, 상기 결정된 특징점 간 실제거리는 카메라를 통해 입력되는 영상정보에 존재하는 객체(=피사체)의 수치 계측을 기반으로 하는 증강현실 서비스에 이용될 수 있다.
도면5는 본 발명의 제3 실시 방법에 따라 카메라모듈(105)을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.
보다 상세하게 본 도면5는 기 산출된 둘 이상의 특징점 간 실제거리를 이용하여 다른 특징점 간의 실제거리를 산출하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면5를 참조 및/또는 변형하여 상기 특징점 간 실제거리의 수치 계측 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면5에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면5를 참조하면, 무선단말(100)의 앱(110)은 상기 도면3 또는 도면4의 과정을 통해 특징점 간의 실제거리의 수치가 결정/산출된 특징점과 특징점 간의 실제거리를 확인하고, 상기 확인된 특징점 중 적어도 둘 이상의 특징점을 계측대상 특징점을 인식하기 위한 기준 특징점을 설정하고 상기 기준 특징점 간의 실제거리를 상기 계측대상 특징점 간의 실제거리를 산출하기 위한 기준거리로 설정한다(500).
만약 실제거리의 수치가 결정/산출된 특징점을 통해 기준 특징점과 기준거리가 설정되면, 상기 무선단말(100)의 앱(110)은 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식한다(505). 여기서, 상기 T개의 계측대상 특징점은 상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보에 포함된 특징점을 포함하며, 상기 기준 특징점 중 적어도 하나의 특징점을 포함할 수 있다.
만약 상기 T개의 계측대상 특징점이 인식되면, 상기 무선단말(100)의 앱(110)은 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하고(510), 상기 산출된 특징점 간 실제거리를 표시하거나 이용하는 절차를 수행한다(515). 바람직하게, 상기 결정된 특징점 간 실제거리는 카메라를 통해 입력되는 영상정보에 존재하는 객체(=피사체)의 수치 계측을 기반으로 하는 증강현실 서비스에 이용될 수 있다.
한편 상기 무선단말(100)의 앱(110)은 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정할 수 있으며(520), 이로써 상기 무선단말(100)의 앱(110)은 상기 카메라모듈(105)을 통해 이어서 입력되는 영상정보에 포함된 다양한 특징점 간의 실제거리를 실시간 계측할 수 있다.
도면6은 본 발명의 실시 방법에 따라 실제거리의 수치가 산출된 특징점 간의 기하학 관계정보를 생성하여 저장 관리하는 과정을 도시한 도면이다.
보다 상세하게 본 도면6은 상기 도면3의 과정을 통해 특징점 간 실제거리의 수치를 계측하기 위해 필요한 특징점 간의 기하학 관계정보를 생성하여 저장 관리하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면6을 참조 및/또는 변형하여 상기 특징점 간 기하학 관계정보를 생성 내지 저장 관리하는 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면6에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면6을 참조하면, 무선단말(100)의 앱(110)은 상기 도면3의 과정을 통해 버퍼링되거나 보정된 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 p(p≥3)개의 특징점을 인식하고(600), 상기 F개의 프레임 화상정보를 판독하여 적어도 p개의 특징점이 인식된 경우 상기 p개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리를 산출한다(605). 한편 본 발명의 다른 실시 방법에 따르면, 상기 무선단말(100)의 앱(110)은 상기 도면3 내지 도면5의 과정을 통해 기 결정/산출된 특징점 간 실제거리 중 적어도 p개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리의 수치를 포함하는 p개의 특징점 간 실제거리를 확인한다(605).
적어도 p개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리의 수치를 포함하는 p개의 특징점 간 실제거리가 산출/확인되면, 상기 무선단말(100)의 앱(110)은 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하고(610), 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하며(615), 상기 기준 기하학 관계정보는 상기 도면3의 과정을 통해 카메라모듈(105)을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는데 이용된다.
100 : 무선단말 105 : 카메라모듈
110 : 앱 112 : 거리정보 확인부
116 : 환산정보 확인부 120 : 촬영조건 설정부
124 : 입력영상 확인부 128 : 입력영상 출력부
132 : 인터페이스 표시부 136 : 보정변환 처리부
140 : 특징점 인식부 144 : 엣지 영역 인식부
148 : 이격 방향 인식부 152 : 인식거리 산출부
156 : 실제거리 산출부 160 : 계측기준 설정부
164 : 계측대상 인식부 168 : 계측대상 계측부
172 : 기하학 관계 생성부 176 : 기하학 관계 관리부
180 : 기하학 관계 인식부 184 : 기하학 관계 매칭부
188 : 실제거리 결정부 200 : 카메라렌즈
205 : 액츄에이터부 210 : 이미지 센서부

Claims (25)

  1. 자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서,
    상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 제1 단계;
    상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 제2 단계;
    상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 '-' 방향 이격되는지 인식하는 제3 단계;
    상기 앱이 상기 '+' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하거나, 상기 '-' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계;
    상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계;
    둘 이상의 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하는 제6 단계;
    상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 제7 단계; 및
    상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 제8 단계;를 포함하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  2. 제 1항에 있어서, 상기 제1 단계는,
    상기 앱이 상기 무선단말에 탑재된 카메라모듈의 이미지 센서부를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  3. 제 1항에 있어서, 상기 제2 단계는,
    화면 영역 상의 지정된 영상출력 영역에 카메라모듈을 통해 입력되어 버퍼링되는 영상정보를 출력하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  4. 제 1항에 있어서, 상기 제2 단계는,
    상기 앱이 상기 카메라모듈의 자동초점 기능을 활성화하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  5. 제 1항에 있어서, 상기 제2 단계는,
    상기 앱이 상기 카메라모듈의 자동초점 주기를 최소값으로 설정하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  6. 제 1항에 있어서, 상기 N개의 특징점은,
    상기 카메라모듈을 통해 입력되는 영상정보 내의 픽셀영역 중 색상, 명암, 채도 중 하나 이상의 값이 인접한 영역의 값보다 지정된 기준값 이상 차이가 발생하는 점 영역, 선 영역, 면 영역 중 적어도 하나의 영역을 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  7. 제 1항에 있어서, 상기 N개의 특징점은,
    지정된 허용 오차 범위 내에서 상기 카메라렌즈의 시선방향과 직교 관계를 형성하는 가상의 평면 영역에 형성된 특징점, 또는
    지정된 허용 오차 범위 내에서 상기 카메라렌즈의 이미지 센서부의 센서영역과 평행 관계를 형성하는 가상의 평면 영역에 형성된 특징점을 포함하여 이루어지는 것을 특징으로 하는 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  8. 제 1항에 있어서, 상기 제2 단계는,
    상기 앱이 상기 피사체 상의 N개의 특징점을 형성한 면과 상기 카메라렌즈의 시선방향 사이에 직교 관계를 형성하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  9. 제 1항에 있어서, 상기 제2 단계는,
    상기 앱이 상기 카메라모듈의 자동초점 주기 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  10. 제 1항에 있어서, 상기 제2 단계는,
    상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 지정 개수의 프레임을 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요되는 소요 시간 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  11. 제 10항에 있어서, 상기 이격 속도는,
    적어도 10cm/s 이내로 이동하는 속도를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  12. 제 10항에 있어서, 상기 이격 속도는,
    적어도 5cm/s 이내로 이동하는 속도를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  13. 제 1항에 있어서, 상기 제3 단계는,
    상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 F개의 프레임 중 제i(1≤f<F) 프레임 화상정보에 포함된 적어도 하나의 특징점 간 픽셀거리와 제j(i<j≤F) 프레임 화상정보에 포함된 동일한 특징점 간 픽셀거리를 비교하여 상기 특징점 간 픽셀거리가 증가하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '+' 방향 이격하는 영상정보로 확인하고 상기 특징점 간 픽셀거리가 감소하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '-' 방향 이격되는 영상정보로 확인하는 단계를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  14. 제 1항에 있어서,
    상기 앱이 상기 무선단말에 탑재된 카메라모듈의 이미지 센서부를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 단계를 더 포함하며,
    상기 제4 단계는,
    상기 앱이 상기 f개의 화상정보에 존재하는 n개의 특징점 간 픽셀거리를 산출하는 단계; 및
    상기 앱이 상기 환산정보를 이용하여 n개의 특징점 간 픽셀거리를 지정된 도량형 단위의 n개의 특징점 간 거리로 환산하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  15. 제 14항에 있어서, 상기 환산정보는,
    상기 픽셀영역 상의 지정된 단위 픽셀거리를 상기 이미지 센서부의 센서셀 사이의 실제거리로 환산하는 정보를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  16. 제 1항에 있어서, 상기 제4 단계는,
    상기 '0' 시점에 대응하는 둘 이상의 프레임 화상정보에 존재하는 둘 이상의 n개의 특징점 간 거리를 산출한 경우, 상기 앱이 상기 산출된 둘 이상의 n개의 특징점 간 거리를 통계처리하여 지정된 오차 범위의 n개의 특징점 간 거리를 산출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  17. 제 1항에 있어서, 상기 T개의 계측대상 특징점은,
    상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보에 포함된 특징점을 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  18. 제 1항에 있어서, 상기 T개의 계측대상 특징점은,
    상기 기준 특징점 중 적어도 하나의 특징점을 포함 가능한 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  19. 제 1항에 있어서,
    상기 T개의 계측대상 특징점 간 실제거리의 수치가 산출된 경우,
    상기 앱이 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  20. 제 1항에 있어서,
    적어도 p(p≥3)개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우,
    상기 앱이 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하는 단계; 및
    상기 앱이 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  21. 제 20항에 있어서, 상기 거리관계는,
    상기 p개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보와,
    상기 p개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  22. 제 20항에 있어서, 상기 각도관계는,
    상기 p개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보와,
    상기 p개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  23. 제 20항에 있어서,
    지정된 저장영역에 상기 기준 기하학 관계정보가 저장된 후 상기 카메라모듈을 통해 입력되는 영상정보에 포함된 적어도 q(q≥3)개의 특징점이 인식된 경우,
    상기 앱이 상기 인식된 q개의 특징점 간의 거리관계와 각도관계를 포함하는 기하학 관계정보를 인식하는 단계;
    상기 앱이 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인하는 단계; 및
    상기 매칭된 기준 기하학 관계정보를 확인한 경우, 상기 앱이 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  24. 제 23항에 있어서,
    상기 앱이 상기 인식된 q개의 특징점이나 상기 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계;
    상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계; 및
    상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
  25. 제 23항에 있어서,
    상기 매칭된 기준 기하학 관계정보를 확인하지 못한 경우, 상기 앱이 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 상기 피사체와 카메라렌즈 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
KR1020170132702A 2017-10-12 2017-10-12 카메라의 자동초점 기능을 이용한 수치 계측 방법 KR20190041289A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170132702A KR20190041289A (ko) 2017-10-12 2017-10-12 카메라의 자동초점 기능을 이용한 수치 계측 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170132702A KR20190041289A (ko) 2017-10-12 2017-10-12 카메라의 자동초점 기능을 이용한 수치 계측 방법

Publications (1)

Publication Number Publication Date
KR20190041289A true KR20190041289A (ko) 2019-04-22

Family

ID=66282937

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170132702A KR20190041289A (ko) 2017-10-12 2017-10-12 카메라의 자동초점 기능을 이용한 수치 계측 방법

Country Status (1)

Country Link
KR (1) KR20190041289A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113670201A (zh) * 2021-08-24 2021-11-19 杭州微影软件有限公司 标定数据生成方法、装置及标定数据生成***

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113670201A (zh) * 2021-08-24 2021-11-19 杭州微影软件有限公司 标定数据生成方法、装置及标定数据生成***

Similar Documents

Publication Publication Date Title
KR100729280B1 (ko) 스테레오 카메라를 장착한 이동단말기를 이용한 홍채인식시스템 및 그 방법
CN105659580B (zh) 一种自动对焦方法、装置及电子设备
KR20190085802A (ko) 증강된 화장 서비스 제공 방법
CN109725418B (zh) 显示设备、用于调整显示设备的图像呈现的方法及装置
KR100657522B1 (ko) 휴대용 단말기를 이용한 아웃 포커싱 촬영 장치 및 방법
WO2012115253A1 (ja) 電子機器、画像表示方法及び画像表示プログラム
CN108886582A (zh) 摄像装置及聚焦控制方法
JP3781028B2 (ja) 目画像撮像装置
US10389932B2 (en) Imaging apparatus and imaging method
CN109409147B (zh) 一种条码识别方法和装置
KR20070118036A (ko) 촬상 장치와 촬상 장치 제어 방법, 및 컴퓨터 프로그램
CN108833795B (zh) 一种图像获取设备的对焦方法及装置
JP2009522683A (ja) ステレオカメラを装着した移動端末機を利用した虹彩認識システム及び虹彩認識方法
CN107958223B (zh) 人脸识别方法及装置、移动设备、计算机可读存储介质
KR20190041289A (ko) 카메라의 자동초점 기능을 이용한 수치 계측 방법
KR20190038965A (ko) 카메라의 자동초점 기능을 이용한 수치 계측 방법
KR102401914B1 (ko) 카메라를 이용한 수치 계측 방법
CN109952593A (zh) 生物体认证装置以及生物体认证程序
KR20190041295A (ko) 카메라를 이용한 수치 계측 방법
KR20200050095A (ko) 증강현실을 이용한 착용 서비스 제공 방법
JP2008015884A (ja) 虹彩認証システム
KR102209613B1 (ko) 보조 카메라를 이용한 단말기에서의 홍채 영상 획득 장치 및 그 방법
KR20190085811A (ko) 증강된 반지 서비스 제공 방법
JP2020188326A (ja) 撮像管理システム
KR20190085809A (ko) 증강된 팔찌 서비스 제공 방법

Legal Events

Date Code Title Description
N231 Notification of change of applicant