KR101114744B1 - Method for recognizing a text from an image - Google Patents

Method for recognizing a text from an image Download PDF

Info

Publication number
KR101114744B1
KR101114744B1 KR1020090011543A KR20090011543A KR101114744B1 KR 101114744 B1 KR101114744 B1 KR 101114744B1 KR 1020090011543 A KR1020090011543 A KR 1020090011543A KR 20090011543 A KR20090011543 A KR 20090011543A KR 101114744 B1 KR101114744 B1 KR 101114744B1
Authority
KR
South Korea
Prior art keywords
area
text
image
border
pixel
Prior art date
Application number
KR1020090011543A
Other languages
Korean (ko)
Other versions
KR20100092256A (en
Inventor
황성택
이귀상
박종현
Original Assignee
전남대학교산학협력단
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전남대학교산학협력단, 삼성전자주식회사 filed Critical 전남대학교산학협력단
Priority to KR1020090011543A priority Critical patent/KR101114744B1/en
Priority to US12/705,292 priority patent/US8315460B2/en
Publication of KR20100092256A publication Critical patent/KR20100092256A/en
Application granted granted Critical
Publication of KR101114744B1 publication Critical patent/KR101114744B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Character Input (AREA)

Abstract

본 발명은 영상으로부터 텍스트를 인식하는 방법으로, 클러스터링 기법을 통해 상기 영상을 소정 개수의 영역들로 구분하는 과정과, 상기 영역들 중에서 소정의 영역을 배경 영역으로 설정하는 과정과, 상기 구분된 영역들 중에서 상기 배경영역을 제외한 각 영역들의 외부 주변픽셀과 내부 주변픽셀을 확인하는 과정과, 상기 확인 결과, 상기 외부 주변픽셀 또는 내부 주변픽셀 중 어느 하나가 상기 배경 영역에 대응되는 픽셀로 확인되는 영역을 테두리 영역으로 설정하는 과정과, 상기 확인 결과, 상기 외부 주변픽셀 및 내부 주변픽셀 모두가 상기 배경 영역에 대응되는 픽셀이 아닌 것으로 확인되는 영역을 중심 텍스트 영역으로 설정하는 과정과, 상기 테두리 영역을 텍스트의 이진화 대상에서 제외시키는 과정을 포함한다.The present invention provides a method of recognizing text from an image, the process of dividing the image into a predetermined number of regions through a clustering technique, a process of setting a predetermined region as a background region among the regions, and the divided region. Checking an outer peripheral pixel and an inner peripheral pixel of each area except the background area, and, as a result of the checking, one of the outer peripheral pixel or the inner peripheral pixel is identified as a pixel corresponding to the background area Setting an area as a border area, and setting the area as a center text area where it is determined that both the outer peripheral pixel and the inner peripheral pixel are not pixels corresponding to the background area; The process of excluding from the binarization of text.

간판, 이진화, 텍스트 인식 Signage, Binarization, Text Recognition

Description

영상으로부터 텍스트를 인식하는 방법{METHOD FOR RECOGNIZING A TEXT FROM AN IMAGE}{METHOD FOR RECOGNIZING A TEXT FROM AN IMAGE}

본 발명은 텍스트를 인식하는 방법에 관한 것으로, 텍스트를 포함하는 영상으로부터 텍스트를 인식하는 방법을 제시한다.The present invention relates to a method for recognizing text, and provides a method for recognizing text from an image including the text.

기술의 발전에 따라 영상촬영장치(예를 들어, 카메라 또는 카메라를 구비하는 휴대기기)를 이용한 텍스트 인식 기술이 제안되고 있다. BACKGROUND With the development of technology, a text recognition technology using an image photographing apparatus (for example, a camera or a mobile device having a camera) has been proposed.

영상촬영장치를 통해 촬영된 영상으로부터 텍스트(문자 또는 문자영역)를 추출하고, 추출된 텍스트를 이진화하여 텍스트를 인식하는 기술들이 여러 방법들을 통해 제안되고 있지만, 종래의 기술에서는 간판(예를 들어, 광고판)을 촬영하고 간판이 촬영된 영상에서 텍스트를 인식하는 방법을 제시하지 못하고 있다.Techniques for extracting text (characters or character areas) from images captured by the image capturing apparatus and recognizing the text by binarizing the extracted text have been proposed through various methods. It does not provide a way to recognize the text in the video taken by the billboard).

특히, 시각적인 미관성과 정보전달의 효과를 위해 텍스트 주변에 텍스트 형태의 테두리가 적용된 간판의 경우, 종래 기술을 이용하여 이러한 간판에서 텍스트를 추출하여 인식하게 되면 텍스트가 정상적으로 인식되지 못하게 되는 문제점이 있다.In particular, in the case of a signboard in which a text-shaped border is applied around the text for visual aesthetics and the effect of information transfer, there is a problem in that the text is not normally recognized when the text is extracted from the signboard and recognized using conventional technology. .

따라서, 본 발명은 간판이 촬영된 영상에서 테두리가 적용된 텍스트도 정확하게 인식하는 방법을 제공한다.Accordingly, the present invention provides a method for accurately recognizing a text to which an edge is applied to an image of a signboard.

본 발명은 영상으로부터 텍스트를 인식하는 방법으로, 클러스터링 기법을 통해 상기 영상을 소정 개수의 영역들로 구분하는 과정과, 상기 영역들 중에서 소정의 영역을 배경 영역으로 설정하는 과정과, 상기 구분된 영역들 중에서 상기 배경영역을 제외한 각 영역들의 외부 주변픽셀과 내부 주변픽셀을 확인하는 과정과, 상기 확인 결과, 상기 외부 주변픽셀 또는 내부 주변픽셀 중 어느 하나가 상기 배경 영역에 대응되는 픽셀로 확인되는 영역을 테두리 영역으로 설정하는 과정과, 상기 확인 결과, 상기 외부 주변픽셀 및 내부 주변픽셀 모두가 상기 배경 영역에 대응되는 픽셀이 아닌 것으로 확인되는 영역을 중심 텍스트 영역으로 설정하는 과정과, 상기 테두리 영역을 텍스트의 이진화 대상에서 제외시키는 과정을 포함한다.The present invention provides a method of recognizing text from an image, the process of dividing the image into a predetermined number of regions through a clustering technique, a process of setting a predetermined region as a background region among the regions, and the divided region. Checking an outer peripheral pixel and an inner peripheral pixel of each area except the background area, and, as a result of the checking, one of the outer peripheral pixel or the inner peripheral pixel is identified as a pixel corresponding to the background area Setting an area as a border area, and setting the area as a center text area where it is determined that both the outer peripheral pixel and the inner peripheral pixel are not pixels corresponding to the background area; The process of excluding from the binarization of text.

본 발명은 영상에서 텍스트를 인식할 때, 테두리가 적용된 텍스트도 정확하게 인식할 수 있는 효과가 있다.According to the present invention, when the text is recognized in the image, the text to which the border is applied can be recognized correctly.

도 1은 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 장치에 대한 블록도이다. 도 1을 참조하여 이에 대해 살펴보면 다음과 같다.1 is a block diagram of an apparatus for recognizing a character from an image according to an exemplary embodiment of the present invention. This will be described with reference to FIG. 1.

무선 송수신부(6)는 RF부와 모뎀(MODEM)을 포함한다. RF부는 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강 변환하는 RF수신기 등을 포함한다. 모뎀(MODEM)은 송신될 신호를 부호화 및 변조하는 송신기 및 RF부에서 수신되는 신호를 복조 및 복호화하는 수신기 등을 포함한다. 본 발명의 실시 예에 따른 무선 송수신부(6)는 제어부(1)의 제어에 따라 문자 인식의 대상이 되는 영상을 송수신하거나, 영상으로부터 인식된 문자를 송수신할 수 있다.The wireless transceiver 6 includes an RF unit and a modem. The RF unit includes an RF transmitter for upconverting and amplifying a frequency of a transmitted signal, and an RF receiver for low noise amplifying and downconverting a received signal. The modem MODEM includes a transmitter for encoding and modulating a signal to be transmitted, a receiver for demodulating and decoding a signal received at an RF unit, and the like. The wireless transceiver 6 according to an embodiment of the present invention may transmit and receive an image that is a target of character recognition, or may transmit and receive a character recognized from the image under the control of the controller 1.

오디오 처리부(7)는 코덱(Codec)을 구성할 수 있으며, 코덱은 데이터 코덱과 오디오 코덱을 포함한다. 데이터 코덱은 패킷데이터 등을 처리하고, 오디오 코덱은 음성과 멀티미디어 파일 등의 오디오 신호를 처리한다. 또한, 오디오 처리부(7)는 모뎀에서 수신되는 디지털 오디오신호를 상기 오디오 코덱을 통해 아날로그신호를 변환하여 재생하거나 또는 마이크(MIC)로부터 발생되는 아날로그 오디오 신호를 상기 오디오 코덱을 통해 디지털 오디오 신호로 변환하여 모뎀으로 전송하는 기능을 수행한다. 상기 코덱은 별도로 구비되거나 제어부(1)에 포함될 수 있다.The audio processor 7 may configure a codec, and the codec includes a data codec and an audio codec. The data codec processes packet data and the like, and the audio codec processes audio signals such as voice and multimedia files. In addition, the audio processor 7 converts and reproduces an analog audio signal received from a modem through the audio codec, or converts an analog audio signal generated from a microphone (MIC) into a digital audio signal through the audio codec. Transmits to the modem. The codec may be provided separately or included in the controller 1.

키입력부(2)는 숫자 및 문자 정보의 입력에 필요한 키들 및 각종 기능들의 설정에 필요한 기능 키들을 구비한다. 본 발명의 실시 예에 따른 키입력부(2)는 시각 정보를 표시할 수 있는 키패드로써, OLED(Orgnic Light-Emitting Diode; 유기발광 다이오드) 또는 LCD(Liquid Crystal Device) 등과 같이 시각 정보를 표시할 수 있는 장치를 키패드 상에 구비한다. The key input unit 2 is provided with keys necessary for input of numeric and character information and function keys necessary for setting various functions. The key input unit 2 according to an exemplary embodiment of the present invention is a keypad for displaying visual information, and may display visual information such as an organic light emitting diode (OLED) or a liquid crystal device (LCD). A device on the keypad.

메모리(3)는 프로그램 메모리 및 데이터 메모리들로 구성될 수 있다. 프로그 램 메모리에는 휴대단말기의 일반적인 동작을 제어하기 위한 프로그램이 저장된다. 본 발명의 실시 예에 따른 메모리는 카메라부(4)에 의해 촬영된 영상을 저장하거나, 영상으로부터 인식된 문자를 문자 형태 또는 이미지 형태로 저장할 수 있다.The memory 3 may be composed of program memory and data memories. The program memory stores a program for controlling the general operation of the mobile terminal. The memory according to an embodiment of the present invention may store an image photographed by the camera unit 4, or may store a character recognized from the image in a character form or an image form.

표시부(5)는 휴대단말기에서 발생하는 각종 표시 정보를 출력한다. 이 때, 표시부는 LCD(Liquid Crystal Display) 또는 OLED(Organic Light Emitting Diodes) 등으로 이루어질 수 있다. 또한, 본 발명의 실시 예에 따른 표시부(5)는 터치스크린(Touch Screen) 기능을 제공하여 키입력부(2)와 함께 휴대단말기를 제어하는 입력부로 동작할 수 있다. 본 발명의 실시 예에 따른 제어부(1)는 카메라부(4)에 의한 촬영된 영상을 표시하거나, 영상으로부터 인식된 문자를 표시할 수 있다.The display unit 5 outputs various display information generated in the portable terminal. In this case, the display unit may be formed of a liquid crystal display (LCD) or organic light emitting diodes (OLED). In addition, the display unit 5 according to an exemplary embodiment of the present invention may operate as an input unit for controlling the mobile terminal together with the key input unit 2 by providing a touch screen function. The controller 1 according to an exemplary embodiment of the present disclosure may display an image captured by the camera unit 4 or display a character recognized from the image.

카메라부(4)은 영상 데이터를 촬영하며, 촬영된 광 신호를 전기적 신호로 변환하는 카메라 센서와, 카메라센서로부터 촬영되는 아날로그 영상신호를 디지털 데이터로 변환하는 신호처리부를 구비한다. 여기서 카메라 센서는 CCD센서라 가정하며, 신호처리부는 DSP(Digital Signal Processor)로 구현할 수 있다. 이때, 카메라 센서 및 신호처리부는 일체형으로 구현되거나 서로 분리되어 구현될 수도 있다. 본 발명의 실시 예에 따른 카메라부(4)는 문자를 인식하기 위한 간판을 촬영할 수 있다.The camera unit 4 captures image data, and includes a camera sensor for converting the photographed optical signal into an electrical signal, and a signal processor for converting the analog image signal photographed from the camera sensor into digital data. Herein, it is assumed that the camera sensor is a CCD sensor, and the signal processor may be implemented by a digital signal processor (DSP). In this case, the camera sensor and the signal processor may be integrally implemented or separated from each other. The camera unit 4 according to an embodiment of the present invention may photograph a signboard for recognizing a character.

제어부(1)는 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 장치의 전반적인 동작 또는 구동모드를 전환 및 제어한다.The controller 1 switches and controls the overall operation or driving mode of the apparatus for recognizing a character from an image according to an exemplary embodiment of the present invention.

도 2는 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 방법에 대 한 흐름도이며, 도 3-도 4는 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 방법에 대한 예시도들이다. 도 2-도 4를 통해 본 발명의 실시 예에 대해 살펴보면 다음과 같다.2 is a flowchart illustrating a method of recognizing a character from an image according to an exemplary embodiment of the present invention, and FIGS. 3 to 4 are exemplary diagrams of a method of recognizing a character from an image according to an exemplary embodiment of the present invention. Looking at the embodiment of the present invention through 2 to 4 as follows.

제어부(1)는 클러스터링 기법을 통해 영상을 소정 개수의 영역으로 분할하고(S201), 분할된 영역들 중에서 가장 많은 픽셀 분포를 보이는 영역을 배경 영역으로 설정하도록 제어한다(S202).The controller 1 divides the image into a predetermined number of regions through the clustering technique (S201), and controls to set the region showing the largest pixel distribution among the divided regions as the background region (S202).

도 3을 참조하면, 본 발명의 실시 예에 따라 문자를 인식하고자 하는 대상은 간판이 촬영된 영상이다. 간판이 촬영된 영상 중에서도, 배경 영역(31) 및 광고의 정보 전달에 필요한 중심 텍스트 영역(32, '전문점') 이외에도 중심 텍스트 영역(32)을 외부 테두리 영역(33a)와 내부 테두리 영역(33b, 33c)로 감싸고 있는 간판 촬영 영상이 본 발명의 실시 예에 따른 문자 인식 대상에 해당된다. Referring to FIG. 3, an object to recognize a character according to an embodiment of the present invention is an image of a signboard photographed. In addition to the background area 31 and the central text area 32 ('specialty store') necessary for transmitting information of the advertisement, the central text area 32 may be the outer border area 33a and the inner border area 33b. The signboard photographed image wrapped in 33c) corresponds to a character recognition target according to an embodiment of the present invention.

클러스터링(Clustering) 기법은 유사한 성격의 데이터를 분류하기 위해 사용되는데, 클러스터링 기법은 픽셀의 색상 정보를 포함한 픽셀 정보 및 각 픽셀 간의 거리 등을 고려하여 영상을 구성하는 픽셀들을 여러 개의 집합으로 군집화하여, 전체 영상의 픽셀들을 동일한(또는 유사한) 특성을 가지는 픽셀들의 영역들로 분할하는 기법이다. The clustering technique is used to classify data of similar nature. The clustering technique clusters pixels constituting an image into a plurality of sets in consideration of pixel information including color information of pixels and distances between each pixel. A technique of dividing pixels of an entire image into regions of pixels having the same (or similar) characteristics.

따라서, 본 발명의 실시 예에 따른 제어부(1)는 클러스터링 기법을 통해 영상들을 구성하는 픽셀들을 소정 개수의 영역으로 분할(즉, 클러스터링)하는데, 본 발명의 실시 예에서는 배경 영역, 외부 및 내부의 테두리 영역, 중심텍스트 영역의 3개 영역으로 분할하는 것으로 가정한다.Accordingly, the control unit 1 according to an embodiment of the present invention divides (ie, clusters) pixels constituting the images into a predetermined number of regions through a clustering technique. Assume that it is divided into three areas of the border area and the center text area.

이후, 제어부(1)는 분할된 3개 영역 중 픽셀의 빈도(또는 분포)가 가장 높은 영역을 배경 영역으로 설정하도록 제어한다. 이는, 클러스터링에 의한 분할 대상인 영상이 간판이 촬영된 영상인 것으로 가정하기 때문인데, 간판이 촬영된 영상은 간판의 특성상 영상 전체에서 배경이 가장 많은 영역을 차지하기 때문이다. 이 때, 제어부(1)는 가장 일정한 패턴으로 구성되는 픽셀들의 집합을 배경 영역으로 설정할 수 도 있는데, 간판의 특성을 고려해 볼 때 간판의 배경은 형태, 색상 및 분포 등의 변화가 가장 적고 균일하기 때문이다. 도 3을 참조하면, 본 발명의 실시 예에서는 테두리 영역(외부 테두리 영역 또는 내부 테두리 영역)에 의해 고립된 배경 영역(34a-34c)도 다른 배경 영역과 동일한 픽셀 색상을 가지고 있기 때문에 배경 영역으로 처리된다.Thereafter, the controller 1 controls to set the region having the highest frequency (or distribution) of the divided three regions as the background region. This is because it is assumed that the image to be divided by the clustering is the image of the signboard, because the image of the signboard occupies the largest area of the entire image due to the characteristics of the signboard. In this case, the controller 1 may set a set of pixels composed of the most uniform pattern as the background area. In view of the characteristics of the signboard, the background of the signboard has the smallest and uniform change in shape, color, and distribution. Because. Referring to FIG. 3, in the embodiment of the present invention, the background areas 34a-34c isolated by the border area (the outer border area or the inner border area) also have the same pixel color as other background areas, and thus are treated as the background area. do.

제어부(1)는 나머지 영역들의 외부 주변픽셀과 내부 주변 픽셀을 확인하고(S203), 외부 주변 픽셀과 내부 주변 픽셀 중에서 배경 영역의 픽셀에 대응되는 픽셀이 존재하는지 확인하도록 제어한다(S204).The controller 1 checks the outer peripheral pixels and the inner peripheral pixels of the remaining areas (S203), and controls to check whether there is a pixel corresponding to the pixel of the background area among the outer peripheral pixels and the inner peripheral pixels (S204).

배경 영역에 대한 설정이 완료되면, 제어부(1)는 배경 영역을 제외한 나머지 2개 영역에 대해서 각 영역별로 소정의 픽셀 거리만큼 외부 주변 픽셀과 내부 주변 픽셀의 정보(예를 들어, RGB 정보)를 확인하도록 제어한다.  When the setting for the background area is completed, the controller 1 receives information (eg, RGB information) of the external peripheral pixel and the internal peripheral pixel for each of the remaining two areas except the background area by a predetermined pixel distance for each area. Control to confirm.

도 4의 (a)는 외부 주변픽셀과 내부 주변 픽셀을 확인하는 일 예를 도시한 것으로, 중심 텍스트 영역(32)과 테두리 영역에 해당하는 외부 테두리 영역(33a)의 외부 주변픽셀과 내부 주변 픽셀을 확인하는 예를 도시하고 있다. 4A illustrates an example of identifying an outer peripheral pixel and an inner peripheral pixel. The outer peripheral pixel and the inner peripheral pixel of the outer border area 33a corresponding to the center text area 32 and the border area are illustrated. An example of confirming is shown.

도 4의 (a)를 참조하면, 제어부(1)는 외부 테두리 영역(33a)의 주변 픽셀을 먼저 확인하는데, 외부 테두리 영역(33a)의 외부 주변 픽셀에 해당하는 배경 영역(31)의 픽셀과 외부 테두리 영역(33a)의 내부 주변 픽셀에 해당하는 중심 텍스트 영역(32)의 픽셀을 확인하도록 제어한다. 이 때, 제어부(1)는 배경 영역(31)에 인접하는 픽셀들의 영역을 외부 테두리 영역(33a)으로 판단할 수 있다.Referring to (a) of FIG. 4, the controller 1 first checks the peripheral pixels of the outer edge area 33a, and the pixels of the background area 31 corresponding to the outer peripheral pixels of the outer edge area 33a. Control to check the pixel of the central text area 32 corresponding to the inner peripheral pixel of the outer border area 33a. In this case, the controller 1 may determine the area of the pixels adjacent to the background area 31 as the outer edge area 33a.

외부 테두리 영역(33a)의 주변 픽셀에 대한 확인이 완료되면, 제어부(1)는 중심 텍스트 영역(32)의 주변 픽셀을 확인하는데, 중심 텍스트 영역(32)은 내부 주변 픽셀이 없을 때에는 외부 주변 픽셀에 해당하는 외부 테두리 영역(33a)의 픽셀을 확인하도록 제어한다. 만약 중심 텍스트 영역(32)의 내부 주변 픽셀이 있을 때는, 제어부(1)는 중심 텍스트 영역(32)의 내부 주변 픽셀과 외부 주변 픽셀을 모두 확인할 수 있다. 예를 들어, 제어부(1)는 도 4의 (a)에 도시된 모음 ' l '에 해당하는 중심 텍스트 영역은 모음 ' ㅣ '에 대응되는 픽셀들만이 존재하므로 그 내부에 주변 픽셀이 없기 때문에, 외부 주변 픽셀만을 확인하도록 제어한다. 제어부(1)는 도 4의 (a)에서 자음 ' ㅁ '과 같은 경우에는 내부 주변 픽셀 및 외부 주변 픽셀 모두를 확인하도록 제어한다.When the identification of the surrounding pixels of the outer border area 33a is completed, the controller 1 checks the surrounding pixels of the center text area 32. The center text area 32 is the outer peripheral pixel when there are no inner peripheral pixels. Control to check the pixel of the outer edge area (33a) corresponding to. If there is an inner peripheral pixel of the central text area 32, the controller 1 may check both the inner peripheral pixel and the outer peripheral pixel of the central text area 32. For example, since the controller 1 has only pixels corresponding to the collection '|' in the central text area corresponding to the collection 'l' illustrated in FIG. 4A, since there are no surrounding pixels therein, Control to check only external pixels. In the case of the consonant 'ㅁ' in FIG. 4A, the controller 1 controls to identify both the inner peripheral pixel and the outer peripheral pixel.

S204의 확인 결과로부터, 제어부(1)는 외부 주변픽셀 또는 내부 주변픽셀 중 어느 하나가 배경 영역에 대응되는 픽셀로 확인되는 영역을 상기 나머지 영역들 중의 테두리 영역으로 설정하고(S205), 외부 주변픽셀 및 내부 주변픽셀 모두가 배경 영역에 대응되는 픽셀이 아닌 것으로 확인되는 영역을 중심 텍스트 영역으로 설정하도록 제어한다(S206).From the check result of S204, the controller 1 sets an area in which any one of an outer peripheral pixel or an inner peripheral pixel is identified as a pixel corresponding to a background area as a border area among the remaining areas (S205), and an outer peripheral pixel. And set an area where all of the inner peripheral pixels are not the pixels corresponding to the background area as the center text area (S206).

도 4의 (a)를 참조하면, 제어부(1)는 외부 주변픽셀은 배경 영역에 대응되는 픽셀이 확인되고 내부 주변 픽셀은 중심 텍스트 영역에 대응되는 픽셀로 확인되는 33a의 영역을 테두리 영역(즉, 외부 테두리 영역)으로 설정하도록 제어한다. 또한, 제어부(1)는 내부 주변픽셀은 없고 외부 주변픽셀이 테두리 영역(즉, 외부 테두리 영역)에 대응되는 픽셀인 것으로 확인되는 32의 영역을 중심 텍스트 영역으로 설정하도록 제어한다.Referring to FIG. 4A, the controller 1 includes a border area (ie, an area of 33a where an outer peripheral pixel is identified as a pixel corresponding to a background area and an inner peripheral pixel is identified as a pixel corresponding to a center text area). Outside border area). In addition, the controller 1 controls to set an area 32 of which there is no inner peripheral pixel and the outer peripheral pixel is determined to be a pixel corresponding to the border area (ie, the outer border area) as the center text area.

이후, 제어부(1)는 배경 영역과 중심텍스트 영역에 대한 이진화를 수행하도록 제어한다(S207).Thereafter, the controller 1 controls to perform binarization on the background region and the central text region (S207).

S201-S206 단계를 통해, 간판이 촬영된 영상에서 배경 영역, 중심 텍스트 영역 및 테두리 영역(외부 테두리 영역 및 내부 테두리 영역)가 확인되면, 제어부(1)는 중심 텍스트 영역 및 나머지 영역(즉, 테두리 영역 및 배경 영역)을 가지고 이진화를 수행한다. When the background area, the center text area and the border area (outer border area and inner border area) are identified in the image of the signboard captured through the steps S201-S206, the controller 1 controls the center text area and the remaining area (that is, the border). Binarization) with respect to the region and background region).

즉, 제어부(1)는 일반적으로 영상에서 문자를 인식하기 위해 수행하는 이진화(text binarization)에 있어서, 문자 인식의 인식률을 떨어뜨리는 테두리 영역을 중심 텍스트 영역에서 제외하여(즉, 테두리 영역도 배경 영역으로 설정하는) 이진화를 수행함으로써, 정확하게 문자를 인식할 수 있도록 제어한다. 도 4의 (b)는 S201-S207 단계를 통해, 중심 텍스트 영역이 테두리 영역에 의해 감싸진 간판의 영 상에서 테두리 영역이 제거되어 이진화된 결과를 도시하고 있다.That is, in text binarization, the controller 1 generally excludes a border area that decreases the recognition rate of the text recognition from the center text area (ie, the border area and the background area) in text binarization. By performing binarization, the control is performed so that the characters can be correctly recognized. FIG. 4B illustrates a result of binarization of the border region from the image of the signboard in which the center text region is surrounded by the border region through steps S201-S207.

이 때, 도 3에 도시된 내부 테두리 영역 중 고립 영역(33c)은 외부 주변픽셀이 배경 영역이 아니며, 내부 주변픽셀이 없기 때문에 중심 텍스트 영역으로 판별되는 오류가 발생한다. 이와 같은 잘못된 판별을 수정하기 위해 본 발명의 실시 예에 따른 제어부(1)는 구해진 중심 텍스트 영역의 획의 크기와 수직, 수평 방향에 대한 길이를 계산한다. 중심 텍스트 영역의 획은 수직 방향 또는 수평 방향으로 길거나 또는 수평, 수직 방향으로 어느 정도의 길이를 가지고 있다. 따라서 중심 텍스트 영역으로 판단된 영역들의 수직, 수평 방향의 길이를 구하고, 모든 방향에 대해 주어진 값보다 작은 영역은 내부 테두리 영역 중 고립 영역으로 판단하여 중심 텍스트 영역에서 제외한다.In this case, in the isolated region 33c of the inner edge region illustrated in FIG. 3, the outer peripheral pixel is not the background region, and since there is no inner peripheral pixel, an error that is determined as the center text region occurs. In order to correct such a false determination, the controller 1 according to an embodiment of the present invention calculates the stroke size of the obtained central text area and the length in the vertical and horizontal directions. The stroke of the central text area is long in the vertical direction or the horizontal direction, or has some length in the horizontal and vertical directions. Therefore, the lengths of the vertical and horizontal directions of the areas determined as the central text area are obtained, and areas smaller than a given value for all directions are determined as an isolated area among the internal border areas and excluded from the central text area.

도 1은 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 장치에 대한 블록도이다. 1 is a block diagram of an apparatus for recognizing a character from an image according to an exemplary embodiment of the present invention.

도 2는 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 방법에 대한 흐름도이다.2 is a flowchart illustrating a method of recognizing a character from an image according to an exemplary embodiment of the present invention.

도 3 및 도 4는 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 방법에 대한 제1예시도 및 제2예시도이다. 3 and 4 are first and second exemplary views illustrating a method of recognizing a character from an image according to an exemplary embodiment of the present invention.

Claims (4)

영상으로부터 텍스트를 인식하는 방법에 있어서,In a method of recognizing text from an image, 클러스터링 기법을 통해 상기 영상을 소정 개수의 영역들로 구분하는 과정과,Dividing the image into a predetermined number of regions through a clustering technique; 상기 영역들 중에서 소정의 영역을 배경 영역으로 설정하는 과정과, Setting a predetermined area among the areas as a background area; 상기 구분된 영역들 중 상기 배경영역을 제외한 각 영역들에 대해서 소정의 픽셀 거리만큼 외부에 위치하는 주변픽셀과 및 내부에 위치하는 주변픽셀을 확인하는 과정과,Identifying peripheral pixels located outside and peripheral pixels located inside by a predetermined pixel distance with respect to each of the divided areas except for the background area; 상기 확인 결과, 상기 외부에 위치하는 주변픽셀 또는 내부에 위치하는 주변픽셀 중 어느 하나가 상기 배경 영역에 대응되는 픽셀로 확인되는 영역을 테두리 영역으로 설정하는 과정과,As a result of the checking, setting a region where any one of the surrounding pixels located outside or the surrounding pixels located inside is identified as a pixel corresponding to the background area is set as a border area; 상기 확인 결과, 상기 외부에 위치하는 주변픽셀 및 내부에 위치하는 주변픽셀 모두가 상기 배경 영역에 대응되는 픽셀이 아닌 것으로 확인되는 영역을 중심 텍스트 영역으로 설정하는 과정과,As a result of the checking, setting a region in which both the peripheral pixels located outside and the surrounding pixels located inside are not the pixels corresponding to the background area is set as the central text area; 상기 테두리 영역을 텍스트의 이진화 대상에서 제외시키는 과정을 포함하는 것을 특징으로 하는 텍스트 인식 방법.And excluding the border region from the binarization target of the text. 제1항에 있어서, 상기 배경 영역은,The method of claim 1, wherein the background area, 상기 영역들 중에서 가장 많은 픽셀 분포를 가지는 것을 특징으로 하는 텍스 트 인식 방법.And having the largest pixel distribution among the regions. 제 1항에 있어서,The method of claim 1, 상기 테두리 영역에 해당하는 픽셀을 배제하고 상기 배경 영역 및 중심 텍스트 영역에 대한 이진화를 수행하여 문자를 인식하는 과정을 더 포함하는 것을 특징으로 하는 텍스트 인식 방법.And recognizing a character by performing binarization on the background area and the center text area without excluding the pixel corresponding to the border area. 제1항에 있어서, 상기 테두리 영역은,The method of claim 1, wherein the border region, 상기 중심 텍스트 영역의 외부에서 상기 중심 텍스트 영역을 감싸는 외부 테두리 영역과, 상기 중심 텍스트 영역의 내부에서 상기 중심 텍스트 영역을 감싸는 내부 테두리 영역으로 구분되는 것을 특징으로 하는 텍스트 인식 방법.And an outer border area surrounding the central text area outside the center text area, and an inner border area surrounding the central text area inside the central text area.
KR1020090011543A 2009-02-12 2009-02-12 Method for recognizing a text from an image KR101114744B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090011543A KR101114744B1 (en) 2009-02-12 2009-02-12 Method for recognizing a text from an image
US12/705,292 US8315460B2 (en) 2009-02-12 2010-02-12 Method for recognizing text from image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090011543A KR101114744B1 (en) 2009-02-12 2009-02-12 Method for recognizing a text from an image

Publications (2)

Publication Number Publication Date
KR20100092256A KR20100092256A (en) 2010-08-20
KR101114744B1 true KR101114744B1 (en) 2012-03-05

Family

ID=42540466

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090011543A KR101114744B1 (en) 2009-02-12 2009-02-12 Method for recognizing a text from an image

Country Status (2)

Country Link
US (1) US8315460B2 (en)
KR (1) KR101114744B1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101114744B1 (en) * 2009-02-12 2012-03-05 전남대학교산학협력단 Method for recognizing a text from an image
CN102455628B (en) * 2010-10-29 2014-08-13 京瓷办公信息***株式会社 Image forming apparatus
CN103034854B (en) * 2011-09-30 2016-03-30 富士通株式会社 Image processing apparatus and method
US9569679B1 (en) * 2012-12-04 2017-02-14 A9.Com, Inc. Adaptive image sampling for text detection
US20140307973A1 (en) * 2013-04-10 2014-10-16 Adobe Systems Incorporated Text Recognition Techniques
CN107181976B (en) * 2017-04-28 2021-01-29 华为技术有限公司 Bullet screen display method and electronic equipment
KR20200072616A (en) 2018-12-12 2020-06-23 김미경 System and Method for Realtime Text Tracking and Translation in Video
CN110443140B (en) * 2019-07-05 2023-10-03 平安科技(深圳)有限公司 Text positioning method, device, computer equipment and storage medium

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5050222A (en) * 1990-05-21 1991-09-17 Eastman Kodak Company Polygon-based technique for the automatic classification of text and graphics components from digitized paper-based forms
US6738496B1 (en) * 1999-11-01 2004-05-18 Lockheed Martin Corporation Real time binarization of gray images
US6876765B2 (en) * 2000-03-30 2005-04-05 Ricoh Company, Ltd. Character recognition method and computer-readable storage medium
US6771836B2 (en) * 2001-06-21 2004-08-03 Microsoft Corporation Zero-crossing region filtering for processing scanned documents
JP4150844B2 (en) * 2001-07-05 2008-09-17 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus and image processing program
US8103104B2 (en) * 2002-01-11 2012-01-24 Hewlett-Packard Development Company, L.P. Text extraction and its application to compound document image compression
DE60325934D1 (en) * 2002-11-22 2009-03-12 Oce Tech Bv Segmentation of an image by means of shortest cycles
JP4603807B2 (en) 2004-03-10 2010-12-22 富士通株式会社 Character recognition device, character recognition method, medium processing method, character recognition program, and computer-readable recording medium on which character recognition program is recorded
JP2006023945A (en) * 2004-07-07 2006-01-26 Canon Inc Image processing system and image processing method
DE602007012270D1 (en) * 2007-11-16 2011-03-10 Honda Res Inst Europe Gmbh Method and apparatus for continuous object-background segmentation in images from dynamic visual scenes
KR101114744B1 (en) * 2009-02-12 2012-03-05 전남대학교산학협력단 Method for recognizing a text from an image

Also Published As

Publication number Publication date
KR20100092256A (en) 2010-08-20
US8315460B2 (en) 2012-11-20
US20100202690A1 (en) 2010-08-12

Similar Documents

Publication Publication Date Title
KR101114744B1 (en) Method for recognizing a text from an image
JP6392468B2 (en) Region recognition method and apparatus
US20210312214A1 (en) Image recognition method, apparatus and non-transitory computer readable storage medium
JP6392467B2 (en) Region identification method and apparatus
JP6400226B2 (en) Region recognition method and apparatus
EP3410346B1 (en) Oled panel
CN110443330B (en) Code scanning method and device, mobile terminal and storage medium
CN105426818A (en) Area extraction method and device
KR20110128322A (en) Narrowcasting from public displays, and related arrangements
US10461859B2 (en) Method of outputting color code for data communication to display screen and method of transmitting data using color code
CN107195661B (en) OLED panel
KR101907414B1 (en) Apparus and method for character recognition based on photograph image
JP2020502846A (en) Electronic device and control method thereof
US20170185820A1 (en) Method, device and medium for fingerprint identification
US10304214B2 (en) Electronic device and operating method of the same
CN112418214B (en) Vehicle identification code identification method and device, electronic equipment and storage medium
EP3029856A1 (en) Method and apparatus for receiving visible light signal
EP3335155B1 (en) Electronic device and operating method of the same
KR101035739B1 (en) Method for compensating for distortion in text recognition
CN114120307A (en) Display content identification method, device, equipment and storage medium
CN105678296A (en) Method and apparatus for determining angle of inclination of characters
JP6986079B2 (en) Detection and / or decoding of visible light communication
JP2008077430A (en) Mobile body counting device and mobile body counting method
US20170337408A1 (en) Sign, vehicle number plate, screen, and ar marker including boundary code on edge thereof, and system for providing additional object information by using boundary code
KR20120076886A (en) Visible light receiving apparatus and method including plural photo diodes

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150129

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160128

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170125

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180130

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190130

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20200130

Year of fee payment: 9