KR101114744B1 - Method for recognizing a text from an image - Google Patents
Method for recognizing a text from an image Download PDFInfo
- Publication number
- KR101114744B1 KR101114744B1 KR1020090011543A KR20090011543A KR101114744B1 KR 101114744 B1 KR101114744 B1 KR 101114744B1 KR 1020090011543 A KR1020090011543 A KR 1020090011543A KR 20090011543 A KR20090011543 A KR 20090011543A KR 101114744 B1 KR101114744 B1 KR 101114744B1
- Authority
- KR
- South Korea
- Prior art keywords
- area
- text
- image
- border
- pixel
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Character Input (AREA)
Abstract
본 발명은 영상으로부터 텍스트를 인식하는 방법으로, 클러스터링 기법을 통해 상기 영상을 소정 개수의 영역들로 구분하는 과정과, 상기 영역들 중에서 소정의 영역을 배경 영역으로 설정하는 과정과, 상기 구분된 영역들 중에서 상기 배경영역을 제외한 각 영역들의 외부 주변픽셀과 내부 주변픽셀을 확인하는 과정과, 상기 확인 결과, 상기 외부 주변픽셀 또는 내부 주변픽셀 중 어느 하나가 상기 배경 영역에 대응되는 픽셀로 확인되는 영역을 테두리 영역으로 설정하는 과정과, 상기 확인 결과, 상기 외부 주변픽셀 및 내부 주변픽셀 모두가 상기 배경 영역에 대응되는 픽셀이 아닌 것으로 확인되는 영역을 중심 텍스트 영역으로 설정하는 과정과, 상기 테두리 영역을 텍스트의 이진화 대상에서 제외시키는 과정을 포함한다.The present invention provides a method of recognizing text from an image, the process of dividing the image into a predetermined number of regions through a clustering technique, a process of setting a predetermined region as a background region among the regions, and the divided region. Checking an outer peripheral pixel and an inner peripheral pixel of each area except the background area, and, as a result of the checking, one of the outer peripheral pixel or the inner peripheral pixel is identified as a pixel corresponding to the background area Setting an area as a border area, and setting the area as a center text area where it is determined that both the outer peripheral pixel and the inner peripheral pixel are not pixels corresponding to the background area; The process of excluding from the binarization of text.
간판, 이진화, 텍스트 인식 Signage, Binarization, Text Recognition
Description
본 발명은 텍스트를 인식하는 방법에 관한 것으로, 텍스트를 포함하는 영상으로부터 텍스트를 인식하는 방법을 제시한다.The present invention relates to a method for recognizing text, and provides a method for recognizing text from an image including the text.
기술의 발전에 따라 영상촬영장치(예를 들어, 카메라 또는 카메라를 구비하는 휴대기기)를 이용한 텍스트 인식 기술이 제안되고 있다. BACKGROUND With the development of technology, a text recognition technology using an image photographing apparatus (for example, a camera or a mobile device having a camera) has been proposed.
영상촬영장치를 통해 촬영된 영상으로부터 텍스트(문자 또는 문자영역)를 추출하고, 추출된 텍스트를 이진화하여 텍스트를 인식하는 기술들이 여러 방법들을 통해 제안되고 있지만, 종래의 기술에서는 간판(예를 들어, 광고판)을 촬영하고 간판이 촬영된 영상에서 텍스트를 인식하는 방법을 제시하지 못하고 있다.Techniques for extracting text (characters or character areas) from images captured by the image capturing apparatus and recognizing the text by binarizing the extracted text have been proposed through various methods. It does not provide a way to recognize the text in the video taken by the billboard).
특히, 시각적인 미관성과 정보전달의 효과를 위해 텍스트 주변에 텍스트 형태의 테두리가 적용된 간판의 경우, 종래 기술을 이용하여 이러한 간판에서 텍스트를 추출하여 인식하게 되면 텍스트가 정상적으로 인식되지 못하게 되는 문제점이 있다.In particular, in the case of a signboard in which a text-shaped border is applied around the text for visual aesthetics and the effect of information transfer, there is a problem in that the text is not normally recognized when the text is extracted from the signboard and recognized using conventional technology. .
따라서, 본 발명은 간판이 촬영된 영상에서 테두리가 적용된 텍스트도 정확하게 인식하는 방법을 제공한다.Accordingly, the present invention provides a method for accurately recognizing a text to which an edge is applied to an image of a signboard.
본 발명은 영상으로부터 텍스트를 인식하는 방법으로, 클러스터링 기법을 통해 상기 영상을 소정 개수의 영역들로 구분하는 과정과, 상기 영역들 중에서 소정의 영역을 배경 영역으로 설정하는 과정과, 상기 구분된 영역들 중에서 상기 배경영역을 제외한 각 영역들의 외부 주변픽셀과 내부 주변픽셀을 확인하는 과정과, 상기 확인 결과, 상기 외부 주변픽셀 또는 내부 주변픽셀 중 어느 하나가 상기 배경 영역에 대응되는 픽셀로 확인되는 영역을 테두리 영역으로 설정하는 과정과, 상기 확인 결과, 상기 외부 주변픽셀 및 내부 주변픽셀 모두가 상기 배경 영역에 대응되는 픽셀이 아닌 것으로 확인되는 영역을 중심 텍스트 영역으로 설정하는 과정과, 상기 테두리 영역을 텍스트의 이진화 대상에서 제외시키는 과정을 포함한다.The present invention provides a method of recognizing text from an image, the process of dividing the image into a predetermined number of regions through a clustering technique, a process of setting a predetermined region as a background region among the regions, and the divided region. Checking an outer peripheral pixel and an inner peripheral pixel of each area except the background area, and, as a result of the checking, one of the outer peripheral pixel or the inner peripheral pixel is identified as a pixel corresponding to the background area Setting an area as a border area, and setting the area as a center text area where it is determined that both the outer peripheral pixel and the inner peripheral pixel are not pixels corresponding to the background area; The process of excluding from the binarization of text.
본 발명은 영상에서 텍스트를 인식할 때, 테두리가 적용된 텍스트도 정확하게 인식할 수 있는 효과가 있다.According to the present invention, when the text is recognized in the image, the text to which the border is applied can be recognized correctly.
도 1은 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 장치에 대한 블록도이다. 도 1을 참조하여 이에 대해 살펴보면 다음과 같다.1 is a block diagram of an apparatus for recognizing a character from an image according to an exemplary embodiment of the present invention. This will be described with reference to FIG. 1.
무선 송수신부(6)는 RF부와 모뎀(MODEM)을 포함한다. RF부는 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강 변환하는 RF수신기 등을 포함한다. 모뎀(MODEM)은 송신될 신호를 부호화 및 변조하는 송신기 및 RF부에서 수신되는 신호를 복조 및 복호화하는 수신기 등을 포함한다. 본 발명의 실시 예에 따른 무선 송수신부(6)는 제어부(1)의 제어에 따라 문자 인식의 대상이 되는 영상을 송수신하거나, 영상으로부터 인식된 문자를 송수신할 수 있다.The
오디오 처리부(7)는 코덱(Codec)을 구성할 수 있으며, 코덱은 데이터 코덱과 오디오 코덱을 포함한다. 데이터 코덱은 패킷데이터 등을 처리하고, 오디오 코덱은 음성과 멀티미디어 파일 등의 오디오 신호를 처리한다. 또한, 오디오 처리부(7)는 모뎀에서 수신되는 디지털 오디오신호를 상기 오디오 코덱을 통해 아날로그신호를 변환하여 재생하거나 또는 마이크(MIC)로부터 발생되는 아날로그 오디오 신호를 상기 오디오 코덱을 통해 디지털 오디오 신호로 변환하여 모뎀으로 전송하는 기능을 수행한다. 상기 코덱은 별도로 구비되거나 제어부(1)에 포함될 수 있다.The
키입력부(2)는 숫자 및 문자 정보의 입력에 필요한 키들 및 각종 기능들의 설정에 필요한 기능 키들을 구비한다. 본 발명의 실시 예에 따른 키입력부(2)는 시각 정보를 표시할 수 있는 키패드로써, OLED(Orgnic Light-Emitting Diode; 유기발광 다이오드) 또는 LCD(Liquid Crystal Device) 등과 같이 시각 정보를 표시할 수 있는 장치를 키패드 상에 구비한다. The
메모리(3)는 프로그램 메모리 및 데이터 메모리들로 구성될 수 있다. 프로그 램 메모리에는 휴대단말기의 일반적인 동작을 제어하기 위한 프로그램이 저장된다. 본 발명의 실시 예에 따른 메모리는 카메라부(4)에 의해 촬영된 영상을 저장하거나, 영상으로부터 인식된 문자를 문자 형태 또는 이미지 형태로 저장할 수 있다.The
표시부(5)는 휴대단말기에서 발생하는 각종 표시 정보를 출력한다. 이 때, 표시부는 LCD(Liquid Crystal Display) 또는 OLED(Organic Light Emitting Diodes) 등으로 이루어질 수 있다. 또한, 본 발명의 실시 예에 따른 표시부(5)는 터치스크린(Touch Screen) 기능을 제공하여 키입력부(2)와 함께 휴대단말기를 제어하는 입력부로 동작할 수 있다. 본 발명의 실시 예에 따른 제어부(1)는 카메라부(4)에 의한 촬영된 영상을 표시하거나, 영상으로부터 인식된 문자를 표시할 수 있다.The display unit 5 outputs various display information generated in the portable terminal. In this case, the display unit may be formed of a liquid crystal display (LCD) or organic light emitting diodes (OLED). In addition, the display unit 5 according to an exemplary embodiment of the present invention may operate as an input unit for controlling the mobile terminal together with the
카메라부(4)은 영상 데이터를 촬영하며, 촬영된 광 신호를 전기적 신호로 변환하는 카메라 센서와, 카메라센서로부터 촬영되는 아날로그 영상신호를 디지털 데이터로 변환하는 신호처리부를 구비한다. 여기서 카메라 센서는 CCD센서라 가정하며, 신호처리부는 DSP(Digital Signal Processor)로 구현할 수 있다. 이때, 카메라 센서 및 신호처리부는 일체형으로 구현되거나 서로 분리되어 구현될 수도 있다. 본 발명의 실시 예에 따른 카메라부(4)는 문자를 인식하기 위한 간판을 촬영할 수 있다.The camera unit 4 captures image data, and includes a camera sensor for converting the photographed optical signal into an electrical signal, and a signal processor for converting the analog image signal photographed from the camera sensor into digital data. Herein, it is assumed that the camera sensor is a CCD sensor, and the signal processor may be implemented by a digital signal processor (DSP). In this case, the camera sensor and the signal processor may be integrally implemented or separated from each other. The camera unit 4 according to an embodiment of the present invention may photograph a signboard for recognizing a character.
제어부(1)는 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 장치의 전반적인 동작 또는 구동모드를 전환 및 제어한다.The controller 1 switches and controls the overall operation or driving mode of the apparatus for recognizing a character from an image according to an exemplary embodiment of the present invention.
도 2는 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 방법에 대 한 흐름도이며, 도 3-도 4는 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 방법에 대한 예시도들이다. 도 2-도 4를 통해 본 발명의 실시 예에 대해 살펴보면 다음과 같다.2 is a flowchart illustrating a method of recognizing a character from an image according to an exemplary embodiment of the present invention, and FIGS. 3 to 4 are exemplary diagrams of a method of recognizing a character from an image according to an exemplary embodiment of the present invention. Looking at the embodiment of the present invention through 2 to 4 as follows.
제어부(1)는 클러스터링 기법을 통해 영상을 소정 개수의 영역으로 분할하고(S201), 분할된 영역들 중에서 가장 많은 픽셀 분포를 보이는 영역을 배경 영역으로 설정하도록 제어한다(S202).The controller 1 divides the image into a predetermined number of regions through the clustering technique (S201), and controls to set the region showing the largest pixel distribution among the divided regions as the background region (S202).
도 3을 참조하면, 본 발명의 실시 예에 따라 문자를 인식하고자 하는 대상은 간판이 촬영된 영상이다. 간판이 촬영된 영상 중에서도, 배경 영역(31) 및 광고의 정보 전달에 필요한 중심 텍스트 영역(32, '전문점') 이외에도 중심 텍스트 영역(32)을 외부 테두리 영역(33a)와 내부 테두리 영역(33b, 33c)로 감싸고 있는 간판 촬영 영상이 본 발명의 실시 예에 따른 문자 인식 대상에 해당된다. Referring to FIG. 3, an object to recognize a character according to an embodiment of the present invention is an image of a signboard photographed. In addition to the
클러스터링(Clustering) 기법은 유사한 성격의 데이터를 분류하기 위해 사용되는데, 클러스터링 기법은 픽셀의 색상 정보를 포함한 픽셀 정보 및 각 픽셀 간의 거리 등을 고려하여 영상을 구성하는 픽셀들을 여러 개의 집합으로 군집화하여, 전체 영상의 픽셀들을 동일한(또는 유사한) 특성을 가지는 픽셀들의 영역들로 분할하는 기법이다. The clustering technique is used to classify data of similar nature. The clustering technique clusters pixels constituting an image into a plurality of sets in consideration of pixel information including color information of pixels and distances between each pixel. A technique of dividing pixels of an entire image into regions of pixels having the same (or similar) characteristics.
따라서, 본 발명의 실시 예에 따른 제어부(1)는 클러스터링 기법을 통해 영상들을 구성하는 픽셀들을 소정 개수의 영역으로 분할(즉, 클러스터링)하는데, 본 발명의 실시 예에서는 배경 영역, 외부 및 내부의 테두리 영역, 중심텍스트 영역의 3개 영역으로 분할하는 것으로 가정한다.Accordingly, the control unit 1 according to an embodiment of the present invention divides (ie, clusters) pixels constituting the images into a predetermined number of regions through a clustering technique. Assume that it is divided into three areas of the border area and the center text area.
이후, 제어부(1)는 분할된 3개 영역 중 픽셀의 빈도(또는 분포)가 가장 높은 영역을 배경 영역으로 설정하도록 제어한다. 이는, 클러스터링에 의한 분할 대상인 영상이 간판이 촬영된 영상인 것으로 가정하기 때문인데, 간판이 촬영된 영상은 간판의 특성상 영상 전체에서 배경이 가장 많은 영역을 차지하기 때문이다. 이 때, 제어부(1)는 가장 일정한 패턴으로 구성되는 픽셀들의 집합을 배경 영역으로 설정할 수 도 있는데, 간판의 특성을 고려해 볼 때 간판의 배경은 형태, 색상 및 분포 등의 변화가 가장 적고 균일하기 때문이다. 도 3을 참조하면, 본 발명의 실시 예에서는 테두리 영역(외부 테두리 영역 또는 내부 테두리 영역)에 의해 고립된 배경 영역(34a-34c)도 다른 배경 영역과 동일한 픽셀 색상을 가지고 있기 때문에 배경 영역으로 처리된다.Thereafter, the controller 1 controls to set the region having the highest frequency (or distribution) of the divided three regions as the background region. This is because it is assumed that the image to be divided by the clustering is the image of the signboard, because the image of the signboard occupies the largest area of the entire image due to the characteristics of the signboard. In this case, the controller 1 may set a set of pixels composed of the most uniform pattern as the background area. In view of the characteristics of the signboard, the background of the signboard has the smallest and uniform change in shape, color, and distribution. Because. Referring to FIG. 3, in the embodiment of the present invention, the
제어부(1)는 나머지 영역들의 외부 주변픽셀과 내부 주변 픽셀을 확인하고(S203), 외부 주변 픽셀과 내부 주변 픽셀 중에서 배경 영역의 픽셀에 대응되는 픽셀이 존재하는지 확인하도록 제어한다(S204).The controller 1 checks the outer peripheral pixels and the inner peripheral pixels of the remaining areas (S203), and controls to check whether there is a pixel corresponding to the pixel of the background area among the outer peripheral pixels and the inner peripheral pixels (S204).
배경 영역에 대한 설정이 완료되면, 제어부(1)는 배경 영역을 제외한 나머지 2개 영역에 대해서 각 영역별로 소정의 픽셀 거리만큼 외부 주변 픽셀과 내부 주변 픽셀의 정보(예를 들어, RGB 정보)를 확인하도록 제어한다. When the setting for the background area is completed, the controller 1 receives information (eg, RGB information) of the external peripheral pixel and the internal peripheral pixel for each of the remaining two areas except the background area by a predetermined pixel distance for each area. Control to confirm.
도 4의 (a)는 외부 주변픽셀과 내부 주변 픽셀을 확인하는 일 예를 도시한 것으로, 중심 텍스트 영역(32)과 테두리 영역에 해당하는 외부 테두리 영역(33a)의 외부 주변픽셀과 내부 주변 픽셀을 확인하는 예를 도시하고 있다. 4A illustrates an example of identifying an outer peripheral pixel and an inner peripheral pixel. The outer peripheral pixel and the inner peripheral pixel of the
도 4의 (a)를 참조하면, 제어부(1)는 외부 테두리 영역(33a)의 주변 픽셀을 먼저 확인하는데, 외부 테두리 영역(33a)의 외부 주변 픽셀에 해당하는 배경 영역(31)의 픽셀과 외부 테두리 영역(33a)의 내부 주변 픽셀에 해당하는 중심 텍스트 영역(32)의 픽셀을 확인하도록 제어한다. 이 때, 제어부(1)는 배경 영역(31)에 인접하는 픽셀들의 영역을 외부 테두리 영역(33a)으로 판단할 수 있다.Referring to (a) of FIG. 4, the controller 1 first checks the peripheral pixels of the
외부 테두리 영역(33a)의 주변 픽셀에 대한 확인이 완료되면, 제어부(1)는 중심 텍스트 영역(32)의 주변 픽셀을 확인하는데, 중심 텍스트 영역(32)은 내부 주변 픽셀이 없을 때에는 외부 주변 픽셀에 해당하는 외부 테두리 영역(33a)의 픽셀을 확인하도록 제어한다. 만약 중심 텍스트 영역(32)의 내부 주변 픽셀이 있을 때는, 제어부(1)는 중심 텍스트 영역(32)의 내부 주변 픽셀과 외부 주변 픽셀을 모두 확인할 수 있다. 예를 들어, 제어부(1)는 도 4의 (a)에 도시된 모음 ' l '에 해당하는 중심 텍스트 영역은 모음 ' ㅣ '에 대응되는 픽셀들만이 존재하므로 그 내부에 주변 픽셀이 없기 때문에, 외부 주변 픽셀만을 확인하도록 제어한다. 제어부(1)는 도 4의 (a)에서 자음 ' ㅁ '과 같은 경우에는 내부 주변 픽셀 및 외부 주변 픽셀 모두를 확인하도록 제어한다.When the identification of the surrounding pixels of the
S204의 확인 결과로부터, 제어부(1)는 외부 주변픽셀 또는 내부 주변픽셀 중 어느 하나가 배경 영역에 대응되는 픽셀로 확인되는 영역을 상기 나머지 영역들 중의 테두리 영역으로 설정하고(S205), 외부 주변픽셀 및 내부 주변픽셀 모두가 배경 영역에 대응되는 픽셀이 아닌 것으로 확인되는 영역을 중심 텍스트 영역으로 설정하도록 제어한다(S206).From the check result of S204, the controller 1 sets an area in which any one of an outer peripheral pixel or an inner peripheral pixel is identified as a pixel corresponding to a background area as a border area among the remaining areas (S205), and an outer peripheral pixel. And set an area where all of the inner peripheral pixels are not the pixels corresponding to the background area as the center text area (S206).
도 4의 (a)를 참조하면, 제어부(1)는 외부 주변픽셀은 배경 영역에 대응되는 픽셀이 확인되고 내부 주변 픽셀은 중심 텍스트 영역에 대응되는 픽셀로 확인되는 33a의 영역을 테두리 영역(즉, 외부 테두리 영역)으로 설정하도록 제어한다. 또한, 제어부(1)는 내부 주변픽셀은 없고 외부 주변픽셀이 테두리 영역(즉, 외부 테두리 영역)에 대응되는 픽셀인 것으로 확인되는 32의 영역을 중심 텍스트 영역으로 설정하도록 제어한다.Referring to FIG. 4A, the controller 1 includes a border area (ie, an area of 33a where an outer peripheral pixel is identified as a pixel corresponding to a background area and an inner peripheral pixel is identified as a pixel corresponding to a center text area). Outside border area). In addition, the controller 1 controls to set an
이후, 제어부(1)는 배경 영역과 중심텍스트 영역에 대한 이진화를 수행하도록 제어한다(S207).Thereafter, the controller 1 controls to perform binarization on the background region and the central text region (S207).
S201-S206 단계를 통해, 간판이 촬영된 영상에서 배경 영역, 중심 텍스트 영역 및 테두리 영역(외부 테두리 영역 및 내부 테두리 영역)가 확인되면, 제어부(1)는 중심 텍스트 영역 및 나머지 영역(즉, 테두리 영역 및 배경 영역)을 가지고 이진화를 수행한다. When the background area, the center text area and the border area (outer border area and inner border area) are identified in the image of the signboard captured through the steps S201-S206, the controller 1 controls the center text area and the remaining area (that is, the border). Binarization) with respect to the region and background region).
즉, 제어부(1)는 일반적으로 영상에서 문자를 인식하기 위해 수행하는 이진화(text binarization)에 있어서, 문자 인식의 인식률을 떨어뜨리는 테두리 영역을 중심 텍스트 영역에서 제외하여(즉, 테두리 영역도 배경 영역으로 설정하는) 이진화를 수행함으로써, 정확하게 문자를 인식할 수 있도록 제어한다. 도 4의 (b)는 S201-S207 단계를 통해, 중심 텍스트 영역이 테두리 영역에 의해 감싸진 간판의 영 상에서 테두리 영역이 제거되어 이진화된 결과를 도시하고 있다.That is, in text binarization, the controller 1 generally excludes a border area that decreases the recognition rate of the text recognition from the center text area (ie, the border area and the background area) in text binarization. By performing binarization, the control is performed so that the characters can be correctly recognized. FIG. 4B illustrates a result of binarization of the border region from the image of the signboard in which the center text region is surrounded by the border region through steps S201-S207.
이 때, 도 3에 도시된 내부 테두리 영역 중 고립 영역(33c)은 외부 주변픽셀이 배경 영역이 아니며, 내부 주변픽셀이 없기 때문에 중심 텍스트 영역으로 판별되는 오류가 발생한다. 이와 같은 잘못된 판별을 수정하기 위해 본 발명의 실시 예에 따른 제어부(1)는 구해진 중심 텍스트 영역의 획의 크기와 수직, 수평 방향에 대한 길이를 계산한다. 중심 텍스트 영역의 획은 수직 방향 또는 수평 방향으로 길거나 또는 수평, 수직 방향으로 어느 정도의 길이를 가지고 있다. 따라서 중심 텍스트 영역으로 판단된 영역들의 수직, 수평 방향의 길이를 구하고, 모든 방향에 대해 주어진 값보다 작은 영역은 내부 테두리 영역 중 고립 영역으로 판단하여 중심 텍스트 영역에서 제외한다.In this case, in the
도 1은 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 장치에 대한 블록도이다. 1 is a block diagram of an apparatus for recognizing a character from an image according to an exemplary embodiment of the present invention.
도 2는 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 방법에 대한 흐름도이다.2 is a flowchart illustrating a method of recognizing a character from an image according to an exemplary embodiment of the present invention.
도 3 및 도 4는 본 발명의 실시 예에 따라 영상으로부터 문자를 인식하는 방법에 대한 제1예시도 및 제2예시도이다. 3 and 4 are first and second exemplary views illustrating a method of recognizing a character from an image according to an exemplary embodiment of the present invention.
Claims (4)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090011543A KR101114744B1 (en) | 2009-02-12 | 2009-02-12 | Method for recognizing a text from an image |
US12/705,292 US8315460B2 (en) | 2009-02-12 | 2010-02-12 | Method for recognizing text from image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090011543A KR101114744B1 (en) | 2009-02-12 | 2009-02-12 | Method for recognizing a text from an image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100092256A KR20100092256A (en) | 2010-08-20 |
KR101114744B1 true KR101114744B1 (en) | 2012-03-05 |
Family
ID=42540466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090011543A KR101114744B1 (en) | 2009-02-12 | 2009-02-12 | Method for recognizing a text from an image |
Country Status (2)
Country | Link |
---|---|
US (1) | US8315460B2 (en) |
KR (1) | KR101114744B1 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101114744B1 (en) * | 2009-02-12 | 2012-03-05 | 전남대학교산학협력단 | Method for recognizing a text from an image |
CN102455628B (en) * | 2010-10-29 | 2014-08-13 | 京瓷办公信息***株式会社 | Image forming apparatus |
CN103034854B (en) * | 2011-09-30 | 2016-03-30 | 富士通株式会社 | Image processing apparatus and method |
US9569679B1 (en) * | 2012-12-04 | 2017-02-14 | A9.Com, Inc. | Adaptive image sampling for text detection |
US20140307973A1 (en) * | 2013-04-10 | 2014-10-16 | Adobe Systems Incorporated | Text Recognition Techniques |
CN107181976B (en) * | 2017-04-28 | 2021-01-29 | 华为技术有限公司 | Bullet screen display method and electronic equipment |
KR20200072616A (en) | 2018-12-12 | 2020-06-23 | 김미경 | System and Method for Realtime Text Tracking and Translation in Video |
CN110443140B (en) * | 2019-07-05 | 2023-10-03 | 平安科技(深圳)有限公司 | Text positioning method, device, computer equipment and storage medium |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5050222A (en) * | 1990-05-21 | 1991-09-17 | Eastman Kodak Company | Polygon-based technique for the automatic classification of text and graphics components from digitized paper-based forms |
US6738496B1 (en) * | 1999-11-01 | 2004-05-18 | Lockheed Martin Corporation | Real time binarization of gray images |
US6876765B2 (en) * | 2000-03-30 | 2005-04-05 | Ricoh Company, Ltd. | Character recognition method and computer-readable storage medium |
US6771836B2 (en) * | 2001-06-21 | 2004-08-03 | Microsoft Corporation | Zero-crossing region filtering for processing scanned documents |
JP4150844B2 (en) * | 2001-07-05 | 2008-09-17 | コニカミノルタビジネステクノロジーズ株式会社 | Image processing apparatus and image processing program |
US8103104B2 (en) * | 2002-01-11 | 2012-01-24 | Hewlett-Packard Development Company, L.P. | Text extraction and its application to compound document image compression |
DE60325934D1 (en) * | 2002-11-22 | 2009-03-12 | Oce Tech Bv | Segmentation of an image by means of shortest cycles |
JP4603807B2 (en) | 2004-03-10 | 2010-12-22 | 富士通株式会社 | Character recognition device, character recognition method, medium processing method, character recognition program, and computer-readable recording medium on which character recognition program is recorded |
JP2006023945A (en) * | 2004-07-07 | 2006-01-26 | Canon Inc | Image processing system and image processing method |
DE602007012270D1 (en) * | 2007-11-16 | 2011-03-10 | Honda Res Inst Europe Gmbh | Method and apparatus for continuous object-background segmentation in images from dynamic visual scenes |
KR101114744B1 (en) * | 2009-02-12 | 2012-03-05 | 전남대학교산학협력단 | Method for recognizing a text from an image |
-
2009
- 2009-02-12 KR KR1020090011543A patent/KR101114744B1/en active IP Right Grant
-
2010
- 2010-02-12 US US12/705,292 patent/US8315460B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR20100092256A (en) | 2010-08-20 |
US8315460B2 (en) | 2012-11-20 |
US20100202690A1 (en) | 2010-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101114744B1 (en) | Method for recognizing a text from an image | |
JP6392468B2 (en) | Region recognition method and apparatus | |
US20210312214A1 (en) | Image recognition method, apparatus and non-transitory computer readable storage medium | |
JP6392467B2 (en) | Region identification method and apparatus | |
JP6400226B2 (en) | Region recognition method and apparatus | |
EP3410346B1 (en) | Oled panel | |
CN110443330B (en) | Code scanning method and device, mobile terminal and storage medium | |
CN105426818A (en) | Area extraction method and device | |
KR20110128322A (en) | Narrowcasting from public displays, and related arrangements | |
US10461859B2 (en) | Method of outputting color code for data communication to display screen and method of transmitting data using color code | |
CN107195661B (en) | OLED panel | |
KR101907414B1 (en) | Apparus and method for character recognition based on photograph image | |
JP2020502846A (en) | Electronic device and control method thereof | |
US20170185820A1 (en) | Method, device and medium for fingerprint identification | |
US10304214B2 (en) | Electronic device and operating method of the same | |
CN112418214B (en) | Vehicle identification code identification method and device, electronic equipment and storage medium | |
EP3029856A1 (en) | Method and apparatus for receiving visible light signal | |
EP3335155B1 (en) | Electronic device and operating method of the same | |
KR101035739B1 (en) | Method for compensating for distortion in text recognition | |
CN114120307A (en) | Display content identification method, device, equipment and storage medium | |
CN105678296A (en) | Method and apparatus for determining angle of inclination of characters | |
JP6986079B2 (en) | Detection and / or decoding of visible light communication | |
JP2008077430A (en) | Mobile body counting device and mobile body counting method | |
US20170337408A1 (en) | Sign, vehicle number plate, screen, and ar marker including boundary code on edge thereof, and system for providing additional object information by using boundary code | |
KR20120076886A (en) | Visible light receiving apparatus and method including plural photo diodes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150129 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160128 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170125 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180130 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190130 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20200130 Year of fee payment: 9 |