BE1026159A1 - Système de traitement d’image et procede de traitement d’image - Google Patents

Système de traitement d’image et procede de traitement d’image Download PDF

Info

Publication number
BE1026159A1
BE1026159A1 BE20195180A BE201905180A BE1026159A1 BE 1026159 A1 BE1026159 A1 BE 1026159A1 BE 20195180 A BE20195180 A BE 20195180A BE 201905180 A BE201905180 A BE 201905180A BE 1026159 A1 BE1026159 A1 BE 1026159A1
Authority
BE
Belgium
Prior art keywords
character
image
connected component
recognized
image processing
Prior art date
Application number
BE20195180A
Other languages
English (en)
Other versions
BE1026159B1 (fr
Inventor
Frederick Collet
Jordi Hautot
Michel Dauw
Original Assignee
Iris Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iris Sa filed Critical Iris Sa
Publication of BE1026159A1 publication Critical patent/BE1026159A1/fr
Application granted granted Critical
Publication of BE1026159B1 publication Critical patent/BE1026159B1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1463Orientation detection or correction, e.g. rotation of multiples of 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1475Inclination or skew detection or correction of characters or of image to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/414Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/12Detection or correction of errors, e.g. by rescanning the pattern

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

Systeme de traitement d'image et procede de traitement d'image pour localiser des caracteres reconnus dans une image. Un moyen d'estimation est configure pour estimer un premier emplacement d'un caractere reconnu qui a ete obtenu en effectuant une reconnaissance de caracteres de l'image. Un moyen de determination est configure pour determiner les deuxiemes emplacements d'une pluralite de composants connectes dans l'image. Un moyen de comparaison est configure pour comparer le premier emplacement et les deuxiernes emplacements, afin d'identifier un composant connecte associe au caractere reconnu. Un moyen d'association est configure pour associer le caractere reconnu, le composant connecte identifie et le deuxieme emplacement du composant connecte identifie.

Description

SYSTÈME DE TRAITEMENT D’IMAGE ET PROCÉDÉ DE TRAITEMENT D’IMAGE [0001] Domaine technique [0002] La présente invention concerne un système de traitement d’image et un procédé de traitement d'image, et en particulier concerne la localisation de caractères reconnus dans une image.
[0003] Etat de la technique [0004] La reconnaissance de caractères est effectuée pour convertir du texte compris dans une image en texte codé par machine. Les images qui peuvent être analysées à l’aide d'un logiciel de reconnaissance de caractères comprennent un document numérisé, une photographie d'un document, une photographie d'une scène, un enregistrement vidéo et un texte qui a été superposé sur un document. Le texte de l'image qui peut être converti comprend du texte dactylographié, manuscrit et imprimé.
[0005] Le texte codé par machine comprend toute norme de codage de caractères pour les communications électroniques, comme ASCII et Unicode. Alternativement, le texte codé par machine comprend une pluralité de glyphes de référence qui ont été obtenus en utilisant la norme codée. En outre, le texte codé par machine peut comprendre à la fois la norme codé par machine et la pluralité de glyphes de référence.
[0006] Le logiciel de reconnaissance de caractères est configuré pour recevoir une image en entrée et sortir du texte codé par machine. Le terme reconnaissance de caractères désigne l'identification et la reconnaissance de caractères individuels dans l'image. Cependant, le terme reconnaissance de caractères est également utilisé pour
BE2019/5180 comprendre la reconnaissance de mots, où l’identification et la reconnaissance se produit un mot à la fois. La reconnaissance de caractères est illustrée par la reconnaissance optique de caractères, la reconnaissance optique de mots, la reconnaissance intelligente de caractères et la reconnaissance intelligente de mots.
[0007] La reconnaissance des caractères est adaptée en fonction du système d'écriture compris dans le document, comme les caractères latins, cyrilliques, arabes, hébreux, indiens, bengalis, devanagari, tamouls, chinois, japonais, coréens, Emoji, morse et braille. La reconnaissance de caractères est adaptée en outre en fonction de la langue du texte compris dans l'image. Le système d’écriture et la langue du texte peuvent être identifiés par l'utilisateur, ou bien le système d'écriture et la langue du texte peuvent être identifiés par le logiciel de reconnaissance de caractères à partir du contexte des caractères et des mots qui sont reconnus. De plus, la reconnaissance de caractères peut être adaptée pour traiter des documents qui contiennent du texte dans plusieurs systèmes d’écriture ou langues.
[0008] La reconnaissance de caractères se produit en associant des caractères codés par machine à au moins un exemple d'un glyphe de référence qui pourrait être détecté dans une image. La précision de la reconnaissance de caractères est améliorée en augmentant le nombre de glyphes de référence qui représentent un caractère codé par machine. Ceci est particulièrement utile pour améliorer la précision de la reconnaissance d'une variété de polices ou de styles d'écriture manuscrite.
[0009] Il existe un certain nombre de techniques conventionnelles pour comparer un caractère identifié dans l'image avec les glyphes de référence, comme l'appariement matriciel et l'extraction de caractéristiques. L'appariement matriciel implique une comparaison du
BE2019/5180 motif des pixels du caractère identifié avec le motif des pixels des glyphes de référence. L’extraction de caractéristiques décompose le caractère d'entrée en caractéristiques telles que des lignes, des boudes fermées, une direction des lignes et des intersections de lignes, et ces éléments extraits sont ensuite comparés aux caractéristiques correspondantes des glyphes de référence.
[0010] Une autre technique disponible est la reconnaissance intelligente, qui est obtenue en utilisant l'apprentissage par machine pour former un système informatique qui utilise un réseau neuronal. La reconnaissance intelligente améliore la reconnaissance des caractères qui ne correspondent pas aux glyphes de référence. Les chaînes de caractères, telles que les mots utilisés dans les phrases, fournissent au réseau neuronal des informations contextuelles, de sorte que la reconnaissance des caractères est adaptée pour reconnaître les mots qui sont difficiles à reconnaître de manière isolée. De plus, le réseau neuronal peut être formé de manière à ce que les images de faible qualité puissent être reconnues avec précision. La formation du réseau neuronal s'effectue par la saisie de représentations des caractères à reconnaître. La phase de formation effectue une technique de descente en gradient de sorte que le réseau neuronal est optimisé en réduisant les erreurs de sortie. La sortie de texte codé par machine est basée sur une mesure de probabilité issue d’une comparaison avec les échantillons de texte qui sont entrés pendant la phase de formation. Le traitement par anticipation du réseau neuronal est effectué de sorte qu'il y ait convergence vers la mesure de probabilité. Le réseau neuronal est utilisé pour adapter la reconnaissance de caractères afin qu'elle puisse effectuer la reconnaissance de caractères de caractères qui n’ont pas été rencontrés lors de la formation du réseau neuronal.
[0011] La position des caractères codés par machine est généralement identifiée parce que le caractère identifié est formé de composants
BE2019/5180 connectés connus. Cependant, les caractères individuels n© sont pas identifiés lors de la reconnaissance intelligente de caractères avec un réseau neuronal, car un caractère ou un mot est identifié comme un tout. De plus, la reconnaissance des caractères individuels n'est pas une mesure fiable si l'image est de faible qualité, par exemple si l'on tient compte de problèmes de perspective, ce qui entraîne une incohérence dans la taille et l'orientation du texte. Par conséquent, l'utilisation de réseaux neuronaux augmente la précision de la reconnaissance des caractères, mais réduit la précision de l'estimation de la position des caractères dans l’image.
[0012] Par conséquent, il y a une demande pour améliorer l'estimation de la position des caractères qui ont été reconnus dans une image. Il serait utile d'améliorer l'estimation de la position des caractères indépendamment de la technique de reconnaissance de caractères utilisée, bien que cela soit particulièrement utile dans les situations où la technique de reconnaissance de caractères utilise un réseau neuronal.
[0013] Résumé de invention [0014] Les aspects de la présente invention sont définis par les revendications indépendantes.
[0015] Selon un premier aspect, un système de traitement d'image est prévu selon la revendication 1.
[0016] Selon un deuxième aspect, un procédé de traitement d'image est prévu selon la revendication 16.
[0017] Selon un troisième aspect, un programme est prévu selon la revendication 17.
BE2019/5180 [0018] Selon un quatrième aspect, un support lisible par ordinateur est prévu selon la revendication 18.
[0019] Brève description des dessins [0020] Des modes de réalisations seront maintenant décrits, à titre d'exemple seulement, en se référant aux dessins d'accompagnement, dans lesquels :
[0021] La figure 1 prévoit un diagramme schématique qui illustre un système de traitement d'image pour identifier une position d’au moins un caractère dans une image ;
[0022] La figure 2 prévoit un organigramme illustrant un procédé de traitement d'image pour identifier une position d'au moins un caractère dans une image ;
[0023] Les figures 3A-C fournissent des organigrammes illustrant comment une association est faite entre des caractères reconnus et des composants connectés ;
[0024] La figure 4 fournit un exemple qui illustre une image dont la position est identifiée pour une pluralité de caractères de l’image ;
[0025] La figure 5A-C fournit un exemple qui illustre la reconnaissance de caractères effectuée pour reconnaître des caractères de l'image ;
[0026] La figure 6A-C fournit un exemple qui illustre une pluralité de composants connectés identifiés dans l'image ;
[0027] La figure 7 fournit un exemple qui illustre une pluralité de caractères qui ont été positionnés en fonction de la position de la pluralité de composants connectés ; et
BE2019/5180 [0028] La figure 8 fournit un tableau qui inclut des exemples montrant comment les composants connectés sont associés aux caractères reconnus.
[0029] Description détaillée [0030] Divers mode de réalisations, caractéristiques et aspects de l'invention seront décrits en détail ci-dessous en référence aux dessins. Chacun des modes de réalisation de la présente invention décrites cidessous peut être mis en œuvre tout seul ou en tant que combinaison d'une pluralité de modes de réalisation ou de caractéristiques de ceuxci si nécessaire ou lorsque la combinaison d’éléments ou de caractéristiques de modes de réalisation individuels dans un seul mode de réalisation est bénéfique.
[0031] La figure 1 est un diagramme schématique qui illustre un système de traitement d'image 100 pour identifier une position (emplacement) d'au moins un caractère dans une image. Le système de traitement d'image 100 est généralement utilisé pour identifier la position d’une pluralité de caractères qui sont disposés sur une ou plusieurs lignes de texte. L'identification de la position de la pluralité de caractères peut également être appelée localisation des caractères reconnus dans l'image.
[0032] Le système de traitement d'image 100 comprend une entrée 111 et une sortie 112, une unité de reconnaissance de caractères 120, un processeur 140 et une mémoire 150. Le processeur 140 comprend un moyen d’estimation 141, un moyen de détermination 142, un moyen de comparaison 143, un moyen d’association 144, un moyen de formation 145 et un moyen d'augmentation 146.
BE2019/5180 [0033] L'unité de reconnaissance de caractères 120 utilise tes techniques conventionnelles disponibles pour reconnaître le texte dans une image. L’unité de reconnaissance de caractères 120 effectue la reconnaissance en utilisant un réseau neuronal 130 qui a été formé pour reconnaître une pluralité de chaînes de caractères, telles que les mots utilisés dans un contexte.
[0034] La reconnaissance de caractères d’une image entraîne généralement la reconnaissance d’une pluralité de caractères qui composent le texte contenu dans l’image. Cependant, te logiciel de reconnaissance de caractères peut également fonctionner pour reconnaître un seul caractère contenu dans l'image. Par conséquent, cette divulgation explique le cas spécifique dans lequel la position d’un seul caractère est identifiée. En outre, il est prévu que cette technique peut être généralisée pour permettre l'identification de la position d'une pluralité de caractères qui sont contenus dans l’image. En conséquence, te ou tes caractères reconnus sont localisés dans l’image, ce qui permet d’améliorer la précision de la localisation (position) des caractères reconnus.
[0035] Le processeur 140 exécute un logiciel qui sert d’unité d'estimation 141, d'unité de détermination 142, d’unité de comparaison 143 et d’unité d'association 144. L’unité d'estimation 141 est configurée pour estimer un premier emplacement d'un caractère reconnu qui a été obtenu en effectuant la reconnaissance de caractères de l'image. L’unité de détermination 142 est configurée pour déterminer les deuxièmes emplacements d’une pluralité de composants connectés dans l’image. L’unité de comparaison 143 est configurée pour comparer le premier emplacement et tes deuxièmes emplacements, afin d’identifier un composant connecté associé au caractère reconnu. L’unité d’association 144 est configurée pour associer le caractère
BE2019/5180 reconnu, le composant connecté identifié et le deuxième emplacement du composant connecté identifié.
[0036] Par conséquent, la position du composant connecté du caractère est associée à la position du caractère codé par machine. Par conséquent, le caractère reconnu est localisé dans l'image, la position du caractère étant améliorée en se basant sur le caractère dans l'image, au lieu d'utiliser une estimation résultant de la région de l'image qui a été utilisée pour effectuer la reconnaissance de caractères.
[0037] Le processeur 140 exécute le logiciel pour servir en outre d'unité de formation 145, qui forme le réseau neuronal en utilisant le deuxième emplacement associé au caractère reconnu. Il est possible pour l'utilisateur d'apporter des corrections à la reconnaissance de caractères. La position du caractère reconnu fournit le contexte de l'image identifiée de caractère, et par conséquent l'information de position est utile pour enseigner au réseau neuronal. En conséquence, le réseau neuronal peut apprendre des corrections faites par l’utilisateur. La position précise du caractère reconnu n'est pas obligatoire pour l'utilisateur pour modifier le texte de sortie et donc alimenter l'apprentissage. Cela dit, une connaissance précise de la position des caractères reconnus est utile car elle permet des interfaces graphiques plus précises et améliore l'expérience utilisateur avec le logiciel.
[0038] Le processeur 140 exécute le logiciel pour servir en outre d’unité d’augmentation 146 qui augmente l'image pour comprendre le caractère reconnu au deuxième emplacement. Le caractère reconnu est une représentation codée par machine du composant connecté. Par exemple, le caractère reconnu pourrait être une représentation codée par machine d'un caractère fourni par une norme de codage pour les
BE2019/5180 communications électroniques, comme ASCII et Unicode. Le caractère reconnu peut aussi être un glyphe de référence qui a été obtenu à l'aide de la norme codée. En outre, le caractère reconnu pourrait comprendre à la fois la représentation codée par machine et le glyphe de référence.
[0039] La fourniture d’une unité de reconnaissance de caractères 120 n'est pas une caractéristique essentielle du système de traitement d'images 100, car le système de traitement d'images 100 pourrait être utilisé pour déterminer la position du texte pour lequel la reconnaissance de caractères a déjà été effectuée. Pour l’exemple illustré par la figure 1, le système de traitement d'images 100 fournit au moins une unité de reconnaissance de caractères 120.
[0040] L'unité de reconnaissance de caractères 120 peut comprendre une pluralité d’unités de reconnaissance de caractères 120 comprenant une première unité de reconnaissance de caractères et une deuxième unité de reconnaissance de caractères, et peut comprendre d'autres unités de reconnaissance de caractères. Chaque unité de reconnaissance de caractères 120 effectue la fonction d'identifier les caractères dans une région d'une image et d’associer les caractères identifiés au texte codé par machine. Les caractères de l'image sont identifiés et reconnus à partir de l'analyse des pixels de la région de l'image. Les caractères peuvent être reconnus dans une sélection de langues, dans une variété de polices.
[0041] L'utilisation d'une pluralité d'unités de reconnaissance de caractères 120 différentes permet d’adapter les unités de reconnaissance de caractères 120 afin d’optimiser la reconnaissance de caractères pour des conditions spécifiques. La qualité de l'image, la langue du texte, la police de caractères du texte, si le texte est
BE2019/5180 dactylographié ou manuscrit, et les ressources informatiques disponibles sont des exemptes de conditions spécifiques.
[0042] L’entrée 111 et la sortie 112 sont configurées pour recevoir et transmettre des données électroniques. L'entrée 111 est configurée pour recevoir l'image à analyser, par exempte d’un réseau local, d'Internet ou d’une mémoire externe. De plus, l'entrée 111 est configurée pour recevoir des instructions d'un utilisateur via, par exempte, une souris, un écran tactile ou un clavier. L’entrée 111 sert de moyen de sélection configuré pour permettre à un utilisateur de sélectionner des caractères reconnus au deuxième emplacement des composants connectés correspondants dans l’image. La sortie 112 est configurée pour sortir le texte identifié. La sortie 112 comprend un afficheur permettant d'identifier le texte pour l'utilisateur. La sortie 112 comprend une connexion réseau pour communiquer sur Internet.
[0043] Le système de traitement d’image 100 est illustré par un seul dispositif de traitement d'image 100 qui comprend une seule unité de reconnaissance de caractères 120. Comme alternative, le système de traitement d'image 100 pourrait comprendre une pluralité d'unités de reconnaissance de caractères 120. En outre, les caractéristiques du système de traitement d'image 120 pourraient être réparties sur plusieurs dispositifs différents, tels qu'une pluralité de dispositif de traitement d'image, chacun ayant une unité de reconnaissance de caractères.
[0044] Les caractéristiques du dispositif de traitement d’image 100 peuvent être disposées différemment. Par exemple, chacune des unités de reconnaissance de caractères 120 peut comprendre un processeur 130 configuré pour servir d'unité de détermination 142, d’une unité d’association 143, d’une unité d'identification 144, d’une unité d’augmentation 145 et d'une unité de formation 146. La pluralité
BE2019/5180 d'unités de reconnaissance de caractères 120 peut faire partie du même dispositif ou être distribuée comme système sur une pluralité de dispositifs.
[0045] Le dispositif de traitement d'image 100 peut faire partie d'un ordinateur personnel. Le dispositif de traitement d’image 100 peut également faire partie d'un périphérique multifonction, comprenant en outre un scanner, un copieur, un télécopieur et une imprimante.
[0046] La figure 2 est un organigramme illustrant un procédé de traitement d'image S200 pour identifier une position d'un caractère dans une image 400. Une image type 400 pour laquelle la reconnaissance de caractères doit être effectuée est un document qui comprend des lignes de texte. Le procédé de traitement d'image S200 est implémenté par le système de traitement d'image 100. Un programme qui, lorsqu'il est implémenté par le système de traitement d'image 100, permet au système de traitement d'image d'effectuer le procédé de traitement d’image S200. Un support lisible par ordinateur stocke le programme.
[0047] A l'étape S210, la segmentation de ligne est effectuée sur l'image. Grâce à la segmentation de ligne S210, une pluralité de lignes de texte sont identifiées dans l'image.
[0048] Une variété de techniques sont disponibles pour effectuer ia segmentation d'image S210, qui est le procédé de partitionnement d'une image numérique en plusieurs segments. Un certain nombre de techniques sont disponibles pour effectuer ia segmentation de ligne S210. L'image est binarisée pour transformer une échelle de gris ou de couleur en une image binaire. Un segment de ligne est identifié s'il présente les caractéristiques attendues d'une ligne de texte, comme la détection de bords de formes conformes à une ligne ou ia
BE2019/5180 détermination que des caractères individuels ou des mots individuels sont regroupés.
[0049] L'étape de segmentation de ligne S210 peut effectuer la reconnaissance de ligne pour les lignes de texte qui sont disposées selon un nombre d’orientations. L'orientation dans laquelle te texte est disposé dépend de la présentation du document en portrait ou en paysage. De plus, le texte peut être disposé en biais, en particulier si te document contient de l’écriture manuscrite. Les lignes d© texte sont généralement disposées horizontalement, te texte étant lu de gauche à droite. Cependant, dans certaines langues, te texte est lu de droite à gauche. De plus, dans certaines langues, tes lignes sont disposées verticalement au lieu d'horizontalement.
[0050] La segmentation de ligne peut être effectuée par l'unité de reconnaissance de caractères 120 dans le cadre de l’étape de reconnaissance de caractères S220. Alternativement, la segmentation de ligne peut être effectuée par le processeur 140.
[0051] Notez que l'étape S210 n'est pas essentielle, car la segmentation de ligne peut être effectuée avant le procédé de traitement d’image S200, la reconnaissance de caractères étant effectuée pour une image 310-330 qui a déjà été segmentée en une ligne de texte. La segmentation de ligne S210 n’a pas besoin d’être effectuée par le dispositif de traitement d'image 100, car la segmentation de ligne pourrait être effectuée par un autre dispositif.
[0052] L'unité de reconnaissance de caractères 120 effectue une segmentation supplémentaire de l'image. Par conséquent, chaque ligne de texte est segmentée en une pluralité de régions.
BE2019/5180 [0053] Dans l'étape S220, la reconnaissance de caractères est effectuée sur chacune des régions.
[0054] Chacune des régions contient un caractère individuel ou un mot 5 individuel. Chaque région de l'image peut être identifiée par une ou plusieurs coordonnées de cette région, comme le centre de la région ou un coin de la région.
[0055] L'unité de reconnaissance de caractères 120 comprend un 10 réseau neuronal 130 et fonctionne en déterminant des activations qui représentent une valeur de probabilité que la sortie de la reconnaissance de caractères a convergé. Les activations fournissent des valeurs de caractères codées par machine qui ont été reconnues au-dessus d'un seuil de confiance. Une activation est une sortie du 15 réseau neuronal, et par exemple, pourrait spécifier qu'il y a une probabilité de 95% que la lettre a ait été reconnue.
[0056] L'identification de la position des caractères codés par machine est particulièrement utile dans le cas où l'unité de reconnaissance de 20 caractères 120 comprend un réseau neuronal 130, car la reconnaissance intelligente de caractères ne génère pas une position précise des caractères dans l'image 400.
[0057] Par conséquent, l’identification des positions des caractères est 25 effectuée une fois la reconnaissance des caractères terminée.
[0058] Notez que l'étape S220 n’est pas essentielle, car la reconnaissance des caractères peut être effectuée avant le procédé de traitement d’image S200, la position étant déterminée pour les 30 caractères codés par machine qui ont déjà été reconnus à partir des caractères identifiés dans l'image 400. La reconnaissance de caractères S220 n'a pas besoin d'être effectuée par le dispositif de
BE2019/5180 traitement d'images 100, car la reconnaissance de caractères pourrait être effectuée par un autre dispositif.
[0059] A l'étape S230, une estimation de la position de chaque caractère reconnu dans l’image est faite. L'estimation fournit une coordonnée correspondant à la région de l'image qui a été utilisée pour effectuer la reconnaissance de caractères par l'unité de reconnaissance de caractères 120. Ainsi, la région utilisée pour effectuer la reconnaissance de caractères sert à fournir une approximation de la position du caractère.
[0060] L'image est un tableau bidimensionnel de pixels, dont la position est adressée par un système de coordonnées. La position horizontale est adressée par une coordonnée x. La position verticale est adressée par une coordonnée y.
[0061] La position estimée peut être spécifiée par les coordonnées x et y. Cependant, pour une ligne de texte particulière, il n'est pas nécessaire de spécifier la position verticale, mais il est possible d'estimer la position en utilisant uniquement la position horizontale. Par conséquent, une seule coordonnée x peut être utilisée pour estimer la position du caractère reconnu dans un segment de ligne.
[0062] A l'étape S240, une coordonnée est déterminée pour chaque composant connecté dans la région de l’image identifiée à l’étape S230.
[0063] Un composant connecté est une partie de l'image pour laquelle les pixels adjacents de l'image ont la même couleur, par exemple des groupes de pixels en contact qui sont noirs. Les composants connectés peuvent être identifiés dans l'image parce que l’image est binarisée de sorte que le texte apparaît en caractères noirs sur un fond blanc. Une
BE2019/5180 technique conventionnelle est utilisée pour binariser l'image, par exemple pour déterminer si une caractéristique a été détecté ayant une valeur d’échelle de gris ou une valeur d'échelle de couleur qui est supérieure à un seuil.
[0064] Un composant connecté correspond généralement à un caractère unique tel que la lettre T”, pour lequel tous les pixels du caractère sont connectés ensemble. Certains caractères sont formés d'une pluralité de composants connectés, comme la lettre I”, qui comprend deux composants connectés. Il est également possible qu'une pluralité de caractères forment un seul composant, par exemple des caractères reliés entre eux par une ligature ou un trait de soulignement. La correspondance entre les caractères et les composants connectés dépend du système d'écriture et de la langue, ainsi que de la police particulière utilisée dans l'image.
[0065] En conséquence, chaque composant connecté est associé à une coordonnée. La coordonnée peut correspondre à une partie du composant connecté lui-même, comme le point le plus à gauche du composant connecté, le point le plus à droite du composant connecté ou un point central du point le plus à gauche et du point le plus à droite. Alternativement, la coordonnée peut correspondre à une partie d'une boîte de délimitation qui contient le composant connecté, comme le centre de la boîte de délimitation, ou un barycentre.
[0066] Il est possible de spécifier une coordonnée x et une coordonnée y représentant la position horizontale et la position verticale dans l'image du composant connecté. Toutefois, pour une ligne de texte particulière, il n'est pas nécessaire de spécifier la position verticale, mais il est possible de déterminer la position du composant connecté en utilisant uniquement la position horizontale. Par conséquent, une seule coordonnée x peut être utilisée pour déterminer la position du
BE2019/5180 composant connecté. L'utilisation d’une seule coordonnée simplifie le calcul en comparant les positions sur une seule dimension.
[0067] A l'étape S250, les caractères reconnus obtenus à l’étape S220 sont associés aux composants connectés détectés déterminés à l’étape S240. En conséquence, l'estimation de la position du caractère reconnu est remplacée par la position du composant connecté. En conséquence, les caractères reconnus se voient attribuer une position basée sur le texte identifié dans l'image.
[0068] Suite à l'étape S250, chaque caractère reconnu est associé à un composant connecté, sur la base d’une comparaison de leurs coordonnées. Le caractère reconnu est associé au composant connecté le plus proche, car le composant connecté le plus proche est le plus susceptible de correspondre au caractère reconnu.
[0069] La distance entre un caractère reconnu et un composant connecté est définie comme la différence entre les coordonnées associées au caractère reconnu et le composant connecté. Les coordonnées les plus proches correspondent à la distance minimale entre le caractère reconnu et le composant connecté. Pour une ligne de texte particulière, il est possible de calculer la distance en utilisant uniquement la coordonnée x, ce qui simplifie le calcul, car les positions sont comparées en utilisant une seule dimension.
[0070] Si la distance entre le caractère reconnu et le composant connecté est inférieure à un seuil, cela indique qu'il est probable que le caractère reconnu a été associé au composant connecté correct. Cependant, il est possible qu'il soit difficile d'associer les caractères reconnus et les composants connectés. S'il y a plusieurs possibilités, un caractère reconnu est associé au composant connecté qui se trouve
BE2019/5180 à sa gauche. S'il y a des composants connectés non affectés, ceux-ci sont associés à leur caractère reconnu Ie plus proche.
[0071] De plus amples détails sur l'étape S250 sont fournis par la divulgation des figures 3A-C.
[0072] La figure 3A fournit un premier organigramme illustrant comment une association est faite entre les caractères reconnus et les composants connectés S250.
[0073] A l’étape S251, l'unité de comparaison (moyen de comparaison)
143 identifie le composant connecté ayant un deuxième emplacement qui est le plus proche du premier emplacement du caractère reconnu. Ainsi, le caractère reconnu est associé à son composant connecté le plus proche.
[0074] A l’étape S252, l'unité de comparaison identifie tout autre composant connecté qui n'est associé à aucun caractère reconnu et identifie le caractère reconnu I© plus proche de l'autre composant connecté. Par conséquent, s'il y a un ou plusieurs composants connectés non affectés, à l'étape S254A. il sera associé à son caractère reconnu le plus proche.
[0075] A l'étape S253A, un blob est créé pour chaque caractère reconnu. Chaque blob comprend le caractère reconnu, ainsi que le composant connecté. Pour la situation dans laquelle il y avait un ou plusieurs composants connectés non affectés à l'étape S252, chaque blob comprend le caractère reconnu, ainsi qu'un ou plusieurs autres composants connectés.
[0076] Dans l'étape S254A, l'unité d'association (moyen d'association)
144 associe le caractère reconnu, le composant connecté identifié et le
BE2019/5180 deuxième emplacement du composant connecté identifié. Pour la situation dans laquelle, à l'étape S252, un composant connecté non affecté est associé à son caractère reconnu le plus proche, l'unité d'association 144 associe le caractère reconnu le plus proche, le composant connecté identifié du caractère reconnu le plus proche, l'autre composant connecté et le deuxième emplacement du composant connecté identifié. Le nombre de composants connectés pouvant être associés à un caractère reconnu n'est pas limité â deux.
[0077] La figure 3B fournit un deuxième organigramme illustrant comment une association est faite entre les caractères reconnus et les composants connectés S250. La figure 3B présente une technique permettant de gérer la situation dans laquelle un composant connecté correspond à une pluralité de caractères reconnus, cette situation se produisant si le texte de l'image comprend un trait souligné ou une ligature.
[0078] Les étapes S251-S252 de la figure 3B sont les mêmes que celles de la figure 3A. L'étape S252 prévoit la possibilité que des composants connectés non affectés soient associés au caractère reconnu le plus proche, même dans le cas où le composant connecté correspond à une pluralité de caractères reconnus.
[0079] A l'étape S255B, on évalue si le composant connecté de l'étape S251 est associé à une pluralité de caractères reconnus.
[0080] Si le composant connecté est associé à une pluralité de caractères reconnus (OUI à l'étape S255B). le procédé progresse pour effectuer les étapes S253B et S254B.
[0081] Si le composant connecté n'est pas associé à une pluralité de caractères reconnus (NON à l'étape S255B), cela correspond à la
BE2019/5180 situation de la figure 3A, et les étapes S253A et S254A sont donc effectuées.
[0082] A l'étape S253B, un blob fusionné est créé pour chaque caractère reconnu. Chaque blob fusionné comprend la pluralité de caractères reconnus, ainsi que le composant connecté. Pour la situation dans laquelle il y avait un ou plusieurs composants connectés non affectés à l’étape S252, chaque blob comprend la pluralité de caractères reconnus, ainsi qu’un ou plusieurs autres composants connectés.
[0083] Dans l'étape S254B, l’unité d'association (moyen d'association) 144 associe la pluralité de caractères reconnus, le composant connecté identifié et le deuxième emplacement du composant connecté identifié. Pour la situation dans laquelle, à l'étape S252, on associe un composant connecté non affecté à sa plus proche pluralité de caractères reconnus, l'unité d’association 144 associe la plus proche pluralité de caractères reconnus, le composant connecté identifié de la plus proche pluralité de caractères reconnus, l’autre composant connecté et le deuxième emplacement du composant connecté identifié.
[0084] La figure 3C fournit un troisième organigramme illustrant un autre mode de réalisation dans lequel une association est faite entre les caractères reconnus et les composants connectés S250. La figure 3C fournit un procédé alternatif à la figure 3B pour gérer la situation dans laquelle un composant connecté correspond à une pluralité de caractères reconnus.
[0085] Les étapes S251-S252 de la figure 3C sont les mêmes que ceux de la figure 3A.
BE2019/5180 [0086] L'étape S255C de la figure 30 est la même que l'étape S255B de la figure 3B. En conséquence, il est évalué si le composant connecté de l'étape S251 est associé à une pluralité de caractères reconnus.
[0087] Si le composant connecté est associé à une pluralité de caractères reconnus (OUI à l'étape S255C), le procédé progresse pour effectuer les étapes S256C, S253C et S254C.
[0088] Si le composant connecté n’est pas associé à une pluralité de caractères reconnus (NON à l'étape S255C), cela correspond à la situation de la figure 3A, et les étapes S253A et S254A sont donc effectuées.
[0089] Dans l'étape S256C, une unité de division (moyen de division) divise le composant connecté en une pluralité de parties. Le nombre de parties correspond au nombre de caractères reconnus. Le composant connecté est divisé de manière à ce que chaque partie corresponde à l'une des pluralités de caractères reconnus. La division peut être effectuée en fonction de l'emplacement des caractères reconnus, de sorte que I© composant connecté est divisé en plusieurs composants connectés ayant le même numéro que les caractères reconnus. Le moyen de comparaison est configuré pour identifier un emplacement pour chacune des parties.
[0090] Dans l'étape S253C, une pluralité de blobs divisés sont créés. Un blob divisé est créé pour chaque caractère reconnu. Chaque blob comprend un caractère reconnu, ainsi que la partie correspondante du composant connecté. Dans le cas où il y avait un ou plusieurs composants connectés non affectés à l'étape S252, il est possible qu'un blob divisé comprenne un caractère reconnu, la partie
BE2019/5180 correspondante du composant connecté, ainsi qu'un ou plusieurs autres composants connectés.
[0091] Dans l’étape S254C, l’unité d'association (moyen d'association) 144, pour chacune des parties, associe le caractère reconnu, la partie du composant connecté et l'emplacement de la partie. Dans le cas où, à l'étape S252, on associe un composant connecté non affecté à son caractère reconnu le plus proche, l’unité d’association 144 peut associer le caractère le plus proche, la partie identifiée du composant connecté du caractère reconnu le plus proche, l’autre composant connecté et l’emplacement de la partie du composant connecté identifié.
[0092] Revenant à la figure 2, après que l’étape S250 a été effectuée, comme illustré par les figures 3A-C, le procédé de traitement d’image S200 passe à l'étape S260.
[0093] A l'étape S260, la mémoire 150 mémorise en association avec l'image 400, le caractère reconnu et le deuxième emplacement du composant connecté identifié.
[0094] Notez que l'étape S260 n'est pas essentielle, car le processeur 140 peut afficher à l’utilisateur la sortie du procédé de traitement d’image S200. Le stockage dans une mémoire 150 peut avoir lieu après l'achèvement du procédé de traitement d'image S200. Le stockage n’a pas besoin d'être effectuée par une mémoire du dispositif de traitement d’image 100, car la sortie du procédé de traitement d’image S200 peut être stockée par un dispositif différent.
[0095] S’il est déterminé dans Ie procédé de traitement d’image S200 qu'une erreur s’est produite dans l'identification de la position d'un caractère, cela indique que le caractère a été incorrectement associé à
BE2019/5180 un composant connecté. Ceci indique qu’il y a une erreur dans le mappage entre l'image et le caractère codé par machine. Dans ce cas, le procédé de traitement d'image S200 retourne à l’étape d'association S250, de sorte que le caractère peut être associé à un composant connecté différent.
[0096] Pour ce faire, le système de traitement d’image 100 représenté sur la figure 1 peut être encore amélioré en fournissant une unité de détection d'erreur. L’unité de détection d’erreur est configurée pour détecter que te caractère reconnu et le composant connecté ne correspondent pas. Cette caractéristique est utilisée pour déterminer que la détermination de la position du caractère reconnu de i'étape S260 est incorrecte. Par conséquent, l'unité de détection d'erreur fait revenir l'unité de traitement d'image à l'étape S250. La détection des erreurs peut être effectuée par l'unité de détection des erreurs en comparant l’image d’entrée avec le texte codé par machine sorti, pour déterminer si l'emplacement des caractères identifiés dans l'image correspond à l'emplacement des caractères reconnus correspondants. Comme alternative, la détection des erreurs peut être effectuée par l’utilisateur.
[0097] La divulgation du procédé de traitement d'image S200 spécifie la situation dans laquelle chaque caractère est associé à une position unique. Cependant, comme alternative, chaque caractère identifié dans l’image peut être associé à une pluralité de positions. Ceci est utile pour permettre de spécifier plus en détail la position du caractère. Pour l’étape S230, la position de chaque caractère reconnu est associée à une pluralité de coordonnées, chaque coordonnée correspondant à une partie différente du caractère reconnu. Pour l'étape S240, la position du composant connecté est associée à une pluralité de coordonnées, chaque coordonnée correspondant à une partie différente du composant connecté. Pour l'étape S250, tes parties du caractère
BE2019/5180 reconnu sont associées aux parties du composant connecté. Pour l’étape S260, la position des parties du caractère reconnu est déterminée en utilisant les coordonnées des parties du composant connecté. Ainsi, la précision de la forme et de l’orientation du composant connecté est améliorée.
[0098] Le procédé de traitement d'image S200 peut être exécuté par un nombre de dispositifs différents ou par un nombre d’utilisateurs différents exécutant les étapes individuelles S210-S260. En particulier, les étapes de segmentation de ligne et de reconnaissance de caractères S210-S220 pourraient être effectuées séparément des autres étapes du procédé de traitement d'image S200. Par conséquent, il serait possible d'adapter une unité de reconnaissance de caractères 120 existante pour qu’elle puisse servir dans le cadre du système de traitement d’images divulgué 100.
[0099] Associer le caractère reconnu au composant connecté S250 permet de déterminer la position de la détermination S260, même dans le cas où la qualité de l'image est faible. Des exemples d’images de faible qualité :
- les images dont les caractères reconnus ont une hauteur différente, ce qui peut se produire lorsqu’un document a été numérisé sous un angle, par exemple lorsqu'un appareil photo prend une photo du document ;
- les images dont la ligne de texte n’est pas uniforme, ce qui peut se produire lorsqu’un document n'est pas placé à plat au moment de la numérisation ; et
BE2019/5180
- les images pour lesquelles les caractères ne peuvent pas être reconnus avec précision dans l’image, ce qui peut se produire si le document contient du texte qui n'est pas uniforme.
[00100] Pour ce faire, le système de traitement d'image 100 représenté sur la figure 1 peut être encore amélioré en fournissant une unité de détection de perspective. L'unité de détermination de perspective est configurée pour déterminer si la perspective de l'image affecte ou non la position du caractère. Ainsi, le système de traitement d'images 100 peut identifier la position d'une pluralité de caractères dont la hauteur ou la largeur diffèrent. Pour ce faire, on peut mesurer la hauteur ou la largeur des caractères d'une ligne de texte afin de déterminer s’il y a un changement dans ces mesures lorsque l'on se déplace sur la ligne de texte.
[00101] En conséquence de la reconnaissance de caractères, un mappage est fourni entre les caractères de l'image et les caractères codés par machine sortis par la reconnaissance de caractères effectuée sur l'image. Il est utile pour le mappage de spécifier la position dans l'image des caractères. Un avantage d'associer les caractères codés par machine à la position des caractères dans l'image est que les caractères codés par machine peuvent être agencés pour correspondre à l'image originale. Ceci est utile pour afficher à l'utilisateur les caractères codés par machine afin qu'ils correspondent au texte compris dans l'image. De plus, la superposition de l'image avec les caractères codés par machine permet à l'utilisateur de sélectionner le texte. Il est utile de fournir du texte codé par machine pour fournir une fonction de recherche en permettant la recherche du texte codé par machine. La superposition du texte avec les caractères reconnus est utile pour afficher le texte à l’utilisateur, par exemple, la situation dans laquelle les caractères reconnus sont traduits dans une
BE2019/5180 autre langue, de sorte que le texte traduit peut être affiché avec l’image originale afin de servir de comparaison.
[00102] Les figures 4-7 illustrent un exemple du procédé de traitement d’image S200 effectué pour une image 400, pour identifier la position d’une pluralité de caractères dans l'image 400.
[00103] La figure 4 montre une image 400 qui doit être soumise à la reconnaissance de caractères. Limage comprend trois lignes de texte 410-430, montrant un exemple typique de la disposition horizontale et verticale des caractères dans une image 400. La qualité de l’image 400 est faible, ce qui peut être vu du fait que :
- Les caractères qui ne sont pas complètement numérisés, comme le caractère ''2 sur la ligne supérieure du texte 410 étant en deux morceaux séparés.
- Les caractères étant connectés comme on peut le voir pour le texte ''+3 sur la ligne supérieure du texte 410 étant reliés entre eux par une ligne de connexion erronée.
- La numérisation comprend un arrière-plan gris, ce qui peut rendre difficile la distinction des éléments connectés du texte dans l'image. L’image 400 montre un fond gris entourant le texte, en raison de la faible qualité de la numérisation. Notez que l'exécution de la binarisation de l'image devrait éliminer l’arrière-plan gris. Il est donc possible de distinguer le texte de l'arrière-plan.
[00104] Les figures 5A-C illustrent comment les caractères lisibles par machine sont extraits de l'image originale. Les lignes 410-430 des figures 5A-C correspondent aux lignes de texte identifiées dans l'image
BE2019/5180
400 de la figure 4. Sous chaque ligne de texte se trouve la sortie illustrée 510-530 de l'unité de reconnaissance de caractères 120.
[00105] La sortie 510-530 de la reconnaissance de caractères comprend une pluralité de caractères codés par machine, chacun fourni avec une valeur d’activation. La valeur d'activation est illustrée dans les figures 5A-C par une bande d’activation qui indique comment la valeur d’activation est utilisée pour déterminer le caractère codé machine.
[00106] Une valeur d'activation indique la probabilité qu'un caractère ait été identifié. La valeur de l’activation correspond à la probabilité que l'identification du caractère lisible par machine soit exacte.
[00107] La bande d'activation fournit un affichage visuel de la valeur d'activation correspondant au caractère lisible par machine. Chacun des caractères lisibles par machine correspond au caractère identifié comme étant dans l'image, bien que la position du caractère lisible par machine n'ait pas été déterminée.
[00108] Pour chaque ligne de texte, l'unité de reconnaissance de caractères 120 numérise l'image de gauche à droite. Chaque ligne est considérée comme une colonne à la fois, balayant ainsi la ligne. Chaque colonne comprend un groupe vertical de pixels qui font partie de la ligne. Au fur et à mesure que chaque colonne est numérisée, l'information obtenue est utilisée pour déterminer la valeur d'activation associée aux caractères qui sont identifiés.
[00109] Sur les figures 5A-C, les bandes d’activation ont deux couleurs, étant représentées en noir vers la gauche de la bande d'activation et en gris vers la droite de la bande d'activation. Lorsque la bande d'activation est noire, cela signifie que la valeur d'activation du
BE2019/5180 caractère donné est supérieure à la valeur d'activation de tout autre caractère. Lorsque la bande d'activation est grise, cela signifie que la valeur d'activation est meilleure que les autres valeurs d'activation des autres caractères, mais pas plus grande que la valeur d’activation nulle. Par conséquent, tes bandes d'activation indiquées dans les figures 5AC démontrent que lorsque chaque caractère identifié dans l'image est lu sur la ligne de gauche à droite, la valeur d'activation augmente, pour s'assurer que le niveau de confiance du caractère codé par machine est supérieur au seuil requis.
[00110] Si l'on prend par exemple la lettre T à la ligne 410 de la figure 5A, la sortie 510 comprend le caractère codé par machine 'T' ainsi qu’une bande d'activation associée. Lorsque cette bande d'activation est noire, cela indique que la lettre T a été reconnue avec une valeur d'activation indiquant qu'elle est supérieure à l'activation de tout autre caractère. Lorsque la bande d'activation devient grise, cela indique que suffisamment de colonnes ont été lues pour déterminer que la lettre T” a été identifiée avec une probabilité qui dépasse un seuil requis.
[00111] La sortie du caractère codé machine T permet d'estimer la position de ce caractère à l'étape S230. Pour ce faire, on détermine que la lettre T doit être positionnée dans la région de l'image qui a été utilisée pour reconnaître le caractère T.
[00112] Les figures 6A-C montrent chacune des lignes segmentées. Il existe une variété de techniques permettant de segmenter une ligne de texte en composants connectés, L'analyse des composants connectés est une application algorithmique de la théorie des graphes, où des sous-ensembles de composants connectés sont étiquetés de façon unique. Les algorithmes peuvent effectuer un composant connecté à la fois, de sorte qu'une fois que le premier pixel d'un composant connecté est trouvé, tous les pixels connectés de ce composant connecté sont
BE2019/5180 étiquetés comme faisant partie de ce composant connecté, avant de passer au composant connecté suivant de l'image. Alternativement, une technique de double passage peut être effectuée, en passant d'abord sur l'image pour assigner des étiquettes temporaires, et en passant ensuite sur l’image pour effectuer des vérifications de connectivité.
[00113] Pour chacun des composants connectés qui a été identifié, une boîte de délimitation a été prévue autour du composant connecté. Ainsi, l’image est divisée en une pluralité de régions qui sont définies par les cases de délimitation. A titre d’exemple, le caractère T de la figure 6A est entouré d’une case de délimitation 610, qui montre qu'un composant connecté a été Identifié. De même, la figure 6B montre Ie caractère F entouré d’une case de délimitation 620, et la figure 6C montre le caractère E” entouré d'une case de délimitation 630.
[00114] Les figures 6A-C montrent que les composants connectés ne correspondent pas toujours exactement aux caractères lisibles par machine. Par conséquent, les composants connectés peuvent être fusionnés ou divisés si cela est approprié.
[00115] Il est possible qu'une pluralité de composants connectés différents correspondent à un seul caractère. Il y a de nombreux caractères pour lesquels on peut s'attendre à une pluralité de composants connectés. Par exemple, les figures 6A-C indiquent Ie caractère est identifié comme ayant deux composants connectés différents 633-634. De même, la figure 6C montre le caractère i identifié comme ayant deux composants connectés différents 631-632. D'autres exemples comprennent les caractères qui comprennent des accents ou des trémas.
BE2019/5180 [00116] De plus, en particulier pour une image de faible qualité, il est possible qu’une erreur résulte en une pluralité de composants connectés différents correspondant à un seul caractère. C’est ce que montre la figure 6A, où le caractère 2 est identifié comme ayant deux composants connectés 615-616 différents, comme le montrent les deux cases de délimitation qui séparent ce caractère en deux régions distinctes. De même, la figure 6A montre le caractère e” identifié comme ayant trois composants connectés différents 611-613.
[00117] Par contre, il est possible qu'un seul composant connecté puisse correspondre à une pluralité de caractères. Par exemple, la figure 6A montre que le texte ”+3 fait partie du même composant connecté 614 parce que la numérisation montre que ces caractères sont connectés par une ligne erronée en raison de la faible qualité de la numérisation. En revanche, cette erreur ne s'est pas produite dans la figure 6B, car ces composants connectés 621-622 ne sont pas reliés entre eux.
[00118] Notez qu'il existe des situations pour lesquelles une pluralité de caractères sont correctement identifiés comme étant connectés pour former un seul composant connecté, comme les diphtongues et les ligatures. Une autre raison pour laquelle les caractères doivent être connectés pour former un seul composant connecté est due au fait que les caractères sont soulignés, ce qui, selon la police utilisée, peut entraîner l'assemblage de caractères sous la ligne de texte.
[00119] Le terme blob peut être utilisé pour désigner un caractère reconnu associé à un ou plusieurs composants connectés. Une évaluation est effectuée pour déterminer si un blob doit être divisé, de sorte que le composant connecté puisse être associé à une pluralité de caractères reconnus.
BE2019/5180 [00120] La sortie du blob peut être utilisée pour déterminer une coordonnée à l’étape S240 qui doit être utilisée pour la position du caractère codé par machine correspondant. La coordonnée est placée à proximité du composant connecté, par exemple dans le coin supérieur gauche de la boîte de délimitation. En outre, une pluralité de coordonnées peuvent être placées à proximité du composant connecté, par exemple autour du périmètre de la boîte de délimitation.
[00121] La figure 7 illustre le résultat 700 qui est sorti après que l'algorithme de segmentation des caractères a été effectué sur l’image. Le texte lisible par machine est positionné en fonction de la position des composants connectés qui ont été identifiés. Les caractères lisibles par machine sont affichés sur une grille dans des positions basées sur le résultat de l'exécution du procédé de traitement d'image S200 présentée dans la figure 2.
[00122] La sortie 700 de la figure 7 montre un certain nombre de croix qui représentent les coordonnées utilisées pour placer les caractères codés par machine dans la position souhaitée.
[00123] En prenant par exemple la lettre T sur la ligne supérieure de la figure 7, ce caractère est entouré d'une pluralité de marqueurs de position, qui sont utilisés pour déterminer la position de ce caractère à l'étape S260. La lettre codée par machine T a été mise en place en utilisant les coordonnées associées au composant connecté du caractère T identifié de l’image. La boîte de délimitation de la lettre T” comprend une pluralité de marqueur de position autour de son périmètre. Il serait possible de déterminer la position du caractère codé par machine en utilisant une seule coordonnée qui correspond au composant connecté, bien que l'utilisation d'une pluralité de coordonnées améliore la précision de la position de la lettre T, et assure que celle-ci est placée de manière à avoir la bonne orientation.
BE2019/5180
La connaissance de la position de chacun des pixels des composants connectés du blob fournirait la description la plus précise possible de la position du blob, bien que par commodité et pour améliorer la vitesse d'exécution du logiciel, ceci soit simplifié en utilisant une boîte de délimitation ou un barycentre.
[00124] En conséquence, les caractères lisibles par machine montrés dans l'image 400 illustrée par les figures 3-6 forment trois lignes de texte 410-430 qui se lisent :
Tel : +32 (0)
Fax : +32
E-mail :
[00125] Le positionnement contient quelques erreurs, donc tous les caractères lisibles par machine ne sont pas dans la bonne position.
[00126] La figure 8 fournit un tableau qui comprend des exemples montrant comment les composants connectés sont associés aux caractères reconnus.
[00127] La ligne 810 du tableau montre un seul composant connecté et un seul caractère reconnu formant un blob. Le composant connecté 610 est associé au caractère codé par machine T, qui forme ensemble le blob. Ce blob est créé par l'étape S253A, dans le cas où l'étape S252 ne fournit pas d'association avec un composant connecté non affecté.
[00128] La ligne 820 du tableau montre une pluralité de composants connectés et un seul caractère reconnu formant un blob. Les composants connectés 633-634 sont associés au caractère codé par machine qui forment ensemble le blob. Ce blob est créé par l'étape
BE2019/5180
S253A, pour la situation dans laquelle l’étape S252 fournît une association avec le composant connecté non affecté 633. Cet exemple fournit un caractère codé par machine qui devrait être composé d’une pluralité de composants connectés.
[00129] La ligne 830 du tableau montre une pluralité de composants connectés et un caractère reconnu formant un blob. Les composants connectés 615-616 sont associés au caractère codé par machine ”2, qui forment ensembie le blob. Ce blob créé par l'étape S253A, pour la situation dans laquelle l’étape S252 fournit une association avec le composant connecté non affecté 616. Cet exemple fournit un caractère codé par machine qui devrait être composé d’un seul composant connecté, bien qu’une pluralité de composants connectés soient en fait détectés en raison de la faible qualité de l’image.
[00130] La ligne 840 du tableau montre un seul composant connecté et une pluralité de caractères reconnus formant un blob fusionné. Le composant connecté 614 est associé aux caractères codés par machine +3, qui forment ensemble le blob. Ce blob est créé par l'étape S253B, pour la situation dans laquelle le composant connecté 614 est déterminé comme étant associé à une pluralité de caractères reconnus.
[00131] La ligne 850 du tableau montre un seul composant connecté et une pluralité de caractères reconnus formant une pluralité de blob divisés. Le composant connecté 614 est associé aux caractères codés par machine ”+” et 3”, qui forment ensemble le biob. Ce blob est créé par l'étape S253C, pour la situation dans laquelle le composant connecté 614 est déterminé comme étant associé à une pluralité de caractères reconnus.
BE2019/5180 [00132] Les exemples ci-dessus peuvent également être réalisés par un ordinateur d'un système ou d'un dispositif (ou de dispositifs tels qu'un CPU ou MPU) qui lit et exécute un programme enregistré sur un dispositif de mémoire pour effectuer les fonctions des exemples décrits ci-dessus, et par un procédé dont les étapes sont effectuées par un ordinateur d‘un système ou dispositif, par exemple, la lecture et l'exécution d'un programme enregistré sur un dispositif de mémoire pour effectuer les fonctions des exemples décrits ci-dessus. A cette fin, le programme est fourni à l'ordinateur, par exemple, par l’intermédiaire d'un réseau ou d'un support d'enregistrement de divers types servant de dispositif de mémoire (par exemple, un support lisible par ordinateur comme un support non transitoire lisible par ordinateur).
[00133] Bien que la présente invention ait été décrite en référence à des modes de réalisation, il faut comprendre que l’invention ne se limite pas aux modes de réalisations divulguées. La présente invention peut être mise en œuvre sous diverses formes sans s'écarter des principales caractéristiques de la présente invention. La portée des revendications suivantes doit être interprétée au sens le plus large afin d'englober toutes ces modifications et les structures et fonctions équivalentes.

Claims (18)

  1. Revendications
    1. Système de traitement d’image pour localiser des caractères reconnus dans une image, comprenant :
    un moyen d’estimation configuré pour estimer un premier emplacement d'un caractère reconnu qui a été obtenu en effectuant une reconnaissance de caractères de l'image :
    un moyen de détermination configuré pour déterminer des deuxièmes emplacements d'une pluralité de composants connectés dans l'image ;
    un moyen de comparaison configuré pour comparer le premier emplacement et les deuxièmes emplacements, afin d'identifier un composant connecté associé au caractère reconnu ; et un moyen d'association configuré pour associer le caractère reconnu, le composant connecté identifié et le deuxième emplacement du composant connecté identifié.
  2. 2. Système de traitement d'image selon la revendication 1, dans lequel :
    le moyen d'estimation ;
    le moyen de détermination ;
    le moyen de comparaison ; et le moyen d’association, sont configurés pour effectuer leurs fonctions pour chaque caractère reconnu d’une pluralité de caractères reconnus.
  3. 3. Système de traitement d'image selon la revendication 1 ou la revendication 2, comprenant en outre :
    une mémoire configurée pour stocker, en association avec l’image, le caractère reconnu et le deuxième emplacement du composant connecté identifié.
  4. 4. Système de traitement d’image selon l’une quelconque des revendications précédentes, comprenant en outre :
    BE2019/5180 au moins un moyen de reconnaissance de caractères configuré pour effectuer la reconnaissance de caractères de l'image.
  5. 5. Système de traitement d’image selon la revendication 4, dans lequel :
    ledit au moins un moyen de reconnaissance de caractères est configuré pour effectuer la reconnaissance de caractères en utilisant un réseau neuronal qui a été formé pour reconnaître une pluralité de chaînes de caractères.
  6. 6. Système de traitement d'image selon l’une quelconque des revendications précédentes, comprenant en outre :
    un moyen d’augmentation configuré pour augmenter l’image afin d’inclure le caractère reconnu au deuxième emplacement.
  7. 7. Système de traitement d’image selon l’une quelconque des revendications précédentes, dans lequel :
    le moyen de comparaison est configuré pour identifier le composant connecté ayant un deuxième emplacement qui est le plus proche du premier emplacement du caractère reconnu.
  8. 8. Système de traitement d’image selon la revendication 7, dans lequel :
    le moyen de comparaison est en outre configuré pour identifier un autre composant connecté qui n'est associé à aucun caractère reconnu et pour identifier le caractère reconnu le plus proche de l'autre composant connecté ; et le moyen d’association est en outre configuré pour associer le caractère reconnu le plus proche, le composant connecté identifié du caractère reconnu le plus proche, l'autre composant connecté et le deuxième emplacement du composant connecté identifié.
  9. 9. Système de traitement d'image selon l'une quelconque des revendications précédentes, dans lequel :
    BE2019/5180 si le composant connecté correspond à une pluralité de caractères reconnus, le moyen d'association est configuré pour associer la pluralité de caractères reconnus et le composant connecté.
  10. 10. Système de traitement d'image selon l'une quelconque des revendications 1 à 8, dans lequel :
    si le composant connecté correspond à une pluralité de caractères reconnus :
    un moyen de division est configuré pour diviser le composant connecté en une pluralité de parties ;
    le moyen de comparaison est configuré pour identifier un emplacement pour chacune des parties ; et le moyen d'association est configuré, pour chacune des parties, pour associer le caractère reconnu, la partie du composant connecté et l’emplacement de la partie.
  11. 11. Système de traitement d'image selon l'une quelconque des revendications précédentes, dans lequel :
    le deuxième emplacement est une coordonnée du composant connecté.
  12. 12. Système de traitement d’image selon l’une quelconque des revendications 1 à 10, dans lequel :
    le deuxième emplacement est une boîte de délimitation qui contient le composant connecté.
  13. 13. Système de traitement de l’image selon l’une quelconque des revendications précédentes, comprenant en outre :
    un moyen de sélection configuré pour permettre à un utilisateur de sélectionner le caractère reconnu dans l’image, au deuxième emplacement du composant connecté correspondant dans l’image.
    BE2019/5180
  14. 14. Système de traitement d’image selon la revendication 13, comprenant en outre :
    un moyen d'affichage configuré pour afficher l'image ; et un contrôleur d'affichage configuré pour permettre à l’utilisateur de sélectionner le caractère reconnu par sélection de l'utilisateur aux deuxièmes emplacements des composants connectés correspondants dans l'image.
  15. 15. Système de traitement d’image selon la revendication 13 ou la revendication 14, dans lequel :
    la sélection de l'utilisateur s'effectue à l'aide d'une souris, d'un écran tactile ou d'un davier.
  16. 16. Procédé de traitement d'image pour localiser des caractères reconnus dans une image, comprenant les étapes consistant à :
    estimer un premier emplacement d'un caractère reconnu qui a été obtenu en effectuant la reconnaissance de caractères de l'image ;
    déterminer des deuxièmes emplacements d'une pluralité de composants connectés dans l’image ;
    comparer le premier emplacement et les deuxièmes emplacements, afin d'identifier un composant connecté associé au caractère reconnu ; et associer le caractère reconnu, le composant connecté identifié et le deuxième emplacement du composant connecté identifié.
  17. 17. Programme qui, lorsqu'il est mis en œuvre par un système de traitement d’image, amène le système de traitement d'image à effectuer un procédé de traitement d’image selon la revendication 16.
  18. 18. Support lisible par ordinateur stockant un programme selon la revendication 17.
BE20195180A 2018-03-28 2019-03-22 Système de traitement d’image et procede de traitement d’image BE1026159B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
GB1805039.3A GB2572386B (en) 2018-03-28 2018-03-28 An image processing system and an image processing method

Publications (2)

Publication Number Publication Date
BE1026159A1 true BE1026159A1 (fr) 2019-10-22
BE1026159B1 BE1026159B1 (fr) 2020-05-08

Family

ID=62068235

Family Applications (1)

Application Number Title Priority Date Filing Date
BE20195180A BE1026159B1 (fr) 2018-03-28 2019-03-22 Système de traitement d’image et procede de traitement d’image

Country Status (5)

Country Link
US (2) US11386682B2 (fr)
EP (1) EP3776332A2 (fr)
BE (1) BE1026159B1 (fr)
GB (1) GB2572386B (fr)
WO (1) WO2019185245A2 (fr)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11087448B2 (en) * 2019-05-30 2021-08-10 Kyocera Document Solutions Inc. Apparatus, method, and non-transitory recording medium for a document fold determination based on the change point block detection
CN110991265B (zh) * 2019-11-13 2022-03-04 四川大学 一种火车票图像的版面提取方法
CN113269009A (zh) * 2020-02-14 2021-08-17 微软技术许可有限责任公司 图像中的文本识别
JP2022101136A (ja) * 2020-12-24 2022-07-06 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4679951A (en) * 1979-11-06 1987-07-14 Cornell Research Foundation, Inc. Electronic keyboard system and method for reproducing selected symbolic language characters
US4887301A (en) * 1985-06-05 1989-12-12 Dest Corporation Proportional spaced text recognition apparatus and method
JPH03179585A (ja) * 1989-12-08 1991-08-05 Canon Inc 画像処理装置
GB2289969A (en) * 1994-05-24 1995-12-06 Ibm Character segmentation
US5542006A (en) * 1994-06-21 1996-07-30 Eastman Kodak Company Neural network based character position detector for use in optical character recognition
JP3372005B2 (ja) * 1995-04-28 2003-01-27 松下電器産業株式会社 文字認識装置
US5803629A (en) * 1997-03-14 1998-09-08 Paul H. Neville Method and apparatus for automatic, shape-based character spacing
JP4164463B2 (ja) * 2003-06-03 2008-10-15 キヤノン株式会社 情報処理装置及びその制御方法
US8014557B2 (en) * 2003-06-23 2011-09-06 Digimarc Corporation Watermarking electronic text documents
US7499588B2 (en) * 2004-05-20 2009-03-03 Microsoft Corporation Low resolution OCR for camera acquired documents
US7362902B1 (en) * 2004-05-28 2008-04-22 Affiliated Computer Services, Inc. Resolving character data boundaries
JP2006012027A (ja) * 2004-06-29 2006-01-12 Seiko Epson Corp 光学読取装置、認識処理装置、文字読取方法及びプログラム、並びに磁気インク文字読取装置、及びpos端末装置
US7490033B2 (en) * 2005-01-13 2009-02-10 International Business Machines Corporation System for compiling word usage frequencies
US7539326B2 (en) * 2005-12-23 2009-05-26 Pitney Bowes Inc. Method for verifying an intended address by OCR percentage address matching
JP4590433B2 (ja) * 2007-06-29 2010-12-01 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
JP4711093B2 (ja) * 2008-08-28 2011-06-29 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP2010124451A (ja) * 2008-10-24 2010-06-03 Canon Inc 文書処理装置および文書処理方法
KR100992858B1 (ko) * 2008-12-30 2010-11-09 엔에이치엔(주) Ocr 결과를 보정하기 위한 방법, 시스템 및 컴퓨터 판독가능한 기록 매체
US8442813B1 (en) * 2009-02-05 2013-05-14 Google Inc. Methods and systems for assessing the quality of automatically generated text
CN102567938B (zh) * 2010-12-23 2014-05-14 北大方正集团有限公司 用于西文水印处理的水印图像分块方法和装置
JP5508359B2 (ja) * 2011-08-03 2014-05-28 シャープ株式会社 文字認識装置、文字認識方法及びプログラム
US8787670B2 (en) * 2011-08-15 2014-07-22 Victor John Cowley Software for text and image edit recognition for editing of images that contain text
JP5594269B2 (ja) * 2011-09-29 2014-09-24 コニカミノルタ株式会社 ファイル名作成装置、画像形成装置、およびファイル名作成プログラム
EP2836962A4 (fr) * 2012-04-12 2016-07-27 Tata Consultancy Services Ltd Système et procédé de détection et de segmentation de caractères se touchant pour la reconnaissance optique de caractères (roc)
US10600103B2 (en) * 2012-11-19 2020-03-24 Mccluskey Chevrolet, Inc. System and method for aggregating used vehicle data and presenting used vehicles for sale
US9147275B1 (en) * 2012-11-19 2015-09-29 A9.Com, Inc. Approaches to text editing
US9075961B2 (en) * 2013-09-10 2015-07-07 Crimsonlogic Pte Ltd Method and system for embedding data in a text document
US10691332B2 (en) * 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
JP6264965B2 (ja) * 2014-03-14 2018-01-24 オムロン株式会社 画像処理装置、画像処理方法、画像処理プログラム
US9396404B2 (en) * 2014-08-04 2016-07-19 Datalogic ADC, Inc. Robust industrial optical character recognition
US9384409B1 (en) * 2015-01-29 2016-07-05 Konica Minolta Laboratory U.S.A., Inc. Word segmentation for document image using recursive segmentation
US10490102B2 (en) * 2015-02-10 2019-11-26 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for braille assistance
CN104616009B (zh) * 2015-02-13 2018-05-18 广州广电运通金融电子股份有限公司 一种字符切割识别方法
JP6492894B2 (ja) * 2015-04-01 2019-04-03 富士通株式会社 認識プログラム、認識方法及び認識装置
US9501707B2 (en) * 2015-04-16 2016-11-22 Xerox Corporation Method and system for bootstrapping an OCR engine for license plate recognition
US9910566B2 (en) * 2015-04-22 2018-03-06 Xerox Corporation Copy and paste operation using OCR with integrated correction application
US10140262B2 (en) * 2015-05-04 2018-11-27 King Fahd University Of Petroleum And Minerals Systems and associated methods for Arabic handwriting synthesis and dataset design
US9798948B2 (en) * 2015-07-31 2017-10-24 Datalogic IP Tech, S.r.l. Optical character recognition localization tool
US10068146B2 (en) * 2016-02-25 2018-09-04 Conduent Business Services, Llc Method and system for detection-based segmentation-free license plate recognition
JP6808330B2 (ja) * 2016-02-26 2021-01-06 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US9984471B2 (en) * 2016-07-26 2018-05-29 Intuit Inc. Label and field identification without optical character recognition (OCR)
US20180032494A1 (en) * 2016-07-29 2018-02-01 Myscript System and method for beautifying superimposed digital ink
WO2018057530A1 (fr) * 2016-09-21 2018-03-29 GumGum, Inc. Modèles d'apprentissage machine d'identification d'objets représentés dans des données d'image ou de vidéo
US10089523B2 (en) * 2016-10-05 2018-10-02 Intuit Inc. Automating creation of accurate OCR training data using specialized UI application
WO2018125926A1 (fr) * 2016-12-27 2018-07-05 Datalogic Usa, Inc Détection robuste de chaîne de texte pour la reconnaissance optique de caractères industriels
BE1025006B1 (fr) * 2017-02-27 2018-09-25 I.R.I.S. Procède mis en oeuvre par ordinateur et système de reconnaissance de caractère optique
US10417516B2 (en) * 2017-08-24 2019-09-17 Vastec, Inc. System and method for preprocessing images to improve OCR efficacy
US10423852B1 (en) * 2018-03-20 2019-09-24 Konica Minolta Laboratory U.S.A., Inc. Text image processing using word spacing equalization for ICR system employing artificial neural network

Also Published As

Publication number Publication date
US11823497B2 (en) 2023-11-21
US20190303702A1 (en) 2019-10-03
WO2019185245A2 (fr) 2019-10-03
WO2019185245A3 (fr) 2019-11-07
BE1026159B1 (fr) 2020-05-08
US11386682B2 (en) 2022-07-12
GB201805039D0 (en) 2018-05-09
US20220301329A1 (en) 2022-09-22
EP3776332A2 (fr) 2021-02-17
GB2572386B (en) 2021-05-19
GB2572386A (en) 2019-10-02

Similar Documents

Publication Publication Date Title
BE1026159B1 (fr) Système de traitement d’image et procede de traitement d’image
US9171204B2 (en) Method of perspective correction for devanagari text
JP5500480B2 (ja) 帳票認識装置及び帳票認識方法
US20140067631A1 (en) Systems and Methods for Processing Structured Data from a Document Image
Gebhardt et al. Document authentication using printing technique features and unsupervised anomaly detection
JP5934762B2 (ja) 文字の形状特徴を使用した文字比較による文書改変検知方法、コンピュータプログラム、記録媒体および情報処理装置
US20140168478A1 (en) Text Image Quality Based Feedback For Improving OCR
KR20060044691A (ko) 스캔된 문서들로부터 전자 서식들을 채우기 위한 방법 및장치
BE1026039B1 (fr) Procede de traitement d'image et systeme de traitement d'image
RU2581786C1 (ru) Определение преобразований изображения для повышения качества оптического распознавания символов
CN109389115B (zh) 文本识别方法、装置、存储介质和计算机设备
Tardón et al. Optical music recognition for scores written in white mensural notation
CN102737240B (zh) 分析数字文档图像的方法
CN102779276B (zh) 文本图像识别方法和装置
CN115311666A (zh) 图文识别方法、装置、计算机设备及存储介质
Ramirez et al. Automatic recognition of square notation symbols in western plainchant manuscripts
KR102167433B1 (ko) 다중 패턴 문자 영상 자동 생성 기반 문자 인식 장치 및 그 방법
CN114495141A (zh) 文档段落位置提取方法、电子设备及存储介质
CN111612045B (zh) 一种获取目标检测数据集的通用方法
CN112733830A (zh) 店铺招牌识别方法及装置、存储介质和计算机设备
JP2004094427A (ja) 帳票画像処理装置及び該装置を実現するためのプログラム
JP5298830B2 (ja) 画像処理プログラム、画像処理装置及び画像処理システム
CN113852730B (zh) 一种倾斜角确定方法及其相关设备
CN112926564B (zh) 图片分析方法、***、计算机设备和计算机可读存储介质
US20230090313A1 (en) Autonomously removing scan marks from digital documents utilizing content-aware filters

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20200508