JP2020086850A - 情報処理装置、情報処理方法およびプログラム、並びに、画像形成システム - Google Patents

情報処理装置、情報処理方法およびプログラム、並びに、画像形成システム Download PDF

Info

Publication number
JP2020086850A
JP2020086850A JP2018219453A JP2018219453A JP2020086850A JP 2020086850 A JP2020086850 A JP 2020086850A JP 2018219453 A JP2018219453 A JP 2018219453A JP 2018219453 A JP2018219453 A JP 2018219453A JP 2020086850 A JP2020086850 A JP 2020086850A
Authority
JP
Japan
Prior art keywords
image
image data
information processing
unit
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018219453A
Other languages
English (en)
Other versions
JP2020086850A5 (ja
JP7208771B2 (ja
Inventor
啓水 奥間
Hiromi Okuma
啓水 奥間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018219453A priority Critical patent/JP7208771B2/ja
Priority to PCT/JP2019/041914 priority patent/WO2020105366A1/ja
Publication of JP2020086850A publication Critical patent/JP2020086850A/ja
Priority to US17/228,463 priority patent/US11496635B2/en
Publication of JP2020086850A5 publication Critical patent/JP2020086850A5/ja
Application granted granted Critical
Publication of JP7208771B2 publication Critical patent/JP7208771B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00392Other manual input means, e.g. digitisers or writing tablets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K15/00Arrangements for producing a permanent visual presentation of the output data, e.g. computer output printers
    • G06K15/02Arrangements for producing a permanent visual presentation of the output data, e.g. computer output printers using printers
    • G06K15/18Conditioning data for presenting it to the physical printing elements
    • G06K15/1801Input data handling means
    • G06K15/1802Receiving generic data, e.g. fonts, colour palettes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/24Generation of individual character patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00326Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus
    • H04N1/00328Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information
    • H04N1/00331Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information with an apparatus performing optical character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/28Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
    • G06V30/287Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of Kanji, Hiragana or Katakana characters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Character Input (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】専用のデバイスおよび所定の濃淡パターンを用いることなく、入力された画像に対して濃淡を付与する情報処理装置を提供する。【解決手段】第1画像を表す第1画像データを入力し、入力された第1画像データに基づき、画像に濃淡を付与するための学習済みモデルを用いて、第1画像に濃淡を付与した第2画像を表す第2画像データを出力する。【選択図】図5

Description

本発明は、画像に濃淡を付与する情報処理装置、情報処理方法およびプログラム、並びに、画像形成システムに関する。
近年、電子ペン等で入力された電子的な手書き文字の画像に対して、万年筆等の筆記具で文字を書いたときのような濃淡を付与する方法が提案されている。ここで、濃淡付与は、モノクロ2階調で表現された画像に対して256階調で表現されたマスク画像を合成することによって中間調を表現する階調変換処理に相当する。特許文献1では、ユーザがタブレット上で指やペンを用いて筆記した際の圧力値や速度の情報に基づいてタブレット上の軌跡に対して濃淡を付与する方法が記載されている。また、特許文献2では、穂先に圧電センサの付いた専用のペンで筆記することで、穂先のそれぞれから電圧値を取得し、電圧値に応じて濃淡を付与する方法が記載されている。また、特許文献3では、複数の濃淡パターンを予め保持しておき、保持された中からパターンをランダムに文字上に配置することで濃淡を付与する方法が記載されている。
特開2015−56101号公報 特開2014−16871号公報 特開平9−6309号公報
特許文献1や特許文献2では、文字に濃淡を付与するためには、文字部分の座標毎に圧力値や電圧値といったセンサ情報が必要であり、また、センサ情報を取得するための専用のデバイスが必要となる。また、特許文献3では、予め濃淡パターンを登録しなければならず、また、登録されたパターン以外の濃淡を付与することができない。
本発明の目的は、このような従来の問題点を解決することにある。上記の点に鑑み、本発明は、専用のデバイスおよび所定の濃淡パターンを用いることなく、入力された画像に対して濃淡を付与する情報処理装置、情報処理方法およびプログラム、並びに、画像形成システムを提供することを目的とする。
上記課題を解決するため、本発明に係る情報処理装置は、第1画像を表す第1画像データを入力する入力手段と、前記入力手段により入力された前記第1画像データに基づき、画像に濃淡を付与するための学習済みモデルを用いて、前記第1画像に濃淡を付与した第2画像を表す第2画像データを出力する出力手段とを備えることを特徴とする。
本発明によれば、専用のデバイスおよび所定の濃淡パターンを用いることなく、入力された画像に対して濃淡を付与することができる。
画像形成システム全体の構成を示す図である。 情報端末の内部構成を示す図である。 サーバの内部構成を示す図である。 画像形成装置の内部構成を示す図である。 サーバにおける文字に濃淡を付与する処理のブロック構成を示す図である。 学習データの生成の処理を示すフローチャートである。 濃淡学習用画像データを示す図である。 学習データセットのデータベースを示す図である。 濃淡学習の処理を示すフローチャートである。 濃淡付与の処理を示すフローチャートである。 図10の処理により濃淡が付与された画像を示す図である。 学習データの生成の処理を示すフローチャートである。 正解画像の形状の一部分を示す図である。 画像形成装置のユーザインタフェース画面を示す図である。 情報端末のユーザインタフェース画面を示す図である。
以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。
[第1実施形態]
図1は、本実施形態における画像形成システム全体の構成を示す図である。画像形成システム10は、情報端末100(情報処理装置)、サーバ101、画像形成装置102を含んで構成され、それぞれネットワーク103を介して相互に通信可能に接続されている。ネットワーク103は、有線媒体や無線媒体、若しくはそれらの混在したネットワークであっても良い。なお、情報端末100や画像形成装置102は、ネットワーク103上にそれぞれ複数台あっても良い。サーバ101は、ネットワーク103上に複数台構成され、各サーバがそれぞれに対応したサービスを提供するようにしても良い。また、1つのサービスが複数の装置により提供されるようにしても良い。情報端末100は、例えば、汎用的なPCや携帯端末であり、例えば、ネットワーク103を介して画像形成装置102への印刷指示を実行する。画像形成装置102は、例えば、情報端末100から印刷指示を受信すると、サーバ101から印刷対象の画像データを取得して印刷を実行する。また、画像形成装置102は、プリンタ以外にもスキャナ等の機能を有するMFP(MultifunctionalPrinter)として構成される場合がある。また、図1では、サーバ101は、画像形成装置102と別装置として示されているが、画像形成装置102がサーバ101を内部サーバとして含む構成であっても良い。
図2は、情報端末100の内部構成を示す図である。情報端末100は、CPU201、RAM202、ROM203、キーボードインタフェース(I/F)205、ディスプレイI/F206、外部メモリI/F207、マウスI/F208、ネットワークI/F213を有する。これらは、システムバス204を介して相互に通信可能に接続されている。
キーボードI/F205には、キーボード209が接続され、マウスI/F208には、マウス212が接続され、ユーザからの指示や設定の操作を受け付ける。ディスプレイI/F206にはディスプレイ210が接続され、ユーザに対して、各種ユーザインタフェース画面を表示する。外部メモリI/F207には、HDDなど外部メモリ211が接続される。
CPU201は、ROM203やHDD等の外部メモリ211などに記憶されたプログラムを、RAM202に読み込んで実行することにより、情報端末100全体を統括的に制御する。例えば、CPU201は、コンピュータ読取可能な記憶媒体に記憶されたコンピュータプログラムを実行することにより、後述するフローチャートの各処理を実行することにより本実施形態の動作を実現する。ROM203は、CPU201を起動するためのプログラムを含む各種データを記憶する。RAM202は、例えば、CPU201のワークメモリとして用いられる。
図3は、サーバ101の内部構成を示す図である。サーバ101は、CPU301、RAM302、ROM303、キーボードI/F305、ディスプレイI/F306、外部メモリI/F307、マウスI/F308、ネットワークI/F313、学習部314、文字認識部315を有する。これらは、システムバス304を介して相互に通信可能に接続されている。キーボードI/F305には、キーボード309が接続され、マウスI/F308には、マウス312が接続され、ユーザからの指示や設定の操作を受け付ける。ディスプレイI/F306にはディスプレイ310が接続され、ユーザに対して、各種ユーザインタフェース画面を表示する。外部メモリI/F307には、HDDなど外部メモリ311が接続される。
CPU301は、ROM303やHDD等の外部メモリ311などに記憶されたプログラムを、RAM302に読み込んで実行することにより、サーバ101全体を統括的に制御する。例えば、CPU301は、コンピュータ読取可能な記憶媒体に記憶されたコンピュータプログラムを実行することにより本実施形態の動作を実現する。ROM303は、CPU301を起動するためのプログラムを含む各種データを記憶する。RAM302は、例えば、CPU301のワークメモリとして用いられる。
学習部314は、機械学習を実行するGPUを含む。学習部314は、例えば、ビッグデータベースに記憶されているビッグデータを用いて、類似性解析や回帰分析等により特徴量を学習する。なお、ビッグデータベースは、例えば、外部メモリ311として構成されても良いし、他のサーバに構成されても良い。ビッグデータベースは、例えば、ネットワーク103に接続された各機器からデータ(例えば、ユーザ毎の履歴データ)が収集されることによって構築される。印刷システム10において、学習部314は、例えば、白黒画像データとカラー画像データとを学習データセットとしてニューラルネットワークを用いて学習を行うことにより、白黒画像をカラー画像に変換可能な学習済みモデルを生成することができる。その結果、学習済みモデルに対して任意の白黒画像データを入力することにより、カラー化した画像データが得られるシステムを構築することができる。文字認識部315は、入力された画像データから、スペクトル分布の検出等により文字を認識する。
図4は、画像形成装置102の内部構成を示す図である。画像形成装置102は、CPU401、RAM402、ROM403、ネットワークI/F部404、スキャナ部405、プリンタ部(印刷部)406、操作部407、HDD408を有する。これらは、システムバス409を介して相互に通信可能に接続される。CPU401は、ROM403やHDD408などに記憶されたプログラムを、RAM402に読み込んで実行することにより、画像形成装置102全体を統括的に制御する。ROM403は、画像形成装置102を制御するためのプログラムや各種データを記憶する。RAM402は、例えば、CPU401が動作するためのワークメモリであり、画像データを一時的に保存する。
スキャナ部405は、不図示のADF(自動原稿給送装置)や原稿台に載置された原稿を光学的に読み取ることでスキャン画像データを生成する。プリンタ部406は、印刷対象の画像データに基づいて、用紙等の記録媒体に対して、インクジェット記録方式や電子写真方式等により、画像を記録する。操作部407は、タッチパネル等の表示部、ユーザ操作を受け付けるためのスイッチ、LED表示器等を有する。
情報端末100、サーバ101、画像形成装置102はそれぞれ、図2、図3、図4に示す構成に限られず、各装置が実行可能な機能に応じて適宜ブロックが構成されても良い。例えば、音声指示を受付可能なようにマイクが構成されても良いし、音声出力が可能なようにスピーカが構成されても良い。また、その場合、受け付けた音声信号を音声データに変換するブロックが構成される。また、受け付けた音声指示を解析可能な音声認識部が構成されても良い。また、画像形成装置102がサーバ101を内部サーバとして含む構成の場合には、画像形成装置102は、図4の構成に加えて図3の構成を含むことになる。また、そのような構成の場合、以降で説明するサーバ101の動作は、画像形成装置102において実行されることになる。
図5は、サーバ101における文字に濃淡を付与する処理のブロック構成を示す図である。図5のブロック構成は、例えば、サーバ101の学習部314に構成される。本実施形態において、サーバ101で実行される処理は大きく二つあり、入力された画像データに基づいて画像の濃淡を学習する処理と、画像データに対して濃淡を付与する処理である。濃淡を学習する処理は、学習データ生成部501と濃淡学習部502で実行され、濃淡を付与する処理は、濃淡付与部503で実行される。サーバ101は、万年筆等での手書き文字のような濃淡画像を表す濃淡画像データを入力し、濃淡を学習する。また、サーバ101は、一般的な手書き風フォント等(形状が手書き風)の濃淡のない画像データを入力し、その画像データに対して濃淡を付与する。本実施形態では、濃淡を付与する処理により、濃淡のない画像データから濃淡が付与された画像データを出力する。そのような構成により、入力された手書き風フォントに基づいて、濃淡が付与されることでより手書き感を出した手書き風フォントを出力することができる。
濃淡を学習する処理では、サーバ101は、濃淡学習用画像データ504を入力する。濃淡学習用画像データ504は、例えば、情報端末100で動作するアプリケーションから送信された画像データや画像形成装置102のスキャナ部405でスキャンされた画像データである。例えば、濃淡学習用画像データ504として、万年筆等での手書き文字のような濃淡画像がスキャナで読み取られた画像データが入力される。
学習データ生成部501は、学習データセット507を生成する。学習データセット507は、濃淡学習用画像データ504と、濃淡学習用画像データ504を2値化した2値化画像データとのデータセットである。濃淡学習部502は、生成された学習データセット507を用いて、文字の濃淡を学習する。濃淡学習部502は、濃淡学習用画像データ504と2値化画像データとのデータセットを学習データセット507としてニューラルネットワークを用いて学習を行うことにより、濃淡のない画像を濃淡が付与された画像へ変換可能な学習済みモデル508を生成する。
濃淡を付与する処理では、サーバ101は、濃淡のない画像データ505を入力する。濃淡のない画像データ505は、例えば、情報端末100で動作するアプリケーションから送信された画像データや画像形成装置102のスキャナ部405でスキャンされた画像データ等である。例えば、濃淡のない画像データ505として、手書き風フォントに基づいた画像データが入力される。それらの画像データで表される文字は、形状は手書き風であっても濃淡がない点で、前述の濃淡学習用画像データ504と異なる。
濃淡付与部503は、前述の濃淡学習部502で学習が行われた学習済みモデル508を取得し、学習済みモデル508に対して濃淡のない画像データ505を入力することにより、濃淡が付与された画像データ506を出力する。その際、出力として、例えば、情報端末100へ濃淡が付与された画像データ506を送信して情報端末100のディスプレイ310で表示出力させても良い。若しくは、画像形成装置102へ濃淡が付与された画像データ506を送信して画像形成装置102のプリンタ部406で印刷出力させても良い。
図6は、サーバ101の学習データ生成部501の処理を示すフローチャートである。図6の各処理は、例えば、プログラムがサーバ101のROM303、RAM302、外部メモリ311のいずれかに格納され、CPU301により実行されることで実現される。
S600において、学習データ生成部501は、情報端末100や画像形成装置102等から送信された濃淡学習用画像データ504を入力する。図7は、濃淡学習用画像データ504の一例を示す図である。濃淡学習用画像データ504は、図7(a)の画像700や画像701に示すように、画像内に手書きの文字が一文字のみ含まれるような画像を示す画像データである。しかしながら、濃淡学習用画像データ504は、図7(b)の画像702に示すように、画像内に複数の文字が含まれるような画像、例えば、ホワイトボード上の文字がスキャンされたようなデータであっても良い。
S601において、学習データ生成部501は、入力した濃淡学習用画像データ504に対して、エッジ検出や輪郭検出等により文字毎の領域の切り出しを行う。例えば、図7(b)の画像702の場合、図7(c)の画像703に示すように文字領域が検出され、各切り出された文字領域に対応する文字画像データが生成される。
S602において、学習データ生成部501は、S601で生成された文字画像データの各画素値を2階調で表現した(2値化した)2値化画像データを生成する。2値化画像データは、例えば、各画素の画素値を所定の閾値と比較することによって生成される。
S603において、学習データ生成部501は、S600で入力した濃淡学習用画像データ504と、S602で生成された2値化画像データとのセットを学習データセット507として、外部メモリ311等に格納し、その後、図6の処理を終了する。学習データセット507が、いわゆる教師あり学習における訓練データとなる。なお、学習データ生成部501は、画像内に複数の文字が含まれるような画像である場合、S601で生成された文字画像データと、S602で生成された2値化画像データとのセットを学習データセット507とする。また、濃淡学習用画像データ504が図7(a)に示すような画像の画像データであっても、S601で生成された文字画像データと、S602で生成された2値化画像データとのセットを学習データセット507としても良い。
図8(a)は、学習データセット507により構築されるデータベース800の一例を示す図である。データベース800は、例えば、外部メモリ311に構成される。ID801は、データベース800へ学習データセット507が追加される度に付与される、学習データセット507を一意に識別するためのフィールドである。ID801は、各学習データセット507を識別するだけでなく、文字認識部315による文字認識結果、例えば「レ」を表す情報も含む。2値化画像データ802は、S602で生成された2値化画像データを保持するフィールドである。正解画像データ803は、S600で受信した濃淡学習用画像データ504又はS601で生成された文字画像データを保持するフィールドである。
学習データ生成部501は、図8(a)に示すように、S600で受信した濃淡学習用画像データ504又はS601で生成された文字画像データを正解画像データ803へ格納する。そして、学習データ生成部501は、S602で生成された2値化画像データを2値化画像データ802へ格納し、一意のID801を付与する。図6での処理が、後述する図9の学習処理を実行するための前処理となる。
図9は、濃淡学習部502の処理を示すフローチャートである。図9の各処理は、例えば、プログラムがサーバ101のROM303、RAM302、外部メモリ311のいずれかに格納され、CPU301により読み出されて実行されることで実現される。
S900において、濃淡学習部502は、データベース800において学習対象とするID801を特定する。濃淡学習部502は、例えば、データベース800の先頭のIDを特定するとしても良い。S901において、濃淡学習部502は、S603でデータベース800へ格納した2値化画像データ802と正解画像データ803との学習データセット507を取得する。例えば、図8(a)のデータベース800の場合、濃淡学習部502は、まずID1に対応する2値化画像データ802と正解画像データ803との学習データセット507を取得する。
S902において、濃淡学習部502は、取得した学習データセット507を用いて、文字の形状に対する濃淡の傾向を学習する。例えば、濃淡学習部502は、2値化画像データ802(例えば、濃淡のない文字「レ」)をニューラルネットワークに入力し、その出力結果が正解画像データ803(例えば、濃淡がある文字「レ」)となるようなモデルを深層学習により生成する。
S902で学習される濃淡の傾向の一例について、図13を参照しながら説明する。例えば、S902での学習では、まず、入力された濃淡のない文字「レ」の形状の大まかな特徴(高次の特徴量)を抽出し、その特徴量に対応づけて濃淡がある文字「レ」の濃淡の傾向を学習する。
図13は、図8(a)のデータベース800に含まれる正解画像データ803が表す正解画像の形状の一部分を示す図である。例えば、図13(a)に示すように、文字の縦線部分について、下側に向かうにつれて濃くなるという濃淡の傾向が学習される。また、図13(b)に示すように、文字の横線部分について、右側に向かうにつれて濃くなるという濃淡の傾向が学習される。また、図13(c)に示すように、文字の線の交点部分について、他の部分よりも濃くなるという濃淡の傾向が学習される。このように、濃淡学習部502は、文字の形状の高次の特徴量を抽出し、形状に対する濃淡の傾向を深層学習により学習する。本実施形態によれば、このように濃淡の傾向を学習する構成により、専用の手書き入力用のペン等を用意する必要がなく、また、濃淡のパターンを生成して登録しておく必要がない。
S903において、濃淡学習部502は、データベース800の学習対象となる全てのIDについてS902の学習が実行されたか否かを判定する。ここで、学習対象となる全てのIDについてS902の学習が実行されたと判定された場合、S904に進む。S904において、濃淡学習部502は、文字ごとに、学習済みモデル508として外部メモリ311に格納し、その後、図9の処理を終了する。一方、S903で学習対象となる全てのIDについてS902の学習が実行されていないと判定された場合、S905において、濃淡学習部502は、次のIDを特定し、S901からの処理を繰り返す。
図8(a)のID801は、同じ文字の学習データセット507を識別可能な識別情報である。そして、図9の処理は、データベース800において同じ文字の学習データセット507について所定数以上が蓄積されると、例えば、文字「レ」について100以上の学習データセット507が蓄積されると開始される。例えば、図8(a)では、説明上、文字「レ」について学習データセット507は1つしか示されていないが、データベース800には、文字「レ」について複数の学習データセット507(例えば、複数のユーザから提供された複数の学習データセット)が格納されている。S901〜S903、S905の処理を繰り返すことにより、S902において、例えば文字「レ」について複数の学習データセット507を用いて、図13に示すような濃淡の傾向が学習され、その結果、文字「レ」について学習済みモデル508が生成される。図9のS905においては、同じ文字についての学習データ507のうち、まだ、S902の学習が行われていない学習データセット507のIDが特定される。文字「レ」について図9の処理の終了後、他の文字、例えば文字「ポ」の学習データセット507のグループのうち、一つの学習データセット507のIDをS900で特定し、S901以下の処理を行うことで、文字「ポ」について学習済みモデル508が生成される。
また、IDについては、さらにユーザ情報と対応づけるようにしても良い。そして、図9の処理は、同じ文字の学習データセット507のグループについて、異なる複数のユーザ情報が混在するようにIDを特定するようにしても良い。例えば、学習データセット507の総数が1000であり、画像形成システム10のユーザが100人である場合、学習対象となる学習データセット507のIDを多くすることよりも、異なるユーザが均等に含まれることを優先して学習対象となる学習データセット507のIDを特定するようにしても良い。これは、濃淡学習用画像データ504が、例えばユーザにより手書きされた文字をスキャナ部405により読み取られた原稿画像データであり、ユーザの癖が反映されているからである。つまり、学習対象となる学習データセット507が多数取得できたとしても、ユーザが同一である場合には、そのユーザの癖を強く学習することになり、適切に学習が行われない。そこで、ユーザが均等に含まれるように図9の処理の対象となるIDを特定することで、上記のような過学習を防ぎ、学習済みモデル508の汎化能力を向上させることができる。一方で、指定されたユーザに対応する学習データセット507のIDが含まれるようにしても良い。画像形成システム10を利用するユーザが限られている場合に、そのユーザの癖に対する学習の比率を大きくすることにより、特定のユーザにより適応した学習済みモデル508を生成することができる。また、上記の2つのタイプの学習モデル508の生成を選択的に実行できるようにしても良い。
図10は、濃淡付与部503の処理を示すフローチャートである。図10の各処理は、例えば、プログラムがサーバ101のROM303、RAM302、外部メモリ311のいずれかに格納され、CPU301により読み出されて実行されることで実現される。
S1000において、濃淡付与部503は、情報端末100や画像形成装置102から送信された画像データを入力する。ここで、情報端末100や画像形成装置102から送信された画像データとは、例えば、スキャナ部405により光学的に読み取られた原稿画像データや、アプリケーションで作成されたテキストデータである。そして、濃淡付与部503は、入力された画像データに対して文字認識を行い、認識された文字ごとに切り出しを行うことで、濃淡のない画像データ505を取得する。
S1001において、濃淡付与部503は、文字認識の結果に基づいて、S903で格納された対応する学習済みモデル508を外部メモリ311から読み込む。例えば、濃淡のない画像データ505が表す文字が「レ」であれば、「レ」に対応する学習済みモデル508を外部メモリ311から読み込む。
S1002において、濃淡付与部503は、S1000で取得した濃淡のない画像データ505を学習済みモデル508に入力することで、濃淡が付与された画像データ506を生成する。学習済みモデル508では、濃淡のない画像データ505が表す文字の形状の大まかな特徴を高次の特徴量として抽出する。そして、抽出した特徴量に基づき、学習済みの濃淡の傾向に従って文字内の濃淡分布が決定される。S1003において、濃淡付与部503は、濃淡が付与された画像データ506を出力する。前述のとおり、ここでの出力は、情報端末100のディスプレイ310での表示出力でも良いし、画像形成装置102のプリンタ部406での印刷出力でも良い。
図11は、図10の処理により濃淡が付与された画像データ506が表す画像の一例を示す図である。例えば、学習済みモデル508に2値画像を表す画像データ1101を、文字「あ」に対応する学習済みモデル508に入力すると、濃淡が付与された画像データ1102が出力される。図11に示すように、文字「あ」の縦線部分について、下側に向かうにつれ濃くなるように濃淡が付与されている。また、文字「あ」の横線部分について、右側に向かうにつれ濃くなるように濃淡が付与されている。また、文字「あ」の線の交点について他の部分よりも濃くなるように濃淡が付与されている。このように、図13で説明したような濃淡の傾向が反映されて出力される。
本実施形態では、文字ごとに学習済みモデル508を生成する構成について説明した。しかしながら、学習済みモデル508の生成について他の構成が用いられても良い。例えば、文字における特定の形状部分に着目し、その形状部分に対応した学習済みモデル508を生成するようにしても良い。特定の形状部分とは、例えば、文字の縦線部分、横線部分、はらい部分、止め部分である。そのような構成においては、図6のS600で濃淡学習用画像データ504を入力すると、S601で、文字画像データを生成する代わりに、各特定の形状部分の画像データを生成する。これは、文字を走査したスペクトル結果に基づいて各特定の形状部分を特定して切り出しても良い。S602においては、特定の形状部分の画像データについて2値化画像データを生成し、S603においては、特定の形状部分の画像データと2値化画像データとを学習データセット507として外部メモリ311等に格納する。図9の処理については、前述の説明と同様である。また、図10の処理については、以下のように行われても良い。S1000において、濃淡付与部503は、濃淡のない画像データ505に対してさらに、上記S601と同様の手法により特定の形状部分を検出する。そして、S1001において、濃淡付与部503は、特定の形状部分の検出結果に対応する、S904で保存された対応する学習済みモデル508を外部メモリ311から読み込む。そして、S1002において、濃淡付与部503は、S1000で検出した濃淡のない画像データ505のうちの特定の形状部分を学習済みモデル508に入力することで、特定の形状部分について濃淡が付与された画像データ506を出力する。そして、各特定の形状部分について出力された濃淡が付与された画像データ506(例えば、横線部分)を濃淡のない画像データ505(例えば、文字「あ」)に対して重畳することにより、濃淡が付与された画像データ506を出力する。
上記のように、特定の形状部分に対応した学習構成にすることにより、例えば、ひらがな、漢字、かたかな、アルファベットといった文字種類によらずに、濃淡を付与することが可能となる。
以上のように、本実施形態によれば、手書きの文字を含む画像データから2値化した画像データを生成し、濃淡のある画像データと濃淡のない画像データとの学習データセットを生成し、文字ごと若しくは特定の形状ごとに濃淡を学習することで学習済みモデルを生成する。そのような構成により、専用のデバイスおよび所定の濃淡パターンを用いることなく、入力された画像に対して濃淡を付与する濃淡のない文字に対して、手書きしたときのような濃淡を付与することができる。
[第2実施形態]
第1実施形態では、図6で説明したように、濃淡の学習において、文字単位で学習データセット507を生成していた。本実施形態では、文字単位でなく、画像全体を一定の大きさの矩形領域で切り出した画像を用いる。以下、第2実施形態について、第1実施形態と異なる点について説明する。
図12は、本実施形態における学習データ生成部501の処理を示すフローチャートである。図12の各処理は、プログラムがサーバ101のROM303、RAM302、外部メモリ312のいずれかに格納され、CPU301により実行されることで実現される。
S1200において、学習データ生成部501は、情報端末100や画像形成装置102等から送信された濃淡学習用画像データ504を入力する。
S1201において、学習データ生成部501は、S1200で入力した濃淡学習用画像データ504の各画素値を2階調で表現した(2値化した)2値化画像データを生成する。2値化画像データは、例えば、各画素の画素値を所定の閾値と比較することによって生成される。
S1202において、学習データ生成部501は、S1200で入力された濃淡学習用画像データ504とS1201で生成された2値化画像データとのそれぞれを、一定の大きさの矩形領域で切り出す。例えば、図7(b)に示すような濃淡学習用画像データ702であれば、図7(d)の濃淡学習用画像データ704に示すように、矩形領域で分割された領域毎に切り出しを行う。ここで、濃淡学習用画像データ702と2値化画像データについて、同じ矩形領域により切り出しが行われる。また、矩形領域の大きさは、文字が複数含まれる程度の大きさであれば良い。
S1203において、学習データ生成部501は、S1202で切り出された矩形領域の1つを特定する。ここで、濃淡学習用画像データ504の矩形領域と2値化画像データの矩形領域のいずれが特定されても良い。
S1204において、学習データ生成部501は、特定された矩形領域内の文字画素数は所定数未満であるか否かを判定する。ここで、所定数未満であると判定された場合、切り出した画像データには濃淡情報が少なく学習に適していないと判断し、S1205において、その矩形領域を学習対象外とし、S1207に進む。一方、所定数未満でないと判定された場合、S1206において、その矩形領域を学習対象とし、S1207に進む。
S1207において、学習データ生成部501は、全ての矩形領域についてS1203〜S1206の処理を終了したか否かを判定する。ここで、全ての矩形領域について終了したと判定された場合、S1209に進む。一方、全ての矩形領域について終了していないと判定された場合、S1208において、学習データ生成部501は、次の矩形領域を特定し、S1203からの処理を繰り返す。
S1209において、学習データ生成部501は、S1202で切り出された濃淡学習用画像データと2値化画像データとのデータセットで且つS1206で学習対象とされたデータセットを学習データセット507として、外部メモリ311に格納する。例えば、図7(d)の濃淡学習用画像データ704から学習データセット507を生成した場合、図8(b)に示すような学習データセット507のデータベース810が外部メモリ311に保存される。S1209の後、図12の処理を終了する。
図12の処理後の濃淡学習については、図9での説明と同様である。濃淡付与について、図10のS1001では、S1000で取得された濃淡のない画像データ505の文字認識結果に対応する文字を含む学習済みモデル508を外部メモリ311から読み込む。例えば、濃淡のない画像データ505が表す文字が「レ」であれば、「レ」を含む、図8(b)のID1の学習済みモデル508が取得される。S1002、S1003については、前述の説明と同様である。
以上のように、本実施形態によれば、S601で説明したような文字単位での切り出し処理を行なわずに、学習データセット507を生成することができる。
第1及び第2実施形態では、図6、図9、図10、図12の処理は、サーバ101上で実行されていた。しかしながら、いずれの実施形態においても、それらの処理は、サーバ101と異なる装置上で実行されるようにしても良い。例えば、画像形成装置102上で実行されるようにしても良い。その場合、図6、図9、図10、図12の各処理は、例えば、プログラムが画像形成装置102のROM403、RAM402、HDD408のいずれかに格納される。そして、各処理を実行する際、画像形成装置102のROM403、RAM402、HDD408のいずれかからプログラムを読み出してCPU401により実行される。その際、濃淡学習用画像データ504や濃淡のない画像データ505は、例えば、情報端末100から送信された画像データや、画像形成装置102のスキャナ部405でスキャンされた画像データである。図6及び図12の処理で生成される学習データセット507、図9で生成される学習済みモデル508は、画像形成装置102のHDD408に格納される。また、濃淡学習を実行するタイミングは、濃淡を付与する処理の前であればいつでも良い。例えば、画像形成装置102の製品出荷前に濃淡学習を実行しておき、学習済みモデル508を画像形成装置102のHDD408に格納するようにしても良い。
図15は、情報端末100から画像形成装置102へ印刷ジョブを投入する際の、情報端末100のディスプレイ210に表示される印刷時の設定画面の一例を示す図である。ユーザが文書データ等を情報端末100上で印刷指示すると、印刷設定画面1500がディスプレイ210に表示される。
図15に示すように、印刷設定画面1500には、文字に濃淡を付与するか否かを示すチェックボックス1501が設けられており、ユーザは文字に濃淡を付与したい場合は、チェックボックス1501にチェックを入れる。キャンセルボタン1503が押下されると、印刷設定画面1500の設定内容がリセットされる。チェックボックス1501にチェックを入れた状態で印刷ボタン1502が押下されると、情報端末100から送信された画像データに対して、画像形成装置102で図6、図9、図10、図12の各処理を実行し、濃淡が付与された画像をプリンタ部406で印刷する。以上のような処理により、印刷対象の画像データ上での文字に対して濃淡を付与するかしないかをユーザに選択させることができる。
第1及び第2実施形態において図6、図9、図10、図12の各処理をサーバ101上で実行する場合に、画像形成装置102のスキャナ部405でスキャンされた画像データをサーバ101に送信する際の構成を説明する。
図14は、画像形成装置102のスキャナ部405で濃淡学習用画像データ504を取得するためのユーザインタフェース画面の一例を示す図である。図14の画面は、例えば、画像形成装置102のメインメニューから表示されても良い。図14の画面1400は、画像形成装置102の操作部407で濃淡学習用画像データ504をスキャンするための画面である。テキストボックス1401は、スキャンされた画像データの送信宛先となる送信先アドレスの指定を受け付ける領域である。ユーザがテキストボックスで送信先アドレスを指定し、原稿台に文字が手書きで書かれた原稿をセットしてスキャン開始ボタン1402を押下すると、画像形成装置102は、スキャナ部405でスキャンを開始し、濃淡学習用画像データ504を取得してサーバ101に送信する。テキストボックス1401は、図6、図9、図10、図12の処理が可能な装置(例えばサーバ101)のアドレスが指定され、ユーザにより選択が可能である。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10 画像形成システム: 100 情報端末: 101 サーバ: 102 画像形成装置: 201、301、401 CPU: 314 学習部

Claims (16)

  1. 第1画像を表す第1画像データを入力する入力手段と、
    前記入力手段により入力された前記第1画像データに基づき、画像に濃淡を付与するための学習済みモデルを用いて、前記第1画像に濃淡を付与した第2画像を表す第2画像データを出力する出力手段と、
    を備えることを特徴とする情報処理装置。
  2. 複数の画像データに対応する複数の学習済みモデルを記憶する第1記憶手段と、
    前記第1記憶手段に記憶された前記複数の学習済みモデルから、前記入力手段により入力された前記第1画像データに対応する前記学習済みモデルを取得する取得手段と、をさらに備え、
    前記出力手段は、前記取得手段により取得した前記学習済みモデルを用いて、前記第1画像に濃淡を付与した第2画像を表す第2画像データを出力する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. データセットを記憶する第2記憶手段と、
    前記第2記憶手段に記憶された前記データセットを用いて、前記学習済みモデルを生成する第1生成手段と、をさらに備え、
    前記第1生成手段により生成された前記学習済みモデルは、前記第1記憶手段に格納される、
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 濃淡画像データに基づいて2値化画像データを生成する第2生成手段、をさらに備え、
    前記第2記憶手段は、前記濃淡画像データと、前記第2生成手段により生成された前記2値化画像データとを前記データセットとして記憶する、
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記学習済みモデルは、前記2値化画像データが入力されると前記濃淡画像データを出力するよう学習されたモデルであることを特徴とする請求項4に記載の情報処理装置。
  6. 前記濃淡画像データが表す濃淡画像は、文字であることを特徴とする請求項4又は5に記載の情報処理装置。
  7. 前記濃淡画像データが表す濃淡画像は、文字を構成する形状であることを特徴とする請求項4又は5に記載の情報処理装置。
  8. 前記濃淡画像データが表す濃淡画像は、文字を含むように画像が複数の矩形領域に分割され、当該分割された複数の矩形領域の一つに対応する画像であることを特徴とする請求項4又は5に記載の情報処理装置。
  9. 前記濃淡画像データは、手書き文字がスキャンされたデータであることを特徴とする請求項6乃至8のいずれか1項に記載の情報処理装置。
  10. 前記出力手段は、印刷部に前記第2画像データを出力することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
  11. 前記出力手段は、表示部に前記第2画像データを出力することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
  12. 前記出力手段は、指定に応じて、前記第2画像データを出力することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
  13. 情報処理装置において実行可能な情報処理方法であって、
    第1画像を表す第1画像データを入力する入力工程と、
    前記入力工程において入力された前記第1画像データに基づき、画像に濃淡を付与するための学習済みモデルを用いて、前記第1画像に濃淡を付与した第2画像を表す第2画像データを出力する出力工程と、
    を有することを特徴とする情報処理方法。
  14. 請求項1乃至12のいずれか1項に記載の情報処理装置の各手段としてコンピュータを機能させるためのプログラム。
  15. 情報処理装置と画像形成装置とを含む画像形成システムであって、
    前記情報処理装置は、
    第1画像を表す第1画像データを前記画像形成装置から取得する取得手段と、
    前記取得手段により取得された前記第1画像データに基づき、画像に濃淡を付与するための学習済みモデルを用いて、前記第1画像に濃淡を付与した第2画像を表す第2画像データを生成する生成手段と、
    前記生成手段により生成された前記第2画像データを前記画像形成装置に送信する送信手段と、を備え、
    前記画像形成装置は、
    前記送信手段により送信された前記第2画像データに基づいて、前記第2画像の画像形成を行う画像形成手段、を備える、
    ことを特徴とする画像形成システム。
  16. 前記画像形成システムは、前記情報処理装置を複数、含み、
    前記画像形成装置は、
    前記複数の情報処理装置のいずれかの指定を受け付ける受付手段と、
    原稿画像を読み取って画像データを生成する読取手段と、
    前記読取手段により生成された前記画像データを、前記受付手段により指定を受け付けた情報処理装置に送信する第2送信手段と、をさらに備え、
    前記取得手段は、前記第2送信手段により送信された前記画像データを、前記第1画像データとして取得する、
    ことを特徴とする請求項15に記載の画像形成システム。
JP2018219453A 2018-11-22 2018-11-22 情報処理装置、情報処理方法およびプログラム、並びに、画像形成システム Active JP7208771B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018219453A JP7208771B2 (ja) 2018-11-22 2018-11-22 情報処理装置、情報処理方法およびプログラム、並びに、画像形成システム
PCT/JP2019/041914 WO2020105366A1 (ja) 2018-11-22 2019-10-25 情報処理装置、情報処理方法、プログラムおよび記憶媒体、並びに、画像形成システム
US17/228,463 US11496635B2 (en) 2018-11-22 2021-04-12 Information processing system for obtaining read data of handwritten characters, training a model based on the characters, and producing a font for printing using the model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018219453A JP7208771B2 (ja) 2018-11-22 2018-11-22 情報処理装置、情報処理方法およびプログラム、並びに、画像形成システム

Publications (3)

Publication Number Publication Date
JP2020086850A true JP2020086850A (ja) 2020-06-04
JP2020086850A5 JP2020086850A5 (ja) 2022-01-06
JP7208771B2 JP7208771B2 (ja) 2023-01-19

Family

ID=70774053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219453A Active JP7208771B2 (ja) 2018-11-22 2018-11-22 情報処理装置、情報処理方法およびプログラム、並びに、画像形成システム

Country Status (3)

Country Link
US (1) US11496635B2 (ja)
JP (1) JP7208771B2 (ja)
WO (1) WO2020105366A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3675062A1 (en) 2018-12-29 2020-07-01 Dassault Systèmes Learning a neural network for inference of solid cad features
EP3675063A1 (en) * 2018-12-29 2020-07-01 Dassault Systèmes Forming a dataset for inference of solid cad features

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04199386A (ja) * 1990-11-29 1992-07-20 Glory Ltd 文字の切出方法
JPH05143726A (ja) * 1991-11-25 1993-06-11 Canon Inc 画像処理方法及び装置
JPH05183753A (ja) * 1992-01-06 1993-07-23 Canon Inc カラー画像出力装置及びその方法
JPH05250109A (ja) * 1992-03-06 1993-09-28 Canon Inc カラー画像出力装置
JPH0981723A (ja) * 1995-09-08 1997-03-28 Canon Inc 画像処理装置
JPH09198023A (ja) * 1996-01-11 1997-07-31 Hidenori Ito 掠れ・にじみ毛筆フォントの作成ソフトウェア
JP2011022429A (ja) * 2009-07-17 2011-02-03 Nagoya Institute Of Technology 毛筆フォント作成方法および毛筆フォント作成プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3415331B2 (ja) 1995-06-26 2003-06-09 株式会社リコー 毛筆フォント生成方法
US8224092B2 (en) * 2008-07-08 2012-07-17 Xerox Corporation Word detection method and system
JP6052704B2 (ja) 2012-07-10 2016-12-27 カシオ計算機株式会社 入力装置、および、入力操作解析方法、入力操作解析プログラム
JP2015056101A (ja) 2013-09-13 2015-03-23 コニカミノルタ株式会社 手書き入力装置及び制御プログラム並びに制御方法
WO2020059527A1 (ja) * 2018-09-20 2020-03-26 富士フイルム株式会社 フォント作成装置、フォント作成方法及びフォント作成プログラム
JP2020170309A (ja) 2019-04-02 2020-10-15 キヤノン株式会社 画像処理システム、画像処理装置、画像処理方法、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04199386A (ja) * 1990-11-29 1992-07-20 Glory Ltd 文字の切出方法
JPH05143726A (ja) * 1991-11-25 1993-06-11 Canon Inc 画像処理方法及び装置
JPH05183753A (ja) * 1992-01-06 1993-07-23 Canon Inc カラー画像出力装置及びその方法
JPH05250109A (ja) * 1992-03-06 1993-09-28 Canon Inc カラー画像出力装置
JPH0981723A (ja) * 1995-09-08 1997-03-28 Canon Inc 画像処理装置
JPH09198023A (ja) * 1996-01-11 1997-07-31 Hidenori Ito 掠れ・にじみ毛筆フォントの作成ソフトウェア
JP2011022429A (ja) * 2009-07-17 2011-02-03 Nagoya Institute Of Technology 毛筆フォント作成方法および毛筆フォント作成プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
島崎早智,外3名: "ニューラル画像対画像変換による毛筆体文字の生成", 第81回(2019年)全国大会講演論文集(2) 人工知能と認知科学, JPN6022039333, 2019, pages 2 - 189, ISSN: 0004879163 *
渡邉寛基,外2名: "ストロークの方向分布を考慮した文字認識", 電子情報通信学会技術研究報告, vol. 112, no. 495, JPN6022039331, 2013, JP, pages 267 - 272, ISSN: 0004879164 *

Also Published As

Publication number Publication date
WO2020105366A1 (ja) 2020-05-28
US20210234975A1 (en) 2021-07-29
JP7208771B2 (ja) 2023-01-19
US11496635B2 (en) 2022-11-08

Similar Documents

Publication Publication Date Title
US7633512B2 (en) Information processing apparatus, information processing method and program
JP4006224B2 (ja) 画像品質判定方法、判定装置、判定プログラム
US11574489B2 (en) Image processing system, image processing method, and storage medium
US11983910B2 (en) Image processing system, image processing method, and storage medium each for obtaining pixels of object using neural network
CN101558416A (zh) 移动通信设备的文本检测
US9990701B2 (en) Image-processing apparatus, image-processing method, and computer program product
WO2020105366A1 (ja) 情報処理装置、情報処理方法、プログラムおよび記憶媒体、並びに、画像形成システム
JP2020170309A (ja) 画像処理システム、画像処理装置、画像処理方法、及びプログラム
JP2021043650A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2019028094A (ja) 文字生成装置、プログラム及び文字出力装置
JP2023030811A (ja) 情報処理装置、抽出処理装置、画像処理システム、情報処理装置の制御方法、及びプログラム
US9338310B2 (en) Image processing apparatus and computer-readable medium for determining pixel value of a target area and converting the pixel value to a specified value of a target image data
CN108875570B (zh) 信息处理装置、存储介质和信息处理方法
CN111126273A (zh) 图像处理方法、装置、电子设备以及存储介质
JP2017116974A (ja) 画像処理装置および画像処理プログラム
JP2006171249A (ja) 情報処理システム、サーバ装置、およびプログラム
US10560606B2 (en) Image processing device, image processing method, and non-transitory computer readable medium
JP2006229874A (ja) 情報処理装置、情報処理方法、情報処理プログラム、コンピュータに読み取り可能な記録媒体及び情報処理システム
JP2022090469A (ja) 書式定義装置、書式定義方法、及びプログラム
JP4741363B2 (ja) 画像処理装置、画像処理方法、及び、画像処理プログラム
JP2010128599A (ja) 文書画像処理装置及びプログラム
JP2006277150A (ja) 画像分離装置、画像分離方法およびプログラム
JP5935376B2 (ja) 複写装置
US20240062567A1 (en) Learning Image Generation Apparatus, Learning Image Generation Method, And Non-Transitory Computer-Readable Recording Medium
JP6704016B2 (ja) 答案採点のシステム、プログラムおよび方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230106

R151 Written notification of patent or utility model registration

Ref document number: 7208771

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151