JP7497474B1 - Electronic device and image processing method - Google Patents

Electronic device and image processing method Download PDF

Info

Publication number
JP7497474B1
JP7497474B1 JP2023007259A JP2023007259A JP7497474B1 JP 7497474 B1 JP7497474 B1 JP 7497474B1 JP 2023007259 A JP2023007259 A JP 2023007259A JP 2023007259 A JP2023007259 A JP 2023007259A JP 7497474 B1 JP7497474 B1 JP 7497474B1
Authority
JP
Japan
Prior art keywords
image
character
electronic device
area
characters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023007259A
Other languages
Japanese (ja)
Inventor
圭一 吉冨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2023007259A priority Critical patent/JP7497474B1/en
Application granted granted Critical
Publication of JP7497474B1 publication Critical patent/JP7497474B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ディザリングが施された画像における文字の視認性を上げる。【解決手段】電子機器は、画像において文字を含む文字領域を抽出する領域抽出処理と、前記画像において前記文字領域以外の領域にディザリングを施す処理と、前記文字領域において前記文字を強調する強調処理と、を実行するプロセッサを備える。【選択図】図2The present invention relates to an electronic device that improves the visibility of characters in an image that has been subjected to dithering. The electronic device includes a processor that executes an area extraction process that extracts a character area that includes characters in an image, a process that applies dithering to an area other than the character area in the image, and an enhancement process that enhances the characters in the character area. [Selected Figure] Figure 2

Description

本発明は、電子機器及び画像処理方法に関する。 The present invention relates to an electronic device and an image processing method.

電子ペーパーを使用するディスプレイが開発されている。電子ペーパーディスプレイは、テキスト編集又はプログラミングなどに使用されている。 Displays that use electronic paper have been developed. Electronic paper displays are used for text editing or programming, etc.

電子ペーパーディスプレイのリフレッシュレートは、液晶ディスプレイなどのリフレッシュレートよりも低い。一般的な電子ペーパーディスプレイは、画像のグレースケールの分解能を下げるディザリングを実行する機能を有する。これにより、電子ペーパーディスプレイのリフレッシュレートを上げることができる。 The refresh rate of an e-paper display is lower than that of an LCD display. A typical e-paper display has the ability to perform dithering, which reduces the grayscale resolution of an image. This allows the refresh rate of the e-paper display to be increased.

特許文献1には、画像を表示する順番を、残像が発生しにくい順番に変更することによりリフレッシュ動作の回数を低減することができる電子ペーパー端末が開示されている。 Patent document 1 discloses an electronic paper terminal that can reduce the number of refresh operations by changing the order in which images are displayed to an order that is less likely to cause image retention.

特開2015-2545号公報JP 2015-2545 A

ディザリングを実行することにより電子ペーパーディスプレイのリフレッシュレートを上げることができる。しかしながら、画像の全体に対してディザリングが一様に施されるため、細かい文字が読みにくくなる。 Dithering can be used to increase the refresh rate of an e-paper display. However, because dithering is applied uniformly across the entire image, it can make small text difficult to read.

本発明は、ディザリングが施された画像における文字の視認性を上げることができる電子機器及び画像処理方法を提供することを目的とする。 The present invention aims to provide an electronic device and an image processing method that can improve the visibility of characters in an image that has been dithered.

本発明の一態様は、画像において文字を含む文字領域を抽出する領域抽出処理と、前記画像において前記文字領域以外の領域にディザリングを施す処理と、前記文字領域において前記文字を強調する強調処理と、を実行するプロセッサを備え、前記プロセッサは、前記強調処理において前記文字領域から前記文字を抽出し、前記文字のグラフィック画像を生成し、前記グラフィック画像を前記文字領域に重畳する電子機器である。 One aspect of the present invention is an electronic device that includes a processor that performs an area extraction process that extracts a character area containing characters from an image, a process that applies dithering to areas in the image other than the character area, and an enhancement process that enhances the characters in the character area , wherein the processor extracts the characters from the character area in the enhancement process, generates a graphic image of the characters, and superimposes the graphic image on the character area .

本発明の一態様は、プロセッサが、画像において文字を含む文字領域を抽出するステップと、前記画像において前記文字領域以外の領域にディザリングを実行するステップと、前記文字領域において前記文字を強調するステップと、を実行し、前記文字を強調するステップにおいて前記文字領域から前記文字を抽出し、前記文字のグラフィック画像を生成し、前記グラフィック画像を前記文字領域に重畳する画像処理方法である。
One aspect of the present invention is an image processing method in which a processor executes the steps of extracting a character area containing characters in an image, performing dithering on an area in the image other than the character area, and emphasizing the character in the character area, and in the character emphasizing step extracts the character from the character area, generates a graphic image of the character, and superimposes the graphic image on the character area .

本発明の上記態様によれば、ディザリングが施された画像における文字の視認性を上げることができる。 According to the above aspect of the present invention, it is possible to improve the visibility of characters in an image that has been dithered.

実施形態による電子機器のハードウェア構成例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of an electronic device according to an embodiment. 実施形態による電子機器の機能構成例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration of an electronic device according to an embodiment. 実施形態による電子機器の動作例を示すフローチャートである。5 is a flowchart illustrating an example of the operation of the electronic device according to the embodiment. 実施形態における画像の例を示す図である。FIG. 13 is a diagram showing an example of an image in the embodiment. 実施形態における画像の例を示す図である。FIG. 13 is a diagram showing an example of an image in the embodiment. 実施形態における画像の画素値のヒストグラムの例を示す図である。FIG. 4 is a diagram illustrating an example of a histogram of pixel values of an image in the embodiment. 実施形態における画像の例を示す図である。FIG. 13 is a diagram showing an example of an image in the embodiment. 従来技術のディザリングが施された画像の例を示す図である。FIG. 1 shows an example of a prior art dithered image.

以下、図面を参照し、本発明の実施形態を説明する。 The following describes an embodiment of the present invention with reference to the drawings.

図1を参照し、実施形態による電子機器10のハードウェア構成例について説明する。図1は、電子機器10のハードウェア構成の一例を示すブロック図である。 An example of the hardware configuration of electronic device 10 according to an embodiment will be described with reference to FIG. 1. FIG. 1 is a block diagram showing an example of the hardware configuration of electronic device 10.

電子機器10は、CPU11と、メインメモリ12と、ビデオサブシステム13と、表示部14と、チップセット21と、BIOSメモリ22と、記憶媒体23と、オーディオシステム24と、WLANカード25と、USBコネクタ26と、エンベデッドコントローラ31と、入力部32と、電源回路33と、バッテリ34とを備える。 The electronic device 10 includes a CPU 11, a main memory 12, a video subsystem 13, a display unit 14, a chipset 21, a BIOS memory 22, a storage medium 23, an audio system 24, a WLAN card 25, a USB connector 26, an embedded controller 31, an input unit 32, a power supply circuit 33, and a battery 34.

CPU11は、プログラム制御により種々の演算処理を実行し、電子機器10全体を制御している。例えば、CPU11は、OS(Operating System)及びBIOS(Basic Input Output System)のプログラムに基づく処理を実行する。CPU11は、プロセッサの一例である。 The CPU 11 executes various arithmetic processes under program control and controls the entire electronic device 10. For example, the CPU 11 executes processes based on the programs of an OS (Operating System) and a BIOS (Basic Input Output System). The CPU 11 is an example of a processor.

メインメモリ12は、CPU11の実行プログラムの読み込み領域として、又は、実行プログラムの処理データを書き込む作業領域として利用される書き込み可能メモリである。メインメモリ12は、例えば、複数個のDRAM(Dynamic Random Access Memory)チップで構成される。この実行プログラムには、OS、周辺機器類をハードウェア操作するための各種ドライバ、各種サービス/ユーティリティ、アプリケーションプログラム等が含まれる。 The main memory 12 is a writable memory that is used as a read area for the execution program of the CPU 11, or as a working area for writing processing data for the execution program. The main memory 12 is composed of, for example, multiple DRAM (Dynamic Random Access Memory) chips. The execution programs include the OS, various drivers for operating the hardware of peripheral devices, various services/utilities, application programs, etc.

ビデオサブシステム13は、画像表示に関連する機能を実現するためのサブシステムであり、ビデオコントローラを含む。ビデオコントローラは、CPU11からの描画命令を処理し、処理した描画情報をビデオメモリに書き込むとともに、ビデオメモリからこの描画情報を読み出して、表示部14に描画データ(表示データ)として出力する。 The video subsystem 13 is a subsystem for implementing functions related to image display, and includes a video controller. The video controller processes drawing commands from the CPU 11, writes the processed drawing information to a video memory, and also reads the drawing information from the video memory and outputs it to the display unit 14 as drawing data (display data).

表示部14は、電子ペーパーディスプレイであり、ビデオサブシステム13から出力された描画データ(表示データ)に基づく表示画面を表示する。 The display unit 14 is an electronic paper display that displays a display screen based on the drawing data (display data) output from the video subsystem 13.

チップセット21は、USB(Universal Serial Bus)、シリアルATA(AT Attachment)、SPI(Serial Peripheral Interface)バス、PCI(Peripheral Component Interconnect)バス、PCI-Expressバス、及びLPC(Low Pin Count)バスなどのコントローラを備えており複数のデバイスが接続される。例えば、複数のデバイスとして、後述するBIOSメモリ22と、記憶媒体23と、オーディオシステム24と、WLANカード25と、USBコネクタ26と、エンベデッドコントローラ31とが含まれる。 The chipset 21 includes controllers such as a Universal Serial Bus (USB), a Serial ATA (AT Attachment), a Serial Peripheral Interface (SPI) bus, a Peripheral Component Interconnect (PCI) bus, a PCI-Express bus, and a Low Pin Count (LPC) bus, and is connected to multiple devices. For example, the multiple devices include a BIOS memory 22 (described later), a storage medium 23, an audio system 24, a WLAN card 25, a USB connector 26, and an embedded controller 31.

BIOSメモリ22は、例えば、EEPROM(Electrically Erasable Programmable Read Only Memory)又はフラッシュROMなどの電気的に書き換え可能な不揮発性メモリで構成される。BIOSメモリ22は、BIOS、及びエンベデッドコントローラ31などを制御するためのシステムファームウェアなどを記憶する。BIOSメモリ22は、サブメモリの一例である。 The BIOS memory 22 is composed of an electrically rewritable non-volatile memory such as an EEPROM (Electrically Erasable Programmable Read Only Memory) or a flash ROM. The BIOS memory 22 stores the BIOS and system firmware for controlling the embedded controller 31 and the like. The BIOS memory 22 is an example of a sub-memory.

記憶媒体23は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、などを含む。例えば、記憶媒体23は、OS、各種ドライバ、各種サービス/ユーティリティ、アプリケーションプログラム、及び各種データを記憶する。 The storage medium 23 includes a hard disk drive (HDD), a solid state drive (SSD), etc. For example, the storage medium 23 stores an OS, various drivers, various services/utilities, application programs, and various data.

オーディオシステム24は、不図示のマイク及びスピーカが接続され、音データの記録、再生、出力を行う。なお、マイク及びスピーカは、一例として、電子機器10に内蔵されている。 The audio system 24 is connected to a microphone and speaker (not shown) and records, plays, and outputs audio data. Note that, as an example, the microphone and speaker are built into the electronic device 10.

WLAN(Wireless Local Area Network)カード25は、ワイヤレス(無線)LANにより、ネットワークに接続して、データ通信を行う。WLANカード25は、例えば、ネットワークからのデータを受信した際に、データを受信したことを示すイベントトリガを発生する。USBコネクタ26は、USBを利用した周辺機器類を接続するためのコネクタである。 The WLAN (Wireless Local Area Network) card 25 connects to a network via a wireless LAN and performs data communication. For example, when the WLAN card 25 receives data from the network, it generates an event trigger indicating that data has been received. The USB connector 26 is a connector for connecting peripheral devices that use USB.

入力部32は、電子機器10に備えられる入力デバイス(入力機器)を一括して示す。入力部32は、キーボード及びマウスなどを含む。入力部32は、ユーザの操作により入力された入力情報をエンベデッドコントローラ31へ出力する。 The input unit 32 collectively refers to the input devices (input equipment) provided in the electronic device 10. The input unit 32 includes a keyboard and a mouse. The input unit 32 outputs input information input by a user's operation to the embedded controller 31.

電源回路33は、例えば、DC/DCコンバータ、充放電ユニット、AC/DCアダプタなどを含む。例えば、電源回路33は、ACアダプタ(不図示)などの外部電源又はバッテリ34から供給される直流電圧を、電子機器10を動作させるために必要な複数の電圧に変換する。また、電源回路33は、エンベデッドコントローラ31からの制御に基づいて、電子機器10の各部に電力を供給する。 The power supply circuit 33 includes, for example, a DC/DC converter, a charge/discharge unit, and an AC/DC adapter. For example, the power supply circuit 33 converts a DC voltage supplied from an external power source such as an AC adapter (not shown) or a battery 34 into multiple voltages required to operate the electronic device 10. The power supply circuit 33 also supplies power to each part of the electronic device 10 based on the control from the embedded controller 31.

バッテリ34は、例えば、リチウムイオンバッテリ等の二次電池である。電子機器10に外部電源から電力が供給されている場合に、バッテリ34は電源回路33を介して充電される。電子機器10に外部電源から電力供給されていない場合に、バッテリ34は電源回路33を介して、蓄積した電力を電子機器10の動作電力として出力する。 The battery 34 is, for example, a secondary battery such as a lithium ion battery. When power is supplied to the electronic device 10 from an external power source, the battery 34 is charged via the power supply circuit 33. When power is not supplied to the electronic device 10 from an external power source, the battery 34 outputs the stored power via the power supply circuit 33 as operating power for the electronic device 10.

エンベデッドコントローラ31は、電子機器10のシステムの状態に関わらず、各種デバイス(周辺装置及びセンサ等)を監視及び制御するワンチップマイコン(One-Chip Microcomputer)である。エンベデッドコントローラ31は、不図示のCPU、ROM、RAM、複数チャネルのA/D入力端子、D/A出力端子、タイマ、及びデジタル入出力端子を備える。エンベデッドコントローラ31のデジタル入出力端子には、入力部32及び電源回路33などが接続されており、エンベデッドコントローラ31は、これらの動作を制御する。また、エンベデッドコントローラ31は、チップセット21経由でCPU11のクロック周波数の変更等の制御を行う。 The embedded controller 31 is a one-chip microcomputer that monitors and controls various devices (peripheral devices, sensors, etc.) regardless of the system state of the electronic device 10. The embedded controller 31 includes a CPU, ROM, RAM, A/D input terminals for multiple channels, a D/A output terminal, a timer, and digital input/output terminals (not shown). The digital input/output terminals of the embedded controller 31 are connected to an input unit 32 and a power supply circuit 33, etc., and the embedded controller 31 controls the operation of these. The embedded controller 31 also controls changes to the clock frequency of the CPU 11 via the chipset 21.

電子機器10は、クラムシェル型のパーソナルコンピュータ、タブレット端末、又はスマートフォンなどのような携帯型機器であってもよく、電子機器10の筐体に電子ペーパーディスプレイが一体的に取り付けられてもよい。あるいは、デスクトップ型のパーソナルコンピュータのように、装置本体と電子ペーパーディスプレイとが分離していてもよい。本実施形態による電子機器は、CPUを備える機器全般に適用可能である。 The electronic device 10 may be a portable device such as a clamshell-type personal computer, a tablet terminal, or a smartphone, and an electronic paper display may be integrally attached to the housing of the electronic device 10. Alternatively, the device body and the electronic paper display may be separate, as in a desktop personal computer. The electronic device according to this embodiment is applicable to all devices equipped with a CPU.

図2を参照し、電子機器10の機能構成例について説明する。図2は、電子機器10の機能構成の一例を示すブロック図である。 An example of the functional configuration of the electronic device 10 will be described with reference to FIG. 2. FIG. 2 is a block diagram showing an example of the functional configuration of the electronic device 10.

電子機器10は、制御部100と、表示部14と、記憶部110とを備える。制御部100の機能は、CPU11、ビデオサブシステム13、又はCPU11とビデオサブシステム13との組み合わせにより実現される。 The electronic device 10 includes a control unit 100, a display unit 14, and a storage unit 110. The functions of the control unit 100 are realized by a CPU 11, a video subsystem 13, or a combination of the CPU 11 and the video subsystem 13.

記憶部110は、制御部100により実行されるプログラム、制御部100により使用されるデータ、及び制御部100により生成されるデータなどを記憶する。記憶部110の機能は、メインメモリ12、記憶媒体23、又はメインメモリ12と記憶媒体23との組み合わせにより実現される。 The storage unit 110 stores programs executed by the control unit 100, data used by the control unit 100, and data generated by the control unit 100. The functions of the storage unit 110 are realized by the main memory 12, the storage medium 23, or a combination of the main memory 12 and the storage medium 23.

制御部100は、画像生成部101と、領域抽出部102と、ディザリング処理部103と、強調処理部104と、表示制御部105とを備える。画像生成部101は、画像を生成する。領域抽出部102は、画像生成部101によって生成された画像において文字を含む文字領域を抽出する領域抽出処理を実行する。ディザリング処理部103は、画像生成部101によって生成された画像において文字領域以外の領域にディザリングを施す処理を実行する。強調処理部104は、文字領域において文字を強調する強調処理を実行する。表示制御部105は、ディザリング及び強調処理が施された画像を表示部14に出力し、画像を表示部14に表示させる。 The control unit 100 includes an image generation unit 101, an area extraction unit 102, a dithering processing unit 103, an emphasis processing unit 104, and a display control unit 105. The image generation unit 101 generates an image. The area extraction unit 102 executes area extraction processing to extract a character area including characters in the image generated by the image generation unit 101. The dithering processing unit 103 executes processing to apply dithering to areas other than the character area in the image generated by the image generation unit 101. The emphasis processing unit 104 executes emphasis processing to emphasize the characters in the character area. The display control unit 105 outputs the image that has been subjected to the dithering and emphasis processing to the display unit 14, and causes the image to be displayed on the display unit 14.

図3を参照し、電子機器10が実行する処理を説明する。図3は、電子機器10の動作を示すフローチャートである。 The process executed by the electronic device 10 will be described with reference to FIG. 3. FIG. 3 is a flowchart showing the operation of the electronic device 10.

(ステップS100)
画像生成部101は、文字(テキスト)を含むデータを記憶部110から取得する。例えば、そのデータは、文字編集ソフトウェアによって生成されたデータである。画像生成部101は、取得したデータに基づいて表示用の画像を生成する。図4は、画像生成部101によって生成された画像IMG1を示す。
(Step S100)
The image generating unit 101 acquires data including characters (text) from the storage unit 110. For example, the data is data generated by character editing software. The image generating unit 101 generates an image for display based on the acquired data. FIG. 4 shows an image IMG1 generated by the image generating unit 101.

(ステップS101)
領域抽出部102は、領域抽出処理を実行し、1つ以上の文字領域を画像から抽出する。例えば、領域抽出部102は、OCR(Optical Character Recognition)処理を実行することにより文字を検出し、その文字を含む文字領域を抽出する。
(Step S101)
The region extraction unit 102 executes a region extraction process to extract one or more character regions from an image. For example, the region extraction unit 102 executes an OCR (Optical Character Recognition) process to detect characters and extract a character region including the characters.

図5は、領域抽出部102によって処理された画像IMG2を示す。領域抽出部102は、文字領域LR1からLR23を抽出する。 Figure 5 shows image IMG2 processed by region extraction unit 102. Region extraction unit 102 extracts character regions LR1 to LR23.

(ステップS102)
ディザリング処理部103は、画像において文字領域以外の領域にディザリングを施す。このとき、ディザリング処理部103は、処理対象の領域をグレースケールに変換する。ディザリングのアルゴリズムとして、ランダムディザリング又は配列ディザリングなどが適用可能である。
(Step S102)
The dithering processor 103 applies dithering to regions other than character regions in an image. At this time, the dithering processor 103 converts the region to be processed into grayscale. As a dithering algorithm, random dithering, array dithering, or the like can be applied.

(ステップS103)
強調処理部104は、文字領域に強調処理を実行する。例えば、強調処理部104は、以下の処理を実行することにより、文字領域における各画素の値を2値化する。
(Step S103)
The emphasis processor 104 executes emphasis processing on the character region. For example, the emphasis processor 104 executes the following processing to binarize the value of each pixel in the character region.

強調処理部104は、画素値のヒストグラムを文字領域毎に生成する。図6は、ヒストグラムの例を示す。図6に示すグラフの横軸は画素値を示し、グラフの縦軸は各画素値を持つ画素の数(度数)を示す。強調処理部104は、ヒストグラムにおけるピーク画素値P1及びピーク画素値P2を検出する。例えば、ピーク画素値P1は、文字の画素において最も度数が高い画素値であり、ピーク画素値P2は、背景の画素において最も度数が高い画素値である。 The emphasis processing unit 104 generates a histogram of pixel values for each character region. FIG. 6 shows an example of a histogram. The horizontal axis of the graph shown in FIG. 6 indicates pixel values, and the vertical axis of the graph indicates the number of pixels having each pixel value (frequency). The emphasis processing unit 104 detects peak pixel value P1 and peak pixel value P2 in the histogram. For example, peak pixel value P1 is the pixel value with the highest frequency among the pixels of the character, and peak pixel value P2 is the pixel value with the highest frequency among the pixels of the background.

強調処理部104は、ピーク画素値P1とピーク画素値P2との間の画素値THを検出する。例えば、画素値THは、ヒストグラムの2つのピークの間の谷における画素値である。強調処理部104は、画素値THを文字領域毎に検出する。強調処理部104は、画素値THをしきい値として使用することにより各文字領域における各画素の値を2値化する。 The emphasis processing unit 104 detects a pixel value TH between the peak pixel value P1 and the peak pixel value P2. For example, the pixel value TH is a pixel value at a valley between two peaks of a histogram. The emphasis processing unit 104 detects the pixel value TH for each character region. The emphasis processing unit 104 binarizes the value of each pixel in each character region by using the pixel value TH as a threshold value.

(ステップS104)
表示制御部105は、画像を表示部14に出力し、画像を表示部14に表示させる。
(Step S104)
The display control unit 105 outputs the image to the display unit 14 and causes the display unit 14 to display the image.

ステップS104が実行された後、ステップS100が実行される。 After step S104 is executed, step S100 is executed.

ステップS102とステップS103とが実行される順番は、図3に示す順番に限らない。ステップS101が実行された後、ステップS103とステップS102とがこの順に実行されてもよい。 The order in which steps S102 and S103 are executed is not limited to the order shown in FIG. 3. After step S101 is executed, steps S103 and S102 may be executed in this order.

ディザリング処理部103は、画像の全体にディザリングを施してもよい。その場合、強調処理部104は、ディザリングが施された文字領域に強調処理を実行する。 The dithering processor 103 may apply dithering to the entire image. In that case, the emphasis processor 104 performs emphasis processing on the character area to which dithering has been applied.

図7は、ディザリング処理部103及び強調処理部104によって処理された画像IMG3を示す。ディザリング処理部103は、図5に示す画像IMG2において文字領域LR1からLR23以外の領域にディザリングを施す。強調処理部104は、画像IMG2において文字領域LR1からLR23に強調処理を実行する。画像IMG3は、画像IMG2にディザリングと強調処理とを施すことにより生成された画像である。 Figure 7 shows image IMG3 processed by dithering processing unit 103 and emphasis processing unit 104. Dithering processing unit 103 applies dithering to areas other than character areas LR1 to LR23 in image IMG2 shown in Figure 5. Emphasis processing unit 104 executes emphasis processing on character areas LR1 to LR23 in image IMG2. Image IMG3 is an image generated by applying dithering and emphasis processing to image IMG2.

図8は、図4に示す画像IMG1の全体にディザリングを一様に施すことにより生成された画像IMG4を示す。ディザリングが文字領域にも施されるため、細かい文字が読みにくい。一方、図7に示す画像IMG3では、ディザリングの代わりに強調処理が文字領域に施されるため、画像IMG4と比較して文字の視認性が上がる。 Figure 8 shows image IMG4, which was generated by applying dithering uniformly to the entire image IMG1 shown in Figure 4. Because dithering is also applied to the text areas, small characters are difficult to read. On the other hand, in image IMG3 shown in Figure 7, emphasis processing is applied to the text areas instead of dithering, which improves the visibility of the characters compared to image IMG4.

上記のように、領域抽出部102は、画像において文字を含む文字領域を抽出する。ディザリング処理部103は、画像において文字領域以外の領域にディザリングを施す。強調処理部104は、文字領域において文字を強調する。これにより、電子機器10は、ディザリングが施された画像における文字の視認性を上げることができる。 As described above, the area extraction unit 102 extracts character areas that contain characters from the image. The dithering processing unit 103 applies dithering to areas of the image other than the character areas. The emphasis processing unit 104 emphasizes characters in the character areas. This enables the electronic device 10 to improve the visibility of characters in the image to which dithering has been applied.

強調処理部104は、文字領域にエッジを強調する処理(エッジ強調)を施した後、文字領域における各画素の値を2値化してもよい。文字領域にエッジ強調を施すことにより、文字と背景との境界が明確になる。そのため、2値化された文字領域における文字の輪郭が強調され、文字の視認性が上がる。 The emphasis processing unit 104 may perform edge emphasis processing on the character region, and then binarize the value of each pixel in the character region. By performing edge emphasis on the character region, the boundary between the character and the background becomes clear. Therefore, the outlines of the characters in the binarized character region are emphasized, improving the visibility of the characters.

強調処理部104は、文字領域から文字を抽出し、その文字のグラフィック画像を生成してもよい。例えば、そのグラフィック画像は、2値化された文字の画像である。そのグラフィック画像は、1文字ごとに予め用意されたテンプレート画像であってもよい。強調処理部104は、そのグラフィック画像における文字を元の画像における文字よりも太くしてもよい。強調処理部104は、生成されたグラフィック画像を文字領域に重畳してもよい。グラフィックの文字が文字領域に表示されるため、文字の視認性が上がる。 The emphasis processing unit 104 may extract characters from the character area and generate a graphic image of the characters. For example, the graphic image is an image of the binarized characters. The graphic image may be a template image prepared in advance for each character. The emphasis processing unit 104 may make the characters in the graphic image thicker than the characters in the original image. The emphasis processing unit 104 may superimpose the generated graphic image on the character area. Because the graphic characters are displayed in the character area, the visibility of the characters is improved.

以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成は上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 The above describes the embodiments of the present invention in detail with reference to the drawings, but the specific configuration is not limited to the above embodiments and includes design modifications within the scope of the present invention.

10 電子機器、11 CPU、12 メインメモリ、13 ビデオサブシステム、14 表示部、21 チップセット、22 BIOSメモリ、23 記憶媒体、24 オーディオシステム、25 WLANカード、25 WLANカード、26 USBコネクタ、31 エンベデッドコントローラ、32 入力部、33 電源回路、34 バッテリ、100 制御部、101 画像生成部、102 領域抽出部、103 ディザリング処理部、104 強調処理部、105 表示制御部、110 記憶部 10 Electronic device, 11 CPU, 12 Main memory, 13 Video subsystem, 14 Display unit, 21 Chip set, 22 BIOS memory, 23 Storage medium, 24 Audio system, 25 WLAN card, 25 WLAN card, 26 USB connector, 31 Embedded controller, 32 Input unit, 33 Power supply circuit, 34 Battery, 100 Control unit, 101 Image generation unit, 102 Area extraction unit, 103 Dithering processing unit, 104 Emphasis processing unit, 105 Display control unit, 110 Storage unit

Claims (2)

画像において文字を含む文字領域を抽出する領域抽出処理と、前記画像において前記文字領域以外の領域にディザリングを施す処理と、前記文字領域において前記文字を強調する強調処理と、を実行するプロセッサを備え、
前記プロセッサは、前記強調処理において前記文字領域から前記文字を抽出し、前記文字のグラフィック画像を生成し、前記グラフィック画像を前記文字領域に重畳する
電子機器。
a processor that executes an area extraction process for extracting a character area including characters from an image, a process for applying dithering to an area other than the character area in the image, and an enhancement process for enhancing the characters in the character area;
The processor extracts the character from the character region in the emphasis process, generates a graphic image of the character, and superimposes the graphic image on the character region.
プロセッサが、
画像において文字を含む文字領域を抽出するステップと、
前記画像において前記文字領域以外の領域にディザリングを施すステップと、
前記文字領域において前記文字を強調するステップと、
を実行し、
前記文字を強調するステップにおいて前記文字領域から前記文字を抽出し、前記文字のグラフィック画像を生成し、前記グラフィック画像を前記文字領域に重畳する
画像処理方法。
The processor:
Extracting a character region including characters from an image;
applying dithering to an area other than the character area in the image;
highlighting the character in the character region;
Run
The step of highlighting the character includes extracting the character from the character region, generating a graphic image of the character, and superimposing the graphic image on the character region.
Image processing methods.
JP2023007259A 2023-01-20 2023-01-20 Electronic device and image processing method Active JP7497474B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023007259A JP7497474B1 (en) 2023-01-20 2023-01-20 Electronic device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023007259A JP7497474B1 (en) 2023-01-20 2023-01-20 Electronic device and image processing method

Publications (1)

Publication Number Publication Date
JP7497474B1 true JP7497474B1 (en) 2024-06-10

Family

ID=91377683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023007259A Active JP7497474B1 (en) 2023-01-20 2023-01-20 Electronic device and image processing method

Country Status (1)

Country Link
JP (1) JP7497474B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4157525B2 (en) 2002-08-03 2008-10-01 クラリアント・プロドゥクテ(ドイチュラント)ゲーエムベーハー Use of layered double hydroxide salts
JP2011076327A (en) 2009-09-30 2011-04-14 Seiko Epson Corp Information display device, information display method and program
JP2015002545A (en) 2013-06-18 2015-01-05 コニカミノルタ株式会社 Image processing system, electronic paper terminal and afterimage reduction program thereof
JP2015152859A (en) 2014-02-18 2015-08-24 富士通株式会社 Image display device, image display method, and image display program
US20180039871A1 (en) 2015-02-17 2018-02-08 Samsung Electronics Co., Ltd. Method for improving hybrid halftoning and apparatus therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4157525B2 (en) 2002-08-03 2008-10-01 クラリアント・プロドゥクテ(ドイチュラント)ゲーエムベーハー Use of layered double hydroxide salts
JP2011076327A (en) 2009-09-30 2011-04-14 Seiko Epson Corp Information display device, information display method and program
JP2015002545A (en) 2013-06-18 2015-01-05 コニカミノルタ株式会社 Image processing system, electronic paper terminal and afterimage reduction program thereof
JP2015152859A (en) 2014-02-18 2015-08-24 富士通株式会社 Image display device, image display method, and image display program
US20180039871A1 (en) 2015-02-17 2018-02-08 Samsung Electronics Co., Ltd. Method for improving hybrid halftoning and apparatus therefor

Similar Documents

Publication Publication Date Title
EP3712805A1 (en) Gesture recognition method, device, electronic device, and storage medium
JP5423525B2 (en) Handwriting input device, handwriting input method, and handwriting input program
CN103400107A (en) Method and device for generating dynamic verification code picture, and verification method and device
JP2018538608A (en) Face verification method and electronic device
JP6997276B1 (en) Information processing device and control method
CN105159567A (en) Character processing method and terminal
JP7497474B1 (en) Electronic device and image processing method
US9232154B2 (en) Object selection in an image
CN112711387A (en) Method and device for adjusting capacity of buffer area, electronic equipment and readable storage medium
US20100201700A1 (en) Display apparatus, computer-readable recording medium in which display data deletion program is recorded, and display data deletion method
CN105353937A (en) Control method for display interface and terminal
CN111626921A (en) Picture processing method and device and electronic equipment
CN112187252A (en) Interface identification circuit, method, equipment and electronic equipment
US20230045137A1 (en) Information processing apparatus, information processing system, and control method
EP3745263A1 (en) Electronic device and method for controlling same
US9965170B2 (en) Multi-touch inputs for input interface control
CN107526814B (en) Mobile terminal file storage method and device
US20190012968A1 (en) Mobile terminal and adjusting method thereof, and computer readable storage medium
JP2008084125A (en) Information processor
US20200320122A1 (en) Electronic device and control method thereof
JP6922690B2 (en) Character area extraction program, character area extraction device and character area extraction method
JP6916339B1 (en) Information processing device and control method
CN104866303A (en) Information processing method and mobile terminal
CN117153118B (en) Picture updating method, device and equipment of ink screen and storage medium
CN104881335A (en) Backup application restoration method and terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230120

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240529

R150 Certificate of patent or registration of utility model

Ref document number: 7497474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150