JP2017072733A - Electronic apparatus and information display program - Google Patents

Electronic apparatus and information display program Download PDF

Info

Publication number
JP2017072733A
JP2017072733A JP2015199711A JP2015199711A JP2017072733A JP 2017072733 A JP2017072733 A JP 2017072733A JP 2015199711 A JP2015199711 A JP 2015199711A JP 2015199711 A JP2015199711 A JP 2015199711A JP 2017072733 A JP2017072733 A JP 2017072733A
Authority
JP
Japan
Prior art keywords
image data
clip
image
range
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015199711A
Other languages
Japanese (ja)
Other versions
JP6604131B2 (en
Inventor
壮太郎 栗林
Sotaro Kuribayashi
壮太郎 栗林
今城 主税
Chikara Imashiro
主税 今城
一木 篤史
Atsushi Ichiki
篤史 一木
紀光 向井
Norimitsu Mukai
紀光 向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015199711A priority Critical patent/JP6604131B2/en
Publication of JP2017072733A publication Critical patent/JP2017072733A/en
Application granted granted Critical
Publication of JP6604131B2 publication Critical patent/JP6604131B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize improvement of a user's visibility.SOLUTION: An electronic apparatus 1 has: a reverse characteristic filter processing unit 31 for performing on input image data a reverse characteristic filter process indicating the reverse characteristic of visual properties; a clip processing unit 32 for performing, within a prescribed clip range, a clip process of the pixel value of each pixel forming first image data obtained by the reverse characteristic filter process; a normalization processing unit 33 for performing a normalization process of the pixel value of each pixel forming second image data obtained by the clip process; an image degradation degree calculation unit 41 for calculating degrees of image degradation each corresponding to a plurality of third image data on which the clip process has been performed in a plurality of different clip ranges by the clip processing unit 32 and the normalization process has been performed by the normalization processing unit 33; a clip range update unit 42 for specifying third image data whose image degradation degree is minimum on the basis of a plurality of calculated image degradation degrees; and a display unit 43 for displaying and controlling the specified third image data on a display.SELECTED DRAWING: Figure 3

Description

本発明は、電子機器などに関する。   The present invention relates to an electronic device and the like.

従来、利用者の視力に応じて、表示対象となる画像を利用者が視認しやすい画像に変換する技術が知られている。このような技術の一例として、老眼や近視の利用者が視認しやすい画像を表示するため、利用者の網膜上に投影される画像のぼやけ方をモデル化し、かかるぼやけが相殺されるように画像データを変換する視度補正装置が知られている。   2. Description of the Related Art Conventionally, a technique for converting an image to be displayed into an image that is easy for the user to visually recognize according to the visual acuity of the user is known. As an example of such a technique, in order to display an image that can be easily viewed by a user with presbyopia or myopia, the image projected on the user's retina is modeled, and the image is corrected so that the blur is offset. A diopter correction device that converts data is known.

例えば、視度補正装置は、画像表示デバイスに表示される画像から観者の網膜上に結像される画像への像変化の伝達特性を相殺する伝達関数を、網膜上における点像の広がりに基づき生成し、生成した伝達関数を画像表示デバイスへの入力画像信号に対し作用せしめるように画像処理を実行する。この場合の伝達関数として、その振幅特性が2次元ガウシアンの逆数の関数や、2次元空間領域における点拡がり関数のグラフが楕円柱状となるような低域通過型フィルタの周波数応答の逆数の関数などを用いることができる。   For example, a diopter correction device converts a transfer function that cancels the transfer characteristics of an image change from an image displayed on an image display device to an image formed on a viewer's retina into a spread of a point image on the retina. Based on the generated transfer function, image processing is executed so that the generated transfer function acts on the input image signal to the image display device. As a transfer function in this case, the amplitude characteristic is a function of the reciprocal of two-dimensional Gaussian, the function of the reciprocal of the frequency response of a low-pass filter whose point spread function graph in a two-dimensional space region is elliptical, etc. Can be used.

特開2012−63589号公報JP 2012-63589 A 特開2007−128355号公報JP 2007-128355 A

しかしながら、上述した像変化の伝達特性を相殺する伝達関数を用いる技術では、高周波成分が増大するために、最大(小)画素値より超過する出力値を最大(小)画素値の範囲内に制限する必要がある。最大(小)画素値より超過する出力値を最大(小)画素値の範囲内に制限すると、十分な視認性の向上が得られないという問題がある。   However, in the technique using the transfer function that cancels the transfer characteristic of the image change described above, the output value exceeding the maximum (small) pixel value is limited within the range of the maximum (small) pixel value because the high frequency component increases. There is a need to. If the output value exceeding the maximum (small) pixel value is limited within the range of the maximum (small) pixel value, there is a problem that sufficient visibility cannot be improved.

ここで、最大(小)画素値より超過する出力値を最大(小)画素値の範囲内に制限する手法について説明する。かかる制限する手法には、例えば、クリップ処理と、正規化処理とがある。   Here, a method of limiting an output value exceeding the maximum (small) pixel value within the range of the maximum (small) pixel value will be described. Such limiting methods include, for example, clip processing and normalization processing.

まず、クリップ処理について、図29を参照して説明する。図29は、クリップ処理の参考例を示す図である。図29に示すように、クリップ処理は、最大画素値より超過する出力値を最大画素値に置換し、最小画素値より超過する出力値を最小画素値に置換する。しかしながら、最大(小)画素値より超過する出力値を、クリップ処理で、最大(小)画素値の範囲内に丸めても、制限する前後の誤差が増大し、周波数特性を大きく歪ませてしまう。この結果、十分な視認性の向上が得られない。   First, clip processing will be described with reference to FIG. FIG. 29 is a diagram illustrating a reference example of clip processing. As shown in FIG. 29, in the clipping process, an output value exceeding the maximum pixel value is replaced with the maximum pixel value, and an output value exceeding the minimum pixel value is replaced with the minimum pixel value. However, even if an output value that exceeds the maximum (small) pixel value is rounded to the maximum (small) pixel value range by clipping, the error before and after the limit increases, and the frequency characteristics are greatly distorted. . As a result, sufficient visibility cannot be improved.

また、正規化処理について、図30を参照して説明する。図30は、正規化処理の参考例を示す図である。図30に示すように、正規化処理は、最大出力値を最大画素値に対応付け、最小出力値を最小画素値に対応付け、この間の出力値は大小関係を保持する様に対応付ける。しかしながら、最大(小)画素値より超過する出力値を、正規化処理で、最大(小)画素値の範囲内に丸めても、相対的な大小関係が狭まり、画像全体が暗くなってコントラストが低下してしまう。この結果、十分な視認性の向上が得られない。   The normalization process will be described with reference to FIG. FIG. 30 is a diagram illustrating a reference example of normalization processing. As shown in FIG. 30, the normalization process associates the maximum output value with the maximum pixel value, associates the minimum output value with the minimum pixel value, and associates the output values between them so as to maintain the magnitude relationship. However, even if an output value that exceeds the maximum (small) pixel value is rounded within the range of the maximum (small) pixel value by normalization processing, the relative magnitude relationship is narrowed, the entire image becomes dark, and the contrast is reduced. It will decline. As a result, sufficient visibility cannot be improved.

このように、クリップ処理や正規化処理の一方で丸め処理を行うのみでは十分な視認性の向上が得られない。   In this way, sufficient visibility cannot be obtained only by performing rounding in one of clip processing and normalization processing.

本発明は、1つの側面では、利用者の視認性の向上を実現することを目的とする。   An object of one aspect of the present invention is to improve the visibility of a user.

1つの態様では、電子機器は、入力画像データに対して、視覚特性の逆特性を示す逆特性フィルタ処理を行う逆特性フィルタ処理部と、前記逆特性フィルタ処理により得られた第1の画像データを形成する各画素の画素値を、所定のクリップ範囲でクリップ処理するクリップ処理部と、前記クリップ処理により得られた第2の画像データを形成する各画素の画素値を、正規化処理する正規化処理部と、前記クリップ処理部により異なる複数のクリップ範囲でクリップ処理され、かつ、前記正規化処理部により正規化処理された複数の第3の画像データに対応する画像劣化度をそれぞれ算出する画像劣化度算出部と、前記画像劣化度算出部により算出された複数の画像劣化度に基づいて、前記画像劣化度が最小となる前記第3の画像データを特定する特定部と、前記特定部で特定された前記第3の画像データを所定の表示部に表示制御する表示制御部と、を有する。   In one aspect, the electronic device performs, on the input image data, a reverse characteristic filter processing unit that performs a reverse characteristic filter process that indicates a reverse characteristic of the visual characteristic, and the first image data obtained by the reverse characteristic filter process. A clip processing unit that clips the pixel value of each pixel that forms a pixel within a predetermined clip range, and a normal that performs a normalization process on the pixel value of each pixel that forms the second image data obtained by the clipping process. And image degradation degrees corresponding to a plurality of third image data clipped in a plurality of different clip ranges by the normalization processing unit and the clip processing unit and normalized by the normalization processing unit, respectively. Based on the image deterioration degree calculation unit and the plurality of image deterioration degrees calculated by the image deterioration degree calculation unit, the third image data having the minimum image deterioration degree is obtained. Has a specific section for, and a display control unit for displaying controlling said third image data identified by the identifying unit on a predetermined display unit.

1実施態様によれば、利用者の視認性の向上を実現することができる。   According to one embodiment, it is possible to improve user visibility.

図1は、実施例1の情報表示処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of information display processing according to the first embodiment. 図2は、実施例1の電子機器の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of an electronic apparatus according to the first embodiment. 図3は、実施例1の電子機器の機能構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a functional configuration of the electronic apparatus according to the first embodiment. 図4は、実施例1の画像劣化度算出部の機能構成を示すブロック図である。FIG. 4 is a block diagram illustrating a functional configuration of the image deterioration degree calculation unit according to the first embodiment. 図5は、逆特性フィルタ処理の具体例を示す図である。FIG. 5 is a diagram illustrating a specific example of the inverse characteristic filter processing. 図6は、クリップ処理の具体例を示す図である。FIG. 6 is a diagram illustrating a specific example of clip processing. 図7は、正規化処理の具体例を示す図である。FIG. 7 is a diagram illustrating a specific example of normalization processing. 図8は、コントラスト画像劣化度算出処理の具体例を示す図である。FIG. 8 is a diagram illustrating a specific example of the contrast image deterioration degree calculation process. 図9は、クリップ誤差画像劣化度算出処理の具体例を示す図である。FIG. 9 is a diagram illustrating a specific example of the clip error image deterioration degree calculation processing. 図10は、画像劣化度最小判定処理の具体例を示す図である。FIG. 10 is a diagram illustrating a specific example of the image deterioration degree minimum determination process. 図11は、実施例1の情報表示処理のフローチャートを示す図である。FIG. 11 is a flowchart illustrating the information display process according to the first embodiment. 図12は、実施例2のクリップ範囲算出処理を示す図である。FIG. 12 is a diagram illustrating clip range calculation processing according to the second embodiment. 図13は、実施例2の電子機器の機能構成の一例を示すブロック図である。FIG. 13 is a block diagram illustrating an example of a functional configuration of the electronic apparatus according to the second embodiment. 図14は、実施例2のクリップ範囲算出処理のフローチャートを示す図である。FIG. 14 is a flowchart illustrating the clip range calculation process according to the second embodiment. 図15は、実施例3のクリップ範囲算出処理を示す図である。FIG. 15 is a diagram illustrating clip range calculation processing according to the third embodiment. 図16は、実施例3のクリップ範囲算出処理のフローチャートを示す図である。FIG. 16 is a flowchart illustrating the clip range calculation process according to the third embodiment. 図17は、情報表示処理の用途を示す図である。FIG. 17 is a diagram illustrating an application of information display processing. 図18は、実施例4の電子機器の一例を示すブロック図である。FIG. 18 is a block diagram illustrating an example of an electronic apparatus according to the fourth embodiment. 図19は、実施例4の情報表示システムの機能構成の一例を示すブロック図である。FIG. 19 is a block diagram illustrating an example of a functional configuration of the information display system according to the fourth embodiment. 図20は、実施例4のクリップ範囲テーブルのデータ構造の一例を示す図である。FIG. 20 is a diagram illustrating an example of the data structure of the clip range table of the fourth embodiment. 図21は、実施例4のクリップ範囲決定処理のフローチャートを示す図である。FIG. 21 is a flowchart illustrating the clip range determination process according to the fourth embodiment. 図22は、実施例5の情報表示システムの機能構成の一例を示すブロック図である。FIG. 22 is a block diagram illustrating an example of a functional configuration of the information display system according to the fifth embodiment. 図23は、実施例5のクリップ範囲テーブルのデータ構造の一例を示す図である。FIG. 23 is a diagram illustrating an example of the data structure of the clip range table of the fifth embodiment. 図24は、実施例5のクリップ範囲決定処理のフローチャートを示す図である。FIG. 24 is a flowchart illustrating the clip range determination process according to the fifth embodiment. 図25は、実施例6の情報表示システムの機能構成の一例を示すブロック図である。FIG. 25 is a block diagram illustrating an example of a functional configuration of the information display system according to the sixth embodiment. 図26は、実施例6のクリップ範囲テーブルのデータ構造の一例を示す図である。FIG. 26 is a diagram illustrating an example of the data structure of the clip range table of the sixth embodiment. 図27は、実施例6のクリップ範囲決定処理のフローチャートを示す図である。FIG. 27 is a flowchart illustrating clip range determination processing according to the sixth embodiment. 図28は、情報表示プログラムを実行するコンピュータの一例を示す図である。FIG. 28 is a diagram illustrating an example of a computer that executes an information display program. 図29は、クリップ処理の参考例を示す図である。FIG. 29 is a diagram illustrating a reference example of clip processing. 図30は、正規化処理の参考例を示す図である。FIG. 30 is a diagram illustrating a reference example of normalization processing.

以下に、本願の開示する電子機器および情報表示プログラムの実施例を図面に基づいて詳細に説明する。なお、本発明では、実施例により限定されるものではない。   Embodiments of an electronic device and an information display program disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the examples.

[情報表示処理の一例]
図1は、実施例1の情報表示処理の一例を示す図である。図1に示すように、情報表示処理は、表示対象画像データに対して、例えば老眼でのぼやけ特性の逆の特性のフィルタ(「逆特性フィルタ」という)を適用する。すなわち、情報表示処理は、老眼の視界のぼやけを空間周波数におけるローパスフィルタとみなし、当該ローパスフィルタの逆関数となるハイパスフィルタである逆特性フィルタを適用する。すると、情報表示処理は、画素値のレンジが広がる。特に、情報表示処理は、逆特性フィルタを、画像データの中でも細かく絵柄が変化するエッジなどの部分、すなわち、高周波数成分の部分に施すと、高周波数を持ち上げ、色変化を増幅させる。これにより、老眼の利用者は、逆特性フィルタによる輪郭の強調により、老眼によるぼやけが解消してはっきりと視ることが可能になる。しかしながら、逆特性フィルタの出力値が最大(小)画素値を超過する場合、情報表示処理は、最大(小)画素値の範囲内に制限する必要がある。最大(小)画素値の範囲とは、例えば、8ビット画像データであれば、[0,255]における整数値で表わせる範囲である。ここで、異なる二つの実数a,bに対して[a,b]はa以上b以下の実数全体がなす閉区間を表す。
[Example of information display processing]
FIG. 1 is a diagram illustrating an example of information display processing according to the first embodiment. As shown in FIG. 1, in the information display process, for example, a filter having a characteristic opposite to the blur characteristic of presbyopia (referred to as “reverse characteristic filter”) is applied to the display target image data. That is, in the information display process, blurring of the presbyopia field of view is regarded as a low-pass filter at a spatial frequency, and an inverse characteristic filter that is a high-pass filter that is an inverse function of the low-pass filter is applied. Then, the information display process expands the range of pixel values. In particular, in the information display processing, when an inverse characteristic filter is applied to a portion of the image data such as an edge where the pattern changes finely, that is, a portion of a high frequency component, the high frequency is raised and the color change is amplified. Thereby, the user of presbyopia can see clearly by eliminating the blur caused by presbyopia by emphasizing the contour by the inverse characteristic filter. However, when the output value of the inverse characteristic filter exceeds the maximum (small) pixel value, the information display process needs to be limited within the range of the maximum (small) pixel value. The maximum (small) pixel value range is, for example, a range that can be represented by an integer value in [0, 255] in the case of 8-bit image data. Here, for two different real numbers a and b, [a, b] represents a closed interval formed by the whole real number between a and b.

ここで、最大(小)画素値より超過する出力値を画素値範囲内に制限する手法として、クリップ処理と正規化処理がある。本発明におけるクリップ処理では、最大の画素値以上となった画素値を当該最大の画素値とし、最小の画素値以下となった画素値を当該最小の画素値とすることをいう。正規化処理とは、画素値の大小関係を保持しつつ、例えば8ビット画像データであれば画素値の範囲を閉区間[0,255]の整数値に狭めることをいう。   Here, there are clip processing and normalization processing as a method for limiting an output value exceeding the maximum (small) pixel value within the pixel value range. In the clipping process according to the present invention, a pixel value that is equal to or greater than the maximum pixel value is defined as the maximum pixel value, and a pixel value that is equal to or less than the minimum pixel value is defined as the minimum pixel value. Normalization processing refers to narrowing the range of pixel values to an integer value of the closed interval [0, 255], for example, for 8-bit image data, while maintaining the magnitude relationship between pixel values.

情報表示処理は、逆特性フィルタ後の画像データを形成する各画素の出力値に対して異なる複数のクリップ範囲でクリップ処理を適用する。加えて、情報表示処理は、それぞれのクリップ処理後の画像データを形成する各画素の出力値に対して正規化処理を適用して得られた複数の適用画像データの画像劣化度をそれぞれ算出する。そして、情報表示処理は、複数の画像劣化度に基づいて、画像劣化度が最小となる適用画像データを特定し、特定した適用画像データに対応するクリップ範囲[Cmin,Cmax]を特定する。ここでは、クリップ範囲外の画素値をクリップ範囲内の値(例えば最大画素値や最小画素値)に変更する。また、クリップ範囲の最大出力値を最大画素値に対応付け、クリップ範囲の最小出力値を最小画素値に対応付け、この間の出力値は大小関係を保持しつつ、例えば8ビット画像データであれば画素値の範囲を閉区間[0,255]の整数値に狭める。そして、情報表示処理は、特定された適用画像データを表示する。そして、情報表示処理は、表示画像データと異なる他の表示画像データを処理する場合には、特定されたクリップ範囲[Cmin,Cmax]でクリップ処理を適用し、かつ、クリップ処理後の出力値に正規化処理を適用する。 In the information display process, the clip process is applied in a plurality of different clip ranges with respect to the output value of each pixel forming the image data after the inverse characteristic filter. In addition, in the information display process, the image degradation degrees of a plurality of applied image data obtained by applying the normalization process to the output values of the pixels forming the image data after the respective clip processes are calculated. . Then, the information display processing identifies applied image data that minimizes the image degradation level based on a plurality of image degradation levels, and identifies a clip range [C min , C max ] corresponding to the identified applied image data. . Here, the pixel value outside the clip range is changed to a value within the clip range (for example, the maximum pixel value or the minimum pixel value). In addition, the maximum output value of the clip range is associated with the maximum pixel value, the minimum output value of the clip range is associated with the minimum pixel value, and the output value between them is, for example, 8-bit image data while maintaining a magnitude relationship. The range of pixel values is narrowed to an integer value in the closed interval [0, 255]. Then, the information display process displays the specified applied image data. In the information display process, when other display image data different from the display image data is processed, the clip process is applied in the specified clip range [C min , C max ], and the output after the clip process is performed. Apply normalization to the value.

これにより、情報表示処理は、最終的な出力画像データに関し、表示画像データとの誤差を軽減し、逆特性フィルタによる高周波数成分の増幅効果を保持するとともに、画素値の相対的な大小関係を狭まることを抑制することができる。この結果、情報表示処理は、画像全体のコントラストを増大させることができる。   As a result, the information display processing reduces the error with respect to the display image data regarding the final output image data, retains the amplification effect of the high frequency component by the inverse characteristic filter, and maintains the relative magnitude relationship of the pixel values. Narrowing can be suppressed. As a result, the information display process can increase the contrast of the entire image.

[電子機器の一例]
図2は、実施例1の電子機器の一例を示すブロック図である。図2に示すように、電子機器1は、メモリ2と、GPGPU(General-Purpose computing on Graphics Processing Units)3と、CPU(Central Processing Unit)4と、ディスプレイ5とを有する。メモリ2、GPGPU3、CPU4およびディスプレイ5は、バスで相互に接続されている。
[Example of electronic equipment]
FIG. 2 is a block diagram illustrating an example of an electronic apparatus according to the first embodiment. As shown in FIG. 2, the electronic device 1 includes a memory 2, a general-purpose computing on graphics processing unit (GPGPU) 3, a central processing unit (CPU) 4, and a display 5. The memory 2, GPGPU 3, CPU 4 and display 5 are connected to each other via a bus.

メモリ2は、電子機器1が有する記憶装置であり、GPGPU3やCPU4が実行するプログラムやプログラムが用いる各種データを記憶する。メモリ2は、例えばRAM(Random Access Memory)、FRAM(登録商標)(Ferroelectric Random Access Memory)やフラッシュメモリ(Flash Memory)などの不揮発性の半導体メモリ素子等の記憶装置に対応する。   The memory 2 is a storage device included in the electronic device 1 and stores programs executed by the GPGPU 3 and the CPU 4 and various data used by the programs. The memory 2 corresponds to a storage device such as a nonvolatile semiconductor memory element such as a RAM (Random Access Memory), an FRAM (registered trademark) (Ferroelectric Random Access Memory), and a flash memory (Flash Memory).

GPGPU3は、GPUの演算資源を用いて演算を行う。例えば、GPGPU3は、逆特性フィルタ処理、クリップ処理および正規化処理を行う。CPU4は、電子機器1の各種機能を発揮させるためのプログラムや、OS(Operating System)などのプログラムをメモリ2から読み出して実行する。   The GPGPU 3 performs calculations using the GPU calculation resources. For example, GPGPU3 performs inverse characteristic filter processing, clip processing, and normalization processing. The CPU 4 reads programs for causing various functions of the electronic device 1 and programs such as an OS (Operating System) from the memory 2 and executes them.

ディスプレイ5は、画像データ、模様や文章などの各種情報を表示する表示装置であり、例えば、液晶ディスプレイや有機EL(Electro Luminescence)などである。なお、図2に示した機能構成は、あくまで一例であり、通信回路や外部I/Oを有していても良い。   The display 5 is a display device that displays various types of information such as image data, patterns, and texts, and is, for example, a liquid crystal display or an organic EL (Electro Luminescence). Note that the functional configuration illustrated in FIG. 2 is merely an example, and may include a communication circuit and an external I / O.

[電子機器の機能構成]
図3は、実施例1の電子機器の機能構成の一例を示すブロック図である。図3に示すように、メモリ2は、表示画像記憶部21、ぼやけ特性フィルタ記憶部22、逆特性フィルタ記憶部23およびクリップ範囲記憶部24を有する。
[Functional configuration of electronic equipment]
FIG. 3 is a block diagram illustrating an example of a functional configuration of the electronic apparatus according to the first embodiment. As illustrated in FIG. 3, the memory 2 includes a display image storage unit 21, a blur characteristic filter storage unit 22, an inverse characteristic filter storage unit 23, and a clip range storage unit 24.

表示画像記憶部21は、ディスプレイ5に表示された画像の画像データを記憶する。   The display image storage unit 21 stores image data of an image displayed on the display 5.

ぼやけ特性フィルタ記憶部22は、ぼやけ特性フィルタを記憶する。ぼやけ特性フィルタは、利用者の老眼での視界のぼやけを画像データに適用するローパスフィルタである。ぼやけ特性は、視覚特性の一例であり、利用者の視界のぼやけを再現するフィルタとみなせる。ぼやけ特性フィルタは、利用者の老眼度数、瞳孔径、眼と画像との間の距離などのパラメータおよびレンズの回析効果に応じて、ある1点から放射状に出力される光が、網膜上に投影される範囲を示す点像分布関数(PSF:Point Spread Function)で表わされる。   The blur characteristic filter storage unit 22 stores a blur characteristic filter. The blur characteristic filter is a low-pass filter that applies blurring of the field of view of the user with presbyopia to the image data. The blur characteristic is an example of a visual characteristic, and can be regarded as a filter that reproduces blur in the user's field of view. The blur characteristic filter allows light output radially from a certain point on the retina according to parameters such as the presbyopia power of the user, the pupil diameter, the distance between the eye and the image, and the diffraction effect of the lens. It is represented by a point spread function (PSF) indicating the projected range.

逆特性フィルタ記憶部23は、逆特性フィルタを記憶する。逆特性フィルタは、ぼやけ特性の逆特性のフィルタ(ハイパスフィルタ)である。ぼやけ特性の逆特性は、利用者の視界のぼやけを相殺するフィルタとみなせる。逆特性フィルタは、ぼやけ特性の逆特性を示すPSFで表わされる。   The inverse characteristic filter storage unit 23 stores an inverse characteristic filter. The inverse characteristic filter is a filter (high-pass filter) having an inverse characteristic of the blur characteristic. The inverse characteristic of the blur characteristic can be regarded as a filter that cancels the blur of the user's field of view. The inverse characteristic filter is represented by PSF indicating the inverse characteristic of the blur characteristic.

クリップ範囲記憶部24は、クリップ処理で用いられるクリップ範囲を記憶する。   The clip range storage unit 24 stores a clip range used in clip processing.

GPGPU3は、逆特性フィルタ処理部31、クリップ処理部32、正規化処理部33およびぼやけ特性フィルタ処理部34を有する。CPU4は、画像劣化度算出部41、クリップ範囲更新部42および表示部43を有する。   The GPGPU 3 includes an inverse characteristic filter processing unit 31, a clip processing unit 32, a normalization processing unit 33, and a blur characteristic filter processing unit 34. The CPU 4 includes an image deterioration degree calculation unit 41, a clip range update unit 42, and a display unit 43.

逆特性フィルタ処理部31は、表示画像(原画像)データに対して、老眼でのぼやけ特性の逆特性を有する逆特性フィルタを適用する。例えば、逆特性フィルタ処理部31は、逆特性フィルタ記憶部23に記憶された逆特性フィルタを取得すると、表示画像記憶部21に記憶された表示画像データを取得する。逆特性フィルタ処理部31は、取得した表示画像データの各画素の画素値に逆特性フィルタを適用する。そして、逆特性フィルタ処理部31は、逆特性フィルタ処理後の画像データをクリップ処理部32に出力する。   The inverse characteristic filter processing unit 31 applies an inverse characteristic filter having an inverse characteristic of the blur characteristic with presbyopia to display image (original image) data. For example, when the reverse characteristic filter processing unit 31 acquires the reverse characteristic filter stored in the reverse characteristic filter storage unit 23, the reverse characteristic filter processing unit 31 acquires display image data stored in the display image storage unit 21. The inverse characteristic filter processing unit 31 applies an inverse characteristic filter to the pixel value of each pixel of the acquired display image data. Then, the inverse characteristic filter processing unit 31 outputs the image data after the inverse characteristic filter processing to the clip processing unit 32.

クリップ処理部32は、逆特性フィルタ処理後の画像データを形成する各画素の画素値を、所定のクリップ範囲でクリップ処理する。ここでいう所定のクリップ範囲とは、逆特性フィルタ処理後の画像データの各画素の画素値のうち最大出力の画素値と最小出力の画素値との間で規定される上下限値を意味し、複数の上下限値を含む。所定のクリップ範囲は、例えば、後述するクリップ範囲更新部42によってクリップ範囲記憶部24に記憶される。そして、クリップ処理部32は、クリップ範囲記憶部24に記憶されたクリップ範囲を用いてクリップ処理を行う。また、クリップ処理部32は、後述するクリップ範囲更新部42によってクリップ範囲が決定された場合には、逆特性フィルタ処理後の画像データを形成する各画素の画素値を、決定されたクリップ範囲でクリップ処理する。そして、クリップ処理部32は、クリップ処理後の画像データを正規化処理部33に出力する。   The clip processing unit 32 clips the pixel values of each pixel forming the image data after the inverse characteristic filter processing within a predetermined clip range. The predetermined clip range here means the upper and lower limit values defined between the maximum output pixel value and the minimum output pixel value among the pixel values of each pixel of the image data after the inverse characteristic filter processing. , Including multiple upper and lower limits. The predetermined clip range is stored in the clip range storage unit 24 by the clip range update unit 42 described later, for example. Then, the clip processing unit 32 performs clip processing using the clip range stored in the clip range storage unit 24. In addition, when the clip range is determined by the clip range update unit 42 to be described later, the clip processing unit 32 sets the pixel value of each pixel forming the image data after the inverse characteristic filter processing in the determined clip range. Clip it. Then, the clip processing unit 32 outputs the image data after the clip processing to the normalization processing unit 33.

正規化処理部33は、クリップ処理後の画像データを形成する各画素の画素値を正規化処理する。そして、正規化処理部33は、正規化処理後の画像データをぼやけ特性フィルタ処理部34および画像劣化度算出部41に出力する。また、正規化処理部33は、後述するクリップ範囲更新部42によってクリップ範囲が決定された場合には、決定されたクリップ範囲でクリップ処理がされたクリップ処理後の画像データを形成する各画素の画素値を、正規化処理する。そして、正規化処理部33は、正規化処理後の画像データを表示部43に出力する。かかる正規化処理後の画像データは、老眼向け補正画像データとなる。   The normalization processing unit 33 normalizes the pixel value of each pixel forming the image data after the clip processing. Then, the normalization processing unit 33 outputs the image data after the normalization processing to the blur characteristic filter processing unit 34 and the image deterioration degree calculation unit 41. In addition, when the clip range is determined by the clip range update unit 42 to be described later, the normalization processing unit 33 performs processing for each pixel forming the image data after clip processing in which the clip processing is performed in the determined clip range. The pixel value is normalized. Then, the normalization processing unit 33 outputs the image data after the normalization processing to the display unit 43. The image data after such normalization processing is corrected image data for presbyopia.

ぼやけ特性フィルタ処理部34は、正規化処理後の画像データに対して、老眼でのぼやけ特性を有するぼやけ特性フィルタを適用する。そして、ぼやけ特性フィルタ処理部34は、ぼやけ特性フィルタ処理後の画像データを画像劣化度算出部41に出力する。かかるぼやけ特性フィルタ処理後の画像データは、老眼の利用者が老眼向け補正画像データをディスプレイで見たときの画像に対応する推定画像データである。すなわち、ぼやけ特性フィルタ処理後の画像データは、老眼による視界のぼやけが相殺された推定画像データである。   The blur characteristic filter processing unit 34 applies a blur characteristic filter having blur characteristics with presbyopia to the image data after normalization. Then, the blur characteristic filter processing unit 34 outputs the image data after the blur characteristic filter processing to the image deterioration degree calculating unit 41. The image data after the blur characteristic filter processing is estimated image data corresponding to an image when a presbyopic user views the corrected image data for presbyopia on the display. That is, the image data after the blur characteristic filter processing is estimated image data in which the blur of the field of view due to presbyopia is canceled.

画像劣化度算出部41は、正規化処理後の画像データの画像劣化度を算出する。すなわち、画像劣化度算出部41は、表示画像(原画像)データを逆特性フィルタ処理した後の画像データを所定のクリップ範囲でクリップ処理し、さらに正規化処理した後の画像データの画像劣化度を算出する。かかる画像劣化度のことを「コントラスト画像劣化度」というものとする。なお、コントラスト画像劣化度の算出方法は、後述する。   The image deterioration degree calculation unit 41 calculates the image deterioration degree of the image data after the normalization process. That is, the image deterioration degree calculation unit 41 performs clip processing on the image data after the display image (original image) data is subjected to the inverse characteristic filter processing within a predetermined clip range, and further normalizes the image deterioration degree of the image data. Is calculated. The degree of image deterioration is referred to as “contrast image deterioration degree”. A method for calculating the contrast image deterioration degree will be described later.

また、画像劣化度算出部41は、ぼやけ特性フィルタ処理後の画像データの画像劣化度を算出する。すなわち、画像劣化度算出部41は、表示画像(原画像)データを逆特性フィルタ処理した後の画像データを所定のクリップ範囲でクリップ処理し、正規化処理し、さらにぼやけ特性フィルタ処理した後の画像データの画像劣化度を算出する。かかる画像劣化度のことを「クリップ誤差画像劣化度」というものとする。なお、クリップ誤差画像劣化度の算出方法は、後述する。   Further, the image deterioration degree calculation unit 41 calculates the image deterioration degree of the image data after the blur characteristic filter processing. That is, the image deterioration degree calculation unit 41 performs clip processing on the image data after the display image (original image) data is subjected to the inverse characteristic filter processing within a predetermined clip range, normalization processing, and further after the blur characteristic filter processing. The degree of image degradation of the image data is calculated. Such an image deterioration degree is referred to as a “clip error image deterioration degree”. A method for calculating the clip error image deterioration degree will be described later.

また、画像劣化度算出部41は、所定のクリップ範囲におけるコントラスト画像劣化度およびクリップ誤差画像劣化度を加算することで、所定のクリップ範囲における画像劣化度を算出する。そして、画像劣化度算出部41は、算出した、所定のクリップ範囲における画像劣化度をクリップ範囲更新部42に出力する。   Further, the image deterioration degree calculation unit 41 calculates the image deterioration degree in the predetermined clip range by adding the contrast image deterioration degree and the clip error image deterioration degree in the predetermined clip range. Then, the image deterioration degree calculation unit 41 outputs the calculated image deterioration degree in the predetermined clip range to the clip range update unit 42.

クリップ範囲更新部42は、複数のクリップ範囲に対応する画像劣化度を用いて、画像劣化度が最小となるクリップ範囲を決定する。例えば、クリップ範囲更新部42は、複数のクリップ範囲に対応する画像劣化度を用いて、画像劣化度が最小となる正規化処理後の画像データを特定し、特定した画像データに対応するクリップ範囲を決定する。また、クリップ範囲更新部42は、選択されていない所定のクリップ範囲が存在する場合には、選択されていない所定のクリップ範囲をクリップ範囲記憶部24に更新する。   The clip range update unit 42 determines a clip range that minimizes the degree of image degradation using the degree of image degradation corresponding to a plurality of clip ranges. For example, the clip range update unit 42 uses the image degradation levels corresponding to a plurality of clip ranges to identify the image data after normalization processing that minimizes the image degradation level, and the clip range corresponding to the identified image data To decide. In addition, the clip range update unit 42 updates the clip range storage unit 24 with the predetermined clip range that is not selected when there is a predetermined clip range that is not selected.

表示部43は、決定されたクリップ範囲に対する正規化処理後の画像データをディスプレイ5に表示させる。例えば、表示部43は、正規化処理部33から正規化処理後の画像データを取得すると、取得した画像データを表示対象画像データとしてディスプレイ5に出力する。この結果、表示部43は、画像劣化度が最小であるクリップ範囲が適用された画像データをディスプレイ5に表示させることができる。   The display unit 43 causes the display 5 to display image data after normalization processing for the determined clip range. For example, when the display unit 43 acquires image data after normalization processing from the normalization processing unit 33, the display unit 43 outputs the acquired image data to the display 5 as display target image data. As a result, the display unit 43 can cause the display 5 to display image data to which the clip range having the minimum image degradation degree is applied.

[画像劣化度算出部の機能構成]
ここで、画像劣化度算出部41の構成について、図4を参照して説明する。図4は、実施例1の画像劣化度算出部の機能構成を示すブロック図である。図4に示すように、画像劣化度算出部41は、コントラスト画像劣化度算出部411と、クリップ誤差画像劣化度算出部412とを有する。コントラスト画像劣化度算出部411は、全画素分散値算出部411aと、単調減少関数演算部411bとを有する。クリップ誤差画像劣化度算出部412は、全画素誤差ノルム算出部412aと、単調増加関数演算部412bとを有する。
[Functional configuration of image degradation degree calculation unit]
Here, the configuration of the image deterioration degree calculation unit 41 will be described with reference to FIG. FIG. 4 is a block diagram illustrating a functional configuration of the image deterioration degree calculation unit according to the first embodiment. As illustrated in FIG. 4, the image deterioration level calculation unit 41 includes a contrast image deterioration level calculation unit 411 and a clip error image deterioration level calculation unit 412. The contrast image deterioration degree calculation unit 411 includes an all-pixel variance value calculation unit 411a and a monotone decreasing function calculation unit 411b. The clip error image degradation degree calculation unit 412 includes an all-pixel error norm calculation unit 412a and a monotone increasing function calculation unit 412b.

コントラスト画像劣化度算出部411は、表示画像(原画像)データを逆特性フィルタ処理した後の画像データを所定のクリップ範囲でクリップ処理し、さらに正規化処理した後の画像データのコントラストの低下を画像劣化度として算出する。   The contrast image degradation degree calculation unit 411 performs a clip process on the image data after the display image (original image) data is subjected to the inverse characteristic filter process within a predetermined clip range, and further reduces the contrast of the image data after the normalization process. Calculated as the image degradation degree.

全画素分散値算出部411aは、表示画像(原画像)データを逆特性フィルタ処理した後の画像データを所定のクリップ範囲でクリップ処理し、さらに正規化処理した後の画像データを形成する全ての画素の画素値の分散を算出する。   The all-pixel variance calculation unit 411a performs clip processing on the image data after the inverse characteristic filter processing of the display image (original image) data within a predetermined clip range, and further forms all the image data after normalization processing. The variance of pixel values of pixels is calculated.

単調減少関数演算部411bは、単調に減少する関数を用いてコントラスト画像劣化度を演算する。単調減少関数演算部411bで用いる単調減少関数は、一例として、f(x)=1/xが有るが、これに限定されず、単調に減少する関数であれば良い。単調減少関数演算部411bは、全画素分散値算出部411aによって算出された全画素の画素値の分散値を変数xに代入して関数値を算出する。算出された関数値が、所定のクリップ範囲におけるコントラスト画像劣化度となる。つまり、単調減少関数演算部411bは、全画素の画素値分散に対する単調減少関数の値を算出する。全画素の画素値分散の値が小さくなるにつれて、単調減少関数によって得られる値が大きくなるので、コントラスト画像劣化度が大きくなる。つまり、コントラストが低下することはコントラスト画像劣化度が増大することを意味する。なお、以降では、コントラスト画像劣化度をDという場合もある。 The monotone decreasing function calculation unit 411b calculates the contrast image deterioration degree using a function that decreases monotonously. As an example, the monotonic decreasing function used in the monotonic decreasing function calculation unit 411b is f (x) = 1 / x, but is not limited thereto, and may be a function that monotonously decreases. The monotone decreasing function calculation unit 411b calculates the function value by substituting the variance value of the pixel values of all the pixels calculated by the all pixel variance value calculation unit 411a into the variable x. The calculated function value becomes the contrast image deterioration degree in a predetermined clip range. That is, the monotone decreasing function calculation unit 411b calculates the value of the monotone decreasing function with respect to the pixel value dispersion of all pixels. As the pixel value dispersion value of all the pixels becomes smaller, the value obtained by the monotonously decreasing function becomes larger, so that the contrast image deterioration degree becomes larger. That is, a decrease in contrast means an increase in the degree of contrast image degradation. In the following, sometimes it referred to the contrast image deterioration degree D c.

クリップ誤差画像劣化度算出部412は、表示画像(原画像)データを逆特性フィルタ処理した後の画像データを所定のクリップ範囲でクリップ処理し、正規化処理し、さらにぼやけ特性フィルタ処理した後の画像データの原画像との誤差を画像劣化度として算出する。クリップ誤差画像劣化度算出部412は、全画素誤差ノルム演算部412aと、単調増加関数演算部412bとを有する。   The clip error image degradation degree calculation unit 412 performs clip processing, normalization processing, and blur characteristics filtering processing on the image data after the display image (original image) data is subjected to the reverse characteristic filter processing within a predetermined clip range. An error of the image data from the original image is calculated as an image deterioration degree. The clip error image degradation degree calculation unit 412 includes an all-pixel error norm calculation unit 412a and a monotone increase function calculation unit 412b.

全画素誤差ノルム算出部412aは、表示画像(原画像)データを逆特性フィルタ処理した後の画像データを所定のクリップ範囲でクリップ処理し、正規化処理し、さらにぼやけ特性フィルタ処理した後の画像データの原画像データとの誤差のノルムを算出する。ここでいうぼやけ特性フィルタ処理した後の画像データは、老眼の利用者が逆特性画像データをディスプレイで見たときの画像に対応する画像データであり、ぼやけ特性を相殺した画像データである。すなわち、全画素誤差ノルム算出部412aは、原画像データと、ぼやけ特性フィルタ処理した後の画像データとの画素ごとの誤差、すなわち差分により形成される画像データの、n次元線形空間上のノルムを算出する。ここで、画像データはその画素数をnとするとき、全画素の画素値を画素順に並べたn次元ベクトルと同一視でき、各ベクトルに対してn次元線形空間上のノルムが定義できる。ノルムとしては、例えば全画素の画素値の絶対和を用いても良く、これをSAD(Sum of Absoluted Difference)という。また、ベクトルの各要素の二乗和の平方根やベクトルの全要素のうち値の絶対値における最大値を用いても良い。また、ノルムの正定数倍もノルムになるため、全画素の絶対値の平均を用いても構わない。   The all-pixel error norm calculation unit 412a clips the image data after the display image (original image) data is subjected to the inverse characteristic filter processing within a predetermined clip range, normalizes the image data, and further performs the blur characteristic filter processing. The norm of the error of the data with the original image data is calculated. The image data after the blur characteristic filter processing here is image data corresponding to an image when the presbyopic user views the reverse characteristic image data on the display, and is image data in which the blur characteristic is offset. That is, the all-pixel error norm calculation unit 412a calculates the norm in the n-dimensional linear space of the error for each pixel between the original image data and the image data after the blur characteristic filter processing, that is, the image data formed by the difference. calculate. Here, when the number of pixels of the image data is n, it can be regarded as an n-dimensional vector in which pixel values of all the pixels are arranged in pixel order, and a norm in an n-dimensional linear space can be defined for each vector. As the norm, for example, an absolute sum of pixel values of all pixels may be used, and this is called SAD (Sum of Absoluted Difference). Alternatively, the square root of the sum of squares of each element of the vector or the maximum value of the absolute values of all the elements of the vector may be used. Further, since a positive constant multiple of the norm is also a norm, an average of absolute values of all pixels may be used.

単調増加関数演算部412bは、単調に増加する関数を用いてクリップ誤差画像劣化度を演算する。単調増加関数演算部412bで用いる単調増加関数は、一例として、g(x)=xが有るが、これに限定されず、単調に増加する関数であれば良い。例えば、単調増加関数演算部412bは、全画素誤差ノルム算出部412aによって算出されたノルムを変数xに代入して関数値を算出する。算出された関数値が、所定のクリップ範囲におけるクリップ誤差画像劣化度である。つまり、単調増加関数は、原画像データと老眼の利用者が逆特性画像を見たときの画像データとの画素ごとの誤差のノルムに対する単調増大関数である。そして、ノルムが大きくなるにつれて、単調増加関数演算部412bによって得られる値が大きくなるので、クリップ誤差画像劣化度が大きくなる。なお、以降では、クリップ誤差画像劣化度をDという場合もある。 The monotone increasing function calculation unit 412b calculates the clip error image deterioration degree using a monotonically increasing function. As an example, the monotonically increasing function used in the monotonically increasing function calculation unit 412b is g (x) = x, but is not limited thereto, and may be a function that monotonously increases. For example, the monotone increasing function calculation unit 412b calculates a function value by substituting the norm calculated by the all-pixel error norm calculation unit 412a into the variable x. The calculated function value is a clip error image deterioration degree in a predetermined clip range. That is, the monotonically increasing function is a monotonically increasing function with respect to the norm of the error for each pixel between the original image data and the image data when the presbyopic user views the inverse characteristic image. As the norm increases, the value obtained by the monotonically increasing function calculation unit 412b increases, and the degree of clip error image deterioration increases. In the following, sometimes clips error image deterioration degree of D e.

ここで、コントラスト画像劣化度Dおよびクリップ誤差画像劣化度Dは、利用する関数などによってレベルが異なる場合がある。また、コントラスト画像劣化度Dおよびクリップ誤差画像劣化度Dのうちどちらか一方の重要性を高めたい場合がある。そこで、画像劣化度算出部41は、コントラスト画像劣化度Dおよびクリップ誤差画像劣化度Dを調整すべく、重み付けを行っても良い。例えば、画像劣化度算出部41は、max(D)=αmax(D)(α:D、Dの重み付け係数)となる非負値αを定めて、コントラスト画像劣化度Dおよびクリップ誤差画像劣化度Dを調整する。 Here, the contrast image deterioration degree D c and clip error image deterioration degree D e may level the like function utilizing different. Further, it may be desired enhanced either importance of contrast image deterioration degree D c and clip error image deterioration degree D e. Therefore, image degradation degree calculator 41, to adjust the contrast image deterioration degree D c and clip error image deterioration degree D e, may be weighted. For example, the image deterioration degree calculation unit 41 determines a non-negative value α that satisfies max (D c ) = αmax (D e ) (α: weighting coefficient of D c , D e ), the contrast image deterioration degree D c and the clip The error image deterioration degree De is adjusted.

[逆特性フィルタ処理の具体例]
次に、逆特性フィルタ処理の具体例を、図5を参照して説明する。図5は、逆特性フィルタ処理の具体例を示す図である。図5では、逆特性フィルタが、2次元の空間座標フィルタとして与えられており、Fであるとする。ここでは、逆特性フィルタは、逆特性フィルタ記憶部23に記憶されている。
[Specific example of inverse characteristic filter processing]
Next, a specific example of the inverse characteristic filter processing will be described with reference to FIG. FIG. 5 is a diagram illustrating a specific example of the inverse characteristic filter processing. In FIG. 5, it is assumed that the inverse characteristic filter is given as a two-dimensional spatial coordinate filter and is F. Here, the inverse characteristic filter is stored in the inverse characteristic filter storage unit 23.

このような状況の下、逆特性フィルタ処理部31は、表示画像(原画像)データに対して、以下の式(1)に示すように、逆特性フィルタを適用する。なお、式(1)のIは、表示画像(原画像)データであり、I(x,y)は、画像データI内の画素の座標(x,y)における画素値である。
Under such circumstances, the inverse characteristic filter processing unit 31 applies an inverse characteristic filter to the display image (original image) data as shown in the following expression (1). In Expression (1), I is display image (original image) data, and I (x, y) is a pixel value at the coordinates (x, y) of the pixel in the image data I.

図5に示すように、逆特性フィルタ処理部31は、Fをメモリ2またはCPU4やGPGPU3のレジスタに格納し、Iをメモリ2に格納する。逆特性フィルタ処理部31は、必要な画素のデータ(画素値)をGPGPU3やCPU4のレジスタに格納して畳み込み演算し、逆特性フィルタ処理後のデータOとしてレジスタに書き出し、レジスタからメモリ2に転送する。ここでは、逆特性フィルタ処理部31は、Iの画素のうちIの画素について、畳み込み演算し、逆特性フィルタ処理後のデータOとしてメモリ2に格納する。なお、図5では、フィルタのサイズは、3×3であるとしたが、これに限定されず、このサイズより大きい(奇数画素)×(奇数画素)であれば良い。 As shown in FIG. 5, the inverse characteristic filter processing unit 31 stores F in the memory 2 or a register of the CPU 4 or GPGPU 3, and stores I in the memory 2. The inverse characteristic filter processing unit 31 stores necessary pixel data (pixel value) in a register of the GPGPU 3 or the CPU 4, performs a convolution operation, writes the data O after the inverse characteristic filter processing to the register, and transfers the data from the register to the memory 2. To do. Here, the inverse characteristic filter processing unit 31 performs a convolution operation on the I 5 pixel among the I pixels, and stores the result in the memory 2 as the data O 5 after the inverse characteristic filter process. In FIG. 5, the size of the filter is 3 × 3. However, the size is not limited to this, and may be (odd pixel) × (odd pixel) larger than this size.

[クリップ処理の具体例]
次に、クリップ処理の具体例を、図6を参照して説明する。図6は、クリップ処理の具体例を示す図である。図6では、クリップ範囲は、閉区間[a,b]であるとする。aは、下限値であり、bは、上限値である。
[Specific examples of clip processing]
Next, a specific example of clip processing will be described with reference to FIG. FIG. 6 is a diagram illustrating a specific example of clip processing. In FIG. 6, it is assumed that the clip range is a closed section [a, b]. a is a lower limit, and b is an upper limit.

クリップ処理部32は、逆特性フィルタ処理後の画像データに対して、所定のクリップ範囲で、以下の式(2)に示すように、クリップ処理を行う。なお、式(2)のBは、クリップ前の画像データであり、Aは、クリップ後の画像データである。(x,y)は、画像データ内画素の座標である。
ここで、式(2)は、以下の内容と同じである。B(x,y)<aの場合には、A(x,y)=aとし、B(x,y)>bの場合には、A(x,y)=bとする。また、a≦B(x,y)≦bの場合には、A(x,y)=B(x,y)とする。
The clip processing unit 32 performs clip processing on the image data after the inverse characteristic filter processing within a predetermined clip range as shown in the following expression (2). In Equation (2), B is image data before clipping, and A is image data after clipping. (X, y) is the coordinates of the pixel in the image data.
Here, Formula (2) is the same as the following content. When B (x, y) <a, A (x, y) = a, and when B (x, y)> b, A (x, y) = b. When a ≦ B (x, y) ≦ b, A (x, y) = B (x, y) is set.

図6に示すように、クリップ処理部32は、クリップ範囲[a,b]の下限値aと上限値bをメモリ2またはCPU4やGPGPU3のレジスタに格納し、クリップ前の画像データBをメモリ2に格納する。クリップ処理部32は、a,bがメモリ2にある場合には、CPU4やGPGPU3のレジスタに転送するとともに、Bをメモリ2からCPU4やGPGPU3のレジスタに転送し、クリップ処理を行う。そして、クリップ処理部32は、クリップ処理後の画像データをAとしてレジスタに書き出し、レジスタからメモリ2に転送する。   As shown in FIG. 6, the clip processing unit 32 stores the lower limit value a and the upper limit value b of the clip range [a, b] in the memory 2 or the registers of the CPU 4 and GPGPU 3, and stores the image data B before clipping in the memory 2. To store. When a and b are in the memory 2, the clip processing unit 32 transfers B to the registers of the CPU 4 and GPGPU 3 and transfers B from the memory 2 to the registers of the CPU 4 and GPGPU 3 to perform clip processing. Then, the clip processing unit 32 writes the image data after the clip processing as A to the register, and transfers it from the register to the memory 2.

[正規化処理の具体例]
次に、正規化処理の具体例を、図7を参照して説明する。図7は、正規化処理の具体例を示す図である。
[Specific example of normalization processing]
Next, a specific example of normalization processing will be described with reference to FIG. FIG. 7 is a diagram illustrating a specific example of normalization processing.

正規化処理部33は、クリップ処理後の画像データに対して、以下の式(3)により、正規化処理を行う。なお、式(3)のBは、正規化前の画像データであり、Aは、正規化後の画像データである。(x,y)は、画像データ内画素の座標である。Imaxは、画像データとして許容される最大画素値である。例えば8ビット画像データであれば、Imaxは255である。
正規化処理部33は、式(3)により、画素値同士の相対的な大小関係を保持しつつ、画像データとして許容される画素値に正規化する。
The normalization processing unit 33 performs normalization processing on the image data after the clip processing by the following equation (3). In Equation (3), B is image data before normalization, and A is image data after normalization. (X, y) is the coordinates of the pixel in the image data. I max is a maximum pixel value allowed as image data. For example, in the case of 8-bit image data, I max is 255.
The normalization processing unit 33 normalizes the pixel values allowed as image data while maintaining the relative magnitude relationship between the pixel values according to the expression (3).

図7に示すように、正規化処理部33は、画素データとして許容される最大画素値Imaxをメモリ2またはCPU4やGPGPU3のレジスタに格納し、正規化前の画像データB(x,y)をメモリ2に格納する。正規化処理部33は、Bをメモリ2からCPU4やGPGPU33に転送し、最大値max(x,y)B(x,y)と最小値min(x,y)B(x,y)を探索する。そして、正規化処理部33は、Imaxがメモリ2にある場合には、CPU4やGPGPU33のレジスタに転送する。そして、正規化処理部33は、探索した最大値、最小値、正規化対象画素の正規化前の値、Imaxを用いて、CPU4やGPGPU3で正規化処理を行い、正規化処理後の画像データをメモリ2に転送する。ここでは、正規化処理部33は、最大値B、最小値B24、Imaxを用いて、正規化対象画素B13の正規化処理を行い、正規化処理後の画素A13をメモリ2に転送する。 As illustrated in FIG. 7, the normalization processing unit 33 stores the maximum pixel value I max allowed as pixel data in the memory 2 or the register of the CPU 4 or GPGPU 3, and the image data B (x, y) before normalization. Is stored in the memory 2. The normalization processing unit 33 transfers B from the memory 2 to the CPU 4 or the GPGPU 33, and searches for the maximum value max (x, y) B (x, y) and the minimum value min (x, y) B (x, y). To do. Then, when I max is in the memory 2, the normalization processing unit 33 transfers it to the registers of the CPU 4 and GPGPU 33. Then, the normalization processing unit 33 performs normalization processing in the CPU 4 or GPGPU 3 using the searched maximum value, minimum value, value before normalization of the normalization target pixel, and I max , and the image after normalization processing Data is transferred to the memory 2. Here, the normalization processing unit 33 performs normalization processing on the normalization target pixel B 13 using the maximum value B 7 , the minimum value B 24 , and I max, and stores the pixel A 13 after normalization processing in the memory 2. Forward to.

[コントラスト画像劣化度算出処理の具体例]
次に、コントラスト画像劣化度算出処理の具体例を、図8を参照して説明する。図8は、コントラスト画像劣化度算出処理の具体例を示す図である。
[Concrete image degradation degree calculation processing example]
Next, a specific example of the contrast image deterioration degree calculation process will be described with reference to FIG. FIG. 8 is a diagram illustrating a specific example of the contrast image deterioration degree calculation process.

コントラスト画像劣化度算出部411は、コントラスト画像劣化度Dを、以下の式(4)により算出する。なお、式(4)のIは、逆特性フィルタ処理、クリップ処理、正規化処理後の画像データである。(x,y)は、画像データ内画素の座標である。fは、単調減少関数である。Vは、画像データの画素数であり、一例として、VGAであれば640×480(=307200)となる。
すなわち、Dは、全画素の画素値分散に対する単調減少関数fの関数値である。
The contrast image deterioration degree calculation unit 411 calculates the contrast image deterioration degree Dc by the following equation (4). Note that I in Expression (4) is image data after inverse characteristic filter processing, clip processing, and normalization processing. (X, y) is the coordinates of the pixel in the image data. f is a monotone decreasing function. V is the number of pixels of the image data. For example, VGA is 640 × 480 (= 307200).
That is, D c is a function value of the monotonically decreasing function f with respect to the pixel value dispersion of all pixels.

図8に示すように、コントラスト画像劣化度算出部411は、逆特性フィルタ処理、クリップ処理、正規化処理後の画像データIをメモリ2に格納する。コントラスト画像劣化度算出部411は、Iをメモリ2からCPU4やGPGPU3に転送し、コントラスト画像劣化度Dを算出する。そして、コントラスト画像劣化度算出部411は、算出したDをCPU4やGPGPU3のレジスタまたはメモリ2に格納する。算出されたDは、クリップ処理を行った際に用いられるクリップ範囲に対応するコントラスト画像劣化度である。 As shown in FIG. 8, the contrast image degradation degree calculation unit 411 stores the image data I after the inverse characteristic filter processing, clip processing, and normalization processing in the memory 2. The contrast image deterioration degree calculation unit 411 transfers I from the memory 2 to the CPU 4 or the GPGPU 3, and calculates the contrast image deterioration degree Dc. Then, the contrast image deterioration degree calculation unit 411 stores the calculated D c in the CPU 4 or the register of the GPGPU 3 or the memory 2. The calculated D c is the contrast image degradation degree corresponding to the clip range used when the clip process is performed.

[クリップ誤差画像劣化度算出処理の具体例]
次に、クリップ誤差画像劣化度算出処理の具体例を、図9を参照して説明する。図9は、クリップ誤差画像劣化度算出処理の具体例を示す図である。
[Specific example of clip error image deterioration degree calculation processing]
Next, a specific example of the clip error image deterioration degree calculation process will be described with reference to FIG. FIG. 9 is a diagram illustrating a specific example of the clip error image deterioration degree calculation processing.

クリップ誤差画像劣化度算出部412は、クリップ誤差画像劣化度Dを、以下の式(5)により算出する。なお、式(5)のIは、表示画像(原画)データである。I´は、Iに逆特性フィルタ処理、クリップ処理、正規化処理、ぼやけ特性フィルタ処理した後の画像データである。(x,y)は、画像データ内画素の座標である。gは、単調増加関数である。
すなわち、Dは、原画像データと、ぼやけ特性フィルタ処理した後の画像データとの画素ごとの誤差の総和に対する単調増加関数gの関数値である。
The clip error image deterioration degree calculation unit 412 calculates the clip error image deterioration degree De by the following equation (5). In the equation (5), I is display image (original image) data. I ′ is image data after I is subjected to inverse characteristic filter processing, clip processing, normalization processing, and blur characteristic filter processing. (X, y) is the coordinates of the pixel in the image data. g is a monotonically increasing function.
That is, De is a function value of a monotonically increasing function g with respect to the sum of errors for each pixel between the original image data and the image data after the blur characteristic filter processing.

図9に示すように、クリップ誤差画像劣化度算出部412は、表示画像(原画像)データIと、Iに逆特性フィルタ処理、クリップ処理、正規化処理、ぼやけ特性フィルタ処理した後の画像データI´とをそれぞれメモリ2に格納する。クリップ誤差画像劣化度算出部412は、IとI´をCPU4やGPGPU3に転送し、クリップ誤差画像劣化度Dを算出する。そして、クリップ誤差画像劣化度算出部412は、算出したDをCPU4やGPGPU3のレジスタまたはメモリ2に格納する。算出されたDは、クリップ処理を行った際に用いられるクリップ範囲に対応するクリップ誤差画像劣化度である。 As shown in FIG. 9, the clip error image degradation degree calculation unit 412 displays the display image (original image) data I and the image data that has been subjected to inverse characteristic filter processing, clip processing, normalization processing, and blur characteristic filter processing on I. I ′ and the memory 2 are stored. Clip error image degradation degree calculator 412 transfers the I'and I to CPU4 and GPGPU3, calculates a clip error image deterioration degree D e. Then, the clip error image degradation degree calculator 412 stores the calculated D e of CPU4 and GPGPU3 register or memory 2. The calculated De is a clip error image deterioration degree corresponding to a clip range used when clip processing is performed.

[画像劣化度最小判定処理の具体例]
次に、画像劣化度最小判定処理の具体例を、図10を参照して説明する。図10は、画像劣化度最小判定処理の具体例を示す図である。なお、逆特性フィルタ処理後の画像データは、Iであるとする。(x,y)は、画像データ内画素の座標である。
[Specific example of minimum image degradation level determination processing]
Next, a specific example of the minimum image deterioration degree determination process will be described with reference to FIG. FIG. 10 is a diagram illustrating a specific example of the image deterioration degree minimum determination process. The image data after the inverse characteristic filter processing is assumed to be I. (X, y) is the coordinates of the pixel in the image data.

まず、クリップ処理部32は、逆特性フィルタ処理後の画像データIに対して、次の式(6)を満たす狭義単調増加列(I i=1を生成する。
First, the clip processing unit 32 generates a narrow-sense monotonically increasing sequence (I i ) n i = 1 that satisfies the following equation (6) for the image data I after the inverse characteristic filter processing.

例えば、クリップ処理部32は、式(6)を満たす狭義単調増加列を、次の式(7)および式(8)により生成する。
For example, the clip processing unit 32 generates a narrow-sense monotonically increasing sequence that satisfies Expression (6) using the following Expression (7) and Expression (8).

そして、クリップ範囲更新部42は、画像劣化度が最小となるクリップ範囲の判定を、以下の式(9)により行う。なお、式(9)のDは、コントラスト画像劣化度Dとクリップ誤差画像劣化度Dとを加算して得られた画像劣化度である。argminIi,IjD([I,I])は、D([I,I])を最小化するクリップ範囲[I,I]を意味する。
式(9)の計算は、1≦i<j≦nより、有限回の画像劣化度の算出と結果のソートとによって得られる。なお、式(9)のクリップ範囲[I,I]は、狭義単調増大列の各要素より定める対からしか選択できない。
Then, the clip range update unit 42 determines the clip range that minimizes the degree of image degradation using the following equation (9). Incidentally, D of formula (9) is an image degradation degree obtained by adding the contrast image deterioration degree D c and clip error image deterioration degree D e. argmin Ii, Ij D ([I i , I j ]) means a clip range [I i , I j ] that minimizes D ([I i , I j ]).
The calculation of Expression (9) is obtained by calculating the image degradation degree a finite number of times and sorting the results from 1 ≦ i <j ≦ n. Note that the clip range [I i , I j ] in equation (9) can be selected only from pairs determined from each element of the narrowly monotonically increasing sequence.

図10に示すように、逆特性フィルタ処理部31は、逆特性フィルタ処理後の画像データIをメモリ2に格納する。クリップ処理部32は、CPU4やGPCPU3に転送し、最大値Imax、最小値Iminを探索する。クリップ処理部32は、探索した最大値Imax、最小値Iminを用いて、単調増加列を生成し、単調増加列内の2要素を全て抽出してクリップ上下限値を定める。画像劣化度算出部41は、それぞれのクリップ上下限値に対して画像劣化度を算出する。クリップ範囲更新部42は、画像劣化度が最小となるクリップ範囲を探索する。そして、クリップ範囲更新部42は、探索したクリップ範囲をCPU4やGPGPU3のレジスタまたはメモリ2に格納する。 As shown in FIG. 10, the inverse characteristic filter processing unit 31 stores the image data I after the inverse characteristic filter processing in the memory 2. The clip processing unit 32 transfers to the CPU 4 and GPCPU 3 and searches for the maximum value I max and the minimum value I min . The clip processing unit 32 uses the searched maximum value I max and minimum value I min to generate a monotonically increasing sequence, extracts all two elements in the monotonically increasing sequence, and determines the clip upper and lower limit values. The image deterioration degree calculation unit 41 calculates an image deterioration degree for each clip upper and lower limit value. The clip range update unit 42 searches for a clip range that minimizes the degree of image degradation. Then, the clip range update unit 42 stores the searched clip range in the register of the CPU 4 or GPGPU 3 or the memory 2.

[情報表示処理のフローチャート]
次に、実施例1の情報表示処理のフローチャートを、図11を参照して説明する。図11は、実施例1の情報表示処理のフローチャートを示す図である。
[Flowchart of information display processing]
Next, the flowchart of the information display process of Example 1 is demonstrated with reference to FIG. FIG. 11 is a flowchart illustrating the information display process according to the first embodiment.

図11に示すように、電子機器1は、表示画像データの逆特性フィルタ処理を行う(ステップS11)。ここで、フィルタ処理後の画像データをAとする。電子機器1は、クリップ範囲を初期値に設定する(ステップS12)。クリップ範囲の初期値は、例えば、Aの各画素の画素値の最大出力の画素値と、最小出力の画素値とする。   As shown in FIG. 11, the electronic device 1 performs a reverse characteristic filtering process on the display image data (step S11). Here, let A be the image data after the filter processing. The electronic device 1 sets the clip range to an initial value (step S12). The initial value of the clip range is, for example, the maximum output pixel value and the minimum output pixel value of each pixel of A.

続いて、電子機器1は、設定されたクリップ範囲を用いて、Aのクリップ処理を行う(ステップS13)。ここで、クリップ処理後の画像データをBとする。電子機器1は、Bの正規化処理を行う(ステップS14)。ここで、正規化処理後の画像データをCとする。電子機器1は、Cのぼやけ特性フィルタ処理を行う(ステップS14A)。ここで、ぼやけ特性フィルタ処理後の画像データをEとする。   Subsequently, the electronic apparatus 1 performs the A clip process using the set clip range (step S13). Here, it is assumed that the image data after the clip processing is B. The electronic device 1 performs the normalization process for B (step S14). Here, C is the image data after the normalization process. The electronic device 1 performs C blur characteristic filtering (step S14A). Here, E is the image data after the blur characteristic filter processing.

続いて、電子機器1は、Cのコントラスト画像劣化度Dを算出する(ステップS15)。電子機器1は、Eのクリップ誤差画像劣化度Dを算出する(ステップS16)。そして、電子機器1は、コントラスト画像劣化度Dとクリップ誤差画像劣化度Dとを加算し、画像劣化度Dを算出する(ステップS17)。 Subsequently, the electronic device 1 calculates a contrast image deterioration degree D c of C (step S15). The electronic device 1 calculates the clip error image deterioration degree De of E (step S16). Then, the electronic device 1 adds the contrast image deterioration degree D c and clip error image deterioration degree D e, calculates the image deterioration degree D (step S17).

続いて、電子機器1は、画像劣化度Dが最小であるか否かを判定する(ステップS18)。画像劣化度Dが最小でないと判定した場合には(ステップS18;No)、電子機器1は、クリップ範囲を別のクリップ範囲に更新する(ステップS19)。そして、電子機器1は、更新したクリップ範囲を用いてクリップ処理をすべく、ステップS13に移行する。   Subsequently, the electronic device 1 determines whether or not the image deterioration degree D is the minimum (step S18). If it is determined that the image degradation degree D is not the minimum (step S18; No), the electronic device 1 updates the clip range to another clip range (step S19). Then, the electronic device 1 proceeds to step S13 in order to perform clip processing using the updated clip range.

一方、画像劣化度Dが最小であると判定した場合には(ステップS18;Yes)、電子機器1は、画像劣化度Dが最小であると判定された画像データCに対応するクリップ範囲を、画像劣化度Dが最小であるクリップ範囲に決定する(ステップS20)。   On the other hand, when it is determined that the image degradation degree D is the minimum (step S18; Yes), the electronic device 1 selects the clip range corresponding to the image data C determined to have the minimum image degradation degree D, The clip range having the smallest image degradation degree D is determined (step S20).

続いて、電子機器1は、決定されたクリップ範囲を用いて、Aのクリップ処理を行う(ステップS21)。ここで、クリップ処理後の画像データをB´とする。電子機器1は、B´の正規化処理を行う(ステップS22)。ここで、正規化処理後の画像データをC´とする。そして、電子機器1は、正規化処理後の画像データC´を画面に出力する(ステップS23)。そして、電子機器1は、情報表示処理を終了する。   Subsequently, the electronic device 1 performs the clip process of A using the determined clip range (step S21). Here, it is assumed that the image data after the clip processing is B ′. The electronic device 1 performs a normalization process for B ′ (step S22). Here, the image data after the normalization process is C ′. Then, the electronic device 1 outputs the normalized image data C ′ to the screen (step S23). And the electronic device 1 complete | finishes an information display process.

なお、実施例1では、画像劣化度算出部41が、表示画像データに対して1つのクリップ範囲に対応するクリップ処理かつ正規化処理後の画像データについて、画像劣化度を算出する。そして、クリップ範囲更新部42が、算出された画像劣化度と、既に算出されたクリップ範囲に対応する画像劣化度を用いて、画像劣化度が最小となるクリップ範囲を決定する。そして、クリップ範囲更新部42は、画像劣化度が最小でなければ、次のクリップ範囲について、クリップ処理、正規化処理、画像劣化度算出処理を行わせ、画像劣化度が最小になるまで繰り返す。しかしながら、画像劣化度算出部41およびクリップ範囲更新部42は、これに限定されない。画像劣化度算出部41は、表示画像データに対して複数のクリップ範囲に対応するクリップ処理かつ正規化処理後の画像データについて、それぞれ画像劣化度を算出する。そして、クリップ範囲更新部42は、算出された複数の画像劣化度に基づいて、画像劣化度が最小となる画像データに対応するクリップ範囲を決定しても良い。   In the first embodiment, the image deterioration degree calculation unit 41 calculates the image deterioration degree for the image data after the clip process and the normalization process corresponding to one clip range with respect to the display image data. Then, the clip range update unit 42 determines a clip range that minimizes the image degradation level using the calculated image degradation level and the image degradation level corresponding to the already calculated clip range. Then, if the image degradation level is not minimum, the clip range update unit 42 performs clip processing, normalization processing, and image degradation level calculation processing for the next clip range, and repeats until the image degradation level is minimized. However, the image deterioration degree calculation unit 41 and the clip range update unit 42 are not limited to this. The image deterioration degree calculation unit 41 calculates an image deterioration degree for each of the image data after clip processing and normalization processing corresponding to a plurality of clip ranges for the display image data. Then, the clip range update unit 42 may determine a clip range corresponding to the image data having the minimum image degradation level, based on the plurality of calculated image degradation levels.

[実施例1の効果]
このようにして、上記実施例1によれば、電子機器1は、表示画像データに対して、視覚特性の逆特性を示す逆特性フィルタ処理を行う。電子機器1は、逆特性フィルタ処理により得られた画像データを形成する各画素の画素値を、所定のクリップ範囲でクリップ処理する。電子機器1は、クリップ処理により得られた第2の画像データを形成する各画素の画素値を、正規化処理する。電子機器1は、異なる複数のクリップ範囲でクリップ処理され、かつ、正規化処理された複数の第3の画像データに対応する画像劣化度をそれぞれ算出する。電子機器1は、複数の画像劣化度に基づいて、画像劣化度が最小となる第3の画像データを特定する。そして、電子機器1は、特定された第3の画像データを所定の表示部に表示する。かかる構成によれば、電子機器1は、逆特性フィルタ処理により得られた画像データに対してクリップ処理され、かつ、正規化処理された第3の画像データであって画像劣化度が最小となる第3の画像データを表示する。この結果、電子機器1は、画像劣化を抑止した、輪郭が強調された画像を利用者に視認させることができる。これにより、例えば、老眼の利用者は、ぼやけが解消してはっきりと視ることが可能になる。すなわち、電子機器1は、逆特性フィルタによる高周波数成分の増幅をしてから、クリップ処理を適用しないで正規化処理を適用した場合と比較して、逆特性フィルタによる輪郭の強調効果を得ることができ、コントラスの低下を抑制できる。これにより、例えば、老眼の利用者は、ぼやけが解消してはっきりと視ることが可能になる。また、電子機器1は、逆特性フィルタによる高周波数成分の増幅をしてから、通常のクリップ処理を適用した場合と比較して、クリップ処理前後の画像誤差が増大して周波数特性を歪ませることを抑制できる。
[Effect of Example 1]
In this way, according to the first embodiment, the electronic device 1 performs the reverse characteristic filtering process that indicates the reverse characteristic of the visual characteristic on the display image data. The electronic device 1 clips the pixel value of each pixel forming the image data obtained by the inverse characteristic filter process within a predetermined clip range. The electronic device 1 normalizes the pixel value of each pixel forming the second image data obtained by the clipping process. The electronic device 1 calculates image degradation degrees corresponding to a plurality of third image data that have been clipped and normalized in a plurality of different clip ranges. The electronic device 1 specifies the third image data that minimizes the image degradation level based on the plurality of image degradation levels. Then, the electronic device 1 displays the specified third image data on a predetermined display unit. According to this configuration, the electronic apparatus 1 is the third image data that has been clipped and normalized for the image data obtained by the inverse characteristic filter processing, and the degree of image degradation is minimized. The third image data is displayed. As a result, the electronic device 1 can allow the user to visually recognize an image with an enhanced contour that suppresses image degradation. Thereby, for example, the user of presbyopia can be seen clearly with no blur. That is, the electronic device 1 obtains the contour emphasis effect by the inverse characteristic filter as compared with the case where the normalization process is applied without applying the clip process after the high frequency component is amplified by the inverse characteristic filter. It is possible to suppress the decrease in contrast. Thereby, for example, the user of presbyopia can be seen clearly with no blur. Further, the electronic device 1 amplifies the high frequency component by the inverse characteristic filter, and then the image error before and after the clipping process is increased and the frequency characteristic is distorted as compared with the case where the normal clipping process is applied. Can be suppressed.

また、上記実施例1によれば、電子機器1は、特定された第3の画像データに対応するクリップ範囲を特定する。電子機器1は、表示画像データと異なる他の表示画像データを処理する場合に、特定されたクリップ範囲を用いて、逆特性フィルタ処理により得られた第1の画像データを形成する各画素の画素値をクリップ処理する。かかる構成によれば、電子機器1は、特定されたクリップ範囲を用いることにより、表示画像と異なる他の表示画像を利用者にはっきりと視認させることができる。   Further, according to the first embodiment, the electronic device 1 specifies the clip range corresponding to the specified third image data. When the electronic device 1 processes other display image data different from the display image data, the pixel of each pixel forming the first image data obtained by the inverse characteristic filter processing using the specified clip range Clip the value. According to such a configuration, the electronic device 1 can make the user clearly see another display image different from the display image by using the specified clip range.

また、上記実施例1によれば、電子機器1は、第3の画像データごとに、第3の画像データを形成する全ての画素の画素値の分散値を算出する。電子機器1は、第3の画素データごとに、表示画像データと第3の画像データとの画素ごとの誤差に対するノルムを算出する。電子機器1は、第3の画像データごとに、算出された分散値と、誤差に対するノルムとを用いて、画像劣化度を算出する。かかる構成によれば、電子機器1は、ばらつきが大きく、誤差が小さくなるような画像劣化度を得ることが可能となり、このような画像劣化度に対応するクリップ範囲を用いることで、例えば老眼の利用者が視認しやすい画像処理を施すことができる。この結果、電子機器1は、例えば老眼の利用者の視認性を向上させることができる。   Further, according to the first embodiment, the electronic device 1 calculates the variance value of the pixel values of all the pixels forming the third image data for each third image data. The electronic device 1 calculates a norm with respect to an error for each pixel between the display image data and the third image data for each third pixel data. The electronic device 1 calculates the image degradation degree using the calculated dispersion value and the norm with respect to the error for each third image data. According to such a configuration, the electronic device 1 can obtain an image deterioration degree that has a large variation and a small error. By using a clip range corresponding to such an image deterioration degree, for example, presbyopia Image processing that is easy for the user to visually recognize can be performed. As a result, the electronic device 1 can improve the visibility of a presbyopic user, for example.

ところで、実施例1の電子機器1は、画像劣化度Dが最小となるクリップ範囲を求める際に、以下の処理を行うと説明した。すなわち、電子機器1は、逆特性フィルタ処理後の画像データを形成する各画素の画素値を用いて複数のクリップ範囲の上下限値を定め、定めた複数のクリップ範囲の上下限値から画像劣化度Dが最小となるクリップ範囲を求める。つまり、電子機器1は、離散化した複数のクリップ範囲から画像劣化度Dが最小となるクリップ範囲を求める。かかる画像劣化度Dは、クリップ範囲の上下限値に対して連続的微分可能関数ではない。したがって、画像劣化度Dに勾配法の様な微分係数を用いる方法を適用しても、画像劣化度Dが最小となるクリップ範囲を求めることが保証されないことがある。   Incidentally, it has been described that the electronic apparatus 1 according to the first embodiment performs the following processing when obtaining the clip range in which the image degradation degree D is minimized. That is, the electronic device 1 determines the upper and lower limit values of a plurality of clip ranges using the pixel values of each pixel forming the image data after the inverse characteristic filter processing, and causes image degradation from the determined upper and lower limit values of the clip ranges. A clip range in which the degree D is minimum is obtained. That is, the electronic device 1 obtains a clip range in which the image degradation degree D is minimum from a plurality of discretized clip ranges. The image degradation degree D is not a continuously differentiable function with respect to the upper and lower limit values of the clip range. Therefore, even if a method using a differential coefficient such as the gradient method is applied to the image degradation degree D, it may not be guaranteed that a clip range in which the image degradation degree D is minimum is obtained.

ここで、画像劣化度Dは、クリップ範囲の上下限値に対して連続的微分可能関数でないことを説明する。画像劣化度Dがクリップ範囲の上下限値に対して連続的微分可能関数でないことは、画像劣化度D(=D+D)のD、Dがクリップ範囲の上下限値に対して連続的微分可能でないことを示せば良い。D、Dは、それぞれ式(4)、式(5)よりクリップ画像データの各画素の画素値の合成関数として与えられる。これらが連続的微分可能となるのは、クリップ画像データの各画素の画素値がクリップ範囲の上下限値に対して連続的微分可能なときである。つまり、クリップ画像データの各画素の画素値がクリップ範囲の上下限値に対して連続的微分可能でないことを示せば、画像劣化度Dが連続的微分可能でないことを示すことになる。 Here, it is explained that the image degradation degree D is not a continuously differentiable function with respect to the upper and lower limit values of the clip range. The fact that the image degradation degree D is not a continuously differentiable function with respect to the upper and lower limit values of the clip range is that D e and D c of the image degradation degree D (= D e + D c ) Show that it is not continuously differentiable. D e and D c are given as synthesis functions of pixel values of the respective pixels of the clip image data from the equations (4) and (5), respectively. These are continuously differentiable when the pixel value of each pixel of the clip image data is continuously differentiable with respect to the upper and lower limit values of the clip range. That is, if the pixel value of each pixel of the clip image data indicates that it is not continuously differentiable with respect to the upper and lower limit values of the clip range, it indicates that the image degradation degree D is not continuously differentiable.

そこで、クリップ範囲の画素値がクリップ範囲の上下限値に対して連続的微分可能でないことを示す。逆特性画像データの座標(x,y)を任意に1つ決めて固定する。この座標の逆特性画像データの画素値をI(x,y)とおく。クリップ範囲の上下限値をそれぞれM,mとして、I(x,y)をクリップした画像データの各画素の画素値をC(m,M;x,y)とおくと、以下の式(10)が成立する。
C(m,M;x,y)=min(max(I(x,y),m),M)・・・式(10)
Therefore, it is indicated that the pixel value of the clip range is not continuously differentiable with respect to the upper and lower limit values of the clip range. One coordinate (x, y) of the reverse characteristic image data is arbitrarily determined and fixed. The pixel value of the inverse characteristic image data of this coordinate is set as I (x, y). When the upper and lower limit values of the clip range are M and m, respectively, and the pixel value of each pixel of image data clipped I (x, y) is C (m, M; x, y), the following equation (10 ) Holds.
C (m, M; x, y) = min (max (I (x, y), m), M)... (10)

式(10)のとおり、座標(x,y)を任意に1つ決めて固定すると、クリップ画像データの(x,y)における画素値は、クリップ範囲の上下限値m,Mの2変数関数とみなせる。ところが、minやmaxを用いた関数は、一般に、連続的微分可能とならない。つまり、座標(x,y)において、逆特性画像データのクリップ画像データの各画素の画素値Cは、クリップ範囲の上下限値による2変数に対して連続的微分可能関数とならない。   When the coordinate (x, y) is arbitrarily determined and fixed as in Expression (10), the pixel value at (x, y) of the clip image data is a two-variable function of upper and lower limit values m and M of the clip range. Can be considered. However, functions using min and max are generally not continuously differentiable. That is, at the coordinates (x, y), the pixel value C of each pixel of the clip image data of the inverse characteristic image data is not a continuously differentiable function with respect to two variables depending on the upper and lower limit values of the clip range.

したがって、画像劣化度Dは、クリップ範囲の上下限値に対して連続的微分可能関数でない。かかる不連続関数である画像劣化度Dに勾配法の様な微分係数を用いる方法を適用しても、画像劣化度Dを最小化するクリップ範囲を求めることが保証されないことがある。   Therefore, the image degradation degree D is not a continuously differentiable function with respect to the upper and lower limit values of the clip range. Even if a method using a differential coefficient such as a gradient method is applied to the image degradation degree D which is such a discontinuous function, it may not be guaranteed to obtain a clip range that minimizes the image degradation degree D.

そこで、実施例2では、画像劣化度Dが最小となるクリップ範囲を求める際に、不連続関数に対しても用いられる局所最適化法であるネルダー・ミード法を適用する場合を説明する。   Therefore, in the second embodiment, a case where the Nelder Mead method, which is a local optimization method used also for the discontinuous function, is applied when obtaining the clip range where the image degradation degree D is minimized will be described.

[クリップ範囲算出処理の一例]
図12は、実施例2のクリップ範囲算出処理を示す図である。図12に示すように、クリップ範囲算出処理は、ネルダー・ミード法を用いて画像劣化度が最小となるクリップ範囲を算出する。すなわち、クリップ範囲算出処理は、ネルダー・ミード法を用いて、以下の式(11)の画像劣化度Dの最小化問題を解くことにより、画像劣化度Dが最小となるクリップ範囲x´を判定する。なお、式(11)では、クリップ範囲[x,x]に対して2次元ベクトル(x,x)(x<x)を対応付ける。xは、画像劣化度が最小となるクリップ範囲の上限値の候補であり、xは、画像劣化が最小となるクリップ範囲の下限値の候補である。
[Example of clip range calculation processing]
FIG. 12 is a diagram illustrating clip range calculation processing according to the second embodiment. As shown in FIG. 12, in the clip range calculation process, a clip range in which the degree of image degradation is minimized is calculated using the Nelder Mead method. That is, the clip range calculation process determines the clip range x ′ that minimizes the image degradation degree D by solving the minimization problem of the image degradation degree D in the following equation (11) using the Nelder Mead method. To do. In Expression (11), a two-dimensional vector (x 2 , x 1 ) (x 1 <x 2 ) is associated with the clip range [x 1 , x 2 ]. x 2 is the candidate of the upper limit of the clip range image deterioration degree becomes the minimum, x 1 is the candidate of the lower limit of the clip range image degradation is minimized.

ここで、ネルダー・ミード法で所定の最小化問題を解く場合には、以下の式(12)を満たす初期の解候補集合Sが用いられる。なお、式(12)のnは、Sの2次元ベクトルの数であり、次元の数(未知変数の個数)+1以上の数である。
nが大きい程、解は高精度になるが、演算量は増大する。
Here, when a predetermined minimization problem is solved by the Nelder-Meade method, an initial solution candidate set S that satisfies the following equation (12) is used. Note that n in Expression (12) is the number of two-dimensional vectors of S, which is the number of dimensions (the number of unknown variables) +1 or more.
As n increases, the accuracy of the solution increases, but the amount of computation increases.

図12では、n=3の場合である。表示画像データに対する逆特性フィルタ後の画像データを形成する全ての画素の画素値のうち出力最大値がImaxであり、出力中間値がImidであり、出力最小値がIminであるとする。なお、Imidは、上下限値の中間の値に限定されず、上下限値の間の値であれば良い。 FIG. 12 shows a case where n = 3. Of the pixel values of all the pixels forming the image data after the inverse characteristic filter for the display image data, the output maximum value is I max , the output intermediate value is I mid , and the output minimum value is I min. . Note that I mid is not limited to an intermediate value between the upper and lower limit values, and may be a value between the upper and lower limit values.

かかる場合に、クリップ範囲算出処理は、クリップ範囲の上限値Imax、中間値Imid、下限値Iminを用い、解候補集合Sを生成する。ここでは、解候補集合Sは、{(Imax,Imid),(Imid,Imin),(Imax,Imin)}と生成される。 In this case, the clip range calculation process generates a solution candidate set S using the upper limit value I max , the intermediate value I mid , and the lower limit value I min of the clip range. Here, the solution candidate set S is generated as {(I max , I mid ), (I mid , I min ), (I max , I min )}.

そして、クリップ範囲算出処理は、局所最小化関数を画像劣化度Dとして、初期集合を解候補集合Sとして、画像劣化度Dおよび解候補集合Sに対して、反復的にネルダー・ミード法を用いて、最小化解x´を求める。クリップ範囲算出処理は、局所最小化解x´=(x´,x´)に対して、クリップ範囲を[x´,x´]と決定する。すなわち、クリップ範囲算出処理は、クリップの上限値をx´の第1成分のx´と決定し、クリップの下限値をx´の第2成分のx´と決定する。 In the clip range calculation process, the local minimization function is used as the image deterioration degree D, the initial set is used as the solution candidate set S, and the Nerder-Meade method is repeatedly used for the image deterioration degree D and the solution candidate set S. Thus, a minimized solution x ′ is obtained. In the clip range calculation process, the clip range is determined as [x ′ 1 , x ′ 2 ] with respect to the local minimized solution x ′ = (x ′ 2 , x ′ 1 ). That is, the clip range calculation process, the upper limit of the clip to determine the x'1 of the first component of the x', determines the lower limit of the clip and x'2 of the second component of the x'.

なお、ここでいう画像劣化度Dとは、コントラスト画像劣化度Dを算出するために用いられる関数と、クリップ誤差画像劣化度Dを算出するために用いられる関数との和の関数のことをいう。コントラスト画像劣化度Dを算出するために用いられる関数は、例えば、式(4)である。クリップ誤差画像劣化度Dを算出するために用いられる関数は、例えば、式(5)である。 Here, the image deterioration degree D to say, that the function of the sum of the function used to calculate the contrast image deterioration degree D c, a function used to calculate a clip error image deterioration degree D e Say. Function used to calculate the contrast image deterioration degree D c is, for example, the formula (4). Function used to calculate a clip error image deterioration degree D e is, for example, Equation (5).

このようにして、クリップ範囲算出処理は、不連続関数である画像劣化度Dにネルダー・ミード法を適用することで、画像劣化度Dが最小となるクリップ範囲を精度良く求めることができる。   In this way, the clip range calculation process can accurately obtain a clip range in which the image degradation degree D is minimized by applying the Nelder-Meade method to the image degradation degree D that is a discontinuous function.

[実施例2の電子機器の機能構成]
図13は、実施例2の電子機器の機能構成の一例を示すブロック図である。なお、図3に示す電子機器1と同一の構成については同一符号を付すことで、その重複する構成および動作の説明については省略する。実施例1と実施例2とが異なるところは、新たにクリップ範囲算出部35を追加した点にある。
[Functional Configuration of Electronic Device of Second Embodiment]
FIG. 13 is a block diagram illustrating an example of a functional configuration of the electronic apparatus according to the second embodiment. In addition, about the structure same as the electronic device 1 shown in FIG. 3, the same code | symbol is attached | subjected, and the description of the overlapping structure and operation | movement is abbreviate | omitted. The difference between the first embodiment and the second embodiment is that a clip range calculation unit 35 is newly added.

クリップ範囲算出部35は、ネルダー・ミード法を用いて、画像劣化度が最小となるクリップ範囲を算出する。また、クリップ範囲算出部35は、算出したクリップ範囲をクリップ範囲記憶部24に格納する。   The clip range calculation unit 35 calculates a clip range that minimizes the degree of image degradation using the Nelder Mead method. In addition, the clip range calculation unit 35 stores the calculated clip range in the clip range storage unit 24.

[クリップ範囲算出処理のフローチャート]
次に、実施例2のクリップ範囲算出処理のフローチャートを、図14を参照して説明する。図14は、実施例2のクリップ範囲算出処理のフローチャートを示す図である。
[Clip range calculation processing flowchart]
Next, a flowchart of clip range calculation processing according to the second embodiment will be described with reference to FIG. FIG. 14 is a flowchart illustrating the clip range calculation process according to the second embodiment.

図14に示すように、電子機器1は、表示画像データの逆特性フィルタ処理を行う(ステップS31)。ここで、フィルタ処理後の画像データをAとする。電子機器1は、ImaxにmaxAを設定し、ImidにmedianAを設定し、IminにminAを設定する(ステップS32)。ここでいうmaxAとは、画像データAを形成する全ての画素の画素値のうち最大出力の画素値を示す。medianAとは、画像データAを形成する全ての画素の画素値のうち最大出力と最小出力との中間の画素値を示す。minAとは、画像データAを形成する全ての画素の画素値のうち最小出力の画素値を示す。 As shown in FIG. 14, the electronic device 1 performs an inverse characteristic filtering process on the display image data (step S31). Here, let A be the image data after the filter processing. The electronic device 1 sets the maxA to I max, set the medianA to I mid, sets a minA to I min (step S32). Here, maxA indicates the maximum output pixel value among the pixel values of all the pixels forming the image data A. “medianA” indicates an intermediate pixel value between the maximum output and the minimum output among the pixel values of all the pixels forming the image data A. minA indicates the pixel value of the minimum output among the pixel values of all the pixels forming the image data A.

電子機器1は、解候補集合Sとして{(Imax,Imid),(Imid,Imin),(Imax,Imin)}を生成する(ステップS33)。 The electronic device 1 generates {(I max , I mid ), (I mid , I min ), (I max , I min )} as the solution candidate set S (step S33).

そして、電子機器1は、初期集合を解候補集合Sとして、局所最小化関数を画像劣化度の関数として、ネルダー・ミード法を適用する(ステップS34)。画像劣化度の関数は、コントラスト画像劣化度Dを算出するために用いられる関数を示す式(4)と、クリップ誤差画像劣化度Dを算出するために用いられる関数を示す式(5)との合成関数である。 Then, the electronic device 1 applies the Nelder Mead method with the initial set as the solution candidate set S and the local minimization function as the image degradation degree function (step S34). Functions of the image degradation degree indicates the formula (4) showing a function used to calculate the contrast image deterioration degree D c, a function used to calculate a clip error image deterioration degree D e Equation (5) Is a composite function.

そして、電子機器1は、結果として局所最小化解であるx´=(x´,x´)を取得し、取得したx´=(x´,x´)に対し、[x´,x´]をクリップ範囲として決定する(ステップS35)。この後、電子機器1は、以下の処理を行う。すなわち、電子機器1は、決定されたクリップ範囲を用いて、Aのクリップ処理を行う。ここで、クリップ処理後の画像データをB´とする。電子機器1は、B´の正規化処理を行う。ここで、正規化処理後の画像データをC´とする。そして、電子機器1は、正規化処理後の画像データC´を画面に出力する。そして、電子機器1は、実施例2の情報表示処理を終了する。 Then, the electronic apparatus 1 acquires x ′ = (x ′ 2 , x ′ 1 ) as a local minimization solution as a result, and [x ′ for the acquired x ′ = (x ′ 2 , x ′ 1 ). 1 , x ′ 2 ] is determined as the clip range (step S35). Thereafter, the electronic device 1 performs the following processing. That is, the electronic apparatus 1 performs the A clip process using the determined clip range. Here, it is assumed that the image data after the clip processing is B ′. The electronic device 1 performs a normalization process for B ′. Here, the image data after the normalization process is C ′. Then, the electronic device 1 outputs the image data C ′ after the normalization process to the screen. And the electronic device 1 complete | finishes the information display process of Example 2. FIG.

なお、実施例2では、電子機器1が、画像劣化度Dが最小となるクリップ範囲を求める際に、不連続関数に対しても用いられる局所最適化法であるネルダー・ミード法を適用する場合を説明した。しかしながら、電子機器1は、これに限定されず、ネルダー・ミード法に代えて、例えば、遺伝的アルゴリズムやPSO法を適用する場合であっても良い。   In the second embodiment, the electronic device 1 applies the Nelder-Mead method, which is a local optimization method that is also used for the discontinuous function, when obtaining the clip range where the image degradation degree D is minimized. Explained. However, the electronic device 1 is not limited to this, and may be a case where, for example, a genetic algorithm or a PSO method is applied instead of the Nelder Mead method.

[実施例2の効果]
このようにして、上記実施例2によれば、電子機器1は、不連続関数である画像劣化度の関数にネルダー・ミード法を適用することで、画像劣化が最小となるクリップ範囲を精度良く求めることができる。
[Effect of Example 2]
As described above, according to the second embodiment, the electronic device 1 applies the Nelder-Meade method to the function of the image degradation degree that is a discontinuous function, so that the clip range that minimizes the image degradation can be accurately obtained. Can be sought.

ところで、実施例2のクリップ範囲算出処理は、ネルダー・ミード法を用いて、画像劣化度が最小となるクリップ範囲を算出する。かかるネルダー・ミード法は、未知変数の個数+1個以上の解候補を初期集合とする反復法による局所最小化法である。クリップ範囲算出処理が、ネルダー・ミード法をこのまま適用すると、局所最小化解を誤って算出する可能性がある。そこで、クリップ範囲算出処理は、異なる初期集合でネルダー・ミード法を適用して、局所最小化解を改良するマルチスタート法を適用するようにしても良い。これにより、クリップ範囲算出処理は、局所最小化解を誤って算出する可能性を低減することができる。   By the way, in the clip range calculation process of the second embodiment, the clip range in which the degree of image degradation is minimized is calculated using the Nelder Mead method. The Nelder Mead method is a local minimization method based on an iterative method in which the number of unknown variables plus one or more solution candidates is an initial set. When the clip range calculation process applies the Nelder Mead method as it is, there is a possibility that the local minimized solution is erroneously calculated. Therefore, the clip range calculation processing may be performed by applying a multi-start method that improves the local minimization solution by applying the Nelder Mead method with different initial sets. Thereby, the clip range calculation process can reduce the possibility of erroneously calculating the local minimization solution.

そこで、実施例3では、クリップ範囲算出処理が、異なる初期集合でネルダー・ミード法を適用して、局所最小化解を改良するマルチスタート法を適用する場合を説明する。   Thus, in the third embodiment, a description will be given of a case where the clip range calculation process applies the multi-start method that improves the local minimization solution by applying the Nelder Mead method with different initial sets.

[クリップ範囲算出処理の一例]
図15は、実施例3のクリップ範囲算出処理を示す図である。図15に示すように、クリップ範囲算出処理は、異なる初期集合でネルダー・ミード法を適用し、局所最小化解を取得する。クリップ範囲算出処理は、取得した局所最小化解を2段階目の初期集合としてネルダー・ミード法を適用し、局所最小化解を取得する。そして、クリップ範囲算出処理は、2段階目の処理を局所最小化解が1個になるまで実施する。段階の数が大きい程、誤った局所最小化解を算出する可能性が低下する。
[Example of clip range calculation processing]
FIG. 15 is a diagram illustrating clip range calculation processing according to the third embodiment. As shown in FIG. 15, in the clip range calculation process, the Nelder Mead method is applied with different initial sets to obtain a local minimized solution. In the clip range calculation process, the local minimization solution is obtained by applying the Nelder Mead method with the obtained local minimization solution as an initial set of the second stage. Then, the clip range calculation process is performed until the number of local minimization solutions becomes one. The greater the number of stages, the lower the possibility of calculating an incorrect local minimization solution.

図15では、クリップ範囲を構成する上下限値が未知変数であるので、式(12)においてn=3とする。すなわち、初期集合の2次元ベクトルの数は、3である。クリップ範囲算出処理は、逆特性フィルタ後の画像データを形成する各画素の出力値(画素値)の最小値Iminから最大値Imaxまでの間を3等分する。クリップ範囲算出処理は、それぞれの範囲をさらに2等分する。すなわち、クリップ範囲算出処理は、3組の解候補集合S、S、Sを取得する。ここでは、クリップ範囲算出処理は、下限値Imin、中間値(Imax+5Imin)/6、上限値(Imax+2Imin)/3を用い、解候補集合Sを生成する。クリップ範囲算出処理は、下限値(Imax+2Imin)/3、中間値(Imax+Imin)/2、上限値(2Imax+Imin)/3を用い、解候補集合Sを生成する。クリップ範囲算出処理は、下限値(2Imax+Imin)/3、中間値(Imax+5Imin)/6、上限値Imaxを用い、解候補集合Sを生成する。 In FIG. 15, since the upper and lower limit values constituting the clip range are unknown variables, n = 3 in equation (12). That is, the number of two-dimensional vectors in the initial set is 3. In the clip range calculation process, the range from the minimum value I min to the maximum value I max of the output value (pixel value) of each pixel forming the image data after the inverse characteristic filter is divided into three equal parts. In the clip range calculation process, each range is further divided into two equal parts. That is, the clip range calculation process acquires three solution candidate sets S 1 , S 2 , and S 3 . Here, the clip range calculation process uses the lower limit value I min , the intermediate value (I max + 5I min ) / 6, and the upper limit value (I max + 2I min ) / 3 to generate a solution candidate set S 1 . Clipping range calculation process, the lower limit value (I max + 2I min) / 3, the used intermediate value (I max + I min) / 2, the upper limit (2I max + I min) / 3, and generates a solution candidate set S 2. Clipping range calculation process, the lower limit (2I max + I min) / 3, the intermediate value (I max + 5I min) / 6, using the upper limit value I max, to produce a solution candidate set S 3.

クリップ範囲算出処理は、S、S、Sに対して、それぞれネルダー・ミード法を適用し、それぞれ局所最小化解x11、x12、x13を取得する。すなわち、クリップ範囲算出処理は、局所最小化関数を画像劣化度Dとして、初期集合を解候補集合Sとして、画像劣化度Dおよび解候補集合Sに対して、反復的にネルダー・ミード法を用いて、局所最小化解x11を求める。クリップ範囲算出処理は、局所最小化関数を画像劣化度Dとして、初期集合を解候補集合Sとして、画像劣化度Dおよび解候補集合Sに対して、反復的にネルダー・ミード法を用いて、局所最小化解x12を求める。クリップ範囲算出処理は、局所最小化関数を画像劣化度Dとして、初期集合を解候補集合Sとして、画像劣化度Dおよび解候補集合Sに対して、反復的にネルダー・ミード法を用いて、局所最小化解x13を求める。 In the clip range calculation process, the Nelder Mead method is applied to S 1 , S 2 , and S 3 , respectively, and local minimized solutions x 11 , x 12 , and x 13 are obtained. In other words, the clip range calculation processing is performed by iteratively using the Nelder-Meade method with respect to the image degradation degree D and the solution candidate set S 1 with the local minimization function as the image degradation degree D and the initial set as the solution candidate set S 1. using to determine the local minimum of solution x 11. Clipping range calculation process, a local minimization function as an image deterioration degree D, the initial set as the solution candidate set S 2, the image deterioration degree D and the solution candidate set S 2, iteratively using the Nelder-Mead method Te, finding a local minimum of solution x 12. Clipping range calculation process, a local minimization function as an image deterioration degree D, the initial set as the solution candidate set S 3, the image deterioration degree D and the solution candidate set S 3, iteratively using the Nelder-Mead method Te, finding a local minimum of solution x 13.

クリップ範囲算出処理は、局所最小化解x11、x12、x13を用い、2段階目の解候補集合を生成する。クリップ範囲算出処理は、生成した解候補集合に対して、ネルダー・ミード法を適用し、局所最小化解xを取得する。すなわち、クリップ範囲算出処理は、局所最小化関数を画像劣化度Dとして、初期集合を解候補集合として、画像劣化度Dおよび解候補集合に対して、反復的にネルダー・ミード法を用いて、局所最小化解xを求める。ここでは、局所最小化解が1個になったので、2段階目の処理の実施を終了する。 The clip range calculation process uses the local minimized solutions x 11 , x 12 , and x 13 to generate a second-stage solution candidate set. Clipping range calculation processing for the generated solution candidate set, apply the Nelder-Mead method, to obtain a local minimization solution x 1. That is, the clip range calculation process uses the local minimization function as the image degradation degree D, the initial set as the solution candidate set, the image degradation degree D and the solution candidate set using the Nerder Mead method repeatedly, determine local minimization solution x 1. Here, since the number of local minimization solutions is one, execution of the second stage processing is terminated.

そして、クリップ範囲算出処理は、局所最小化解x=(x´12,x´11)に対して、クリップ範囲を[x´11,x´12]と決定する。すなわち、クリップ範囲算出処理は、クリップの上限値をxの第1成分のx´12と決定し、クリップの下限値をxの第2成分のx´11と決定する。 Then, the clip range calculation process determines the clip range as [x ′ 11 , x ′ 12 ] with respect to the local minimized solution x 1 = (x ′ 12 , x ′ 11 ). That is, the clip range calculation process, the upper limit of the clip to determine the x'12 of the first component of x 1, to determine the lower limit of the clip and the second component of the x'11 of x 1.

なお、クリップ範囲算出処理は、m段階マルチスタート法(m:任意の自然数)により、3m−1個の初期集合でネルダー・ミード法を適用後、2段階目の処理を最小化解が1個になるまで実施する。段階の数を示すmが大きい程、誤った局所最小化解を算出する可能性が低下する。 In addition, the clip range calculation processing uses the m-stage multi-start method (m: an arbitrary natural number), and after applying the Nelder-Meade method with an initial set of 3 m−1 , the processing at the second stage has one minimized solution. Until it becomes. The larger m indicating the number of stages, the lower the possibility of calculating an incorrect local minimization solution.

[クリップ範囲算出処理のフローチャート]
次に、実施例3のクリップ範囲算出処理のフローチャートを、図16を参照して説明する。図16は、実施例3のクリップ範囲算出処理のフローチャートを示す図である。なお、図16では、2段階マルチスタート法を適用した場合とする。したがって、互いに疎な初期集合は、3個であるとする。
[Clip range calculation processing flowchart]
Next, the flowchart of the clip range calculation process of Example 3 will be described with reference to FIG. FIG. 16 is a flowchart illustrating the clip range calculation process according to the third embodiment. In FIG. 16, it is assumed that the two-stage multi-start method is applied. Therefore, it is assumed that there are three initial sets that are sparse.

図16に示すように、電子機器1は、表示画像データの逆特性フィルタ処理を行う(ステップS41)。ここで、フィルタ処理後の画像データをAとする。電子機器1は、変数iに1を設定する(ステップS42)。   As shown in FIG. 16, the electronic device 1 performs an inverse characteristic filtering process on the display image data (step S41). Here, let A be the image data after the filter processing. The electronic device 1 sets 1 to the variable i (step S42).

電子機器1は、変数iに1を設定する(ステップS42)。なお、変数iは、初期集合を指すために用いられる、電子機器1は、1段階目の変数iで示されるクリップの初期集合Sを生成する(ステップS43)。電子機器1は、クリップの初期集合Sに対して、ネルダー・ミード法による局所最小化を行い、クリップ範囲Cを算出する(ステップS44)。すなわち、電子機器1は、局所最小化関数を画像劣化度Dとして、初期集合を解候補集合Sとして、画像劣化度Dおよび解候補集合Sに対して、反復的にネルダー・ミード法を用いて、局所最小化解を算出する。そして、電子機器1は、局所最小化解からクリップ範囲Cを求める。 The electronic device 1 sets 1 to the variable i (step S42). Note that the variable i is used to indicate the initial set, and the electronic apparatus 1 generates the initial set S i of clips indicated by the variable i in the first stage (step S43). The electronic device 1 performs local minimization on the initial set S i of clips by the Nelder-Meade method and calculates a clip range C i (step S44). That is, the electronic device 1 uses the local minimization function as the image degradation degree D, the initial set as the solution candidate set S 1 , and the Nerder-Meade method is repeatedly performed on the image degradation degree D and the solution candidate set S i . To calculate the local minimization solution. Then, the electronic device 1 obtains the clip range C i from the local minimization solutions.

電子機器1は、変数iをインクリメントする(ステップS45)。そして、電子機器1は、変数iが初期集合の数を示す3より大きいか否かを判定する(ステップS46)。変数iが3より大きくないと判定した場合には(ステップS46;No)、電子機器1は、次の変数iで示されるクリップの初期集合Siの処理を行うべく、ステップS43に移行する。   The electronic device 1 increments the variable i (step S45). Then, the electronic device 1 determines whether or not the variable i is larger than 3 indicating the number of initial sets (step S46). If it is determined that the variable i is not greater than 3 (step S46; No), the electronic apparatus 1 proceeds to step S43 in order to process the initial set Si of clips indicated by the next variable i.

一方、変数iが3より大きいと判定した場合には(ステップS46;Yes)、電子機器1は、1段階目で算出されたクリップ範囲Cを用い、2段階目のクリップの初期集合Sを{C、C、C}とする(ステップS47)。そして、電子機器1は、クリップの初期集合Sに対して、ネルダー・ミード法による局所最小化を行い、クリップ範囲Cを算出する(ステップS48)。すなわち、電子機器1は、局所最小化関数を画像劣化度Dとして、初期集合を解候補集合Sとして、画像劣化度Dおよび解候補集合Sに対して、反復的にネルダー・ミード法を用いて、局所最小化解を算出する。そして、電子機器1は、局所最小化解からクリップ範囲Cを求める。 On the other hand, when it is determined that the variable i is greater than 3 (step S46; Yes), the electronic apparatus 1 uses the clip range C i calculated in the first stage, and sets the initial set S of clips in the second stage. Let {C 1 , C 2 , C 3 } (step S47). Then, the electronic device 1 performs local minimization on the initial set S of clips by the Nelder-Meade method to calculate the clip range C (step S48). That is, the electronic device 1 uses the Nerder-Meade method repeatedly for the image degradation degree D and the solution candidate set S, with the local minimization function as the image degradation degree D, the initial set as the solution candidate set S, and the image degradation degree D and the solution candidate set S. Calculate the local minimization solution. And the electronic device 1 calculates | requires the clip range C from a local minimization solution.

この後、電子機器1は、以下の処理を行う。すなわち、電子機器1は、クリップ範囲Cを用いて、Aのクリップ処理を行う。ここで、クリップ処理後の画像データをB´とする。電子機器1は、B´の正規化処理を行う。ここで、正規化処理後の画像データをC´とする。そして、電子機器1は、正規化処理後の画像データC´を画面に出力する。そして、電子機器1は、実施例3の情報表示処理を終了する。   Thereafter, the electronic device 1 performs the following processing. That is, the electronic device 1 performs the clip process of A using the clip range C. Here, it is assumed that the image data after the clip processing is B ′. The electronic device 1 performs a normalization process for B ′. Here, the image data after the normalization process is C ′. Then, the electronic device 1 outputs the image data C ′ after the normalization process to the screen. And the electronic device 1 complete | finishes the information display process of Example 3. FIG.

[実施例3の効果]
このようにして、上記実施例3によれば、電子機器1は、不連続関数である画像劣化度の関数にネルダー・ミード法およびマルチスタート法を適用することで、誤った局所最小化解を算出する可能性を低減できる。この結果、電子機器1は、画像劣化度を最小化するクリップ範囲を精度良く求めることができる。
[Effect of Example 3]
As described above, according to the third embodiment, the electronic device 1 calculates the incorrect local minimization solution by applying the Nelder Mead method and the multi-start method to the image degradation degree function that is a discontinuous function. The possibility of doing so can be reduced. As a result, the electronic device 1 can accurately obtain a clip range that minimizes the degree of image degradation.

ところで、実施例1〜3の電子機器1は、表示画像(原画像)データに対して、画像劣化度が最小となるクリップ範囲を算出し、算出したクリップ範囲を用いて画像補正(クリップ処理、正規化処理)する場合を説明した。しかしながら、電子機器1は、これに限定されず、事前に、網膜に結像する画像の異なる傾向における複数のテスト画像データに対して最適なクリップ範囲を算出し、異なる傾向における複数のテスト画像データに対応する最適なクリップ範囲を設定したクリップ範囲テーブルを生成するようにしても良い。そして、電子機器1は、クリップ範囲テーブルを携帯電子機器に格納させ、携帯電子機器は、表示画像(原画像)データの画像補正時に、クリップ範囲テーブルを参照する。   By the way, the electronic device 1 according to the first to third embodiments calculates a clip range that minimizes the degree of image degradation with respect to the display image (original image) data, and performs image correction (clip processing, The case of normalization processing has been described. However, the electronic apparatus 1 is not limited to this, and calculates an optimal clip range for a plurality of test image data in different tendencies of images formed on the retina in advance, and a plurality of test image data in different tendencies. Alternatively, a clip range table in which an optimal clip range corresponding to is set may be generated. Then, the electronic device 1 stores the clip range table in the portable electronic device, and the portable electronic device refers to the clip range table when the display image (original image) data is corrected.

[情報表示処理の用途]
ここで、情報表示処理の用途を、図17を参照して説明する。図17は、情報表示処理の用途を示す図である。図17に示すように、電子機器1は、網膜に結像する画像の異なる傾向におけるテスト画像データに対して、それぞれ画像劣化度が最小となるクリップ範囲を算出する。網膜に結像する画像の異なる傾向におけるテスト画像データには、一例として、新聞紙面のように細かい文字が多い画像データ、メール画面のように背景が白、文字が黒である輝度変化の大きい画像データ、ウェブページのように背景が白でない輝度変化があまり大きくない画像データが含まれる。電子機器1は、かかる複数のテスト画像データを取得し、テスト画像データごとに、画像劣化度が最小となるクリップ範囲を算出し、クリップ範囲テーブルを生成する。
[Use of information display processing]
Here, the use of the information display process will be described with reference to FIG. FIG. 17 is a diagram illustrating an application of information display processing. As illustrated in FIG. 17, the electronic apparatus 1 calculates a clip range in which the degree of image degradation is minimized for test image data having different tendencies of images formed on the retina. For example, test image data in a different tendency of the image formed on the retina includes, as an example, image data with many fine characters such as newspapers, an image with a large change in brightness such as a white background and black characters such as a mail screen. Data and image data such as a web page whose background is not white and whose luminance change is not so large are included. The electronic device 1 acquires the plurality of test image data, calculates a clip range in which the degree of image degradation is minimum for each test image data, and generates a clip range table.

そして、携帯電子機器8は、電子機器1によって生成されたクリップ範囲テーブルをメモリに格納し、画像(原画像)データに対して画像処理を行う際に、クリップ範囲テーブルを参照し、原画像データと適合度の高いクリップ範囲を使用する。これにより、携帯電子機器8は、表示画像データに適合したクリップ範囲を高速に取得でき、取得したクリップ範囲を用いることで、老眼の利用者が視認しやすい画像補正を施すことができる。この結果、携帯電子機器8は、老眼の利用者の視認性を向上させることができる。   Then, the portable electronic device 8 stores the clip range table generated by the electronic device 1 in the memory, refers to the clip range table when performing image processing on the image (original image) data, and stores the original image data. Use a clip range with a good fit. Thereby, the portable electronic device 8 can acquire the clip range suitable for display image data at high speed, and can perform image correction that is easy for a presbyopic user to visually recognize by using the acquired clip range. As a result, the portable electronic device 8 can improve the visibility of a presbyopic user.

[電子機器の一例]
図18は、実施例4の電子機器の一例を示すブロック図である。なお、図2が示す実施例1の電子機器1と同一の構成については同一符号を付すことで、その重複する構成および動作の説明については省略する。実施例1と実施例4とが異なるところは、新たに外部I/O6および通信回路7を追加した点にある。外部I/O6は、外部装置または外部システムとのデータ交換インタフェースである。通信回路7は、ネットワークを介して外部装置と通信するために用いられる通信制御部である。なお、図18では、電子機器1の構成を示したが、携帯電子機器8もかかる構成と同一の構成であっても良い。
[Example of electronic equipment]
FIG. 18 is a block diagram illustrating an example of an electronic apparatus according to the fourth embodiment. 2 that are the same as those of the electronic apparatus 1 according to the first embodiment illustrated in FIG. 2 are denoted by the same reference numerals, and the description of the overlapping configuration and operation is omitted. The difference between the first embodiment and the fourth embodiment is that an external I / O 6 and a communication circuit 7 are newly added. The external I / O 6 is a data exchange interface with an external device or an external system. The communication circuit 7 is a communication control unit used for communicating with an external device via a network. 18 shows the configuration of the electronic device 1, the portable electronic device 8 may have the same configuration as this configuration.

[実施例4の情報表示システムの機能構成]
図19は、実施例4の情報表示システムの機能構成の一例を示すブロック図である。図19に示すように、情報表示システム9は、電子機器1および携帯電子機器8を有する。なお、電子機器1に関し、図13に示す電子機器1と同一の構成については同一符号を付すことで、その重複する構成および動作の説明については省略する。実施例2と実施例4とが異なるところは、携帯電子機器8を追加した点にある。また、実施例2と実施例4とが異なるところは、電子機器1に関し、クリップ範囲テーブル250およびテーブル生成部44を追加した点にある。
[Functional Configuration of Information Display System of Example 4]
FIG. 19 is a block diagram illustrating an example of a functional configuration of the information display system according to the fourth embodiment. As shown in FIG. 19, the information display system 9 includes an electronic device 1 and a portable electronic device 8. In addition, regarding the electronic device 1, the same components as those of the electronic device 1 illustrated in FIG. 13 are denoted by the same reference numerals, and the description of the overlapping configuration and operation is omitted. The difference between the second embodiment and the fourth embodiment is that a portable electronic device 8 is added. Further, the difference between the second embodiment and the fourth embodiment is that a clip range table 250 and a table generation unit 44 are added to the electronic apparatus 1.

テーブル生成部44は、網膜に結像する画像の異なる傾向におけるテスト画像データに対して、それぞれ画像劣化度が最小となるクリップ範囲を決定する。画像劣化度が最小となるクリップ範囲は、例えば、ネルダー・ミード法によって決定される。なお、ネルダー・ミード法によってクリップ範囲を決定する方法は、実施例2および実施例3と同様であるので、その説明を省略する。   The table generation unit 44 determines a clip range that minimizes the degree of image degradation for each test image data having a different tendency of an image formed on the retina. The clip range in which the degree of image degradation is minimized is determined by, for example, the Nelder Mead method. Note that the method for determining the clip range by the Nelder Mead method is the same as in the second and third embodiments, and thus the description thereof is omitted.

また、テーブル生成部44は、複数のテスト画像データに対してそれぞれ決定されたクリップ範囲をクリップ誤差率と対応付けて、クリップ範囲テーブル250を生成する。クリップ誤差率とは、決定されたクリップ範囲でテスト画像データをクリップ処理した後の画像データの情報の、テスト画像データの情報との誤差を表す割合である。言い換えれば、クリップ誤差率は、原画像(テスト画像)データにクリップ処理を施したことにより失われた情報量の大きさを表わす。クリップ誤差率は、以下の式(13)により算出される。なお、式(13)のF、N、C、F−1、Iは、それぞれぼやけ特性フィルタ処理、正規化処理、クリップ処理、逆特性フィルタ処理、原画像データを意味する。M、S(I)は、Iの最大画素値、Iの画素数を意味する。
Further, the table generation unit 44 generates the clip range table 250 by associating the clip ranges determined for each of the plurality of test image data with the clip error rate. The clip error rate is a ratio representing an error between the information of the image data after the test image data is clipped within the determined clip range and the information of the test image data. In other words, the clip error rate represents the amount of information lost due to the clip processing performed on the original image (test image) data. The clip error rate is calculated by the following equation (13). Note that F, N, C, F −1 , and I in Expression (13) mean blur characteristic filter processing, normalization processing, clip processing, inverse characteristic filter processing, and original image data, respectively. M and S (I) mean the maximum pixel value of I and the number of pixels of I.

また、テーブル生成部44は、生成されたクリップ範囲テーブル250をメモリ2に格納する。そして、テーブル生成部44は、生成したクリップ範囲テーブル250を携帯電子機器8に格納させる。一例として、テーブル生成部44は、クリップ範囲テーブル250を携帯電子機器8に送信する。別の例として、テーブル生成部44は、クリップ範囲テーブル250を、携帯電子機器8からの要求に応じて送信する。なお、クリップ範囲テーブル250は、携帯電子機器8の出荷時に、携帯電子機器8にプリセットされても良い。   In addition, the table generation unit 44 stores the generated clip range table 250 in the memory 2. Then, the table generation unit 44 stores the generated clip range table 250 in the mobile electronic device 8. As an example, the table generation unit 44 transmits the clip range table 250 to the portable electronic device 8. As another example, the table generation unit 44 transmits the clip range table 250 in response to a request from the portable electronic device 8. The clip range table 250 may be preset in the portable electronic device 8 when the portable electronic device 8 is shipped.

ここで、クリップ範囲テーブル250のデータ構造の一例を、図20を参照して説明する。図20は、実施例4のクリップ範囲テーブルのデータ構造の一例を示す図である。図20に示すように、クリップ範囲テーブル250は、クリップ範囲250bおよびクリップ誤差率250cを、テスト画像番号250aに対応付けて記憶する。   Here, an example of the data structure of the clip range table 250 will be described with reference to FIG. FIG. 20 is a diagram illustrating an example of the data structure of the clip range table of the fourth embodiment. As shown in FIG. 20, the clip range table 250 stores the clip range 250b and the clip error rate 250c in association with the test image number 250a.

テスト画像番号250aは、テスト画像データを識別する番号である。各テスト画像データは、網膜に結像する画像の異なる傾向における画像データである。クリップ範囲250bは、テスト画像番号250aで示されるテスト画像データの画像劣化度が最小となるクリップ範囲である。なお、クリップ範囲250bは、テーブル生成部44によって算出される。クリップ誤差率250cは、テスト画像データをクリップ範囲250bでクリップ処理した後の画像データの情報の、テスト画像データにおける原画像データの情報との誤差を表す割合である。なお、クリップ範囲250bおよびクリップ誤差率250cは、テーブル生成部44によって算出される。   The test image number 250a is a number for identifying test image data. Each test image data is image data in a different tendency of an image formed on the retina. The clip range 250b is a clip range in which the degree of image degradation of the test image data indicated by the test image number 250a is minimized. Note that the clip range 250 b is calculated by the table generation unit 44. The clip error rate 250c is a ratio representing an error between the information of the image data after the test image data is clipped in the clip range 250b and the information of the original image data in the test image data. The clip range 250b and the clip error rate 250c are calculated by the table generation unit 44.

図19に戻って、携帯電子機器8は、メモリ200、GPGPU300およびCPU400を有する。メモリ200は、表示画像記憶部210、ぼやけ特性フィルタ記憶部220、逆特性フィルタ記憶部230、クリップ範囲記憶部240およびクリップ範囲テーブル250を有する。表示画像記憶部210は、表示画像記憶部21と同一の内容であるので、その説明を省略する。ぼやけ特性フィルタ記憶部220は、ぼやけ特性フィルタ記憶部22と同一の内容であるので、その説明を省略する。逆特性フィルタ記憶部230は、逆特性フィルタ記憶部23と同一の内容であるので、その説明を省略する。クリップ範囲記憶部240は、クリップ範囲記憶部24と同一の内容であるので、その説明を省略する。クリップ範囲テーブル250は、電子機器1のクリップ範囲テーブル250と同一の内容であるので、その説明を省略する。   Returning to FIG. 19, the portable electronic device 8 includes a memory 200, a GPGPU 300, and a CPU 400. The memory 200 includes a display image storage unit 210, a blur characteristic filter storage unit 220, an inverse characteristic filter storage unit 230, a clip range storage unit 240, and a clip range table 250. Since the display image storage unit 210 has the same contents as the display image storage unit 21, the description thereof is omitted. Since the blur characteristic filter storage unit 220 has the same contents as the blur characteristic filter storage unit 22, the description thereof is omitted. Since the reverse characteristic filter storage unit 230 has the same contents as the reverse characteristic filter storage unit 23, the description thereof is omitted. Since the clip range storage unit 240 has the same contents as the clip range storage unit 24, the description thereof is omitted. Since the clip range table 250 has the same contents as the clip range table 250 of the electronic device 1, the description thereof is omitted.

GPGPU300は、逆特性フィルタ処理部310、クリップ処理部320、正規化処理部330およびぼやけ特性フィルタ処理部340を有する。CPU400は、クリップ誤差率算出部410、クリップ範囲決定部420および表示部430を有する。表示部430は、表示部43と同一の内容であるので、その説明を省略する。   The GPGPU 300 includes an inverse characteristic filter processing unit 310, a clip processing unit 320, a normalization processing unit 330, and a blur characteristic filter processing unit 340. The CPU 400 includes a clip error rate calculation unit 410, a clip range determination unit 420, and a display unit 430. Since the display unit 430 has the same contents as the display unit 43, description thereof is omitted.

逆特性フィルタ処理部310は、表示画像(原画像)データに対して、老眼でのぼやけ特性の逆特性を有する逆特性フィルタを適用する。そして、逆特性フィルタ処理部310は、逆特性フィルタ処理後の画像データをクリップ処理部320に出力する。なお、逆特性フィルタ処理部310による逆特性フィルタ処理は、逆特性フィルタ処理部31による逆特性フィルタ処理と同様であるので、その説明を省略する。   The inverse characteristic filter processing unit 310 applies an inverse characteristic filter having an inverse characteristic of the blur characteristic of presbyopia to display image (original image) data. Then, the inverse characteristic filter processing unit 310 outputs the image data after the inverse characteristic filter processing to the clip processing unit 320. Note that the reverse characteristic filter processing by the reverse characteristic filter processing unit 310 is the same as the reverse characteristic filter processing by the reverse characteristic filter processing unit 31, and thus the description thereof is omitted.

クリップ処理部320は、逆特性フィルタ処理後の画像データを形成する各画素の画素値を、クリップ範囲テーブル250に記憶された各テスト画像番号に対応するクリップ範囲でクリップ処理する。そして、クリップ処理部320は、各テスト画像番号に対応するクリップ範囲により得られたクリップ処理後の画像データを正規化処理部330に出力する。   The clip processing unit 320 performs clip processing on the pixel value of each pixel forming the image data after the inverse characteristic filter processing in the clip range corresponding to each test image number stored in the clip range table 250. Then, the clip processing unit 320 outputs the image data after the clip processing obtained from the clip range corresponding to each test image number to the normalization processing unit 330.

また、クリップ処理部320は、後述するクリップ範囲決定部420によってクリップ範囲が決定された場合には、逆特性フィルタ処理後の画像データを形成する各画素の画素値を、決定されたクリップ範囲でクリップ処理する。そして、クリップ処理部320は、クリップ処理後の画像データを正規化処理部330に出力する。なお、クリップ処理部320によるクリップ処理は、クリップ処理部32によるクリップ処理と同様であるので、その説明を省略する。   In addition, when the clip range is determined by the clip range determination unit 420 described later, the clip processing unit 320 sets the pixel value of each pixel forming the image data after the inverse characteristic filter processing in the determined clip range. Clip it. Then, the clip processing unit 320 outputs the image data after the clip processing to the normalization processing unit 330. Note that the clip processing performed by the clip processing unit 320 is the same as the clip processing performed by the clip processing unit 32, and a description thereof will be omitted.

正規化処理部330は、各テスト画像番号に対応するクリップ範囲にてクリップ処理後の画像データを形成する各画素の画素値を、正規化処理する。そして、正規化処理部330は、各テスト画像番号に対応するクリップ範囲にて正規化処理後の画像データをぼやけ特性フィルタ処理部340に出力する。   The normalization processing unit 330 normalizes the pixel value of each pixel forming the image data after clip processing in the clip range corresponding to each test image number. Then, the normalization processing unit 330 outputs the image data after the normalization processing to the blur characteristic filter processing unit 340 in the clip range corresponding to each test image number.

また、正規化処理部330は、後述するクリップ範囲決定部420によってクリップ範囲が決定された場合には、決定されたクリップ範囲でクリップ処理がされたクリップ処理後の画像データを形成する各画素の画素値を、正規化処理する。そして、正規化処理部330は、正規化処理後の画像データを表示部430に出力する。なお、正規化処理部330による正規化処理は、正規化処理部33による正規化処理と同様であるので、その説明を省略する。   In addition, when the clip range is determined by the clip range determination unit 420 described later, the normalization processing unit 330 performs processing for each pixel forming the image data after the clip processing in which the clip processing is performed in the determined clip range. The pixel value is normalized. Then, the normalization processing unit 330 outputs the image data after the normalization processing to the display unit 430. Note that the normalization processing by the normalization processing unit 330 is the same as the normalization processing by the normalization processing unit 33, and thus description thereof is omitted.

ぼやけ特性フィルタ処理部340は、テスト画像番号に対応するクリップ範囲ごとの正規化処理後の画像データに対して、老眼でのぼやけ特性を有するぼやけ特性フィルタを適用する。そして、ぼやけ特性フィルタ処理部340は、テスト画像番号に対応するクリップ範囲ごとのぼやけ特性フィルタ処理後の画像データをクリップ誤差率算出部410に出力する。なお、ぼやけ特性フィルタ処理部340によるぼやけ特性フィルタ処理は、ぼやけ特性フィルタ処理部34によるぼやけ特性フィルタ処理と同様であるので、その説明を省略する。   The blur characteristic filter processing unit 340 applies a blur characteristic filter having blur characteristics for presbyopia to image data after normalization processing for each clip range corresponding to the test image number. Then, the blur characteristic filter processing unit 340 outputs the image data after the blur characteristic filter processing for each clip range corresponding to the test image number to the clip error rate calculation unit 410. Note that the blur characteristic filter processing by the blur characteristic filter processing unit 340 is the same as the blur characteristic filter processing by the blur characteristic filter processing unit 34, and thus description thereof is omitted.

クリップ誤差率算出部410は、テスト画像番号に対応するクリップ範囲ごとのぼやけ特性フィルタ処理後の画像データのクリップ誤差率を算出する。すなわち、クリップ誤差率算出部410は、テスト画像番号ごとのクリップ範囲にて表示画像データのクリップ誤差率を算出する。そして、クリップ誤差率算出部410は、テスト画像番号に対応するクリップ範囲ごとのクリップ誤差率をクリップ範囲決定部420に出力する。なお、テスト画像番号に対応するクリップ範囲ごとのクリップ誤差率は、式(13)を用いて算出される。   The clip error rate calculation unit 410 calculates the clip error rate of the image data after the blur characteristic filter processing for each clip range corresponding to the test image number. That is, the clip error rate calculation unit 410 calculates the clip error rate of the display image data in the clip range for each test image number. Then, the clip error rate calculation unit 410 outputs the clip error rate for each clip range corresponding to the test image number to the clip range determination unit 420. The clip error rate for each clip range corresponding to the test image number is calculated using Expression (13).

クリップ範囲決定部420は、クリップ範囲テーブル250を参照し、クリップ誤差率の最も近いテスト画像番号に対応するクリップ範囲を使用クリップ範囲として決定する。例えば、クリップ範囲決定部420は、クリップ誤差率算出部410からテスト画像番号に対応するクリップ範囲ごとのクリップ誤差率を取得する。クリップ範囲決定部420は、取得したテスト画像番号に対応するクリップ範囲ごとのクリップ誤差率を、テスト画像番号250aごとに、クリップ範囲テーブル250のクリップ誤差率250cと比較する。クリップ範囲決定部420は、取得したクリップ誤差率がクリップ範囲テーブル250のクリップ誤差率250cに最も近いテスト画像番号250aをみつける。クリップ範囲決定部420は、みつかったテスト画像番号250aに対応するクリップ範囲を使用クリップ範囲として決定する。そして、クリップ範囲決定部420は、決定したクリップ範囲をクリップ範囲記憶部240に格納する。   The clip range determination unit 420 refers to the clip range table 250 and determines the clip range corresponding to the test image number having the closest clip error rate as the use clip range. For example, the clip range determination unit 420 acquires the clip error rate for each clip range corresponding to the test image number from the clip error rate calculation unit 410. The clip range determination unit 420 compares the clip error rate for each clip range corresponding to the acquired test image number with the clip error rate 250c of the clip range table 250 for each test image number 250a. The clip range determination unit 420 finds the test image number 250 a whose acquired clip error rate is closest to the clip error rate 250 c in the clip range table 250. The clip range determination unit 420 determines the clip range corresponding to the found test image number 250a as the use clip range. Then, the clip range determination unit 420 stores the determined clip range in the clip range storage unit 240.

[クリップ範囲決定処理のフローチャート]
次に、実施例4のクリップ範囲決定処理のフローチャートを、図21を参照して説明する。図21は、実施例4のクリップ範囲決定処理のフローチャートを示す図である。
[Clip range determination processing flowchart]
Next, a flowchart of clip range determination processing according to the fourth embodiment will be described with reference to FIG. FIG. 21 is a flowchart illustrating the clip range determination process according to the fourth embodiment.

図21に示すように、携帯電子機器8は、表示画像データの逆特性フィルタ処理を行う(ステップS51)。ここで、フィルタ処理後の画像データをAとする。   As shown in FIG. 21, the portable electronic device 8 performs an inverse characteristic filtering process on the display image data (step S51). Here, let A be the image data after the filter processing.

携帯電子機器8は、クリップ範囲テーブル250のクリップ範囲250bを用いて、Aのクリップ処理を行う(ステップS52)。例えば、携帯電子機器8は、逆特性フィルタ処理後の画像データAに対して、クリップ範囲テーブル250に記憶された各テスト画像番号250aに対応するクリップ範囲250bでクリップ処理を行う。ここで、クリップ範囲テーブル250が図20の場合には、クリップ処理後の画像データをB、・・・、Bとする。 The portable electronic device 8 performs the clip process of A using the clip range 250b of the clip range table 250 (step S52). For example, the portable electronic device 8 performs a clip process on the image data A after the inverse characteristic filter process in the clip range 250b corresponding to each test image number 250a stored in the clip range table 250. Here, when the clip range table 250 in FIG. 20, the image data after the clipping B 1, · · ·, and B m.

続いて、携帯電子機器8は、クリップ処理後の画像データB、・・・、Bの正規化処理を行う(ステップS53)。ここで、正規化処理後の画像データをC、・・・、Cとする。携帯電子機器8は、正規化処理後の画像データC、・・・、Cのぼやけ特性フィルタ処理を行う(ステップS54)。ここで、ぼやけ特性フィルタ処理後の画像データをD、・・・、Dとする。 Subsequently, the portable electronic device 8 performs normalization processing on the image data B 1 ,..., B m after the clip processing (step S53). Here, it is assumed that the image data after the normalization process is C 1 ,..., C m . The portable electronic device 8 performs the blur characteristic filtering process on the image data C 1 ,..., C m after the normalization process (step S54). Here, it is assumed that the image data after the blur characteristic filter processing is D 1 ,..., D m .

そして、携帯電子機器8は、ぼやけ特性フィルタ処理後の画像データD、・・・、Dのクリップ誤差率を算出する(ステップS55)。例えば、携帯電子機器8は、ぼやけ特性フィルタ処理後の画像データD、・・・、Dのクリップ誤差率を、式(13)を用いて算出する。 Then, the portable electronic device 8 calculates the clip error rate of the image data D 1 ,..., D m after the blur characteristic filter processing (step S55). For example, the portable electronic device 8 calculates the clip error rate of the image data D 1 ,..., D m after the blur characteristic filter processing using Expression (13).

そして、携帯電子機器8は、クリップ範囲テーブル250を参照し、クリップ誤差率の最も近いクリップ範囲を決定する(ステップS56)。例えば、携帯電子機器8は、ぼやけ特性フィルタ処理後の画像データD、・・・、Dのクリップ誤差率を取得する。携帯電子機器8は、取得した画像データD、・・・、Dのクリップ誤差率を、テスト画像番号250aごとに、クリップ範囲テーブル250のクリップ誤差率250cと比較する。携帯電子機器8は、取得したクリップ誤差率がクリップ範囲テーブル250のクリップ誤差率250cに最も近いテスト画像番号250aをみつけ、みつけたテスト画像番号250aに対応するクリップ範囲250bを使用クリップ範囲として決定する。 Then, the portable electronic device 8 refers to the clip range table 250 and determines the clip range with the closest clip error rate (step S56). For example, the portable electronic device 8 acquires the clip error rate of the image data D 1 ,..., D m after the blur characteristic filter processing. The portable electronic device 8 compares the clip error rate of the acquired image data D 1 ,..., D m with the clip error rate 250c of the clip range table 250 for each test image number 250a. The portable electronic device 8 finds the test image number 250a whose acquired clip error rate is closest to the clip error rate 250c in the clip range table 250, and determines the clip range 250b corresponding to the found test image number 250a as the used clip range. .

この後、携帯電子機器8は、以下の処理を行う。すなわち、携帯電子機器8は、決定されたクリップ範囲を用いて、Aのクリップ処理を行う。ここで、クリップ処理後の画像データをB´とする。携帯電子機器8は、B´の正規化処理を行う。ここで、正規化処理後の画像データをC´とする。そして、携帯電子機器8は、正規化処理後の画像データC´を画面に出力する。   Thereafter, the portable electronic device 8 performs the following processing. That is, the portable electronic device 8 performs the clip process A using the determined clip range. Here, it is assumed that the image data after the clip processing is B ′. The portable electronic device 8 performs a normalization process for B ′. Here, the image data after the normalization process is C ′. Then, the portable electronic device 8 outputs the image data C ′ after the normalization process to the screen.

[実施例4の効果]
このようにして、上記実施例4によれば、電子機器1は、網膜に結像する画像の異なる傾向における複数のテスト画像データに対して、それぞれ画像劣化度が最小となるクリップ範囲を事前に特定する。そして、電子機器1は、複数のテスト画像データに対してそれぞれ特定されたクリップ範囲を、テスト画像データに対応付けて携帯電子機器8に記憶させる。この結果、携帯電子機器8は、テスト画像データごとのクリップ範囲を利用して、表示画像データと適合度が高いテスト画像データのクリップ範囲をみつけることができるので、表示画像データをリアルタイムに補正することができる。つまり、ネルダー・ミード法を用いた画像劣化度を最小化するクリップ範囲の決定処理は、演算量が大きいので、かかる処理を電子機器1で事前に行うことで、携帯電子機器8での演算量を減らすことができ、表示画像データの補正を高速に行うことができる。さらに、携帯電子機器8は、表示画像データと画像傾向が近いテスト画像データのクリック範囲を使用クリック範囲として決定し、決定したクリック範囲を用いて表示画像データを補正し、ディスプレイで表示することで、表示画像を見る老眼の利用者の視認性を向上させることができる。
[Effect of Example 4]
As described above, according to the fourth embodiment, the electronic apparatus 1 preliminarily sets a clip range in which the image degradation degree is minimum for each of a plurality of test image data in different tendencies of images formed on the retina. Identify. Then, the electronic device 1 stores the clip ranges specified for the plurality of test image data in the portable electronic device 8 in association with the test image data. As a result, the portable electronic device 8 can use the clip range for each test image data to find the clip range of the test image data that is highly compatible with the display image data, and thus correct the display image data in real time. be able to. In other words, the clip range determination process that minimizes the degree of image degradation using the Nelder-Mead method has a large amount of calculation, so that the calculation amount in the portable electronic device 8 can be obtained by performing such processing in advance in the electronic device 1. And the display image data can be corrected at high speed. Furthermore, the portable electronic device 8 determines the click range of the test image data whose image tendency is similar to that of the display image data as the use click range, corrects the display image data using the determined click range, and displays it on the display. The visibility of the presbyopic user who sees the display image can be improved.

ところで、実施例4の電子機器1は、網膜に結像する画像の異なる傾向におけるテスト画像データに対して、それぞれ画像劣化度が最小となるクリップ範囲を決定し、複数のテスト画像データに対応するクリップ範囲をクリップ誤差率と対応付けてクリップ範囲テーブル250を生成する。そして、電子機器1は、生成したクリップ範囲テーブル250を携帯電子機器8に格納させると説明した。しかしながら、電子機器1によって生成されるクリップ範囲テーブル250は、複数のテスト画像データに対応するクリップ範囲をクリップ誤差率および逆特性フィルタ処理後の画素分散値と対応付けたものであっても良い。   By the way, the electronic device 1 according to the fourth embodiment determines a clip range in which the degree of image degradation is minimum for each test image data having different tendencies of images formed on the retina, and corresponds to a plurality of test image data. The clip range table 250 is generated by associating the clip range with the clip error rate. Then, it has been described that the electronic device 1 stores the generated clip range table 250 in the portable electronic device 8. However, the clip range table 250 generated by the electronic device 1 may be a table in which clip ranges corresponding to a plurality of test image data are associated with the clip error rate and the pixel dispersion value after the inverse characteristic filter processing.

そこで、実施例5では、電子機器1によって生成されるクリップ範囲テーブル250が、複数のテスト画像データに対応するクリップ範囲をクリップ誤差率および逆特性フィルタ処理後の画素分散値と対応付けたものである場合を説明する。   Therefore, in the fifth embodiment, the clip range table 250 generated by the electronic device 1 associates the clip range corresponding to the plurality of test image data with the clip error rate and the pixel dispersion value after the inverse characteristic filter processing. A case will be described.

[実施例5の情報表示システムの機能構成]
図22は、実施例5の情報表示システムの機能構成の一例を示すブロック図である。なお、図19に示す情報表示システム9と同一の構成については同一符号を付すことで、その重複する構成および動作の説明については省略する。実施例4と実施例5とが異なるところは、電子機器1では、クリップ範囲テーブル250、テーブル生成部44をそれぞれクリップ範囲テーブル250A、テーブル生成部44Aに変更した点にある。また、実施例4と実施例5とが異なるところは、携帯電子機器8では、クリップ範囲テーブル250をクリップ範囲テーブル250Aに変更し、クリップ処理部320をクリップ処理部320Aに変更した点にある。また、実施例4と実施例5とが異なるところは、携帯電子機器8では、画素分散値算出部440を追加した点にある。
[Functional Configuration of Information Display System of Example 5]
FIG. 22 is a block diagram illustrating an example of a functional configuration of the information display system according to the fifth embodiment. In addition, about the structure same as the information display system 9 shown in FIG. 19, the same code | symbol is attached | subjected, and the description of the overlapping structure and operation | movement is abbreviate | omitted. The difference between the fourth embodiment and the fifth embodiment is that, in the electronic apparatus 1, the clip range table 250 and the table generation unit 44 are changed to the clip range table 250A and the table generation unit 44A, respectively. The difference between the fourth embodiment and the fifth embodiment is that, in the portable electronic device 8, the clip range table 250 is changed to the clip range table 250A, and the clip processing unit 320 is changed to the clip processing unit 320A. Further, the difference between the fourth embodiment and the fifth embodiment is that a pixel variance value calculation unit 440 is added in the portable electronic device 8.

テーブル生成部44Aは、網膜に結像する画像の異なる傾向におけるテスト画像データに対して、それぞれ画像劣化度が最小となるクリップ範囲を決定する。画像劣化度が最小となるクリップ範囲は、例えば、ネルダー・ミード法によって決定される。なお、ネルダー・ミード法によってクリップ範囲を決定する方法は、実施例2および実施例3と同様であるので、その説明を省略する。   The table generation unit 44A determines a clip range in which the degree of image degradation is minimized for test image data having different tendencies of images formed on the retina. The clip range in which the degree of image degradation is minimized is determined by, for example, the Nelder Mead method. Note that the method for determining the clip range by the Nelder Mead method is the same as in the second and third embodiments, and thus the description thereof is omitted.

また、テーブル生成部44Aは、複数のテスト画像データに対して決定されたクリップ範囲をクリップ誤差率および逆特性フィルタ処理後の画素分散値と対応付けて、クリップ範囲テーブル250Aを生成する。クリップ誤差率とは、決定されたクリップ範囲でテスト画像データをクリップ処理した後の画像データの情報の、テスト画像データの情報との誤差を表す割合である。言い換えれば、クリップ誤差率は、原画像(テスト画像)データにクリップ処理を施したことにより失われた情報量の大きさを表わす。クリップ誤差率は、式(13)により算出される。また、逆特性フィルタ処理後の画素分散値とは、逆特性フィルタ処理後の画像データにおける全画素の画素分散値である。   In addition, the table generation unit 44A generates the clip range table 250A by associating the clip ranges determined for the plurality of test image data with the clip error rate and the pixel dispersion value after the inverse characteristic filter processing. The clip error rate is a ratio representing an error between the information of the image data after the test image data is clipped within the determined clip range and the information of the test image data. In other words, the clip error rate represents the amount of information lost due to the clip processing performed on the original image (test image) data. The clip error rate is calculated by equation (13). Further, the pixel dispersion value after the inverse characteristic filter processing is a pixel dispersion value of all pixels in the image data after the inverse characteristic filter processing.

また、テーブル生成部44Aは、生成されたクリップ範囲テーブル250Aをメモリ2に格納する。そして、テーブル生成部44Aは、生成したクリップ範囲テーブル250Aを携帯電子機器8に格納させる。   In addition, the table generation unit 44A stores the generated clip range table 250A in the memory 2. Then, the table generation unit 44A stores the generated clip range table 250A in the portable electronic device 8.

ここで、クリップ範囲テーブル250Aのデータ構造の一例を、図23を参照して説明する。図23は、実施例5のクリップ範囲テーブルのデータ構造の一例を示す図である。図23に示すように、クリップ範囲テーブル250Aは、逆特性フィルタ後画素分散値250d、クリップ範囲250bおよびクリップ誤差率250cを、テスト画像番号250aに対応付けて記憶する。   Here, an example of the data structure of the clip range table 250A will be described with reference to FIG. FIG. 23 is a diagram illustrating an example of the data structure of the clip range table of the fifth embodiment. As shown in FIG. 23, the clip range table 250A stores the inverse characteristic filtered pixel dispersion value 250d, the clip range 250b, and the clip error rate 250c in association with the test image number 250a.

テスト画像番号250a、クリップ範囲250bおよびクリップ誤差率250cは、図20で示したクリップ範囲テーブル250と同様であるので、その説明を省略する。逆特性フィルタ後画素分散値250dは、逆特性フィルタ処理後の画像データにおける全画素の画素値の画素分散値である。なお、クリップ範囲250b、クリップ誤差率250cおよび逆特性フィルタ後画素分散値250dは、テーブル生成部44Aによって算出される。   Since the test image number 250a, the clip range 250b, and the clip error rate 250c are the same as those in the clip range table 250 shown in FIG. The inverse characteristic filtered pixel dispersion value 250d is a pixel dispersion value of the pixel values of all the pixels in the image data after the inverse characteristic filtering process. The clip range 250b, the clip error rate 250c, and the inverse characteristic filtered pixel dispersion value 250d are calculated by the table generation unit 44A.

図22に戻って、画素分散値算出部440は、逆特性フィルタ処理後の画像データに対して、全画素の画素値の画素分散値を算出する。そして、画素分散値算出部440は、逆特性フィルタ処理後の画素分散値をクリップ処理部320Aに出力する。   Returning to FIG. 22, the pixel variance value calculation unit 440 calculates the pixel variance values of the pixel values of all the pixels for the image data after the inverse characteristic filter processing. Then, the pixel variance value calculation unit 440 outputs the pixel variance value after the inverse characteristic filter processing to the clip processing unit 320A.

クリップ処理部320Aは、クリップ範囲テーブル250Aに記憶された逆特性フィルタ後画素分散値250dを参照して、逆特性フィルタ処理後の画素分散値に近い順に予め定められた上位m´個のテスト画像番号を抽出する。クリップ処理部320Aは、抽出されたテスト画像番号に対応するクリップ範囲でクリップ処理を行う。そして、クリップ処理部320Aは、各テスト画像番号に対応するクリップ範囲にてクリップ処理後の画像データを正規化処理部330に出力する。なお、クリップ処理部320Aによるクリップ処理は、クリップ処理部320によるクリップ処理と同様であるので、その説明を省略する。   The clip processing unit 320A refers to the inverse characteristic filtered pixel dispersion value 250d stored in the clip range table 250A, and sets the upper m ′ test images in advance in the order close to the pixel dispersion value after the inverse characteristic filtering. Extract the number. The clip processing unit 320A performs clip processing in the clip range corresponding to the extracted test image number. Then, the clip processing unit 320A outputs the image data after the clip processing to the normalization processing unit 330 within the clip range corresponding to each test image number. Note that the clip processing by the clip processing unit 320A is the same as the clip processing by the clip processing unit 320, and thus the description thereof is omitted.

[クリップ範囲決定処理のフローチャート]
次に、実施例5のクリップ範囲決定処理のフローチャートを、図24を参照して説明する。図24は、実施例5のクリップ範囲決定処理のフローチャートを示す図である。
[Clip range determination processing flowchart]
Next, a flowchart of clip range determination processing according to the fifth embodiment will be described with reference to FIG. FIG. 24 is a flowchart illustrating the clip range determination process according to the fifth embodiment.

図24に示すように、携帯電子機器8は、表示画像データの逆特性フィルタ処理を行う(ステップS61)。ここで、逆特性フィルタ処理後の画像データをAとする。   As shown in FIG. 24, the portable electronic device 8 performs an inverse characteristic filtering process on the display image data (step S61). Here, it is assumed that the image data after the inverse characteristic filter processing is A.

そして、携帯電子機器8は、逆特性フィルタ処理後の画像データAの全画素の画素値の画素分散値を計算する(ステップS62)。ここで、画像データAの画素分散値をVとする。   And the portable electronic device 8 calculates the pixel dispersion value of the pixel value of all the pixels of the image data A after the reverse characteristic filter process (step S62). Here, it is assumed that the pixel dispersion value of the image data A is V.

そして、携帯電子機器8は、クリップ範囲テーブル250Aを参照し、画像データAの画素分散値Vに近い画素分散値に対応するテスト画像番号250aを上位m´個抽出する(ステップS63)。なお、m´は、クリップ範囲テーブル250Aに記憶されたテスト画像番号250aの数m以下であるものとする。   Then, the portable electronic device 8 refers to the clip range table 250A and extracts the upper m ′ test image numbers 250a corresponding to the pixel variance values close to the pixel variance value V of the image data A (step S63). Note that m ′ is equal to or less than the number m of the test image numbers 250a stored in the clip range table 250A.

携帯電子機器8は、抽出されたm´個のテスト画像番号250aに対応するクリップ範囲250bでAのクリップ処理を行う(ステップS64)。ここで、クリップ処理後の画像データをB、・・・、Bm´とする。 The portable electronic device 8 performs the A clip process in the clip range 250b corresponding to the extracted m ′ test image numbers 250a (step S64). Here, it is assumed that the image data after the clip processing is B 1 ,..., B m ′ .

続いて、携帯電子機器8は、クリップ処理後の画像データB、・・・、Bm´の正規化処理を行う(ステップS65)。ここで、正規化処理後の画像データをC、・・・、Cm´とする。携帯電子機器8は、正規化処理後の画像データC、・・・、Cm´のぼやけ特性フィルタ処理を行う(ステップS66)。ここで、ぼやけ特性フィルタ処理後の画像データをD、・・・、Dm´とする。 Subsequently, the portable electronic device 8 performs a normalization process on the image data B 1 ,..., B m ′ after the clip process (step S65). Here, it is assumed that the image data after the normalization process is C 1 ,..., C m ′ . The portable electronic device 8 performs the blur characteristic filtering process on the image data C 1 ,..., C m ′ after the normalization process (step S66). Here, it is assumed that the image data after the blur characteristic filter processing is D 1 ,..., D m ′ .

そして、携帯電子機器8は、ぼやけ特性フィルタ処理後の画像データD、・・・、Dm´のクリップ誤差率を算出する(ステップS67)。例えば、携帯電子機器8は、ぼやけ特性フィルタ処理後の画像データD、・・・、Dm´のクリップ誤差率を、式(13)を用いて算出する。 Then, the portable electronic device 8 calculates the clip error rate of the image data D 1 ,..., D m ′ after the blur characteristic filter processing (step S67). For example, the portable electronic device 8 calculates the clip error rate of the image data D 1 ,..., D m ′ after the blur characteristic filter processing using Expression (13).

そして、携帯電子機器8は、クリップ範囲テーブル250Aを参照し、クリップ誤差率の最も近いクリップ範囲を決定する(ステップS68)。例えば、携帯電子機器8は、ぼやけ特性フィルタ処理後の画像データD、・・・、Dm´のクリップ誤差率を取得する。携帯電子機器8は、取得した画像データD、・・・、Dm´のクリップ誤差率を、テスト画像番号250aごとに、クリップ範囲テーブル250Aのクリップ誤差率250cと比較する。携帯電子機器8は、取得したクリップ誤差率がクリップ範囲テーブル250Aのクリップ誤差率250cに最も近いテスト画像番号250aをみつけ、みつけたテスト画像番号250aに対応するクリップ範囲250bを使用クリップ範囲として決定する。 Then, the portable electronic device 8 refers to the clip range table 250A and determines the clip range with the closest clip error rate (step S68). For example, the portable electronic device 8 acquires the clip error rate of the image data D 1 ,..., D m ′ after the blur characteristic filter processing. The portable electronic device 8 compares the clip error rate of the acquired image data D 1 ,..., D m ′ with the clip error rate 250c of the clip range table 250A for each test image number 250a. The portable electronic device 8 finds the test image number 250a whose acquired clip error rate is closest to the clip error rate 250c of the clip range table 250A, and determines the clip range 250b corresponding to the found test image number 250a as the use clip range. .

この後、携帯電子機器8は、以下の処理を行う。すなわち、携帯電子機器8は、決定されたクリップ範囲を用いて、Aのクリップ処理を行う。ここで、クリップ処理後の画像データをB´とする。携帯電子機器8は、B´の正規化処理を行う。ここで、正規化処理後の画像データをC´とする。そして、携帯電子機器8は、正規化処理後の画像データC´を画面に出力する。   Thereafter, the portable electronic device 8 performs the following processing. That is, the portable electronic device 8 performs the clip process A using the determined clip range. Here, it is assumed that the image data after the clip processing is B ′. The portable electronic device 8 performs a normalization process for B ′. Here, the image data after the normalization process is C ′. Then, the portable electronic device 8 outputs the image data C ′ after the normalization process to the screen.

[実施例5の効果]
このようにして、上記実施例5によれば、電子機器1は、網膜に結像する画像の異なる傾向における複数のテスト画像データに対して、それぞれ画像劣化度が最小となるクリップ範囲を事前に特定する。そして、電子機器1は、複数のテスト画像データに対してそれぞれ特定されたクリップ範囲を、テスト画像データに対応付けて携帯電子機器8に記憶させる。この結果、携帯電子機器8は、テスト画像データごとのクリップ範囲を利用して、表示画像データと適合度の高いテスト画像データのクリップ範囲をみつけることができるので、表示画像データをリアルタイムに補正することができる。つまり、ネルダー・ミード法を用いた画像劣化度を最小化するクリップ範囲の決定処理は、演算量が大きいので、かかる処理を電子機器1で事前に行うことで、携帯電子機器8での演算量を減らすことができ、表示画像データの補正を高速に行うことができる。さらに、携帯電子機器8は、表示画像データと画像傾向が近いテスト画像データのクリック範囲を使用クリック範囲として決定し、決定したクリック範囲を用いて表示画像データを補正してディスプレイで表示することで、表示画像を見る老眼の利用者の視認性を向上させることができる。
[Effect of Example 5]
As described above, according to the fifth embodiment, the electronic apparatus 1 preliminarily sets a clip range in which the image degradation degree is minimum for each of a plurality of test image data in different tendencies of images formed on the retina. Identify. Then, the electronic device 1 stores the clip ranges specified for the plurality of test image data in the portable electronic device 8 in association with the test image data. As a result, the portable electronic device 8 can use the clip range for each test image data to find the clip range of the test image data having a high degree of matching with the display image data, and thus correct the display image data in real time. be able to. In other words, the clip range determination process that minimizes the degree of image degradation using the Nelder-Mead method has a large amount of calculation, so that the calculation amount in the portable electronic device 8 can be obtained by performing such processing in advance in the electronic device 1. And the display image data can be corrected at high speed. Further, the portable electronic device 8 determines the click range of the test image data whose image tendency is close to that of the display image data as the use click range, corrects the display image data using the determined click range, and displays the corrected data on the display. The visibility of the presbyopic user who sees the display image can be improved.

ところで、実施例4の電子機器1は、網膜に結像する画像の異なる傾向におけるテスト画像データに対して、画像劣化度が最小となるクリップ範囲を決定し、テスト画像データに対してそれぞれ決定されたクリップ範囲をクリップ誤差率と対応付けてクリップ範囲テーブル250を生成する。そして、電子機器1は、生成したクリップ範囲テーブル250を携帯電子機器3に格納させると説明した。しかしながら、電子機器1によって生成されるクリップ範囲テーブル250は、複数のテスト画像データに対してそれぞれ決定されたクリップ範囲をクリップ誤差率および原画像データとエッジ画像データの誤差率と対応付けたものであっても良い。   By the way, the electronic apparatus 1 according to the fourth embodiment determines a clip range in which the image degradation degree is minimum for the test image data having different tendencies of images formed on the retina, and is determined for each of the test image data. The clip range table 250 is generated by associating the clip range with the clip error rate. Then, it has been described that the electronic device 1 stores the generated clip range table 250 in the portable electronic device 3. However, the clip range table 250 generated by the electronic device 1 associates the clip ranges determined for each of the plurality of test image data with the clip error rate and the error rate of the original image data and the edge image data. There may be.

そこで、実施例6では、電子機器1によって生成されるクリップ範囲テーブル250が、複数のテスト画像データに対してそれぞれ決定されたクリップ範囲をクリップ誤差率および原画像データとエッジ画像データの誤差率と対応付けたものである場合を説明する。   Therefore, in the sixth embodiment, the clip range table 250 generated by the electronic apparatus 1 uses the clip range determined for each of the plurality of test image data as the clip error rate and the error rate between the original image data and the edge image data. A case where these are associated will be described.

[実施例6の情報表示システムの機能構成]
図25は、実施例6の情報表示システムの機能構成の一例を示すブロック図である。なお、図19に示す情報表示システム9と同一の構成については同一符号を付すことで、その重複する構成および動作の説明については省略する。実施例4と実施例6とが異なるところは、電子機器1では、クリップ範囲テーブル250、テーブル生成部44をそれぞれクリップ範囲テーブル250B、テーブル生成部44Bに変更した点にある。また、実施例4と実施例6とが異なるところは、携帯電子機器8では、クリップ範囲テーブル250をクリップ範囲テーブル250Bに変更し、クリップ処理部320をクリップ処理部320Bに変更した点にある。また、実施例4と実施例6とが異なるところは、携帯電子機器8では、エッジフィルタ処理部350およびエッジ誤差率算出部450を追加した点にある。
[Functional Configuration of Information Display System of Example 6]
FIG. 25 is a block diagram illustrating an example of a functional configuration of the information display system according to the sixth embodiment. In addition, about the structure same as the information display system 9 shown in FIG. 19, the same code | symbol is attached | subjected, and the description of the overlapping structure and operation | movement is abbreviate | omitted. The difference between the fourth embodiment and the sixth embodiment is that, in the electronic apparatus 1, the clip range table 250 and the table generation unit 44 are changed to a clip range table 250B and a table generation unit 44B, respectively. The difference between the fourth embodiment and the sixth embodiment is that, in the portable electronic device 8, the clip range table 250 is changed to the clip range table 250B, and the clip processing unit 320 is changed to the clip processing unit 320B. Further, the difference between the fourth embodiment and the sixth embodiment is that, in the portable electronic device 8, an edge filter processing unit 350 and an edge error rate calculation unit 450 are added.

テーブル生成部44Bは、網膜に結像する画像の異なる傾向におけるテスト画像データに対して、画像劣化度が最小となるクリップ範囲を決定する。画像劣化度が最小となるクリップ範囲は、例えば、ネルダー・ミード法によって決定される。なお、ネルダー・ミード法によってクリップ範囲を決定する方法は、実施例2および実施例3と同様であるので、その説明を省略する。   The table generation unit 44B determines a clip range that minimizes the degree of image degradation for test image data having different tendencies of images formed on the retina. The clip range in which the degree of image degradation is minimized is determined by, for example, the Nelder Mead method. Note that the method for determining the clip range by the Nelder Mead method is the same as in the second and third embodiments, and thus the description thereof is omitted.

また、テーブル生成部44Bは、複数のテスト画像データに対してそれぞれ決定されたクリップ範囲をクリップ誤差率および原画像データとエッジ画像データの誤差率と対応付けて、クリップ範囲テーブル250Bを生成する。クリップ誤差率とは、決定されたクリップ範囲でテスト画像データをクリップ処理した後の画像データの情報の、テスト画像データの情報との誤差を表す割合である。言い換えれば、クリップ誤差率は、原画像(テスト画像)データにクリップ処理を施したことにより失われた情報量の大きさを表わす。クリップ誤差率は、式(13)により算出される。また、原画像データとエッジ画像データの誤差率とは、テスト画像データのエッジの情報の、テスト画像データの情報との誤差を表す割合である。言い換えれば、原画像データとエッジ画像データの誤差率は、原画像データをエッジ画像データとしたことにより失われた情報量の大きさを表わす。エッジ誤差率は、式(14)により算出される。なお、式(14)のE、Iは、エッジ処理、原画像データを意味する。M、S(I)は、Iの最大画素値、Iの画素数を意味する。
In addition, the table generation unit 44B generates the clip range table 250B by associating the clip ranges determined for each of the plurality of test image data with the error rates of the clip error rate and the original image data and the edge image data. The clip error rate is a ratio representing an error between the information of the image data after the test image data is clipped within the determined clip range and the information of the test image data. In other words, the clip error rate represents the amount of information lost due to the clip processing performed on the original image (test image) data. The clip error rate is calculated by equation (13). The error rate between the original image data and the edge image data is a ratio representing an error between the edge information of the test image data and the information of the test image data. In other words, the error rate between the original image data and the edge image data represents the amount of information lost by using the original image data as the edge image data. The edge error rate is calculated by equation (14). Note that E and I in Equation (14) mean edge processing and original image data. M and S (I) mean the maximum pixel value of I and the number of pixels of I.

また、テーブル生成部44Bは、生成されたクリップ範囲テーブル250Bをメモリ2に格納する。そして、テーブル生成部44Bは、生成したクリップ範囲テーブル250Bを携帯電子機器8に格納させる。   The table generation unit 44B stores the generated clip range table 250B in the memory 2. Then, the table generation unit 44B stores the generated clip range table 250B in the portable electronic device 8.

ここで、クリップ範囲テーブル250Bのデータ構造の一例を、図26を参照して説明する。図26は、実施例6のクリップ範囲テーブルのデータ構造の一例を示す図である。図26に示すように、クリップ範囲テーブル250Bは、原画像データとエッジ画像データの誤差率250e、クリップ範囲250bおよびクリップ誤差率250cを、テスト画像番号250aに対応付けて記憶する。   Here, an example of the data structure of the clip range table 250B will be described with reference to FIG. FIG. 26 is a diagram illustrating an example of the data structure of the clip range table of the sixth embodiment. As shown in FIG. 26, the clip range table 250B stores the error rate 250e, the clip range 250b, and the clip error rate 250c between the original image data and the edge image data in association with the test image number 250a.

テスト画像番号250a、クリップ範囲250bおよびクリップ誤差率250cは、図20で示したクリップ範囲テーブル250と同様であるので、その説明を省略する。原画像データとエッジ画像データの誤差率250eは、テスト画像データにおける原画像データのエッジ画像データの情報の、テスト画像データにおける原画像データの情報との誤差を表す割合である。なお、クリップ範囲250b、クリップ誤差率250cおよび原画像データとエッジ画像データの誤差率250eは、テーブル生成部44Bによって算出される。   Since the test image number 250a, the clip range 250b, and the clip error rate 250c are the same as those in the clip range table 250 shown in FIG. The error rate 250e between the original image data and the edge image data is a ratio representing an error between the edge image data information of the original image data in the test image data and the information of the original image data in the test image data. The clip range 250b, the clip error rate 250c, and the error rate 250e between the original image data and the edge image data are calculated by the table generation unit 44B.

図25に戻って、エッジフィルタ処理部350は、表示画像(原画像)データに対して、エッジフィルタを適用する。例えば、エッジフィルタ処理部350は、エッジフィルタを施すことにより色調の異なる境界部分(エッジ)の画像データを抽出する。そして、エッジフィルタ処理部350は、抽出したエッジ画像データをエッジ誤差率算出部450に出力する。   Returning to FIG. 25, the edge filter processing unit 350 applies an edge filter to the display image (original image) data. For example, the edge filter processing unit 350 extracts image data of boundary portions (edges) having different color tones by applying an edge filter. Then, the edge filter processing unit 350 outputs the extracted edge image data to the edge error rate calculation unit 450.

エッジ誤差率算出部450は、エッジ画像データと表示画像(原画像)データとを用いて、表示画像(原画像)データのエッジ誤差率を算出する。原画像データのエッジ誤差率は、式(14)により算出される。そして、エッジ誤差率算出部450は、算出された原画像データのエッジ誤差率をクリップ処理部320Bに出力する。   The edge error rate calculation unit 450 calculates the edge error rate of the display image (original image) data using the edge image data and the display image (original image) data. The edge error rate of the original image data is calculated by Expression (14). Then, the edge error rate calculation unit 450 outputs the calculated edge error rate of the original image data to the clip processing unit 320B.

クリップ処理部320Bは、クリップ範囲テーブル250Bに記憶された原画像データとエッジ画像データの誤差率250eを参照して、原画像データのエッジ誤差率に近い順に予め定められた上位m´個のテスト画像番号を抽出する。クリップ処理部320Bは、抽出されたテスト画像番号に対応するクリップ範囲でクリップ処理を行う。そして、クリップ処理部320Bは、各テスト画像番号に対応するクリップ範囲にてクリップ処理後の画像データを正規化処理部330に出力する。なお、クリップ処理部320Bによるクリップ処理は、クリップ処理部320によるクリップ処理と同様であるので、その説明を省略する。   The clip processing unit 320B refers to the error rate 250e between the original image data and the edge image data stored in the clip range table 250B, and determines the upper m ′ tests in advance in the order close to the edge error rate of the original image data. Extract the image number. The clip processing unit 320B performs clip processing in the clip range corresponding to the extracted test image number. Then, the clip processing unit 320B outputs the image data after the clip processing within the clip range corresponding to each test image number to the normalization processing unit 330. Note that the clip processing by the clip processing unit 320B is the same as the clip processing by the clip processing unit 320, and thus the description thereof is omitted.

[クリップ範囲決定処理のフローチャート]
次に、実施例6のクリップ範囲決定処理のフローチャートを、図27を参照して説明する。図27は、実施例6のクリップ範囲決定処理のフローチャートを示す図である。
[Clip range determination processing flowchart]
Next, a flowchart of clip range determination processing according to the sixth embodiment will be described with reference to FIG. FIG. 27 is a flowchart illustrating clip range determination processing according to the sixth embodiment.

図27に示すように、携帯電子機器8は、表示画像データのエッジフィルタ処理を行う(ステップS71)。ここで、エッジフィルタ処理後のエッジ画像データをFとする。そして、携帯電子機器8は、エッジ画像データFのエッジ誤差率を算出する(ステップS72)。ここで、エッジ画像データFのエッジ誤差率をEとする。   As shown in FIG. 27, the portable electronic device 8 performs edge filter processing of the display image data (step S71). Here, F is the edge image data after the edge filter processing. Then, the mobile electronic device 8 calculates the edge error rate of the edge image data F (step S72). Here, E is the edge error rate of the edge image data F.

そして、携帯電子機器8は、クリップ範囲テーブル250Bを参照し、エッジ画像データFのエッジ誤差率Eに近いエッジ誤差率に対応するテスト画像番号250aを上位m´個抽出する(ステップS73)。なお、m´は、クリップ範囲テーブル250Bに記憶されたテスト画像番号250aの数m以下であるものとする。   Then, the portable electronic device 8 refers to the clip range table 250B and extracts the top m ′ test image numbers 250a corresponding to the edge error rate close to the edge error rate E of the edge image data F (step S73). Note that m ′ is equal to or less than the number m of the test image numbers 250a stored in the clip range table 250B.

携帯電子機器8は、表示画像データの逆特性フィルタ処理を行う(ステップS74)。ここで、逆特性フィルタ処理後の画像データをAとする。   The portable electronic device 8 performs an inverse characteristic filtering process on the display image data (step S74). Here, it is assumed that the image data after the inverse characteristic filter processing is A.

携帯電子機器8は、抽出されたm´個のテスト画像番号250aに対応するクリップ範囲250bでAのクリップ処理を行う(ステップS75)。ここで、クリップ処理後の画像データをB、・・・、Bm´とする。 The portable electronic device 8 performs the A clip process in the clip range 250b corresponding to the extracted m ′ test image numbers 250a (step S75). Here, it is assumed that the image data after the clip processing is B 1 ,..., B m ′ .

続いて、携帯電子機器8は、クリップ処理後の画像データB、・・・、Bm´の正規化処理を行う(ステップS76)。ここで、正規化処理後の画像データをC、・・・、Cm´とする。携帯電子機器8は、正規化処理後の画像データC、・・・、Cm´のぼやけ特性フィルタ処理を行う(ステップS77)。ここで、ぼやけ特性フィルタ処理後の画像データをD、・・・、Dm´とする。 Subsequently, the portable electronic device 8 performs a normalization process on the image data B 1 ,..., B m ′ after the clip process (step S76). Here, it is assumed that the image data after the normalization process is C 1 ,..., C m ′ . The portable electronic device 8 performs the blur characteristic filtering process on the image data C 1 ,..., C m ′ after the normalization process (step S77). Here, it is assumed that the image data after the blur characteristic filter processing is D 1 ,..., D m ′ .

そして、携帯電子機器8は、ぼやけ特性フィルタ処理後の画像データD、・・・、Dm´のクリップ誤差率を算出する(ステップS78)。例えば、携帯電子機器8は、ぼやけ特性フィルタ処理後の画像データD、・・・、Dm´のクリップ誤差率を、式(13)を用いて算出する。 Then, the portable electronic device 8 calculates the clip error rate of the image data D 1 ,..., D m ′ after the blur characteristic filter processing (step S78). For example, the portable electronic device 8 calculates the clip error rate of the image data D 1 ,..., D m ′ after the blur characteristic filter processing using Expression (13).

そして、携帯電子機器8は、クリップ範囲テーブル250Bを参照し、クリップ誤差率の最も近いクリップ範囲を決定する(ステップS79)。例えば、携帯電子機器8は、ぼやけ特性フィルタ処理後の画像データD、・・・、Dm´のクリップ誤差率を取得する。携帯電子機器8は、取得した画像データD、・・・、Dm´のクリップ誤差率を、テスト画像番号250aごとに、クリップ範囲テーブル250Bのクリップ誤差率250cと比較する。携帯電子機器8は、取得したクリップ誤差率がクリップ範囲テーブル250Bのクリップ誤差率250cに最も近いテスト画像番号250aをみつけ、みつけたテスト画像番号250aに対応するクリップ範囲250bを使用クリップ範囲として決定する。 Then, the portable electronic device 8 refers to the clip range table 250B and determines the clip range with the closest clip error rate (step S79). For example, the portable electronic device 8 acquires the clip error rate of the image data D 1 ,..., D m ′ after the blur characteristic filter processing. The portable electronic device 8 compares the clip error rate of the acquired image data D 1 ,..., D m ′ with the clip error rate 250c of the clip range table 250B for each test image number 250a. The portable electronic device 8 finds the test image number 250a whose acquired clip error rate is closest to the clip error rate 250c of the clip range table 250B, and determines the clip range 250b corresponding to the found test image number 250a as the use clip range. .

この後、携帯電子機器8は、以下の処理を行う。すなわち、携帯電子機器8は、決定されたクリップ範囲を用いて、Aのクリップ処理を行う。ここで、クリップ処理後の画像データをB´とする。携帯電子機器8は、B´の正規化処理を行う。ここで、正規化処理後の画像データをC´とする。そして、携帯電子機器8は、正規化処理後の画像データC´を画面に出力する。   Thereafter, the portable electronic device 8 performs the following processing. That is, the portable electronic device 8 performs the clip process A using the determined clip range. Here, it is assumed that the image data after the clip processing is B ′. The portable electronic device 8 performs a normalization process for B ′. Here, the image data after the normalization process is C ′. Then, the portable electronic device 8 outputs the image data C ′ after the normalization process to the screen.

[実施例6の効果]
このようにして、上記実施例6によれば、電子機器1は、網膜に結像する画像の異なる傾向における複数のテスト画像データに対して、それぞれ画像劣化度が最小となるクリップ範囲を特定する。電子機器1は、複数のテスト画像データに対してそれぞれ特定されたクリップ範囲を、テスト画像データに対応付けて携帯電子機器8に記憶させる。この結果、携帯電子機器8は、テスト画像データごとのクリップ範囲を利用して、表示画像データと適合度の高いテスト画像データのクリップ範囲をみつけることができるので、表示画像データをリアルタイムに補正することができる。つまり、ネルダー・ミード法を用いた画像劣化度を最小化するクリップ範囲の決定処理は、演算量が大きいので、かかる処理を電子機器1で事前に行うことで、携帯電子機器8での演算量を減らすことができ、表示画像データの補正を高速に行うことができる。さらに、携帯電子機器8は、表示画像データと画像傾向が近いテスト画像データのクリック範囲を使用クリック範囲として決定し、決定したクリック範囲を用いて表示画像データを補正して画像をディスプレイで表示することで、表示画像を見る老眼の利用者の視認性を向上させることができる。
[Effect of Example 6]
As described above, according to the sixth embodiment, the electronic apparatus 1 specifies the clip range in which the image degradation degree is minimum for each of the plurality of test image data in different tendencies of the image formed on the retina. . The electronic device 1 causes the portable electronic device 8 to store the clip ranges specified for the plurality of test image data in association with the test image data. As a result, the portable electronic device 8 can use the clip range for each test image data to find the clip range of the test image data having a high degree of matching with the display image data, and thus correct the display image data in real time. be able to. In other words, the clip range determination process that minimizes the degree of image degradation using the Nelder-Mead method has a large amount of calculation, so that the calculation amount in the portable electronic device 8 can be obtained by performing such processing in advance in the electronic device 1. And the display image data can be corrected at high speed. Furthermore, the portable electronic device 8 determines the click range of the test image data whose image tendency is close to that of the display image data as the use click range, corrects the display image data using the determined click range, and displays the image on the display. Thereby, the visibility of the user of the presbyopia who sees a display image can be improved.

[その他]
なお、上記実施例によれば、電子機器1が、老眼に関するぼやけ特性の逆特性を表示画像データに適用する例について説明した。しかしながら、実施例は、これに限定されるものではない。例えば、電子機器1は、近視、乱視、遠視についても、老眼に関するぼやけ特性を、それぞれに関するぼやけ特性に置き換えることで、それぞれのぼやけ特性の逆特性を表示画像データに対して適用しても良い。かかる処理により、電子機器1は、逆特性フィルタによる輪郭の強調により、ぼやけが解消してはっきりと視ることが可能になる。
[Others]
In addition, according to the said Example, the electronic device 1 demonstrated the example which applies the reverse characteristic of the blurring characteristic regarding presbyopia to display image data. However, the embodiment is not limited to this. For example, the electronic device 1 may apply the inverse characteristic of each blur characteristic to the display image data by replacing the blur characteristic regarding presbyopia with the blur characteristic regarding each of myopia, astigmatism, and hyperopia. By this processing, the electronic device 1 can be clearly seen with the blurring eliminated by the enhancement of the contour by the inverse characteristic filter.

また、図示した電子機器1の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、電子機器1の分散・統合の具体的態様は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、クリップ範囲更新部42を、画像劣化度が最小化するか否かを判定する判定部と、画像劣化度が最小化する場合には画像劣化度が最小化するクリップ範囲を決定する決定部と、画像劣化度が最小化しない場合には次のクリップ範囲を更新する更新部とに分離しても良い。また、画像劣化度算出部41とクリップ範囲更新部42とを1つの部として統合しても良い。また、メモリ2を電子機器1の外部装置としてネットワーク経由で接続するようにしても良い。   In addition, each component of the illustrated electronic device 1 does not necessarily have to be physically configured as illustrated. That is, the specific mode of distribution / integration of the electronic device 1 is not limited to the illustrated one, and all or part of the electronic device 1 is functionally or physically distributed in arbitrary units according to various loads or usage conditions. -Can be integrated and configured. For example, the clip range update unit 42 includes a determination unit that determines whether or not the image degradation level is minimized, and a determination unit that determines a clip range that minimizes the image degradation level when the image degradation level is minimized. If the degree of image degradation is not minimized, it may be separated into an update unit that updates the next clip range. Further, the image deterioration degree calculation unit 41 and the clip range update unit 42 may be integrated as one unit. Further, the memory 2 may be connected as an external device of the electronic device 1 via a network.

上記の実施例で説明した電子機器1が発揮する機能は、予め用意された情報表示プログラムをコンピュータが実行することで実現してもよい。そこで、以下では、図28を用いて、上記の電子機器1と同様の機能を有する情報表示プログラムを実行するコンピュータの一例について説明する。図28は、情報表示プログラムを実行するコンピュータの一例を示す図である。   The functions exhibited by the electronic device 1 described in the above embodiments may be realized by a computer executing an information display program prepared in advance. In the following, an example of a computer that executes an information display program having the same function as that of the electronic apparatus 1 will be described with reference to FIG. FIG. 28 is a diagram illustrating an example of a computer that executes an information display program.

図28に例示されたコンピュータ100は、ROM(Read Only Memory)110、RAM(Random Access Memory)120、表示装置130、CPU(Central Processing Unit)140、入力装置150および通信制御部160がバス170で接続される。   A computer 100 illustrated in FIG. 28 includes a ROM (Read Only Memory) 110, a RAM (Random Access Memory) 120, a display device 130, a CPU (Central Processing Unit) 140, an input device 150, and a communication control unit 160 via a bus 170. Connected.

ここで、RAM120には、情報表示プログラム121があらかじめ保持される。CPU140が情報表示プログラム121をRAM120から読み出して実行することによって、図28に示す例では、情報表示プログラム121は、情報表示プロセス141として機能するようになる。なお、情報表示プロセス141は、図3に示した逆特性フィルタ31、クリップ処理部32、正規化処理部33、ぼやけ特性フィルタ処理部34、画像劣化度算出部41、クリップ範囲更新部42および表示部43と同等の機能を発揮する。   Here, the information display program 121 is stored in the RAM 120 in advance. When the CPU 140 reads the information display program 121 from the RAM 120 and executes it, the information display program 121 functions as the information display process 141 in the example shown in FIG. The information display process 141 includes the inverse characteristic filter 31, the clip processing unit 32, the normalization processing unit 33, the blur characteristic filter processing unit 34, the image deterioration degree calculating unit 41, the clip range update unit 42, and the display shown in FIG. The same function as the unit 43 is exhibited.

なお、本実施例で説明した情報表示プログラムは、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現できる。このプログラムは、インターネットなどのネットワークを介して配布できる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM(Compact Disc Read Only Memory)、MO(Magneto Optical Disc)、DVD(Digital Versatile Disc)などのコンピュータで読取可能な記録媒体に記録される。また、このプログラムは、コンピュータによって記録媒体から読み出されることによって実行することもできる。   The information display program described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program can be distributed via a network such as the Internet. The program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical Disc), a DVD (Digital Versatile Disc). The The program can also be executed by being read from a recording medium by a computer.

また、コンピュータ100は、CPU140ではなく、例えばMPUやFPGA等の演算装置を用いて情報表示プログラム121を実行してもよい。また、上記の情報表示プログラム121については、例えば、ROM110に記憶させてもよいし、他の方法でCPU140に実行させてもよい。例えば、フレキシブルディスク、いわゆるFD(Flexible Disk)、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。   Further, the computer 100 may execute the information display program 121 using an arithmetic device such as an MPU or FPGA instead of the CPU 140. Further, the information display program 121 may be stored in, for example, the ROM 110 or may be executed by the CPU 140 by another method. For example, each program is stored in a “portable physical medium” such as a flexible disk, so-called FD (Flexible Disk), CD (Compact Disk) -ROM, DVD (Digital Versatile Disk), magneto-optical disk, or IC card.

そして、コンピュータ100がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしても良い。また、公衆回線、インターネット、LAN、WAN(Wide Area Network)などを介して他のコンピュータまたはサーバ装置などに記憶させた各プログラムを取得して実行するようにしても良い。   Then, the computer 100 may acquire and execute each program from these portable physical media. Further, each program stored in another computer or a server device may be acquired and executed via a public line, the Internet, a LAN, a WAN (Wide Area Network), or the like.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)入力画像データに対して、視覚特性の逆特性を示す逆特性フィルタ処理を行う逆特性フィルタ処理部と、
前記逆特性フィルタ処理により得られた第1の画像データを形成する各画素の画素値を、所定のクリップ範囲でクリップ処理するクリップ処理部と、
前記クリップ処理により得られた第2の画像データを形成する各画素の画素値を、正規化処理する正規化処理部と、
前記クリップ処理部により異なる複数のクリップ範囲でクリップ処理され、かつ、前記正規化処理部により正規化処理された複数の第3の画像データに対応する画像劣化度をそれぞれ算出する画像劣化度算出部と、
前記画像劣化度算出部により算出された複数の画像劣化度に基づいて、前記画像劣化度が最小となる前記第3の画像データを特定する特定部と、
前記特定部で特定された前記第3の画像データを所定の表示部に表示制御する表示制御部と
を有することを特徴とする電子機器。
(Additional remark 1) The reverse characteristic filter process part which performs the reverse characteristic filter process which shows the reverse characteristic of a visual characteristic with respect to input image data,
A clip processing unit that clips a pixel value of each pixel forming the first image data obtained by the inverse characteristic filter processing within a predetermined clip range;
A normalization processing unit that normalizes the pixel value of each pixel forming the second image data obtained by the clipping process;
An image deterioration level calculation unit that calculates the image deterioration levels corresponding to the plurality of third image data that have been clipped by a plurality of different clip ranges by the clip processing unit and that have been normalized by the normalization processing unit. When,
A specifying unit that specifies the third image data that minimizes the image degradation level based on the plurality of image degradation levels calculated by the image degradation level calculation unit;
An electronic apparatus comprising: a display control unit that controls display of the third image data specified by the specifying unit on a predetermined display unit.

(付記2)前記特定部により
特定された前記第3の画像データに対応するクリップ範囲を特定するクリップ範囲特定部をさらに備え、
前記クリップ処理部は、
前記画像データと異なる他の画像データを処理する場合に、前記クリップ範囲特定部により特定されたクリップ範囲を用いて、前記逆特性フィルタ処理により得られた第1の画像データを形成する各画素の画素値をクリップ処理する
ことを特徴とする付記1に記載の電子機器。
(Additional remark 2) The clip range specific part which specifies the clip range corresponding to the 3rd image data specified by the specific part is further provided,
The clip processing unit
When processing other image data different from the image data, using the clip range specified by the clip range specifying unit, each pixel forming the first image data obtained by the inverse characteristic filter processing is used. The electronic apparatus according to appendix 1, wherein the pixel value is clipped.

(付記3)前記画像劣化度算出部は、
前記第3の画像データごとに、前記第3の画像データを形成する全ての画素の画素値の分散値を算出する分散値算出部と、
前記第3の画像データごとに、前記入力画像データと前記第3の画像データとの画素ごとの誤差に対するn次元線形空間上のノルムを算出する誤差算出部と、
前記第3の画像データごとに、前記分散値算出部によって算出された分散値と、前記誤差算出部によって算出された誤差に対するn次元線形空間上のノルムとを用いて、前記画像劣化度を算出する
ことを特徴とする付記1に記載の電子機器。
(Supplementary Note 3) The image deterioration degree calculation unit
A variance value calculation unit that calculates a variance value of pixel values of all pixels forming the third image data for each of the third image data;
An error calculation unit that calculates a norm on an n-dimensional linear space for each pixel error between the input image data and the third image data for each of the third image data;
For each of the third image data, the image degradation degree is calculated using the variance value calculated by the variance value calculation unit and the norm on the n-dimensional linear space for the error calculated by the error calculation unit. The electronic device as set forth in appendix 1, characterized in that:

(付記4)前記特定部は、前記第1の画像データを形成する全ての画素の画素値のうち最大値、最小値および中間値と、前記画像劣化度算出部により画像劣化度を算出する際に用いられる関数とに対してネルダー・ミード法を適用し、前記画像劣化度が最小となる前記第3の画像データを特定する
ことを特徴とする付記1に記載の電子機器。
(Additional remark 4) When the said specific part calculates the image degradation degree by the maximum value, the minimum value, and the intermediate value among the pixel values of all the pixels which form the said 1st image data, and the said image degradation degree calculation part The electronic apparatus according to appendix 1, wherein a Nelder-Meade method is applied to a function used for the first to identify the third image data that minimizes the degree of image degradation.

(付記5)前記特定部は、前記ネルダー・ミード法とn段階マルチスタート法とを用いて、前記画像劣化度が最小となる前記第3の画像データを特定する
ことを特徴とする付記4に記載の電子機器。
(Additional remark 5) The said specific | specification part specifies the said 3rd image data with which the said image degradation degree becomes the minimum using the said Nelder mead method and n step multistart method. The electronic device described.

(付記6)前記特定部は、網膜に結像する画像の傾向における複数の入力画像データに対して、それぞれ画像劣化度が最小となる前記第3の画像データを特定し、特定した前記第3の画像データに対応するクリップ範囲を特定し、
前記複数の入力画像データに対してそれぞれ特定されたクリップ範囲を、前記入力画像データに対応付けた情報を外部の電子機器に格納させる格納部
を有することを特徴とする付記1から付記5のいずれか1つに記載の電子機器。
(Additional remark 6) The said specific | specification part specifies the said 3rd image data from which the image degradation degree becomes the minimum with respect to several input image data in the tendency of the image imaged on a retina, and specified the said 3rd Specify the clip range corresponding to the image data of
Any one of appendix 1 to appendix 5, further comprising: a storage unit that stores, in an external electronic device, information associated with each of the plurality of input image data, the clip ranges specified for the input image data. The electronic device as described in any one.

(付記7)コンピュータに、
入力画像データに対して、視覚特性の逆特性を示す逆特性フィルタ処理を行い、
前記逆特性フィルタ処理により得られた第1の画像データを形成する各画素の画素値を、所定のクリップ範囲でクリップ処理し、
前記クリップ処理により得られた第2の画像データを形成する各画素の画素値を、正規化処理し、
前記クリップ処理により異なる複数のクリップ範囲でクリップ処理され、かつ、前記正規化処理された複数の第3の画像データに対応する画像劣化度をそれぞれ算出し、
該算出処理により算出された複数の画像劣化度に基づいて、前記画像劣化度が最小となる前記第3の画像データを特定し、
該特定処理により特定された前記第3の画像データを所定の表示部に表示制御する
処理を実行させることを特徴とする情報表示プログラム。
(Appendix 7)
The input image data is subjected to the reverse characteristic filter processing that indicates the reverse characteristic of the visual characteristic,
Clipping the pixel value of each pixel forming the first image data obtained by the inverse characteristic filter processing in a predetermined clip range,
The pixel value of each pixel forming the second image data obtained by the clipping process is normalized,
Image degradation degrees corresponding to a plurality of third image data clipped in the plurality of different clip ranges by the clip processing and normalized, respectively,
Based on the plurality of image degradation levels calculated by the calculation process, the third image data that minimizes the image degradation level is specified,
An information display program for executing a process of controlling display of the third image data specified by the specifying process on a predetermined display unit.

(付記8)コンピュータは、
入力画像データに対して、視覚特性の逆特性を示す逆特性フィルタ処理を行い、
前記逆特性フィルタ処理により得られた第1の画像データを形成する各画素の画素値を、所定のクリップ範囲でクリップ処理し、
前記クリップ処理により得られた第2の画像データを形成する各画素の画素値を、正規化処理し、
前記クリップ処理により異なる複数のクリップ範囲でクリップ処理され、かつ、前記正規化処理された複数の第3の画像データに対応する画像劣化度をそれぞれ算出し、
該算出処理により算出された複数の画像劣化度に基づいて、前記画像劣化度が最小となる前記第3の画像データを特定し、
該特定処理により特定された前記第3の画像データを所定の表示部に表示制御する
処理を実行することを特徴とする情報表示方法。
(Appendix 8) The computer
The input image data is subjected to the reverse characteristic filter processing that indicates the reverse characteristic of the visual characteristic,
Clipping the pixel value of each pixel forming the first image data obtained by the inverse characteristic filter processing in a predetermined clip range,
The pixel value of each pixel forming the second image data obtained by the clipping process is normalized,
Image degradation degrees corresponding to a plurality of third image data clipped in the plurality of different clip ranges by the clip processing and normalized, respectively,
Based on the plurality of image degradation levels calculated by the calculation process, the third image data that minimizes the image degradation level is specified,
An information display method comprising: executing a process of controlling display of the third image data specified by the specifying process on a predetermined display unit.

1 電子機器
2 メモリ
21 表示画像記憶部
22 ぼやけ特性フィルタ記憶部
23 逆特性フィルタ記憶部
24 クリップ範囲記憶部
3 GPGPU
31 逆特性フィルタ処理部
32 クリップ処理部
33 正規化処理部
34 ぼやけ特性フィルタ処理部
35 クリップ範囲算出部
4 CPU
41 画像劣化度算出部
411 コントラスト画像劣化度算出部
411a 全画素分散値算出部
411b 単調減少関数演算部
412 クリップ誤差画像劣化度算出部
412a 全画素誤差ノルム算出部
412b 単調増加関数演算部
42 クリップ範囲更新部
43 表示部
5 ディスプレイ
DESCRIPTION OF SYMBOLS 1 Electronic device 2 Memory 21 Display image memory | storage part 22 Blur characteristic filter memory | storage part 23 Inverse characteristic filter memory | storage part 24 Clip range memory | storage part 3 GPGPU
31 Inverse characteristic filter processing unit 32 Clip processing unit 33 Normalization processing unit 34 Blur characteristic filter processing unit 35 Clip range calculation unit 4 CPU
41 Image Degradation Level Calculation Unit 411 Contrast Image Degradation Level Calculation Unit 411a All Pixel Variance Value Calculation Unit 411b Monotone Decrease Function Calculation Unit 412 Clip Error Image Degradation Level Calculation Unit 412a All Pixel Error Norm Calculation Unit 412b Monotone Increase Function Calculation Unit 42 Clip Range Update unit 43 Display unit 5 Display

Claims (7)

入力画像データに対して、視覚特性の逆特性を示す逆特性フィルタ処理を行う逆特性フィルタ処理部と、
前記逆特性フィルタ処理により得られた第1の画像データを形成する各画素の画素値を、所定のクリップ範囲でクリップ処理するクリップ処理部と、
前記クリップ処理により得られた第2の画像データを形成する各画素の画素値を、正規化処理する正規化処理部と、
前記クリップ処理部により異なる複数のクリップ範囲でクリップ処理され、かつ、前記正規化処理部により正規化処理された複数の第3の画像データに対応する画像劣化度をそれぞれ算出する画像劣化度算出部と、
前記画像劣化度算出部により算出された複数の画像劣化度に基づいて、前記画像劣化度が最小となる前記第3の画像データを特定する特定部と、
前記特定部で特定された前記第3の画像データを所定の表示部に表示制御する表示制御部と
を有することを特徴とする電子機器。
A reverse characteristic filter processing unit that performs reverse characteristic filter processing that indicates reverse characteristics of visual characteristics with respect to input image data;
A clip processing unit that clips a pixel value of each pixel forming the first image data obtained by the inverse characteristic filter processing within a predetermined clip range;
A normalization processing unit that normalizes the pixel value of each pixel forming the second image data obtained by the clipping process;
An image deterioration level calculation unit that calculates the image deterioration levels corresponding to the plurality of third image data that have been clipped by a plurality of different clip ranges by the clip processing unit and that have been normalized by the normalization processing unit. When,
A specifying unit that specifies the third image data that minimizes the image degradation level based on the plurality of image degradation levels calculated by the image degradation level calculation unit;
An electronic apparatus comprising: a display control unit that controls display of the third image data specified by the specifying unit on a predetermined display unit.
前記特定部により
特定された前記第3の画像データに対応するクリップ範囲を特定するクリップ範囲特定部をさらに備え、
前記クリップ処理部は、
前記画像データと異なる他の画像データを処理する場合に、前記クリップ範囲特定部により特定されたクリップ範囲を用いて、前記逆特性フィルタ処理により得られた第1の画像データを形成する各画素の画素値をクリップ処理する
ことを特徴とする請求項1に記載の電子機器。
A clip range specifying unit for specifying a clip range corresponding to the third image data specified by the specifying unit;
The clip processing unit
When processing other image data different from the image data, using the clip range specified by the clip range specifying unit, each pixel forming the first image data obtained by the inverse characteristic filter processing is used. The electronic device according to claim 1, wherein the pixel value is clipped.
前記画像劣化度算出部は、
前記第3の画像データごとに、前記第3の画像データを形成する全ての画素の画素値の分散値を算出する分散値算出部と、
前記第3の画像データごとに、前記入力画像データと前記第3の画像データとの画素ごとの誤差に対するn次元線形空間上のノルムを算出する誤差算出部と、
前記第3の画像データごとに、前記分散値算出部によって算出された分散値と、前記誤差算出部によって算出された誤差に対するn次元線形空間上のノルムとを用いて、前記画像劣化度を算出する
ことを特徴とする請求項1に記載の電子機器。
The image degradation degree calculation unit
A variance value calculation unit that calculates a variance value of pixel values of all pixels forming the third image data for each of the third image data;
An error calculation unit that calculates a norm on an n-dimensional linear space for each pixel error between the input image data and the third image data for each of the third image data;
For each of the third image data, the image degradation degree is calculated using the variance value calculated by the variance value calculation unit and the norm on the n-dimensional linear space for the error calculated by the error calculation unit. The electronic device according to claim 1, wherein:
前記特定部は、前記第1の画像データを形成する全ての画素の画素値のうち最大値、最小値および中間値と、前記画像劣化度算出部により画像劣化度を算出する際に用いられる関数とに対してネルダー・ミード法を適用し、前記画像劣化度が最小となる前記第3の画像データを特定する
ことを特徴とする請求項1に記載の電子機器。
The specifying unit includes a maximum value, a minimum value, and an intermediate value among pixel values of all pixels forming the first image data, and a function used when the image deterioration degree calculation unit calculates an image deterioration degree. The electronic apparatus according to claim 1, wherein a Nelder Mead method is applied to the third image data to minimize the image degradation degree.
前記特定部は、前記ネルダー・ミード法とn段階マルチスタート法とを用いて、前記画像劣化度が最小となる前記第3の画像データを特定する
ことを特徴とする請求項4に記載の電子機器。
5. The electronic device according to claim 4, wherein the specifying unit specifies the third image data that minimizes the degree of image degradation using the Nelder Mead method and an n-stage multi-start method. machine.
前記特定部は、網膜に結像する画像の傾向における複数の入力画像データに対して、それぞれ画像劣化度が最小となる前記第3の画像データを特定し、特定した前記第3の画像データに対応するクリップ範囲を特定し、
前記複数の入力画像データに対してそれぞれ特定されたクリップ範囲を、前記入力画像データに対応付けた情報を外部の電子機器に格納させる格納部
を有することを特徴とする請求項1から請求項5のいずれか1つに記載の電子機器。
The specifying unit specifies the third image data that minimizes the degree of image degradation for each of a plurality of input image data in a tendency of an image formed on the retina, and sets the specified third image data as the specified third image data. Identify the corresponding clip range,
6. A storage unit that stores, in an external electronic device, information associated with the clip ranges specified for each of the plurality of input image data, and information associated with the input image data. The electronic device as described in any one of.
コンピュータに、
入力画像データに対して、視覚特性の逆特性を示す逆特性フィルタ処理を行い、
前記逆特性フィルタ処理により得られた第1の画像データを形成する各画素の画素値を、所定のクリップ範囲でクリップ処理し、
前記クリップ処理により得られた第2の画像データを形成する各画素の画素値を、正規化処理し、
前記クリップ処理により異なる複数のクリップ範囲でクリップ処理され、かつ、前記正規化処理された複数の第3の画像データに対応する画像劣化度をそれぞれ算出し、
該算出処理により算出された複数の画像劣化度に基づいて、前記画像劣化度が最小となる前記第3の画像データを特定し、
該特定処理により特定された前記第3の画像データを所定の表示部に表示制御する
処理を実行させることを特徴とする情報表示プログラム。
On the computer,
The input image data is subjected to the reverse characteristic filter processing that indicates the reverse characteristic of the visual characteristic,
Clipping the pixel value of each pixel forming the first image data obtained by the inverse characteristic filter processing in a predetermined clip range,
The pixel value of each pixel forming the second image data obtained by the clipping process is normalized,
Image degradation degrees corresponding to a plurality of third image data clipped in the plurality of different clip ranges by the clip processing and normalized, respectively,
Based on the plurality of image degradation levels calculated by the calculation process, the third image data that minimizes the image degradation level is specified,
An information display program for executing a process of controlling display of the third image data specified by the specifying process on a predetermined display unit.
JP2015199711A 2015-10-07 2015-10-07 Electronic device and information display program Active JP6604131B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015199711A JP6604131B2 (en) 2015-10-07 2015-10-07 Electronic device and information display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015199711A JP6604131B2 (en) 2015-10-07 2015-10-07 Electronic device and information display program

Publications (2)

Publication Number Publication Date
JP2017072733A true JP2017072733A (en) 2017-04-13
JP6604131B2 JP6604131B2 (en) 2019-11-13

Family

ID=58537598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015199711A Active JP6604131B2 (en) 2015-10-07 2015-10-07 Electronic device and information display program

Country Status (1)

Country Link
JP (1) JP6604131B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190023883A (en) * 2017-08-30 2019-03-08 삼성전자주식회사 Display apparatus and image processing method thereof
CN111462115A (en) * 2020-04-27 2020-07-28 上海联影医疗科技有限公司 Medical image display method and device and computer equipment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046807A (en) * 2001-08-02 2003-02-14 Matsushita Electric Ind Co Ltd Image display device and image display method
JP2004007301A (en) * 2002-06-03 2004-01-08 Kddi Media Will Corp Image processor
WO2006135359A1 (en) * 2005-06-08 2006-12-21 Thomson Licensing Apparatus and method for image processing in spatial light modulated display systems
JP2010068090A (en) * 2008-09-09 2010-03-25 Canon Inc Method and device for processing image
JP2011095839A (en) * 2009-10-27 2011-05-12 Olympus Corp Method for generating corrected image data, and display device
JP2012063589A (en) * 2010-09-16 2012-03-29 Nippon Hoso Kyokai <Nhk> Diopter correcting device
JP2015094788A (en) * 2013-11-08 2015-05-18 富士通株式会社 Display device and display control program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046807A (en) * 2001-08-02 2003-02-14 Matsushita Electric Ind Co Ltd Image display device and image display method
JP2004007301A (en) * 2002-06-03 2004-01-08 Kddi Media Will Corp Image processor
WO2006135359A1 (en) * 2005-06-08 2006-12-21 Thomson Licensing Apparatus and method for image processing in spatial light modulated display systems
JP2010068090A (en) * 2008-09-09 2010-03-25 Canon Inc Method and device for processing image
JP2011095839A (en) * 2009-10-27 2011-05-12 Olympus Corp Method for generating corrected image data, and display device
JP2012063589A (en) * 2010-09-16 2012-03-29 Nippon Hoso Kyokai <Nhk> Diopter correcting device
JP2015094788A (en) * 2013-11-08 2015-05-18 富士通株式会社 Display device and display control program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190023883A (en) * 2017-08-30 2019-03-08 삼성전자주식회사 Display apparatus and image processing method thereof
JP2020522946A (en) * 2017-08-30 2020-07-30 サムスン エレクトロニクス カンパニー リミテッド Display device and image processing method thereof
US11062430B2 (en) 2017-08-30 2021-07-13 Samsung Electronics Co., Ltd. Display apparatus and image processing method thereof
KR102351083B1 (en) 2017-08-30 2022-01-13 삼성전자주식회사 Display apparatus and image processing method thereof
US11532075B2 (en) 2017-08-30 2022-12-20 Samsung Electronics Co., Ltd. Display apparatus for restoring high-frequency component of input image and image processing method thereof
CN111462115A (en) * 2020-04-27 2020-07-28 上海联影医疗科技有限公司 Medical image display method and device and computer equipment

Also Published As

Publication number Publication date
JP6604131B2 (en) 2019-11-13

Similar Documents

Publication Publication Date Title
US11610082B2 (en) Method and apparatus for training neural network model used for image processing, and storage medium
KR101871098B1 (en) Apparatus and method for image processing
JP6088792B2 (en) Image detection apparatus, control program, and image detection method
JP4618098B2 (en) Image processing system
JP7124404B2 (en) Machine learning program, machine learning method and machine learning apparatus
CN112949678B (en) Deep learning model countermeasure sample generation method, system, equipment and storage medium
US10810464B2 (en) Information processing apparatus, information processing method, and storage medium
WO2013089265A1 (en) Dictionary creation device, image processing device, image processing system, dictionary creation method, image processing method, and program
JP2015232869A (en) Image processor, image processing method and image processing program
CN111047544B (en) Saturated image deblurring method based on nonlinear degradation model
EP4092555A1 (en) Control method, information processing device, and control program
JP6604131B2 (en) Electronic device and information display program
JP4709794B2 (en) Motion estimation apparatus and method
JP2011193277A (en) Apparatus and method for processing image and program
Byun et al. BitNet: Learning-based bit-depth expansion
JP5617841B2 (en) Image processing apparatus, image processing method, and image processing program
US20190266392A1 (en) Image processing apparatus, image processing method, and storage medium
JP2020177582A (en) Leaning device, learning method, program, and recognition device
Marrugo et al. Improving the blind restoration of retinal images by means of point-spread-function estimation assessment
JP2021086284A (en) Image processing device, image processing method, and program
JP6564158B2 (en) Image processing apparatus, image processing method, and image processing program
JP5660300B2 (en) Image processing device
WO2022188102A1 (en) Depth image inpainting method and apparatus, camera assembly, and electronic device
JP2019053588A (en) Image processing apparatus, image processing method and program
JPWO2013011797A1 (en) Degradation restoration system, degradation restoration method and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180405

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180409

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180706

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190930

R150 Certificate of patent or registration of utility model

Ref document number: 6604131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250