JP2015152859A - Image display device, image display method, and image display program - Google Patents

Image display device, image display method, and image display program Download PDF

Info

Publication number
JP2015152859A
JP2015152859A JP2014028698A JP2014028698A JP2015152859A JP 2015152859 A JP2015152859 A JP 2015152859A JP 2014028698 A JP2014028698 A JP 2014028698A JP 2014028698 A JP2014028698 A JP 2014028698A JP 2015152859 A JP2015152859 A JP 2015152859A
Authority
JP
Japan
Prior art keywords
image
pattern
background
white
border
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014028698A
Other languages
Japanese (ja)
Inventor
加藤 秀雄
Hideo Kato
秀雄 加藤
清水 雅芳
Masayoshi Shimizu
雅芳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014028698A priority Critical patent/JP2015152859A/en
Publication of JP2015152859A publication Critical patent/JP2015152859A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve visibility of characters and graphics in a displayed image.SOLUTION: An image display device includes: a first accepting unit which accepts an input showing whether or not a user has recognized a border surrounding an outline of a first pattern in each of a plurality of first images in which the first pattern having the outline surrounded with white borders mutually different by width is represented on a background in a first color; a first detection unit which detects, among widths of borders included in first images which the inputs shows that white borders have not been recognized in, a first width wider than widths of borders included in the other first images; a second accepting unit which accepts an input showing whether or not the user has recognized a background of the first pattern as a white color in each of a plurality of second images in which the first pattern bordered with the first width is represented on backgrounds mutually different by color; a second detection unit which detects, among backgrounds of second images which have been recognized as a white color, a color darker than backgrounds of the other second images as a second color; and a conversion unit which converts a third image representing a second pattern in a black color on a background in a white color into a fourth image which has a white border having the first width surrounding the outline of the second pattern and has a background in the second color.

Description

本発明は、画像表示装置、画像表示方法及び画像表示プログラムに関する。   The present invention relates to an image display device, an image display method, and an image display program.

例えば、文字や図形を含む画像に対してエッジを強調することで、ディスプレイ等に画像を表示させた場合に、文字や図形を表すパターンと背景とのコントラストを増大させ、文字や図形を見やすくする技術がある(例えば、特許文献1参照)。   For example, by emphasizing edges for images containing characters and figures, when the image is displayed on a display, etc., the contrast between the pattern representing the characters and figures and the background is increased, making the characters and figures easier to see. There is a technology (for example, see Patent Document 1).

特開2010−135865号公報JP 2010-135865 A

従来のエッジを強調する技術は、画像を例えば微分フィルタなどに通すことで、文字や図形を示すパターンの輪郭の内側に元の輝度よりも低い輝度を持つアンダーシュートを設け、パターンの輪郭の外側に元の輝度よりも高い輝度を持つオーバーシュートを設ける。したがって、画像に含まれる文字などのパターンが黒で表され、パターンの背景の色が白である場合に、従来のエッジを強調する技術では、パターンと背景とのコントラストを元のコントラストよりも大きくすることは困難である。つまり、従来のエッジを強調する技術では、例えば、白い背景上に文字や図形が黒で表された画像について、文字や図形を表すパターンの視認性を向上することは困難である。   The conventional technique for enhancing the edge is to pass an image through, for example, a differential filter, thereby providing an undershoot having a lower brightness than the original brightness on the inside of the contour of the pattern showing characters and figures, and outside the contour of the pattern. Is provided with an overshoot having a higher luminance than the original luminance. Therefore, when the pattern of characters, etc. included in the image is expressed in black and the background color of the pattern is white, the conventional technique for enhancing the edge makes the contrast between the pattern and the background larger than the original contrast. It is difficult to do. That is, it is difficult to improve the visibility of a pattern representing a character or a figure in an image in which the character or the figure is represented in black on a white background, for example, with a conventional edge enhancement technique.

本件開示の画像表示装置、画像表示方法及び画像表示プログラムは、白い背景の前景として黒で表わされた文字や図形を含む画像を表示させた場合に、表示された画像において文字や図形の視認性を向上することを目的とする。   The image display device, the image display method, and the image display program of the present disclosure provide a visual recognition of characters and figures in a displayed image when an image including characters and figures represented in black as a foreground on a white background is displayed. The purpose is to improve the performance.

一つの観点によれば、画像表示装置は、互いに異なる幅の白色の縁取りで輪郭を囲まれた文字または図形である第1パターンを、白色以外の第1色の背景上にそれぞれ表す複数の第1画像の各々において、第1パターンの輪郭を囲む縁取りが、利用者により認識されたか否かを示す入力を受ける第1受付部と、第1受付部で受けた入力により、縁取りが認識されないことが示された第1画像に含まれる縁取りのうち、他の第1画像に含まれる縁取りよりも広い縁取りの幅を第1幅として検出する第1検出部と、第1幅で縁取られた第1パターンを互いに異なる色の背景上に表す複数の第2画像の各々において、第1パターンの背景が、利用者により白色として認識されたか否かを示す入力を受ける第2受付部と、第2受付部で受けた入力により、背景が白色として認識されることが示された第2画像の背景のうち、他の第2画像の背景よりも明度が小さい背景の色を第2色として検出する第2検出部と、白色の背景上に、黒色で文字または図形である第2パターンを表した第3画像を受け、第3画像を、第2パターンの輪郭を囲む第1幅の白色の縁取りを有し、第2色の背景を有する第4画像に変換する変換部と、を備える。   According to one aspect, the image display device includes a plurality of first patterns each representing a first pattern that is a character or a figure surrounded by a white border with different widths on a background of a first color other than white. In each of the images, the first reception unit that receives an input indicating whether or not the border surrounding the outline of the first pattern has been recognized by the user, and the border is not recognized by the input received by the first reception unit. Among the borders included in the first image shown, the first detector for detecting the border width wider than the border included in the other first images as the first width, and the first border edged with the first width A second reception unit that receives an input indicating whether or not the background of the first pattern is recognized as white by the user in each of a plurality of second images representing one pattern on a different color background; Depending on the input received at the reception A second detection unit for detecting, as a second color, a background color having a lightness lower than that of the background of the other second image among the backgrounds of the second image indicated to be recognized as white; Receiving a third image representing a second pattern of black characters or figures on the background of the second image, the third image having a first width white border surrounding the outline of the second pattern, and the second color And a conversion unit that converts the image into a fourth image having a background.

別の観点によれば、画像表示方法は、互いに異なる幅の白色の縁取りで輪郭を囲まれた文字または図形である第1パターンを、白色以外の第1色の背景上にそれぞれ表す複数の第1画像の各々において、第1パターンの輪郭を囲む縁取りが、利用者により認識されたか否かを示す入力を受け、受けた入力により、縁取りが認識されないことが示された第1画像に含まれる縁取りのうち、他の第1画像に含まれる縁取りよりも広い縁取りの幅を第1幅として検出し、第1幅で縁取られた第1パターンを互いに異なる色の背景上に表す複数の第2画像の各々において、第1パターンの背景が、利用者により白色として認識されたか否かを示す入力を受け、受けた入力により、背景が白色として認識されることが示された第2画像の背景のうち、他の第2画像の背景よりも明度が小さい背景の色を第2色として検出し、白色の背景上に、黒色で文字または図形である第2パターンを表した第3画像を受け、第3画像を、第2パターンの輪郭を囲む第1幅の白色の縁取りを有し、第2色の背景を有する第4画像に変換する。   According to another aspect, the image display method includes a plurality of first patterns each representing a first pattern, which is a character or a figure surrounded by white borders having different widths, on a background of a first color other than white. In each of the images, the border around the outline of the first pattern is received by the user indicating whether or not the border has been recognized, and is included in the first image indicating that the border is not recognized by the received input. Among the borders, a border width wider than the border included in the other first image is detected as the first width, and a plurality of second borders representing the first pattern bordered by the first width on the backgrounds of different colors are displayed. In each of the images, an input indicating whether or not the background of the first pattern is recognized as white by the user, and the background of the second image indicated that the background is recognized as white by the received input Other A background color having a lightness lower than that of the background of the second image is detected as a second color, and a third image representing a second pattern of black characters or figures is received on a white background, and the third image is , Converting to a fourth image having a white border of a first width surrounding the outline of the second pattern and having a background of the second color.

別の観点によれば、画像表示プログラムは、互いに異なる幅の白色の縁取りで輪郭を囲まれた文字または図形である第1パターンを、白色以外の第1色の背景上にそれぞれ表す複数の第1画像の各々において、第1パターンの輪郭を囲む縁取りが、利用者により認識されたか否かを示す入力を受け、受けた入力により、縁取りが認識されないことが示された第1画像に含まれる縁取りのうち、他の第1画像に含まれる縁取りよりも広い縁取りの幅を第1幅として検出し、第1幅で縁取られた第1パターンを互いに異なる色の背景上に表す複数の第2画像の各々において、第1パターンの背景が、利用者により白色として認識されたか否かを示す入力を受け、受けた入力により、背景が白色として認識されることが示された第2画像の背景のうち、他の第2画像の背景よりも明度が小さい背景の色を第2色として検出し、白色の背景上に、黒色で文字または図形である第2パターンを表した第3画像を受け、第3画像を、第2パターンの輪郭を囲む第1幅の白色の縁取りを有し、第2色の背景を有する第4画像に変換する、処理をコンピュータに実行させる。   According to another aspect, the image display program has a plurality of first patterns each representing a first pattern, which is a character or a figure surrounded by white borders having different widths, on a background of a first color other than white. In each of the images, the border around the outline of the first pattern is received by the user indicating whether or not the border has been recognized, and is included in the first image indicating that the border is not recognized by the received input. Among the borders, a border width wider than the border included in the other first image is detected as the first width, and a plurality of second borders representing the first pattern bordered by the first width on the backgrounds of different colors are displayed. In each of the images, an input indicating whether or not the background of the first pattern is recognized as white by the user, and the background of the second image indicated that the background is recognized as white by the received input No , Detecting a background color having a lightness lower than the background of the other second image as the second color, receiving a third image representing a second pattern of black characters or figures on a white background, The computer executes a process of converting the three images into a fourth image having a first-width white border surrounding the outline of the second pattern and having a background of the second color.

本件開示の画像表示装置、画像表示方法及び画像表示プログラムは、白い背景の前景として黒で表わされた文字や図形を含む画像を表示させた場合に、表示された画像において文字や図形の視認性を向上することができる。   The image display device, the image display method, and the image display program of the present disclosure provide a visual recognition of characters and figures in a displayed image when an image including characters and figures represented in black as a foreground on a white background is displayed. Can be improved.

画像表示装置の一実施形態を示す図である。It is a figure which shows one Embodiment of an image display apparatus. 図1に示した第1画像の例を示す図である。It is a figure which shows the example of the 1st image shown in FIG. 図1に示した第2画像の例を示す図である。It is a figure which shows the example of the 2nd image shown in FIG. 図1に示した第3画像及び第4画像の例を示す図である。It is a figure which shows the example of the 3rd image and 4th image which were shown in FIG. 図1に示した画像表示装置の動作を示す図である。It is a figure which shows operation | movement of the image display apparatus shown in FIG. 画像表示装置の別実施形態を示す図である。It is a figure which shows another embodiment of an image display apparatus. 図6に示した第1画像の例を示す図である。It is a figure which shows the example of the 1st image shown in FIG. 図6に示した画像表示装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the image display apparatus shown in FIG. 図8に示した画像表示装置の動作を示す図(その1)である。FIG. 9 is a diagram (part 1) illustrating an operation of the image display device illustrated in FIG. 8; 図8に示した画像表示装置の動作を示す図(その2)である。FIG. 9 is a diagram (part 2) illustrating an operation of the image display device illustrated in FIG. 8;

以下、図面に基づいて、実施形態を説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、画像表示装置の一実施形態を示す。図1に示した画像表示装置10は、第1受付部11と、第1検出部12と、第2受付部13と、第2検出部14と、変換部15とを含んでいる。   FIG. 1 shows an embodiment of an image display device. The image display device 10 illustrated in FIG. 1 includes a first reception unit 11, a first detection unit 12, a second reception unit 13, a second detection unit 14, and a conversion unit 15.

第1受付部11および第2受付部13は、画像表示装置10の利用者U1からの入力を受ける機能を有している。また、変換部15は、画像表示装置10による表示処理の対象として、白色の地に黒色で表された文字または図形である第2パターンを含む第3画像IMG3の入力を受ける。   The first reception unit 11 and the second reception unit 13 have a function of receiving an input from the user U1 of the image display device 10. In addition, the conversion unit 15 receives an input of a third image IMG3 including a second pattern that is a character or a figure represented in black on a white background as a display processing target by the image display device 10.

画像表示装置10は、例えば、変換部15への第3画像IMG3の入力に先立って、互いに異なる幅の白色の縁取りで輪郭を囲まれた文字などの第1パターンを、白色以外の第1色の背景上にそれぞれ表す複数の第1画像IMG1を表示する。これにより、複数の第1画像IMG1の各々が、利用者U1に提示される。なお、複数の第1画像IMG1は、図2を用いて後述される。また、以下では、利用者U1の視覚が、近視や遠視及び老眼などの目の屈折異常の影響を受けている場合について説明する。   For example, prior to the input of the third image IMG3 to the conversion unit 15, the image display device 10 converts a first pattern such as a character surrounded by a white border with a different width into a first color other than white. A plurality of first images IMG1 respectively displayed on the background of. Thereby, each of the plurality of first images IMG1 is presented to the user U1. The plurality of first images IMG1 will be described later with reference to FIG. In the following, a case will be described in which the vision of the user U1 is affected by refractive errors in the eyes such as myopia, hyperopia, and presbyopia.

第1受付部11は、利用者U1から、複数の第1画像IMG1のそれぞれにおいて第1パターンの輪郭を囲む縁取りが認識されたか否かを示す入力を受ける。そして、第1受付部11は、例えば、複数の第1画像IMG1のそれぞれについて受けた入力を示す情報を、第1検出部12に渡す。   The first reception unit 11 receives an input indicating whether or not a border surrounding the contour of the first pattern has been recognized in each of the plurality of first images IMG1 from the user U1. Then, for example, the first reception unit 11 passes information indicating the input received for each of the plurality of first images IMG1 to the first detection unit 12.

第1検出部12は、例えば、第1受付部11から受けた情報に基づいて、縁取りが認識されないことが示された第1画像IMG1のうち、他の第1画像IMG1よりも広い幅で縁取られた第1パターンを含む第1画像IMG1を特定する。そして、第1検出部12は、特定した第1画像IMG1において、第1パターンを囲む縁取りの幅を第1幅として検出し、検出した第1幅を示す情報を、変換部15に渡す。   For example, based on the information received from the first reception unit 11, the first detection unit 12 has a wider width than the other first images IMG1 in the first image IMG1 indicated that the edge is not recognized. The first image IMG1 including the first pattern is specified. Then, the first detection unit 12 detects the width of the border surrounding the first pattern as the first width in the specified first image IMG1, and passes the information indicating the detected first width to the conversion unit 15.

第1幅が検出された後に、画像表示装置10は、互いに異なる色の背景上に第1幅で縁取られた第1パターンを表す複数の第2画像のIMG2を表示することで、複数の第2画像IMG2のそれぞれを利用者U1に提示する。なお、複数の第2画像IMG2は、図3を用いて後述される。   After the first width is detected, the image display apparatus 10 displays the plurality of second images IMG2 representing the first pattern bordered by the first width on the backgrounds of different colors. Each of the two images IMG2 is presented to the user U1. The plurality of second images IMG2 will be described later with reference to FIG.

第2受付部13は、利用者U1から、複数の第2画像IMG2のそれぞれにおいて、第1パターンの背景が白色として認識されたか否かを示す入力を受ける。そして、第2受付部13は、例えば、複数の第2画像IMG2のそれぞれについて受けた入力を示す情報を、第2検出部14に渡す。   The second reception unit 13 receives an input indicating whether or not the background of the first pattern is recognized as white in each of the plurality of second images IMG2 from the user U1. Then, for example, the second reception unit 13 passes information indicating the input received for each of the plurality of second images IMG2 to the second detection unit 14.

第2検出部14は、例えば、第2受付部13から受けた情報に基づいて、背景が白色として認識されることが示された第2画像IMG2の背景の色のうち、他の第2画像IMG2の背景よりも明度が低い色を背景として含む第2画像IMG2を特定する。そして、第2検出部14は、特定した第2画像IMG2の背景の色を第2色として検出し、検出した第2色を変換部15に渡す。   For example, based on the information received from the second reception unit 13, the second detection unit 14 selects another second image from among the background colors of the second image IMG <b> 2 indicated that the background is recognized as white. A second image IMG2 that includes a background color that is lighter than the background of IMG2 is identified. Then, the second detection unit 14 detects the background color of the specified second image IMG2 as the second color, and passes the detected second color to the conversion unit 15.

変換部15は、例えば、受けた第3画像IMG3の地の色を第2色とするとともに、第3画像IMG3に含まれる第2パターンの輪郭に第1幅の白色の縁取りを付加することで、輪郭が強調された第2パターンを含む第4画像IMG4を生成する。変換部15によって生成された第4画像IMG4は、第3画像IMG3に代えて、利用者U1に提示される。   For example, the conversion unit 15 sets the background color of the received third image IMG3 as the second color, and adds a white border of the first width to the contour of the second pattern included in the third image IMG3. Then, the fourth image IMG4 including the second pattern in which the contour is emphasized is generated. The fourth image IMG4 generated by the conversion unit 15 is presented to the user U1 instead of the third image IMG3.

ここで、老眼等の屈折異常の影響を受けた視覚を持つ利用者U1には、図1に示した第3画像IMG3のような白色の地に黒色で文字等を表す画像を見た場合でも、文字等のパターンの輪郭がボケて見えることがある。一方、灰色の地に黒色で表された文字などのパターンの輪郭に適切な幅の白色の縁取りを付加した場合に、輪郭に付加された縁取りが利用者U1によって縁取りとして認識されず、文字などの輪郭を強調する効果が得られる場合がある。また、人間の視覚は、白色の縁取りで輪郭が囲まれた文字の背景の色と縁取りの白色との明度の差が小さい場合などに、背景の色を白色と認識することがある。   Here, even when the user U1 who has a vision affected by refraction abnormality such as presbyopia is seen in a white background such as the third image IMG3 shown in FIG. The outline of a pattern such as a character may appear blurred. On the other hand, when a white border having an appropriate width is added to the contour of a pattern such as a character represented in black on a gray background, the border added to the contour is not recognized as a border by the user U1, and characters, etc. In some cases, the effect of emphasizing the outline of the image can be obtained. Further, human vision may recognize the background color as white when there is a small difference in brightness between the background color of the character surrounded by a white border and the white color of the border.

したがって、利用者U1により白色と認識される限界の色の背景上に、利用者U1により縁取りとして認識されずに輪郭を強調する効果が得られる限界の幅を持つ縁取りを付加した文字等を表すことで、元の画像よりも文字等の視認性を向上することができる。   Therefore, a character or the like in which a margin having a marginal width is obtained on the background of a limit color recognized by the user U1 as a white color without being recognized as a border by the user U1 is obtained. Thus, the visibility of characters and the like can be improved compared to the original image.

次に、第1受付部11及び第1検出部12により、利用者U1により縁取りとして認識されずに輪郭を強調する効果が得られる限界の幅である第1幅を検出する方法について、図2を用いて説明する。   Next, a method of detecting the first width, which is the limit width by which the effect of emphasizing the outline without being recognized as the border by the user U1, is detected by the first reception unit 11 and the first detection unit 12 will be described with reference to FIG. Will be described.

図2は、図1に示した第1画像IMG1の例を示す。図2(A)は、図1に示した利用者U1に提示される複数の第1画像IMG1の例と、白色の背景上に文字などの第1パターンPt1を黒色で表す別の画像G0の例を示す。なお、図2(A)に示した画像G0は、複数の第1画像IMG1(例えば、第1画像IMG1_1,IMG1_2,UMG1_3)との対比のために示したものであり、図1に示した画像表示装置10が利用者U1に対して提示する第1画像IMG1には含まれない。図2(B)は、図2(A)に示した画像G0及び複数の第1画像IMG1のそれぞれにおける明度の変化を示すグラフの例を示す。図2(B)に示したグラフGr0,Gr1,Gr2,Gr3のそれぞれおいて、横軸xは、図2(A)に示した画像G0及び第1画像IMG1_1,IMG1_2,IMG1_3における位置を示し、縦軸Lは、明度の大きさを示す。   FIG. 2 shows an example of the first image IMG1 shown in FIG. FIG. 2A shows an example of a plurality of first images IMG1 presented to the user U1 shown in FIG. 1 and another image G0 representing the first pattern Pt1 such as characters on a white background in black. An example is shown. The image G0 shown in FIG. 2A is shown for comparison with a plurality of first images IMG1 (for example, the first images IMG1_1, IMG1_2, UMG1_3), and the image shown in FIG. It is not included in the first image IMG1 that the display device 10 presents to the user U1. FIG. 2B shows an example of a graph showing changes in brightness in each of the image G0 and the plurality of first images IMG1 shown in FIG. In each of the graphs Gr0, Gr1, Gr2, and Gr3 illustrated in FIG. 2B, the horizontal axis x indicates the position in the image G0 and the first images IMG1_1, IMG1_2, and IMG1_3 illustrated in FIG. The vertical axis L indicates the magnitude of brightness.

図2(A)に示した画像G0は、白色の背景上に文字「T」を示すパターンを第1Pt1として含んでいる。画像G0に含まれる第1パターンPt1を横切る線分L0上の各画素の明度は、図2(B)に示したグラフGr0において実線で示すように、線分L0が第1パターンPt1を横切る箇所で黒色を示す数値「0」となり、他の箇所では白色を示す値Wとなる。なお、図2(A)に示した線分L0は、説明のために図示した要素であり、画像G0には含まれない。   The image G0 shown in FIG. 2A includes a pattern indicating the letter “T” on a white background as the first Pt1. The brightness of each pixel on the line segment L0 that traverses the first pattern Pt1 included in the image G0 is a location where the line segment L0 crosses the first pattern Pt1 as shown by a solid line in the graph Gr0 shown in FIG. The numerical value “0” indicating black is obtained, and the value W indicating white is obtained in other places. Note that the line segment L0 illustrated in FIG. 2A is an element illustrated for explanation, and is not included in the image G0.

図2(B)のグラフGr0に示した破線は、屈折異常などの影響を受けた視覚を持つ利用者U1に対して図2(A)に示した画像G0が提示された場合に、利用者U1によって認識される線分L0上の各画素の明度を示す。図2(B)のグラフGr0に破線で示したように、図2(A)に示した画像G0に含まれるパターンPt1の輪郭を示すエッジは、屈折異常などの影響によって平滑化される場合がある。このため、図2(A)に示した画像G0に含まれるパターンPt1のように、明確な輪郭を持つパターンであっても、利用者U1の視覚には輪郭がボケた像として認識されることがある。   The broken line shown in the graph Gr0 in FIG. 2B indicates that the user G1 shown in FIG. 2A is presented to the user U1 who has a vision affected by refraction abnormality or the like. The brightness of each pixel on the line segment L0 recognized by U1 is shown. As indicated by a broken line in the graph Gr0 in FIG. 2B, the edge indicating the contour of the pattern Pt1 included in the image G0 shown in FIG. 2A may be smoothed due to the influence of refractive error or the like. is there. For this reason, even if the pattern has a clear outline such as the pattern Pt1 included in the image G0 shown in FIG. 2A, the outline of the outline is recognized by the user U1 visually. There is.

図2(A)に示した第1画像IMG1_1,IMG1_2,IMG1_3のそれぞれは、互いに異なる幅を持つ白色の縁取りで輪郭が囲まれた黒色の文字「T」を示す第1パターンPt1を、白色よりも暗い色の背景上に表している。ここで、図2(A)に示した文字「T」を示す第1パターンPt1は、複数の第1画像IMG1に含まれる第1パターンの一例である。また、図2(A)の例は、第1画像IMG1_1,IMG1_2,IMG1_3の順に、第1パターンPt1を囲む縁取りHm1,Hm2,Hm3の幅が大きくなる場合を示す。複数の第1画像IMG1のそれぞれに含まれる第1パターンPt1は、図2(A)に示した文字「T」などに限られず、予め設定された文字、記号および図形であれば、どのようなものでもよい。また、図1に示した利用者U1に提示される第1画像IMG1の数は、複数であればよく、例えば、3枚以上でもよい。なお、図2(A)の例では、第1画像IMG1_1,IMG1_2,IMG1_3以外の第1画像の図示は省略されている。   Each of the first images IMG1_1, IMG1_2, and IMG1_3 illustrated in FIG. 2A includes a first pattern Pt1 that indicates a black character “T” that is surrounded by a white border and that has a different width from each other. Is also represented on a dark background. Here, the first pattern Pt1 indicating the character “T” illustrated in FIG. 2A is an example of the first pattern included in the plurality of first images IMG1. The example of FIG. 2A shows a case where the widths of the borders Hm1, Hm2, and Hm3 surrounding the first pattern Pt1 are increased in the order of the first images IMG1_1, IMG1_2, and IMG1_3. The first pattern Pt1 included in each of the plurality of first images IMG1 is not limited to the character “T” and the like shown in FIG. 2A, but can be any character, symbol, and figure set in advance. It may be a thing. Further, the number of the first images IMG1 presented to the user U1 shown in FIG. 1 may be plural, for example, three or more. In the example of FIG. 2A, illustration of the first images other than the first images IMG1_1, IMG1_2, and IMG1_3 is omitted.

図2(B)に示したグラフGr1,Gr2,Gr3の実線は、図2(A)に示した第1画像IMG1_1,IMG1_2,IMG1_3のそれぞれに含まれる第1パターンを横切る線分L1,L2,L3上にある各画素の明度を示す。グラフGr1の実線で示した明度は、図2(A)に示した第1画像IMG1_1の第1パターンPt1に対応する箇所で黒色を示す数値「0」となり、第1パターンPt1の輪郭を囲む縁取りHm1に対応する箇所で白色を示す値「W」となる。同様に、グラフGr2の実線で示した明度は、図2(A)に示した第1画像IMG1_2の第1パターンPt1に対応する箇所で黒色を示す数値「0」となり、第1パターンPt1の輪郭を囲む縁取りHm2に対応する箇所で白色を示す値「W」となる。また、グラフGr3の実線で示した明度は、図2(A)に示した第1画像IMG1_3の第1パターンPt1に対応する箇所で黒色を示す数値「0」となり、第1パターンPt1の輪郭を囲む縁取りHm3に対応する箇所で白色を示す値「W」となる。図2(B)の例では、グラフGr1,Gr2,Gr3の順に、実線で示された明度が白色を示す値「W」となっている箇所の幅が大きくなっている。なお、図2(B)において、明度L1は、図2(A)に示した第1画像IMG1_1,IMG1_2,IMG1_3のそれぞれに含まれる第1パターンPt1の背景の色の明度を示している。明度L1は、例えば、人間の視覚により、白色とは異なる色として認識される色の明るさを示す値に予め設定されることが望ましい。   The solid lines of the graphs Gr1, Gr2, and Gr3 shown in FIG. 2B are line segments L1, L2, crossing the first pattern included in each of the first images IMG1_1, IMG1_2, and IMG1_3 shown in FIG. The brightness of each pixel on L3 is shown. The lightness indicated by the solid line of the graph Gr1 is a numerical value “0” indicating black at a position corresponding to the first pattern Pt1 of the first image IMG1_1 shown in FIG. 2A, and the border surrounding the outline of the first pattern Pt1 The value corresponding to white is “W” at a location corresponding to Hm1. Similarly, the brightness indicated by the solid line of the graph Gr2 is a numerical value “0” indicating black at a position corresponding to the first pattern Pt1 of the first image IMG1_2 shown in FIG. 2A, and the contour of the first pattern Pt1 A value “W” indicating white is obtained at a position corresponding to the rim Hm2 surrounding the frame. Further, the brightness indicated by the solid line of the graph Gr3 is a numerical value “0” indicating black at a position corresponding to the first pattern Pt1 of the first image IMG1_3 illustrated in FIG. 2A, and the outline of the first pattern Pt1 is represented. It becomes a value “W” indicating white at a location corresponding to the encircling border Hm3. In the example of FIG. 2B, the width of the portion where the brightness indicated by the solid line is the value “W” indicating white is increased in the order of the graphs Gr1, Gr2, and Gr3. In FIG. 2B, the lightness L1 indicates the lightness of the background color of the first pattern Pt1 included in each of the first images IMG1_1, IMG1_2, and IMG1_3 illustrated in FIG. The lightness L1 is preferably set in advance to a value indicating the brightness of a color recognized as a color different from white by human vision, for example.

一方、図2(B)のグラフGr1に示した破線は、屈折異常などの影響を受けた視覚を持つ利用者U1に対して図2(A)に示した第1画像IMG1_1が提示された場合に、利用者U1によって認識される線分L1上の各画素の明度の例を示す。同様に、図2(B)のグラフGr2、Gr3に示した破線は、同じ利用者U1に対して図2(A)に示した第1画像IMG1_2,IMG1_3が提示された場合に、利用者U1によって認識される線分L2,L3上の各画素の明度の例を示す。   On the other hand, the broken line shown in the graph Gr1 in FIG. 2B shows the case where the first image IMG1_1 shown in FIG. 2A is presented to the user U1 who has a visual influence such as a refractive error. Shows an example of the brightness of each pixel on the line segment L1 recognized by the user U1. Similarly, the broken lines shown in the graphs Gr2 and Gr3 in FIG. 2B indicate that the user U1 when the first images IMG1_2 and IMG1_3 shown in FIG. 2A are presented to the same user U1. Shows an example of the brightness of each pixel on the line segments L2 and L3 recognized by.

グラフGr1,Gr2、Gr3のそれぞれに破線で示した明度を互いに比べれば、グラフGr3において縁取りHm3に対応して明度が増大したことが示された箇所に比べて、グラフGr1,Gr2では明度が増大した箇所が小さいことが分かる。   If the brightnesses indicated by the broken lines in each of the graphs Gr1, Gr2, and Gr3 are compared with each other, the brightness is increased in the graphs Gr1 and Gr2 as compared with the location where the brightness is shown to increase corresponding to the border Hm3 in the graph Gr3. It can be seen that the place that was done is small.

したがって、例えば、図2(A)に示した第1画像IMG1_1,IMG1_2,IMG1_3が順次に利用者U1に提示された場合に、利用者U1は、第1画像IMG1_3が提示されたときに、第1パターンPt1を囲む縁取りHm3を認識する可能性が高い。この場合に、図1に示した第1受付部11は、第1画像IMG1_3の第1パターンPt1を囲む縁取りHm3以上の幅を持つ縁取りで囲まれた第1パターンPt1を含む他の第1画像IMG1について、縁取りが認識されたことを示す入力を受けることになる。一方、第1受付部11は、図2(A)に示した縁取りHm3よりも小さい幅を持つ縁取りで囲まれた第1パターンPt1を含む他の第1画像IMG1について、縁取りが認識されないことを示す入力を受けることになる。   Therefore, for example, when the first images IMG1_1, IMG1_2, and IMG1_3 shown in FIG. 2A are sequentially presented to the user U1, the user U1 can display the first image IMG1_3 when the first image IMG1_3 is presented. There is a high possibility of recognizing the border Hm3 surrounding the one pattern Pt1. In this case, the first reception unit 11 illustrated in FIG. 1 includes another first image including the first pattern Pt1 surrounded by a border having a width equal to or larger than the border Hm3 surrounding the first pattern Pt1 of the first image IMG1_3. For IMG1, an input is received indicating that the border has been recognized. On the other hand, the first reception unit 11 recognizes that the border is not recognized for the other first image IMG1 including the first pattern Pt1 surrounded by the border having a width smaller than the border Hm3 illustrated in FIG. You will receive the input shown.

また、図2(B)に示したグラフGr1,Gr2,Gr3のそれぞれに破線で示した明度の変化から分かるように、第1パターンPt1の輪郭を囲む縁取りの幅の増大に応じて、第1パターンPt1の輪郭を強調する効果は増大している。例えば、グラフGr1に破線で示した明度の変化では第1パターンPt1の輪郭に対応するエッジが鈍っているのに対して、グラフGr2に破線で示した明度の変化ではグラフGr1に比べてエッジの鈍りが少なくなっていることが分かる。この場合に、縁取りが認識されないとされた第1画像IMG1_1,IMG1_2の各々に含まれる縁取りHm1,Hm2のうち、広い方の縁取りHm2の幅d1は、利用者U1により縁取りとして認識されずに輪郭を強調する効果が得られる限界の幅である。   Further, as can be seen from the change in lightness indicated by the broken line in each of the graphs Gr1, Gr2, and Gr3 shown in FIG. 2B, the first is increased according to the increase in the width of the border surrounding the outline of the first pattern Pt1. The effect of enhancing the outline of the pattern Pt1 is increasing. For example, the brightness corresponding to the contour of the first pattern Pt1 is dull in the change in brightness indicated by the broken line in the graph Gr1, whereas the change in the brightness indicated by the broken line in the graph Gr2 is compared with the graph Gr1. It can be seen that the dullness is reduced. In this case, of the borders Hm1 and Hm2 included in each of the first images IMG1_1 and IMG1_2 whose border is not recognized, the width d1 of the wider border Hm2 is not recognized as a border by the user U1. It is the range of the limit where the effect of emphasizing can be obtained.

即ち、図1に示した第1検出部12は、第1受付部11で受けた入力に基づいて、利用者U1により縁取りとして認識されずに輪郭を強調する効果が得られる限界の幅を、第1幅として検出することができる。例えば、図2(B)の例では、図2(B)のグラフGr2において第1画像IMG1_2における縁取りHm2の幅に相当する幅d1が、図1に示した第1検出部12により、第1幅として検出される。   That is, the first detection unit 12 shown in FIG. 1 has a limit width based on the input received by the first reception unit 11 so that the effect of enhancing the outline without being recognized as a border by the user U1 is obtained. It can be detected as the first width. For example, in the example of FIG. 2B, the width d1 corresponding to the width of the border Hm2 in the first image IMG1_2 in the graph Gr2 of FIG. Detected as width.

次に、図1に示した第2受付部13及び第2検出部14により、利用者U1により白色と認識される限界の色である第2色を検出する方法について、図3を用いて説明する。   Next, a method for detecting the second color, which is the limit color recognized by the user U1 as white, by the second reception unit 13 and the second detection unit 14 illustrated in FIG. 1 will be described with reference to FIG. To do.

図3は、図1に示した第2画像IMG2の例を示す。図3(A)は、図1に示した利用者U1に提示される複数の第2画像IMG2の例として第2画像IMG2_1,IMG2_2,IMG2_3を示す。また、図3(B)は、図3(A)に示した第2画像IMG2_1,IMG2_2,IMG2_3における明度の位置による変化を示すグラフの例を示す。図3(B)に示したグラフGp1,Gp2,Gp3のそれぞれにおいて、横軸xは、図3(A)に示した第2画像IMG2_1,IMG2_2,IMG2_3における位置を示し、縦軸Lは、明度を示す。なお、図3に示した要素のうち、図2に示した要素と同等の要素については、同一の符号で示すとともに要素の説明を省略する場合がある。   FIG. 3 shows an example of the second image IMG2 shown in FIG. FIG. 3A shows second images IMG2_1, IMG2_2, and IMG2_3 as examples of the plurality of second images IMG2 presented to the user U1 shown in FIG. FIG. 3B shows an example of a graph showing changes due to the position of brightness in the second images IMG2_1, IMG2_2, and IMG2_3 shown in FIG. In each of the graphs Gp1, Gp2, and Gp3 shown in FIG. 3B, the horizontal axis x indicates the position in the second images IMG2_1, IMG2_2, and IMG2_3 shown in FIG. 3A, and the vertical axis L indicates the brightness. Indicates. Note that, among the elements illustrated in FIG. 3, elements that are equivalent to the elements illustrated in FIG. 2 are denoted by the same reference numerals and description of the elements may be omitted.

図3(A)に示した第2画像IMG2_1,IMG2_2,IMG2_3のそれぞれは、図1に示した第1検出部12で検出された第1幅d1を持つ白色の縁取りHm2で輪郭が囲まれた第1パターンPt1を、互いに異なる色の地を背景として表している。ここで、図3(A)に示した文字「T」は、複数の第2画像IMG2に含まれる第1パターンの一例である。また、図3(A)の例は、第2画像IMG2_1,IMG2_2,IMG2_3の順に、第1パターンPt1の背景の色が暗くなる場合を示す。複数の第2画像IMG2のそれぞれに含まれる第1パターンPt1は、図3(A)に示した文字「T」などに限られず、予め設定された文字、記号および図形であれば、どのようなものでもよい。また、図1に示した利用者U1に提示される第2画像IMG2の数は、複数であればよく、例えば、3枚以上でもよい。なお、図3(A)の例では、第2画像IMG2_1,IMG2_2,IMG2_3以外の第2画像IMG2の図示は省略されている。   Each of the second images IMG2_1, IMG2_2, and IMG2_3 illustrated in FIG. 3A is surrounded by a white border Hm2 having the first width d1 detected by the first detection unit 12 illustrated in FIG. The first pattern Pt1 is expressed using a background of different colors as a background. Here, the letter “T” illustrated in FIG. 3A is an example of the first pattern included in the plurality of second images IMG2. The example of FIG. 3A shows a case where the background color of the first pattern Pt1 becomes darker in the order of the second images IMG2_1, IMG2_2, and IMG2_3. The first pattern Pt1 included in each of the plurality of second images IMG2 is not limited to the character “T” and the like shown in FIG. It may be a thing. Further, the number of the second images IMG2 presented to the user U1 shown in FIG. 1 may be plural, for example, three or more. In the example of FIG. 3A, illustration of the second image IMG2 other than the second images IMG2_1, IMG2_2, and IMG2_3 is omitted.

図3(B)に示したグラフGp1,Gp2,Gp3の実線は、図3(A)に示した第2画像IMG2_1,IMG2_2,IMG2_3のそれぞれに含まれる第1パターンPt1を横切る線分L1,L2,L3上にある各画素の明度を示す。なお、図3(B)に示したグラフGp1,Gp2,Gp3の縦軸Lにおいて、数値「0」は黒色を示し、値「W」は白色を示す。   The solid lines of the graphs Gp1, Gp2, and Gp3 shown in FIG. 3B are line segments L1 and L2 that cross the first pattern Pt1 included in each of the second images IMG2_1, IMG2_2, and IMG2_3 shown in FIG. , L3 indicates the brightness of each pixel. In the vertical axis L of the graphs Gp1, Gp2, and Gp3 shown in FIG. 3B, the numerical value “0” indicates black and the value “W” indicates white.

グラフGp1,Gp2,Gp3に実線で示した明度は、図3(A)の第1画像IMG2_1,IMG2_2,IMG2_3の第1パターンPt1を線分L1,L2,L3が横切る箇所で黒色を示す。一方、グラフGp1,Gp2,Gp3に実線で示した明度は、図3(A)に示した線分L1,L2,L3が第1画像IMG2_1,IMG2_2,IMG2_3の第1パターンPt1を囲む縁取りHm2を横切る箇所で白色を示す。また、グラフGp1、Gp2,Gp3において、明度Lb1,Lb2,Lb3は、図3(A)に示した第2画像IMG2_1,IMG2_2,IMG2_3のそれぞれにおいて、第1パターンPt1として示した文字「T」の背景の色の明度を示す。第2画像IMG2_1,IMG2_2,IMG2_3の背景の明度Lb1,Lb2,Lb3は、第1幅として検出された幅d1を用いて設定された基準値から順次に小さくなる値に設定されることが望ましい。なお、明度Lb1,Lb2,Lb3の設定に用いる基準値は、例えば、幅d1の白色の線が識別される限界の明度の差を計測する実験などで得られた計測結果に基づいて、予め設定されることが望ましい。   The brightness indicated by the solid lines in the graphs Gp1, Gp2, and Gp3 indicates black at the positions where the line segments L1, L2, and L3 cross the first pattern Pt1 of the first images IMG2_1, IMG2_2, and IMG2_3 in FIG. On the other hand, the brightness indicated by the solid lines in the graphs Gp1, Gp2, and Gp3 indicates the border Hm2 in which the line segments L1, L2, and L3 shown in FIG. 3A surround the first pattern Pt1 of the first images IMG2_1, IMG2_2, and IMG2_3. White at the crossing point. Further, in the graphs Gp1, Gp2, and Gp3, the lightness Lb1, Lb2, and Lb3 indicate the character “T” shown as the first pattern Pt1 in each of the second images IMG2_1, IMG2_2, and IMG2_3 shown in FIG. Indicates the lightness of the background color. The background brightness Lb1, Lb2, and Lb3 of the second images IMG2_1, IMG2_2, and IMG2_3 are desirably set to values that sequentially decrease from the reference value set using the width d1 detected as the first width. Note that the reference value used for setting the lightness Lb1, Lb2, Lb3 is set in advance based on, for example, a measurement result obtained in an experiment or the like for measuring a difference in lightness of a limit at which a white line having a width d1 is identified. It is desirable that

例えば、図3(A)に示した第2画像IMG2_1,IMG2_2,IMG2_3を提示された利用者U1により、第2画像IMG2_1,IMG2_2の背景が白色と認識され、第2画像IMG2_3の背景が白色以外と認識される場合を考える。この場合に、図1に示した第2検出部14は、第2画像IMG2_1,IMG2_2の背景は利用者U1により白色と認識されたことを示す情報を第2受付部13から受けることになる。そして、第2検出部14は、受けた情報に基づいて、第2画像IMG2_1の背景の色の明度Lb1と第2画像IMG2_2の背景の色の明度Lb2とを比較し、比較の結果から、第2画像IMG2_2の背景の色を第2色として検出する。   For example, the user U1 presented with the second images IMG2_1, IMG2_2, and IMG2_3 shown in FIG. 3A recognizes the background of the second images IMG2_1 and IMG2_2 as white, and the background of the second image IMG2_3 is other than white Consider the case where it is recognized. In this case, the second detection unit 14 illustrated in FIG. 1 receives from the second reception unit 13 information indicating that the background of the second images IMG2_1 and IMG2_2 has been recognized as white by the user U1. Then, based on the received information, the second detection unit 14 compares the lightness Lb1 of the background color of the second image IMG2_1 with the lightness Lb2 of the background color of the second image IMG2_2. The background color of the two images IMG2_2 is detected as the second color.

ここで、利用者U1により、第2画像IMG2_3の背景が白色以外と認識された場合に、利用者U1が白色と白色以外とを判別する明度の差は、図3(B)に示した明度Lb3と白色を示す明度Wとの差よりも小さい。一方、利用者U1により、第2画像IMG2_1,IMG2_2の背景が白色と認識されたことから、図3(B)に示した明度Lb1及び明度Lb2のそれぞれを持つ色は、いずれも利用者U1により白色と判断されることが分かる。したがって、明度Lb1と明度Lb2とのうち小さい方である明度Lb2は、利用者U1により白色と認識される限界の色を示している。即ち、図1に示した第2検出部14は、第2受付部13から受けた情報に基づいて第2色を検出することで、利用者U1により白色と認識される限界の色を検出することができる。   Here, when the user U1 recognizes that the background of the second image IMG2_3 is other than white, the difference in brightness that the user U1 discriminates between white and non-white is the brightness shown in FIG. It is smaller than the difference between Lb3 and brightness W indicating white. On the other hand, since the background of the second images IMG2_1 and IMG2_2 is recognized as white by the user U1, the colors having the lightness Lb1 and the lightness Lb2 shown in FIG. It turns out that it is judged white. Therefore, the lightness Lb2 which is the smaller of the lightness Lb1 and the lightness Lb2 indicates a limit color recognized as white by the user U1. That is, the second detection unit 14 illustrated in FIG. 1 detects a limit color that is recognized as white by the user U1 by detecting the second color based on the information received from the second reception unit 13. be able to.

以上に説明した第1幅は、利用者U1に縁取りとして認識されることなく輪郭を強調する効果が得られる限界の幅であり、第2色は、利用者U1に白色として認識される限界の色である。したがって、図1に示した変換部15により、以上に説明した第1幅及び第2色を用いた変換を第3画像IMG3に対して行うことで、図4に示すように、第3画像IMG3に含まれる文字などを、利用者U1にとって見やすくすることができる。   The first width described above is a limit width where an effect of emphasizing an outline without being recognized as a border by the user U1, and the second color is a limit width recognized as white by the user U1. Color. Therefore, the conversion using the first width and the second color described above is performed on the third image IMG3 by the conversion unit 15 illustrated in FIG. 1, and thus the third image IMG3 as illustrated in FIG. 4. Can be easily seen by the user U1.

図4は、図1に示した第3画像IMG3及び第4画像IMG4の例を示す。図4(A)は、第3画像IMG3の例を示し、図4(B)は、屈折異常などの影響を受けた視覚を持つ利用者U1に第3画像IMG3を提示した場合に認識される画像IMGaの例を示す。また、図4(C)は、第4画像IMG4の例を示し、図4(D)は、同じ利用者U1に第4画像IMG4を提示した場合に認識される画像IMGbの例を示す。   FIG. 4 shows an example of the third image IMG3 and the fourth image IMG4 shown in FIG. FIG. 4A shows an example of the third image IMG3, and FIG. 4B is recognized when the third image IMG3 is presented to the user U1 who has a visual influence such as a refractive error. An example of an image IMGa is shown. 4C shows an example of the fourth image IMG4, and FIG. 4D shows an example of the image IMGb recognized when the fourth image IMG4 is presented to the same user U1.

図4(A)に示した第3画像IMG3は、白色の地を背景として、文字「A」を表すパターンを第2パターンPt2として含んでいる。なお、第3画像IMG3に含まれる第2パターンPt2は、図4(A)に示した文字「A」に限らず、黒色で描かれた線分や曲線などを組み合わせることで表されるパターンであればよい。例えば、第3画像IMG3は、ワードプロセッサによって生成された文書を表す画像や電子書籍に含まれる各ページを表す画像でもよい。   The third image IMG3 shown in FIG. 4A includes a pattern representing the character “A” as a second pattern Pt2 with a white background as a background. Note that the second pattern Pt2 included in the third image IMG3 is not limited to the letter “A” shown in FIG. 4A, but is a pattern represented by combining line segments and curves drawn in black. I just need it. For example, the third image IMG3 may be an image representing a document generated by a word processor or an image representing each page included in an electronic book.

一方、図4(B)に示した画像IMGaは、図4(A)に示した第3画像IMG3の提示を受けた場合に、利用者U1により認識される画像の例を示している。図4(A)に示した第3画像IMG3と、図4(B)に示した画像IMGaとを比べれば、屈折異常などの影響を受ける利用者U1には、第3画像IMG3の第2パターンPt2は、輪郭がボケた像として認識されることが分かる。   On the other hand, the image IMGa shown in FIG. 4B shows an example of an image recognized by the user U1 when receiving the presentation of the third image IMG3 shown in FIG. If the third image IMG3 shown in FIG. 4A is compared with the image IMGa shown in FIG. 4B, the second pattern of the third image IMG3 is shown to the user U1 who is affected by a refractive error or the like. It can be seen that Pt2 is recognized as an image with a blurred outline.

図4(C)に示した第4画像IMG4は、図1に示した第2検出部14によって検出された第2色の地を背景として、図1に示した第1検出部12によって検出された第1幅の縁取りHm2で囲まれた第2パターンPt2を含んでいる。   The fourth image IMG4 shown in FIG. 4C is detected by the first detection unit 12 shown in FIG. 1 against the background of the second color detected by the second detection unit 14 shown in FIG. The second pattern Pt2 surrounded by the edge Hm2 having the first width is included.

そして、図4(D)に示した矩形IMGbは、図4(C)に示した第4画像IMG4の提示を受けた場合に、利用者U1により認識される画像の例を示している。図4(B)の画像IMGaと図4(D)の画像IMGbとの比較から、第4画像IMG4を利用者U1に提示した場合の方が、第3画像IMGを提示した場合よりも、第2パターンPt2の輪郭が明確に認識されることが分かる。   4D shows an example of an image recognized by the user U1 when receiving the presentation of the fourth image IMG4 shown in FIG. 4C. From the comparison between the image IMGa in FIG. 4B and the image IMGb in FIG. 4D, the case where the fourth image IMG4 is presented to the user U1 is greater than the case where the third image IMG is presented. It can be seen that the outline of the two patterns Pt2 is clearly recognized.

更に、図4(C)に示した第4画像IMG4において、第2パターンPt2(図4の場合は文字「A」)は、利用者U1により白色として認識される限界の色である第2色を背景として表される。したがって、図4(C)に示したような第4画像IMG4を見た利用者U1が、第2パターンの背景を白色以外の色として認識することはない。即ち、図4(C)に示した第4画像IMG4は、利用者U1により、図4(A)に示した第3画像IMG3と同様の、白色の地に文字などのパターンを表示する画像として認識される。つまり、図1に示した画像表示装置10は、第3画像IMG3が利用者U1に提示された場合の印象を維持しつつ、第3画像IMG3に含まれる文字などを利用者U1にとって見やすく表示することが可能である。   Furthermore, in the fourth image IMG4 shown in FIG. 4C, the second pattern Pt2 (in the case of FIG. 4, the letter “A”) is the second color that is the limit color that is recognized as white by the user U1. Is represented as a background. Therefore, the user U1 who has seen the fourth image IMG4 as shown in FIG. 4C does not recognize the background of the second pattern as a color other than white. That is, the fourth image IMG4 shown in FIG. 4C is an image that displays a pattern such as characters on a white background, similar to the third image IMG3 shown in FIG. 4A, by the user U1. Be recognized. That is, the image display device 10 illustrated in FIG. 1 displays characters and the like included in the third image IMG3 in an easy-to-read manner for the user U1, while maintaining an impression when the third image IMG3 is presented to the user U1. It is possible.

図5は、図1に示した画像表示装置10の動作を示す。図5に示したステップS301〜ステップS306の処理は、図1に示した画像表示装置10の動作を示すとともに、画像表示方法および画像表示プログラムの例を示す。例えば、図5に示す処理は、画像表示装置10に搭載されたプロセッサが画像表示プログラムを実行することで実現される。なお、図5に示す処理は、画像表示装置10に搭載されるハードウェアによって実行されてもよい。   FIG. 5 shows the operation of the image display apparatus 10 shown in FIG. The processing of step S301 to step S306 shown in FIG. 5 shows the operation of the image display device 10 shown in FIG. 1, and shows an example of the image display method and the image display program. For example, the processing shown in FIG. 5 is realized by a processor mounted on the image display apparatus 10 executing an image display program. Note that the processing shown in FIG. 5 may be executed by hardware mounted on the image display apparatus 10.

ステップS301において、図1に示した第1受付部11は、複数の第1画像IMG1の各々について、第1パターンPt1の輪郭を囲む縁取り(例えば、図2(A)の縁取りHm1,Hm2,Hm3)が、利用者により認識されたか否かを示す入力を受ける。   In step S301, the first reception unit 11 illustrated in FIG. 1 includes, for each of the plurality of first images IMG1, a border that surrounds the outline of the first pattern Pt1 (for example, the borders Hm1, Hm2, and Hm3 in FIG. 2A). ) Receives an input indicating whether or not it has been recognized by the user.

ステップS302において、図1に示した第1検出部12は、ステップS301の処理で受けた入力に基づいて、図2を用いて説明した第1幅を検出する。例えば、図2の例では、図2(A)に示した第1画像IMG1_2に含まれる第1パターンPtの輪郭を囲む縁取りHm2の幅d1が、図1に示した第1検出部12により、第1幅として検出される。   In step S302, the first detection unit 12 illustrated in FIG. 1 detects the first width described with reference to FIG. 2 based on the input received in the process of step S301. For example, in the example of FIG. 2, the width d1 of the border Hm2 surrounding the outline of the first pattern Pt included in the first image IMG1_2 shown in FIG. 2A is set by the first detection unit 12 shown in FIG. Detected as the first width.

ステップS303において、図1に示した第2受付部13は、複数の第2画像IMG2の各々において、第1パターンPt1の背景が、利用者U1により白色として認識されたか否かを示す入力を受ける。   In step S303, the second reception unit 13 illustrated in FIG. 1 receives an input indicating whether or not the background of the first pattern Pt1 is recognized as white by the user U1 in each of the plurality of second images IMG2. .

ステップS304において、図1に示した第2検出部14は、ステップS303の処理で受けた入力に基づいて、図3を用いて説明した第2色を検出する。例えば、図3の例では、図3(A)に示した第2画像IMG2_2において、第1パターンPtが表された背景の色が、白色として認識される限界の色を示す第2色として検出される。   In step S304, the second detection unit 14 illustrated in FIG. 1 detects the second color described with reference to FIG. 3 based on the input received in the process of step S303. For example, in the example of FIG. 3, in the second image IMG2_2 shown in FIG. 3A, the background color representing the first pattern Pt is detected as the second color indicating the limit color recognized as white. Is done.

ステップS305において、図1に示した変換部15は、画像表示装置10による表示処理の対象として、白色の背景上に、第2パターンを黒色で表す第3画像IMG3を受ける。   In step S305, the conversion unit 15 illustrated in FIG. 1 receives the third image IMG3 that represents the second pattern in black on a white background as a display processing target by the image display device 10.

ステップS306において、変換部15は、ステップS305で受けた第3画像IMG3を、第2パターンを囲む第1幅の白色の縁取りを有し第2色の背景を有する第4画像IMG4に変換する。   In step S306, the conversion unit 15 converts the third image IMG3 received in step S305 into a fourth image IMG4 having a white border of the first width surrounding the second pattern and having a background of the second color.

そして、ステップS306の処理で生成された第4画像IMG4は、第3画像IMG3の代わりに、利用者U1に対して表示される。   And 4th image IMG4 produced | generated by the process of step S306 is displayed with respect to user U1 instead of 3rd image IMG3.

変換部15は、利用者U1に対して提示する画像を第3画像IMG3として受ける毎に、ステップS305及びステップS306の処理を実行することで、複数の第3画像の各々に対応する第4画像IMG4を生成し、生成した第4画像IMG4を表示してもよい。   Each time the conversion unit 15 receives the image to be presented to the user U1 as the third image IMG3, the conversion unit 15 executes the processes of step S305 and step S306, thereby corresponding to each of the plurality of third images. IMG4 may be generated and the generated fourth image IMG4 may be displayed.

以上に説明した画像表示装置10は、利用者U1により縁取りとして認識されずに輪郭を強調する効果が得られる限界の幅である第1幅と、利用者U1により白色として認識される限界の色である第2色とを検出する。そして、画像表示装置10は、表示の対象となる第3画像IMG3に対して、第2色の地を背景として、第3画像IMGに含まれる第2パターンを第1幅の縁取りで囲んで表すための変換処理を行う。   The image display apparatus 10 described above has a first width that is a limit width that can achieve an effect of enhancing an outline without being recognized as a border by the user U1, and a limit color that is recognized as white by the user U1. The second color is detected. Then, the image display device 10 represents the second image included in the third image IMG with a first width border with respect to the third image IMG3 to be displayed with the background of the second color as the background. For the conversion process.

図4を用いて説明したように、図1に示した画像表示装置10の変換部15によって生成される第4画像IMG4が利用者U1に対して表示された場合に、利用者U1は、変換前の第3画像IMG3が表示された場合に比べて、第2パターンを認識しやすい。即ち、図1に示した画像表示装置10は、任意の文字や記号及び図形を含む第3画像IMG3を、図4(C)に示したような第4画像IMG4に変換することで、利用者U1にとって、第3画像に含まれるパターンを視認しやすくすることができる。   As described with reference to FIG. 4, when the fourth image IMG4 generated by the conversion unit 15 of the image display apparatus 10 illustrated in FIG. 1 is displayed to the user U1, the user U1 converts It is easier to recognize the second pattern than when the previous third image IMG3 is displayed. That is, the image display device 10 shown in FIG. 1 converts the third image IMG3 including arbitrary characters, symbols, and figures into the fourth image IMG4 as shown in FIG. For U1, the pattern included in the third image can be easily viewed.

更に、図1に示した画像表示装置10の第2検出部14は、第1検出部12で検出された第1幅の縁取りで囲まれた第1パターンを互いに異なる色の地を背景として表す第2画像を用いて、利用者U1が白色として認識する限界の色である第2色を検出する。これにより、例えば、利用者U1が白色として認識する限界の色と、利用者U1により縁取りとして認識されずに輪郭を強調する効果が得られる限界の幅とを同時に調整する場合に比べて、第1幅と第2色とを高い精度で検出することができる。なぜなら、先に特定された第1幅を用いて第2色の特定を行う場合には、縁取りの幅と背景の色とを同時に調整する場合に比べて、白色の縁取りの背景が灰色に見えた記憶により、利用者U1の判断が影響を受ける可能性を抑制することが可能だからである。   Further, the second detection unit 14 of the image display apparatus 10 illustrated in FIG. 1 represents the first pattern surrounded by the first width border detected by the first detection unit 12 with the backgrounds of different colors as the background. Using the second image, the second color that is the limit color that the user U1 recognizes as white is detected. Thereby, for example, compared with the case where the limit color recognized by the user U1 as white and the limit width at which the effect of emphasizing the outline without being recognized by the user U1 is adjusted at the same time, The first width and the second color can be detected with high accuracy. This is because when the second color is specified using the first width specified earlier, the background of the white border looks gray compared to the case where the border width and the background color are adjusted simultaneously. This is because it is possible to suppress the possibility that the judgment of the user U1 is affected by the stored memory.

図6は、画像表示装置の別実施形態を示す。なお、図6に示す構成要素のうち、図1に示した構成要素と同等のものは、同一の符号で示すとともに構成要素の説明を省略する場合がある。   FIG. 6 shows another embodiment of the image display device. 6 that are equivalent to the components shown in FIG. 1 are denoted by the same reference numerals and description of the components may be omitted.

図6に示した画像表示装置10aは、第1受付部11aと、第1検出部12aと、第2受付部13aと、第2検出部14aと、変換部15aと、保持部MEMとを含んでいる。   The image display device 10a illustrated in FIG. 6 includes a first reception unit 11a, a first detection unit 12a, a second reception unit 13a, a second detection unit 14a, a conversion unit 15a, and a holding unit MEM. It is out.

第1受付部11aは、図1に示した第1受付部11に相当する構成要素であり、第1提示部111と入力部112とを有する。第1提示部111は、例えば、図2(A)に示した第1画像IMG1に相当する複数の第1画像IMG1aを生成し、生成した複数の第1画像IMG1aを、画像表示装置10aに搭載された液晶表示部などにより表示する。第1提示部111は、生成した複数の第1画像IMG1aを、例えば、第1画像IMG1aの各々に含まれる第1パターンを囲む縁取りの幅が小さい順に液晶表示部などに渡すことで、利用者U1に複数の第1画像IMG1aを順次に提示する。なお、第1提示部111によって提示される複数の第1画像IMG1aの例については、図7を用いて後述する。また、入力部112は、例えば、画像表示装置10aに搭載されたタッチパネルやキーボードあるいはマウスなどである。第1受付部11aに含まれる入力部112は、利用者U1に対して複数の第1画像IMG1aが提示された場合に、各第1画像IMG1aにおいて、第1パターンの輪郭を囲む縁取りを認識したか否かを利用者U1が入力するために用いられる。   The first reception unit 11 a is a component corresponding to the first reception unit 11 illustrated in FIG. 1, and includes a first presentation unit 111 and an input unit 112. For example, the first presentation unit 111 generates a plurality of first images IMG1a corresponding to the first image IMG1 illustrated in FIG. 2A, and the generated first images IMG1a are mounted on the image display device 10a. The image is displayed on the liquid crystal display unit. The first presentation unit 111 passes the generated first images IMG1a to, for example, a liquid crystal display unit in ascending order of the width of the rim surrounding the first pattern included in each of the first images IMG1a. A plurality of first images IMG1a are sequentially presented to U1. An example of the plurality of first images IMG1a presented by the first presentation unit 111 will be described later with reference to FIG. The input unit 112 is, for example, a touch panel, a keyboard, or a mouse that is mounted on the image display device 10a. When the plurality of first images IMG1a are presented to the user U1, the input unit 112 included in the first reception unit 11a recognizes a border surrounding the outline of the first pattern in each first image IMG1a. It is used for the user U1 to input whether or not.

第1検出部12aは、図1に示した第1検出部12に相当する構成要素であり、利用者U1が入力部112を操作することで入力した情報を、入力部112から受ける。第1検出部12aは、入力部112から受けた情報と、第1提示部111が複数の第1画像IMG1aの生成に用いた情報とに基づいて、利用者U1により縁取りとして認識されない限界の幅である第1幅を検出する。   The first detection unit 12 a is a component corresponding to the first detection unit 12 illustrated in FIG. 1, and receives from the input unit 112 information input by the user U1 operating the input unit 112. Based on the information received from the input unit 112 and the information used by the first presentation unit 111 to generate a plurality of first images IMG1a, the first detection unit 12a has a limit width that is not recognized as a border by the user U1. The first width is detected.

第1検出部12aで検出された第1幅は、保持部MEMに保持されるとともに、第2受付部13aに渡される。   The first width detected by the first detection unit 12a is held by the holding unit MEM and is passed to the second reception unit 13a.

第2受付部13aは、図1に示した第2受付部13に相当する構成要素であり、入力部112と、第2提示部131とを含んでいる。第2提示部131は、第1検出部12aで検出された第1幅を用いて、図3(A)に示した複数の第2画像IMG2を生成し、生成した複数の第2画像IMG2を、例えば、画像表示装置10aに搭載された液晶表示部などを用いて表示させる。第2提示部131は、例えば、生成した複数の第2画像IMG2を、第2画像IMG2の各々において第1パターンの背景の色が明るい順に液晶表示部などに渡すことで、利用者U1に複数の第2画像IMG2を提示する。更に、第2提示部131は、複数の第2画像IMG2のそれぞれを液晶表示部などで表示させる際に、液晶表示部などでの画像の表示に用いるバックライトなどの光源の輝度を順次に下げることで、各第2画像IMG2を複数の異なる輝度で表示することが望ましい。そして、第2受付部13aに含まれる入力部112は、利用者U1に対して複数の第2画像IMG2が提示された場合に、各第2画像IMG2において、第1パターンPt1の背景を白色として認識したか否かを利用者U1が入力するために用いられる。   The second reception unit 13 a is a component corresponding to the second reception unit 13 illustrated in FIG. 1, and includes an input unit 112 and a second presentation unit 131. The second presentation unit 131 generates a plurality of second images IMG2 illustrated in FIG. 3A using the first width detected by the first detection unit 12a, and generates the generated plurality of second images IMG2. For example, the image is displayed using a liquid crystal display unit mounted on the image display device 10a. For example, the second presenting unit 131 passes a plurality of generated second images IMG2 to the liquid crystal display unit or the like in order of the background color of the first pattern in each of the second images IMG2 to the user U1. Presents the second image IMG2. Further, when the second presentation unit 131 displays each of the plurality of second images IMG2 on the liquid crystal display unit or the like, the brightness of a light source such as a backlight used for displaying the image on the liquid crystal display unit or the like is sequentially decreased. Thus, it is desirable to display each second image IMG2 with a plurality of different luminances. Then, when a plurality of second images IMG2 are presented to the user U1, the input unit 112 included in the second reception unit 13a sets the background of the first pattern Pt1 as white in each second image IMG2. It is used for the user U1 to input whether or not it has been recognized.

第2検出部14aは、図1に示した第2検出部14に相当する構成要素であり、利用者U1が入力部112を操作することで入力した情報を、入力部112から受ける。第2検出部14aは、第1パターンPt1の背景が白色以外と認識されたことを示す情報を入力部112から受けた場合に、第2提示部131が最後に提示した第2画像IMG2の背景に含まれる画素に設定された明度及び表示に用いた光源の輝度を特定する。そして、第2検出部14aは、特定した明度を示す情報と、特定した光源の輝度よりも一段階明るい輝度を示す情報とを、検出した第2色を示す情報として、保持部MEMに保持させる。つまり、第2検出部14aによって検出される第2色は、第1パターンの背景が白色として認識された第2画像IMG2の背景に含まれる画素に設定された明度を示す情報と、当該第2画像IMG2の表示に用いられた光源の輝度を示す情報とで表される。   The second detection unit 14 a is a component corresponding to the second detection unit 14 illustrated in FIG. 1, and receives from the input unit 112 information input by the user U1 operating the input unit 112. The second detection unit 14a receives the information indicating that the background of the first pattern Pt1 is recognized as other than white from the input unit 112, and then the background of the second image IMG2 presented last by the second presentation unit 131 The brightness set for the pixels included in the pixel and the luminance of the light source used for display are specified. And the 2nd detection part 14a makes the holding | maintenance part MEM hold | maintain the information which shows the specified brightness, and the information which shows the brightness | luminance 1 level brighter than the brightness | luminance of the specified light source as information which shows the detected 2nd color. . That is, the second color detected by the second detection unit 14a includes information indicating the brightness set for the pixels included in the background of the second image IMG2 in which the background of the first pattern is recognized as white, and the second color And information indicating the luminance of the light source used to display the image IMG2.

変換部15aは、図1に示した変換部15に相当する構成要素であり、保持部MEMの保持された第1幅及び第2色を示す情報に基づいて、画像表示装置10aによる表示処理の対象として受けた第3画像IMG3を、図4で説明した第4画像IMG4に変換する。変換部15aは、例えば、第3画像IMG3を受ける毎に、受けた第3画像IMG3の背景の部分に含まれる各画素の明度を、保持部MEMから第2色を示す情報の一部として取得した明度に置き換える。次いで、変換部15aは、エッジを強調する作用を有するフィルタに、明度の置き換えを行った第3画像IMG3を通すことで、第3画像IMG3に含まれる第2パターンの輪郭に、第1幅の縁取りを文字などのパターンの輪郭に付加する。更に、変換部15aは、フィルタから出力された第4画像IMGを液晶表示部などに表示させる際に、保持部MEMから第2色を示す情報の一部として取得した輝度を液晶表示部の光源に設定する。   The conversion unit 15a is a component equivalent to the conversion unit 15 illustrated in FIG. 1, and performs display processing by the image display device 10a based on information indicating the first width and the second color held by the holding unit MEM. The third image IMG3 received as the target is converted into the fourth image IMG4 described in FIG. For example, each time the third image IMG3 is received, the conversion unit 15a acquires the brightness of each pixel included in the background portion of the received third image IMG3 as a part of information indicating the second color from the holding unit MEM. Replace with the brightness. Next, the conversion unit 15a passes the third image IMG3 in which the brightness is replaced through a filter having an effect of enhancing the edge, so that the contour of the second pattern included in the third image IMG3 has the first width. Add a border to the outline of a pattern such as a character. Furthermore, when the conversion unit 15a displays the fourth image IMG output from the filter on the liquid crystal display unit or the like, the luminance acquired as part of the information indicating the second color from the holding unit MEM is used as the light source of the liquid crystal display unit. Set to.

図6に示した画像表示装置10aは、図1に示した画像表示装置10と同様に、図4(A)に示したような第3画像IMG3を図4(C)に示したような第4画像IMG4に変換することで、表示された文字などを利用者U1にとって見やすくすることができる。   Similar to the image display device 10 shown in FIG. 1, the image display device 10a shown in FIG. 6 converts the third image IMG3 as shown in FIG. 4A to the third image IMG3 as shown in FIG. 4C. By converting to four images IMG4, displayed characters and the like can be easily seen by the user U1.

また、図6に示した画像表示装置10aに含まれる第1提示部111は、図7に示すような複数の第1画像IMG1aの各々を、縁取りの幅が小さい順に表示することで、いかに説明する効果を得ることができる。   Further, the first presentation unit 111 included in the image display device 10a illustrated in FIG. 6 displays how each of the plurality of first images IMG1a as illustrated in FIG. 7 is displayed in ascending order of the border width. Effect can be obtained.

図7は、図6に示した第1画像IMG1aの例を示す。なお、図7に示す要素のうち、図2に示した要素と同等のものは、同一の符号で示すとともに要素の説明を省略する場合がある。   FIG. 7 shows an example of the first image IMG1a shown in FIG. Of the elements shown in FIG. 7, elements equivalent to those shown in FIG. 2 are denoted by the same reference numerals and description of the elements may be omitted.

図7に示した第1画像IMG1a_1,IMG1a_2,IMG1a_3は、図2に示した第1画像IMG1_1,IMG1_2,IMG1_3と同様に、互いに異なる幅の縁取りHm1,Hm2,Hm3で囲まれた第1パターンPt1を含んでいる。なお、図7の例では、複数の第1画像IMG1aのうち、第1画像IMG1a_1,IMG1a_2,IMG1a_3以外の第1画像IMG1aの図示は省略されている。   The first images IMG1a_1, IMG1a_2, and IMG1a_3 illustrated in FIG. 7 are similar to the first images IMG1_1, IMG1_2, and IMG1_3 illustrated in FIG. Is included. In the example of FIG. 7, the illustration of the first image IMG1a other than the first images IMG1a_1, IMG1a_2, and IMG1a_3 among the plurality of first images IMG1a is omitted.

また、図7に示した第1画像IMG1a_1,IMG1a_2,IMG1a_3において、額縁に類似した形状の領域Rm1,Rm2,Rm3のそれぞれは、第1パターンPt1の背景に設けられた白色を示す領域の例である。なお、第1画像IMG1a_1,IMG1a_2,IMG1a_3の第1パターンPt1の背景に設けられる白色を示す領域Rm1,Rm2,Rm3は、図7に示したような額縁に類似した形状に限られない。領域Rm1,Rm2,Rm3の形状は、第1パターンPt1の背景の色との対比から領域Rm1,Rm2,Rm3が白色で示されることを利用者U1が認識可能な程度の大きさであれば、どのような形状でもよい。例えば、領域Rm1,Rm2,Rm3は、第1画像IMG1a_1,IMG1a_2,IMG1a_3にそれぞれ含まれる第1パターンPt1及び縁取りHm1,Hm2,Hm3から離れた箇所に設けられた矩形の領域であってもよい。   Further, in the first images IMG1a_1, IMG1a_2, and IMG1a_3 shown in FIG. 7, the regions Rm1, Rm2, and Rm3 having shapes similar to the frame are examples of regions showing white provided in the background of the first pattern Pt1. is there. Note that the white areas Rm1, Rm2, and Rm3 provided in the background of the first pattern Pt1 of the first images IMG1a_1, IMG1a_2, and IMG1a_3 are not limited to the shape similar to the frame as illustrated in FIG. The shapes of the regions Rm1, Rm2, and Rm3 are large enough to allow the user U1 to recognize that the regions Rm1, Rm2, and Rm3 are white in comparison with the background color of the first pattern Pt1. Any shape is acceptable. For example, the regions Rm1, Rm2, and Rm3 may be rectangular regions that are provided at locations away from the first pattern Pt1 and the borders Hm1, Hm2, and Hm3 included in the first images IMG1a_1, IMG1a_2, and IMG1a_3, respectively.

第1画像IMG1a_1,IMG1a_2,IMG1a_3のそれぞれの提示を受けた利用者U1は、領域Rm1,Rm2,Rm3の色と背景の色との対比から、領域Rm1,Rm2,Rm3がない場合に比べて、背景の色が白色以外であることを認識しやすい。このため、背景の色が白色以外であるか否かが明確に認識されていない状態で、様々な幅を持つ縁取りで囲んだ第1パターンPt1が提示される場合に比べて、利用者U1は、第1パターンPt1を囲む白色の縁取りが見えるか否かを判断しやすくなる。つまり、図6に示した第1提示部111により、図7に示した複数の第1画像IMG1aを利用者U1に提示することで、図2(A)に示した第1画像IMG1を提示した場合に比べて、利用者U1の判断を容易にすることができる。また、第1画像IMG1に白色を示す領域Rm1,Rm2,Rm3を設けたことで、第1画像IMG1の平均的な輝度を、第3画像IMG3に対応して画像表示装置10aにより表示される第4画像IMG4の平均的な輝度に近づけることができる。これにより、利用者U1の瞳孔の大きさにより、第1検出部12aによって検出される第1幅が影響を受ける度合いを、白色の領域Rm1,Rm2,Rm3を設けない場合に比べて小さくすることができるので、高い精度で第1幅を特定できる。   The user U1 who has received the presentation of each of the first images IMG1a_1, IMG1a_2, and IMG1a_3, from the comparison between the colors of the regions Rm1, Rm2, and Rm3 and the background color, compared to the case where the regions Rm1, Rm2, and Rm3 are not present. It is easy to recognize that the background color is other than white. For this reason, compared with the case where the first pattern Pt1 surrounded by the border having various widths is presented in a state where it is not clearly recognized whether or not the background color is other than white, the user U1 It becomes easier to determine whether or not a white border surrounding the first pattern Pt1 is visible. That is, the first presentation unit 111 shown in FIG. 6 presents the first image IMG1 shown in FIG. 2A by presenting the plurality of first images IMG1a shown in FIG. 7 to the user U1. Compared to the case, the determination of the user U1 can be facilitated. In addition, by providing the first image IMG1 with white regions Rm1, Rm2, and Rm3, the average luminance of the first image IMG1 is displayed by the image display device 10a corresponding to the third image IMG3. The average brightness of the four images IMG4 can be approached. As a result, the degree to which the first width detected by the first detection unit 12a is affected by the size of the pupil of the user U1 is reduced as compared with the case where the white regions Rm1, Rm2, and Rm3 are not provided. Therefore, the first width can be specified with high accuracy.

また、第1提示部111により、縁取りの幅が小さい順に複数の第1画像IMG1aの各々を利用者U1に提示することで、逆の順序で提示する場合に比べて、利用者U1の判断が記憶の影響を受ける可能性を低減することができる。ここで、記憶の影響とは、順次に提示される第1画像IMG1のいずれかで第1パターンPt1を囲む縁取りを認識すると、以降に提示される第1画像IMG1の第1パターンPt1を囲む縁取りが見えるとの先入観を利用者U1に与える心理的な作用である。   In addition, the first presentation unit 111 presents each of the plurality of first images IMG1a to the user U1 in the order in which the width of the border is small, so that the judgment of the user U1 can be made as compared with the case of presenting in the reverse order. The possibility of being affected by memory can be reduced. Here, the memory effect means that when the border surrounding the first pattern Pt1 is recognized in any of the sequentially presented first images IMG1, the border surrounding the first pattern Pt1 of the first image IMG1 presented thereafter. This is a psychological action that gives the user U1 a preconception that can be seen.

つまり、第1提示部111は、図7に示した複数の第1画像IMG1aを縁取りの幅の小さい順に提示することで、図2(A)に示した第1画像IMG1の各々をランダムに提示した場合に比べて、利用者U1の判断が先入観等の影響を受け難くすることができる。したがって、第1提示部111を有する第1受付部11aは、先入観等の影響を考慮しない場合に比べて、利用者U1から、複数の第1画像IMG1aのそれぞれで第1パターンPt1を囲む縁取りが認識されたか否かを高い精度で示す入力を受けることができる。   That is, the first presentation unit 111 presents each of the first images IMG1 illustrated in FIG. 2A at random by presenting the plurality of first images IMG1a illustrated in FIG. Compared to the case, the judgment of the user U1 can be made less affected by preconceptions. Accordingly, the first reception unit 11a having the first presentation unit 111 has a border that surrounds the first pattern Pt1 with each of the plurality of first images IMG1a from the user U1 as compared with the case where the influence of preconception is not considered. It is possible to receive an input indicating whether or not it has been recognized with high accuracy.

ところで、利用者U1が、複数の第2画像IMG2のそれぞれに含まれる第1パターンPt1の背景を白色と認識するか否かを判断する際に、図7で説明した記憶の影響に類似した心理的な作用を受ける場合がある。例えば、図3(A)に示した第2画像IMG2_3の第1パターンPt1を囲む縁取りHm2との対比で背景の色を灰色と認識した後に第2画像IMG2_1を見た場合などに、利用者U1の判断は、第1パターンPtの背景は灰色であるとの先入観の影響を受ける。   By the way, when the user U1 determines whether or not the background of the first pattern Pt1 included in each of the plurality of second images IMG2 is recognized as white, the psychology similar to the influence of the memory described in FIG. May be affected. For example, when the user U1 sees the second image IMG2_1 after recognizing the background color as gray in contrast to the border Hm2 surrounding the first pattern Pt1 of the second image IMG2_3 shown in FIG. This determination is influenced by the preconception that the background of the first pattern Pt is gray.

そこで、図6に示した第2提示部131は、第1パターンPt1の背景の色が明るい順に複数の第2画像IMG2を利用者U1に提示する。これにより、例えば、逆の順序で提示する場合に比べて、先に提示された第2画像IMG2において背景の色を灰色と認識したことによる先入観が利用者U1の判断に与える影響を低減することができる。   Therefore, the second presentation unit 131 illustrated in FIG. 6 presents the plurality of second images IMG2 to the user U1 in the order in which the background color of the first pattern Pt1 is bright. Thereby, for example, compared with the case where presentation is performed in the reverse order, the influence of the prejudice due to recognition of the background color as gray in the previously presented second image IMG2 on the judgment of the user U1 is reduced. Can do.

したがって、第2提示部131を有する第2受付部13aは、先入観の影響を考慮しない場合に比べて、利用者U1から、複数の第2画像IMG2のそれぞれにつき、地の色が白色として認識されたか否かを高い精度で示す入力を受けることができる。   Therefore, the second reception unit 13a having the second presentation unit 131 recognizes the ground color as white for each of the plurality of second images IMG2 from the user U1 as compared with the case where the influence of preconception is not taken into consideration. Can be received with high accuracy.

また、第2提示部131により、背景の色が異なる第2画像IMG2のそれぞれを、光源の輝度を変えつつ表示することで、表示に用いられる光源の輝度により、利用者U1が白色と認識する色が変化することの影響を考慮して、第2色の検出を行うことができる。そして、第2検出部14aにより、第2色を示す情報として、第2画像IMG2の背景の明度ととともに、画像の表示に用いる光源の輝度を特定することで、利用者U1が白色として認識する限界の色で第2画像IMG2の背景を表示するための情報を特定できる。これにより、例えば、光源の輝度を抑制しつつ、利用者U1に白色と認識される色の画像を表示するための情報を特定することが可能となるので、スマートホンなどの携帯端末装置に画像表示装置10aを実装する場合に有用である。   In addition, the second presentation unit 131 displays each of the second images IMG2 having different background colors while changing the luminance of the light source, so that the user U1 recognizes white as the luminance of the light source used for display. The second color can be detected in consideration of the influence of the color change. And the user U1 recognizes it as white by specifying the brightness | luminance of the light source used for the display of an image with the brightness of the background of the 2nd image IMG2 as the information which shows 2nd color by the 2nd detection part 14a. Information for displaying the background of the second image IMG2 in the limit color can be specified. Accordingly, for example, it is possible to specify information for displaying an image of a color recognized as white for the user U1 while suppressing the luminance of the light source, so that the image is displayed on a mobile terminal device such as a smartphone. This is useful when the display device 10a is mounted.

以上に説明した第1受付部11a及び第2受付部13aは、複数の第1画像IMG1a及び複数の第2画像IMG2aのそれぞれを利用者U1に提示する順序にかかわる先入観が利用者U1の判断に与える影響を低減可能である。したがって、図6に示した第1検出部12aは、第1受付部11aから受けた情報に基づいて、先入観の影響を考慮しない場合に比べて第1幅を高い精度で特定し、特定した第1幅を示す情報を保持部MEMに保持させることができる。同様に、図6に示した第2検出部14aは、第2受付部13aから受けた情報に基づいて、先入観の影響を考慮しない場合に比べて第2色を高い精度で特定し、特定した第2色を示す情報を保持部MEMに保持させることができる。これにより、図6に示した変換部15aは、先入観の影響を考慮しない場合に比べて高い精度で特定された第1幅及び第2色を用いて、第3画像IMG3から第4画像IMG4への変換を行うことができる。   In the first reception unit 11a and the second reception unit 13a described above, the prejudice regarding the order in which each of the plurality of first images IMG1a and the plurality of second images IMG2a is presented to the user U1 is determined by the user U1. It is possible to reduce the influence. Therefore, the first detection unit 12a illustrated in FIG. 6 specifies the first width with higher accuracy based on the information received from the first reception unit 11a, compared to the case where the influence of preconception is not considered. Information indicating one width can be held in the holding unit MEM. Similarly, the second detection unit 14a illustrated in FIG. 6 identifies and identifies the second color with high accuracy based on the information received from the second reception unit 13a as compared with the case where the influence of preconception is not considered. Information indicating the second color can be held in the holding unit MEM. Thereby, the conversion unit 15a illustrated in FIG. 6 uses the first width and the second color specified with high accuracy compared with the case where the influence of preconception is not taken into account, to change from the third image IMG3 to the fourth image IMG4. Can be converted.

以上に説明した本件開示の画像表示装置10は、例えば、スマートホンやタブレット型端末などの携帯端末装置やコンピュータ装置を用いて実現することができる。   The image display device 10 of the present disclosure described above can be realized by using, for example, a mobile terminal device such as a smart phone or a tablet terminal or a computer device.

図8は、図6に示した画像表示装置10aのハードウェア構成例を示す。図8の例は、スマートホン、タブレット型端末あるいは電子ブックリーダなどの携帯端末装置に搭載されたハードウェアを用いて画像表示装置10aを実現する場合を示す。なお、図6に示した画像表示装置10aは、図8の例に限らず、例えば、デスクトップ型のコンピュータ装置に搭載されたハードウェアを用いて実現することも可能である。   FIG. 8 shows a hardware configuration example of the image display device 10a shown in FIG. The example of FIG. 8 shows a case where the image display device 10a is realized using hardware mounted on a mobile terminal device such as a smart phone, a tablet terminal, or an electronic book reader. Note that the image display device 10a illustrated in FIG. 6 is not limited to the example illustrated in FIG. 8, and may be realized using, for example, hardware mounted on a desktop computer device.

図8に示した携帯端末装置UEは、プロセッサ21と、メモリ22と、入力装置23と、表示装置24と、ネットワークインタフェース25と、メモリカードスロット26とを含んでいる。図8に示したプロセッサ21と、メモリ22と、入力装置23と、表示装置24と、ネットワークインタフェース25と、メモリカードスロット26とは、バスを介して互いに接続されている。また、プロセッサ21とメモリ22と入力装置23及び表示装置24は、画像表示装置10aに含まれる。   The mobile terminal device UE illustrated in FIG. 8 includes a processor 21, a memory 22, an input device 23, a display device 24, a network interface 25, and a memory card slot 26. The processor 21, the memory 22, the input device 23, the display device 24, the network interface 25, and the memory card slot 26 shown in FIG. 8 are connected to each other via a bus. The processor 21, the memory 22, the input device 23, and the display device 24 are included in the image display device 10a.

携帯端末装置UEは、ネットワークインタフェース25を介して、インターネットなどのネットワークNWに接続されており、ネットワークNWを介して、サーバ装置SVとの間で情報の授受が可能である。   The mobile terminal device UE is connected to a network NW such as the Internet via the network interface 25, and can exchange information with the server device SV via the network NW.

図8に示した入力装置23は、例えば、携帯端末装置UEに搭載されたタッチパネルに含まれるタッチセンサなどである。また、表示装置24は、例えば、携帯端末装置UEに搭載されたタッチパネルに含まれるディスプレイなどである。   The input device 23 illustrated in FIG. 8 is, for example, a touch sensor included in a touch panel mounted on the mobile terminal device UE. The display device 24 is, for example, a display included in a touch panel mounted on the mobile terminal device UE.

携帯端末装置UEの利用者U1は、表示装置24で複数の第1画像IMG1aのそれぞれが表示された場合に、入力装置23を操作することで、例えば、第1画像IMG1aの各々において、第1パターンPtが縁取りで囲まれていると認識したか否かを入力する。また、利用者U1は、表示装置24により複数の第2画像IMG2のそれぞれが表示された場合に、入力装置23を操作することで、例えば、第2画像IMG2のそれぞれに含まれる第1パターンPtの背景を白色と認識したか否かを入力する。即ち、入力装置23は、図6に示した入力部112の機能を果たす。   The user U1 of the mobile terminal device UE operates the input device 23 when each of the plurality of first images IMG1a is displayed on the display device 24, for example, in each of the first images IMG1a. Whether or not it is recognized that the pattern Pt is surrounded by a border is input. In addition, when each of the plurality of second images IMG2 is displayed on the display device 24, the user U1 operates the input device 23, for example, the first pattern Pt included in each of the second images IMG2. Enter whether or not the background is recognized as white. That is, the input device 23 fulfills the function of the input unit 112 shown in FIG.

また、図8に示したメモリカードスロット26は、メモリカード27を装着可能であり、装着したメモリカード27に記録された情報の読出および記録を行う。   The memory card slot 26 shown in FIG. 8 can be loaded with a memory card 27, and reads and records information recorded on the loaded memory card 27.

図8に示したメモリ22は、携帯端末装置UEのオペレーティングシステムとともに、プロセッサ21が図5に示した画像表示処理を実行するためのアプリケーションプログラムを格納している。なお、図5に示した画像表示処理を実行するためのアプリケーションプログラムは、例えば、メモリカード27に記録して頒布することができる。そして、メモリカード27をメモリカードスロット26に装着して読み込み処理を行うことにより、図5に示した画像表示処理を実行するためのアプリケーションプログラムを、メモリ22に格納させてもよい。また、画像表示処理のためのアプリケーションプログラムは、ネットワークインタフェース25を介して、ネットワークNWに接続されたサーバ装置SVからダウンロードされてもよい。そして、ダウンロードされたプログラムをメモリ22に格納させることで、プロセッサ21は、画像表示処理のためのアプリケーションプログラムの実行が可能となる。   The memory 22 illustrated in FIG. 8 stores an application program for the processor 21 to execute the image display process illustrated in FIG. 5 together with the operating system of the mobile terminal device UE. Note that the application program for executing the image display process shown in FIG. 5 can be recorded in the memory card 27 and distributed, for example. Then, the application program for executing the image display process shown in FIG. 5 may be stored in the memory 22 by mounting the memory card 27 in the memory card slot 26 and performing the reading process. An application program for image display processing may be downloaded from the server device SV connected to the network NW via the network interface 25. Then, by storing the downloaded program in the memory 22, the processor 21 can execute an application program for image display processing.

プロセッサ21は、メモリ22に格納されたアプリケーションプログラムに基づいて表示装置24の動作を制御することにより、図6に示した第1提示部111及び第2提示部131の機能を果たす。また、プロセッサ21は、メモリ22に格納されたアプリケーションプログラムを実行することにより、図6に示した第1検出部12a,第2検出部14a及び変換部15aの機能を果たす。また、プロセッサ21は、第1検出部12a及び第2検出部14aの機能を果たすための処理を実行した際に得られる情報を、例えば、メモリ22の記憶領域の一部を用いて保持することで、メモリ22の記憶領域の一部により図6に示した保持部MEMを実現する。そして、プロセッサ21は、変換部15aの機能を果たすための処理に、メモリ22に保持した情報を用いる。   The processor 21 functions as the first presentation unit 111 and the second presentation unit 131 illustrated in FIG. 6 by controlling the operation of the display device 24 based on the application program stored in the memory 22. Further, the processor 21 performs the functions of the first detection unit 12a, the second detection unit 14a, and the conversion unit 15a illustrated in FIG. 6 by executing an application program stored in the memory 22. In addition, the processor 21 holds information obtained when the processing for performing the functions of the first detection unit 12 a and the second detection unit 14 a is performed using, for example, a part of the storage area of the memory 22. Thus, the holding unit MEM illustrated in FIG. 6 is realized by a part of the storage area of the memory 22. Then, the processor 21 uses the information held in the memory 22 for processing for performing the function of the conversion unit 15a.

つまり、図6に示した画像表示装置10aは、例えば、図8に示した携帯端末装置UEに含まれるプロセッサ21とメモリ22と入力装置23及び表示装置24と、メモリ22に格納されたアプリケーションプログラムとの協働によって実現することができる。   That is, the image display device 10a illustrated in FIG. 6 includes, for example, the processor 21, the memory 22, the input device 23, the display device 24, and the application program stored in the memory 22 included in the mobile terminal device UE illustrated in FIG. Can be realized through collaboration with

画像表示処理のためのアプリケーションプログラムは、図2で説明した第1幅及び図3で説明した第2色を検出する処理と、図4で説明した輪郭強調処理とのそれぞれをプロセッサ21に実行させるためのアプリケーションプログラムを含んでいる。プロセッサ21は、例えば、第1幅及び第2色を検出する処理のためのアプリケーションプログラムと、輪郭強調処理のためのアプリケーションプログラムとを、異なるタイミングで実行してもよい。例えば、プロセッサ21は、携帯端末装置UEの初期設定などを行う際に、第1幅及び第2色を検出する処理のためのアプリケーションプログラムを実行する。一方、プロセッサ21は、例えば、白色の背景上に文字等のパターンを黒色で表す文書などを表示の対象として受ける毎に、輪郭強調処理のためのアプリケーションプログラムを実行する。   The application program for image display processing causes the processor 21 to execute the first width described in FIG. 2 and the second color described in FIG. 3 and the edge enhancement processing described in FIG. An application program is included. The processor 21 may execute, for example, an application program for processing for detecting the first width and the second color and an application program for contour enhancement processing at different timings. For example, the processor 21 executes an application program for processing to detect the first width and the second color when performing the initial setting of the mobile terminal device UE or the like. On the other hand, each time the processor 21 receives, for example, a document representing a pattern of characters or the like in black on a white background as a display target, the processor 21 executes an application program for contour enhancement processing.

図9及び図10は、図8に示した画像表示装置10aの動作を示す。図9に示したステップS311〜ステップS316の処理は、画像表示処理のためのアプリケーションプログラムに含まれる、第1幅及び第2色を検出する処理の一例である。また、図10に示したステップS321〜ステップS326の処理は、画像表示処理のためのアプリケーションプログラムに含まれる輪郭強調処理の一例である。   9 and 10 show the operation of the image display device 10a shown in FIG. The processing in steps S311 to S316 illustrated in FIG. 9 is an example of processing for detecting the first width and the second color included in the application program for image display processing. Moreover, the process of step S321-step S326 shown in FIG. 10 is an example of the outline emphasis process included in the application program for an image display process.

図9に示したステップS311〜ステップS316の各処理は、図8に示したプロセッサ21により、例えば、携帯端末装置UEの初期設定の際などに実行される。   Each process of step S311 to step S316 illustrated in FIG. 9 is executed by the processor 21 illustrated in FIG. 8, for example, at the time of initial setting of the mobile terminal device UE.

ステップS311において、プロセッサ21は、図7に示した複数の第1画像IMG1aを縁取りの幅が小さい順に生成し、生成した第1画像IMG1aを表示装置24に表示させる。   In step S311, the processor 21 generates the plurality of first images IMG1a illustrated in FIG. 7 in the order of decreasing border width, and causes the display device 24 to display the generated first images IMG1a.

ステップS312において、プロセッサ21は、図8に示した入力装置23からの情報に基づいて、ステップS311の処理で表示された第1画像IMG1aを見た利用者U1により、第1パターンPt1を囲む縁取りが認識されたか否かを判定する。   In step S312, the processor 21 borders the first pattern Pt1 by the user U1 who viewed the first image IMG1a displayed in the process of step S311 based on the information from the input device 23 illustrated in FIG. It is determined whether or not is recognized.

入力装置23からの情報により、利用者U1が縁取りを認識しなかったことが示された場合に(ステップS312の否定判定(NO))、プロセッサ21は、ステップS311の処理に戻る。そして、プロセッサ21は、次に小さい幅の縁取りで囲まれた第1パターンPt1を含む第1画像IMG1aを生成し、生成した第1画像IMG1aを表示する。   When the information from the input device 23 indicates that the user U1 did not recognize the border (No determination in step S312 (NO)), the processor 21 returns to the process of step S311. Then, the processor 21 generates a first image IMG1a including the first pattern Pt1 surrounded by a border with the next smallest width, and displays the generated first image IMG1a.

ステップS311,S312の処理を繰り返す過程で、入力装置23からの情報により、利用者U1が縁取りを認識したことが示された場合に(ステップS312の肯定判定(YES))、プロセッサ21は、ステップS313の処理に進む。   In the process of repeating steps S311 and S312, when the information from the input device 23 indicates that the user U1 has recognized the border (YES determination in step S312), the processor 21 performs step The process proceeds to S313.

ステップS313において、プロセッサ21は、縁取りが認識されなかったことが示された第1画像IMG1aのうち、最後に利用者U1に提示された第1画像IMG1aの第1パターンPt1を囲む縁取りの幅を第1幅として特定する。そして、プロセッサ21は、特定した第1幅を示す情報を、メモリ22に設けた保持部MEMに保持させる。その後、プロセッサ21は、ステップS314の処理に進む。   In step S313, the processor 21 calculates the width of the border that surrounds the first pattern Pt1 of the first image IMG1a that was presented to the user U1 lastly among the first images IMG1a that were indicated that the border was not recognized. It is specified as the first width. Then, the processor 21 causes the holding unit MEM provided in the memory 22 to hold information indicating the specified first width. Thereafter, the processor 21 proceeds to the process of step S314.

ステップS314において、プロセッサ21は、図3に示した複数の第2画像IMG2を背景の明度が高い順に生成し、生成した第2画像IMG2を表示装置24に表示させる。更に、プロセッサ21は、図6を用いて説明したように、各第2画像IMG2を表示装置24に表示させる際の光源の輝度を順次に低下させることで、個々の第2画像IMG2を複数の異なる輝度で表示させることが望ましい。   In step S314, the processor 21 generates the plurality of second images IMG2 shown in FIG. 3 in order of increasing background brightness, and causes the display device 24 to display the generated second images IMG2. Further, as described with reference to FIG. 6, the processor 21 sequentially reduces the luminance of the light source when each second image IMG2 is displayed on the display device 24, so that each of the second images IMG2 is converted into a plurality of second images IMG2. It is desirable to display with different brightness.

ステップS315において、プロセッサ21は、入力装置23からの情報に基づいて、ステップS314の処理で表示された第2画像IMG2を見た利用者U1により、第1パターンPt1の背景が白色として認識されたか否かを判定する。   In step S315, based on the information from the input device 23, the processor 21 recognizes the background of the first pattern Pt1 as white by the user U1 who viewed the second image IMG2 displayed in the process of step S314. Determine whether or not.

入力装置23からの情報により、利用者U1が背景を白色と認識したことが示された場合に(ステップS315の肯定判定(YES))、プロセッサ21は、ステップS314の処理に戻る。そして、プロセッサ21は、ステップS314の処理で表示された第2画像IMG2の背景よりも明度の低い背景上に、第1幅の縁取りで囲まれた第1パターンPtを黒色で表す新たな第2画像IMG2を生成し、生成した第2画像IMG2を表示する。又は、プロセッサ21は、ステップS314の処理で第2画像IMG2を表示した際に用いた輝度よりも低い輝度を表示装置24に設定し、前よりも低い輝度で同じ第2画像IMG2を表示させる。   When the information from the input device 23 indicates that the user U1 has recognized the background as white (Yes in step S315), the processor 21 returns to the process in step S314. Then, the processor 21 creates a new second pattern Pt that is black and represents the first pattern Pt surrounded by the border of the first width on the background lower in brightness than the background of the second image IMG2 displayed in the process of step S314. An image IMG2 is generated, and the generated second image IMG2 is displayed. Alternatively, the processor 21 sets a luminance lower than the luminance used when the second image IMG2 is displayed in the process of step S314 on the display device 24, and displays the same second image IMG2 with a luminance lower than before.

ステップS314,S315の処理を繰り返す過程で、入力装置23からの情報により、利用者U1が背景を白色でないと認識したことが示された場合に(ステップS315の否定判定(NO))、プロセッサ21は、ステップS316の処理に進む。   In the process of repeating steps S314 and S315, when the information from the input device 23 indicates that the user U1 has recognized that the background is not white (No determination in step S315 (NO)), the processor 21 Advances to the process of step S316.

ステップS316において、プロセッサ21は、白色として認識されたことが示された第2画像IMG2のうち、最後に利用者U1に提示された第2画像IMG2の背景の明度と第2画像IMG2の表示に用いた光源の輝度とから、第2色を示す情報を特定する。例えば、プロセッサ21は、第2色を示す情報の一部として、最後に利用者U1に提示された第2画像IMG2の表示に用いた光源の輝度よりも一段階高い輝度を特定する。そして、プロセッサ21は、特定した輝度と特定した明度とを含む第2色を示す情報を、メモリ22に設けた保持部MEMに保持させる。その後、プロセッサ21は、第1幅及び第2色を検出する処理を終了する。   In step S316, the processor 21 displays the brightness of the background of the second image IMG2 presented to the user U1 lastly and the display of the second image IMG2 among the second images IMG2 shown to be recognized as white. Information indicating the second color is specified from the luminance of the used light source. For example, the processor 21 specifies the luminance one step higher than the luminance of the light source used for displaying the second image IMG2 last presented to the user U1 as part of the information indicating the second color. Then, the processor 21 causes the holding unit MEM provided in the memory 22 to hold information indicating the second color including the specified luminance and the specified brightness. Thereafter, the processor 21 ends the process of detecting the first width and the second color.

即ち、プロセッサ21は、例えば、携帯端末装置UEの初期設定処理の一つとして、以上に説明した処理を実行することで、利用者U1ごとに、縁取りとして認識されない限界の幅である第1幅と白色として認識される限界の色である第2色とを特定できる。   That is, the processor 21 executes, for example, the above-described process as one of the initial setting processes of the mobile terminal device UE, so that the first width that is a limit width that is not recognized as a border for each user U1. And the second color which is the limit color recognized as white.

以上に説明した処理で特定された第1幅及び第2色は、図10に示したステップS321〜ステップS327の各処理において、表示装置24で表示する画像に含まれる文字などの輪郭を強調する処理に用いられる。   The first width and the second color specified in the above-described processing emphasize the outline of characters and the like included in the image displayed on the display device 24 in each processing of step S321 to step S327 shown in FIG. Used for processing.

図10に示したステップS321〜ステップS326の各処理は、例えば、図8に示した表示装置24に文字や図形などのパターンを含む画像を表示させる毎に、プロセッサ21によって実行される。   Each process of step S321 to step S326 illustrated in FIG. 10 is executed by the processor 21 each time an image including a pattern such as a character or a graphic is displayed on the display device 24 illustrated in FIG.

ステップS321において、プロセッサ21は、表示装置24に表示させる画像に含まれる文字などのパターンと背景とのコントラストを求める。プロセッサ21は、例えば、テキストや図表を表す画像を表示させる場合に、画像に含まれる文字や線及び図形に設定された色と背景に設定された色とを比較することで、文字などのパターンと背景とのコントラストを求める。   In step S321, the processor 21 obtains a contrast between a pattern such as a character included in an image to be displayed on the display device 24 and the background. For example, when displaying an image representing text or a chart, the processor 21 compares the color set for the characters, lines, and figures included in the image with the color set for the background to thereby determine a pattern such as a character. Find the contrast with the background.

ステップS322において、プロセッサ21は、ステップS322の処理で求められたコントラストが、表示装置24で表示が可能な最大のコントラストであるか否かを判定する。   In step S322, the processor 21 determines whether or not the contrast obtained in the process of step S322 is the maximum contrast that can be displayed on the display device 24.

ステップS321の処理で求められたコントラストを示す値が、例えば、白色の背景と黒色で表された文字とのコントラストと同程度である場合に、プロセッサ21は、文字などのパターンと背景とのコントラストは最大であると判断する。この場合に、プロセッサ21は、ステップS322の肯定判定(YES)ルートの処理として、ステップS323及びステップS324の処理を実行する。   When the value indicating the contrast obtained in the process of step S321 is, for example, about the same as the contrast between a white background and a character represented in black, the processor 21 contrasts the pattern such as a character with the background. Is determined to be the maximum. In this case, the processor 21 executes the processing of step S323 and step S324 as the processing of the affirmative determination (YES) route of step S322.

ステップS323において、プロセッサ21は、メモリ22に設けられた保持部MEMから、保持部MEMに保持された第1幅及び第2色を示す情報を読み出す。   In step S323, the processor 21 reads information indicating the first width and the second color held in the holding unit MEM from the holding unit MEM provided in the memory 22.

ステップS324において、プロセッサ21は、ステップS321の処理でコントラストを求めた画像を第3画像とし、図4で説明した処理を行うことで、第1幅の縁取りと第2色の背景とを用いて文字などの輪郭が強調された第4画像を生成する。   In step S324, the processor 21 uses the image for which the contrast is obtained in step S321 as the third image, and performs the processing described with reference to FIG. 4 to use the first width border and the second color background. A fourth image in which outlines such as characters are emphasized is generated.

一方、ステップS321の処理で求められたコントラストを示す値が、例えば、白色の背景と黒色で表された文字とのコントラストよりも小さい場合に、プロセッサ21は、文字などのパターンの輪郭は従来の輪郭を強調する技術で強調できると判断する。この場合に、プロセッサ21は、ステップS322の否定判定(NO)ルートの処理として、ステップS325の処理を実行する。   On the other hand, when the value indicating the contrast obtained in step S321 is smaller than, for example, the contrast between the white background and the character represented by black, the processor 21 determines that the contour of the pattern such as the character is the conventional one. Judge that it can be enhanced with the technique of enhancing the outline. In this case, the processor 21 executes the process of step S325 as a negative determination (NO) route process of step S322.

ステップS325において、プロセッサ21は、ステップS321の処理でコントラストを求めた画像を、例えば、微分フィルタなどに通すことで、画像に含まれる文字などのパターンの輪郭を強調し、輪郭が強調されたパターンを含む画像を生成する。   In step S325, the processor 21 emphasizes the contour of a pattern such as a character included in the image by passing the image whose contrast is obtained in the processing of step S321 through, for example, a differential filter, and the contour is emphasized. An image including is generated.

ステップS322の肯定判定ルートの処理とステップS322の否定判定ルートの処理とは、ステップS326において合流する。   The affirmative determination route processing in step S322 and the negative determination route processing in step S322 merge in step S326.

ステップS326において、プロセッサ21は、ステップS324の処理で生成された画像あるいはステップS325の処理で生成された画像を表示装置24に渡すことで、表示装置24に、輪郭が強調されたパターンを含む画像を表示させる。   In step S326, the processor 21 passes the image generated by the process of step S324 or the image generated by the process of step S325 to the display device 24, so that the display device 24 includes an image including a pattern whose contour is emphasized. Is displayed.

即ち、プロセッサ21は、画像を表示する処理の過程で、ステップS321〜ステップS326の処理を実行することで、表示の対象となる画像における文字等と背景とのコントラストに応じた輪郭強調を実現することができる。   That is, the processor 21 executes the processing of steps S321 to S326 in the process of displaying an image, thereby realizing edge enhancement according to the contrast between characters and the like in the image to be displayed and the background. be able to.

ここで、利用者U1が受ける目の屈折異常等による影響は、利用者U1ごとに異なっている。したがって、ステップS321〜ステップS326の処理の過程で、利用者U1ごとに設定された第1幅及び第2色を用いることで、利用者U1の視覚の特徴に合わせて文字等の輪郭を強調することができる。   Here, the influence of the refractive error of the eyes on the user U1 is different for each user U1. Therefore, by using the first width and the second color set for each user U1 in the process of steps S321 to S326, the outline of characters and the like is emphasized according to the visual characteristics of the user U1. be able to.

つまり、図8に示した画像表示装置10aを有する携帯端末装置UEは、表示装置24で表示可能な最大のコントラストで文字などを表す画像についても、文字等の輪郭を強調可能であり、屈折異常などの影響を受ける利用者U1にも文字等を見やすく表示できる。   That is, the mobile terminal device UE having the image display device 10a shown in FIG. 8 can emphasize the outline of characters and the like for an image representing characters and the like with the maximum contrast that can be displayed on the display device 24, and the refractive error Characters etc. can be displayed in an easy-to-see manner for the user U1 who is affected by the above.

図8に示した画像表示装置10aが有する、利用者U1の視覚の特徴にあった輪郭強調を実現可能であるという特徴は、スマートホンやタブレット型端末装置及び電子ブックリーダなどの利用する人物が特定される携帯端末装置UEにおいて有用である。   The feature that the image display device 10a shown in FIG. 8 has that it is possible to implement contour enhancement that matches the visual characteristics of the user U1 is that a person using a smartphone, a tablet terminal device, an electronic book reader, or the like uses it. This is useful in the specified mobile terminal apparatus UE.

以上の詳細な説明により、実施形態の特徴点及び利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で、前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更を容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。   From the above detailed description, features and advantages of the embodiment will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and changes. Therefore, there is no intention to limit the scope of the inventive embodiments to those described above, and appropriate modifications and equivalents included in the scope disclosed in the embodiments can be used.

以上の説明に関して、更に、以下の各項を開示する。
(付記1)
互いに異なる幅の白色の縁取りで輪郭を囲まれた文字または図形である第1パターンを、白色以外の第1色の背景上にそれぞれ表す複数の第1画像の各々において、前記第1パターンの輪郭を囲む縁取りが、利用者により認識されたか否かを示す入力を受ける第1受付部と、
前記第1受付部で受けた入力により、前記縁取りが認識されないことが示された前記第1画像に含まれる縁取りのうち、他の第1画像に含まれる縁取りよりも広い縁取りの幅を第1幅として検出する第1検出部と、
前記第1幅で縁取られた前記第1パターンを互いに異なる色の背景上に表す複数の第2画像の各々において、前記第1パターンの背景が、前記利用者により白色として認識されたか否かを示す入力を受ける第2受付部と、
前記第2受付部で受けた入力により、前記背景が白色として認識されることが示された前記第2画像の背景のうち、他の第2画像の背景よりも明度が小さい背景の色を第2色として検出する第2検出部と、
白色の背景上に、黒色で文字または図形である第2パターンを表した第3画像を受け、前記第3画像を、前記第2パターンの輪郭を囲む前記第1幅の白色の縁取りを有し、前記第2色の背景を有する第4画像に変換する変換部と、
を備えたことを特徴とする画像表示装置。
(付記2)
付記1に記載の画像表示装置において、
前記第1受付部は、前記複数の第1画像を、前記第1パターンの輪郭を囲む縁取りの幅が小さい順に前記利用者に提示する第1提示部を有する
ことを特徴とする画像表示装置。
(付記3)
付記2に記載の画像表示装置において、
前記第1提示部は、前記第1パターンの背景の一部に白色を示す領域を含む画像を前記第1画像として提示する
ことを特徴とする画像表示装置。
(付記4)
付記1又は付記2に記載の画像表示装置において、
前記第2受付部は、前記複数の第2画像を、前記背景の明度が大きい順に前記利用者に提示する第2提示部を有する
ことを特徴とする画像表示装置。
(付記5)
互いに異なる幅の白色の縁取りで輪郭を囲まれた文字または図形である第1パターンを、白色以外の第1色の背景上にそれぞれ表す複数の第1画像の各々において、前記第1パターンの輪郭を囲む縁取りが、利用者により認識されたか否かを示す入力を受け、
前記受けた入力により、前記縁取りが認識されないことが示された前記第1画像に含まれる縁取りのうち、他の第1画像に含まれる縁取りよりも広い縁取りの幅を第1幅として検出し、
前記第1幅で縁取られた前記第1パターンを互いに異なる色の背景上に表す複数の第2画像の各々において、前記第1パターンの背景が、前記利用者により白色として認識されたか否かを示す入力を受け、
前記受けた入力により、前記背景が白色として認識されることが示された前記第2画像の背景のうち、他の第2画像の背景よりも明度が小さい背景の色を第2色として検出し、
白色の背景上に、黒色で文字または図形である第2パターンを表した第3画像を受け、前記第3画像を、前記第2パターンの輪郭を囲む前記第1幅の白色の縁取りを有し、前記第2色の背景を有する第4画像に変換する、
ことを特徴とする画像表示方法。
(付記6)
互いに異なる幅の白色の縁取りで輪郭を囲まれた文字または図形である第1パターンを、白色以外の第1色の背景上にそれぞれ表す複数の第1画像の各々において、前記第1パターンの輪郭を囲む縁取りが、利用者により認識されたか否かを示す入力を受け、
前記受けた入力により、前記縁取りが認識されないことが示された前記第1画像に含まれる縁取りのうち、他の第1画像に含まれる縁取りよりも広い縁取りの幅を第1幅として検出し、
前記第1幅で縁取られた前記第1パターンを互いに異なる色の背景上に表す複数の第2画像の各々において、前記第1パターンの背景が、前記利用者により白色として認識されたか否かを示す入力を受け、
前記受けた入力により、前記背景が白色として認識されることが示された前記第2画像の背景のうち、他の第2画像の背景よりも明度が小さい背景の色を第2色として検出し、
白色の背景上に、黒色で文字または図形である第2パターンを表した第3画像を受け、前記第3画像を、前記第2パターンの輪郭を囲む前記第1幅の白色の縁取りを有し、前記第2色の背景を有する第4画像に変換する、
処理をコンピュータに実行させることを特徴とする画像表示プログラム。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
The outline of the first pattern in each of a plurality of first images representing a first pattern, which is a character or figure surrounded by a white border of different widths, on a background of a first color other than white A first reception unit that receives an input indicating whether or not a border around the user has been recognized;
Of the borders included in the first image indicated that the border is not recognized by the input received by the first reception unit, the width of the border wider than the border included in the other first image is the first. A first detection unit that detects the width;
Whether or not the background of the first pattern is recognized as white by the user in each of a plurality of second images representing the first pattern bordered by the first width on a background of different colors. A second reception unit that receives an input indicating;
Among the backgrounds of the second image that are shown to be recognized as white by the input received by the second reception unit, the background color having a lightness lower than the background of the other second image is selected. A second detector for detecting two colors;
Receiving a third image representing a second pattern of characters or figures in black on a white background, the third image having a white border of the first width surrounding an outline of the second pattern; A conversion unit for converting into a fourth image having the background of the second color;
An image display device comprising:
(Appendix 2)
In the image display device according to attachment 1,
The first display unit includes: a first presentation unit that presents the plurality of first images to the user in a descending order of a border width surrounding the outline of the first pattern.
(Appendix 3)
In the image display device according to attachment 2,
The first display unit presents, as the first image, an image including a white area on a part of the background of the first pattern.
(Appendix 4)
In the image display device according to appendix 1 or appendix 2,
The second display unit includes a second presentation unit that presents the plurality of second images to the user in descending order of brightness of the background.
(Appendix 5)
The outline of the first pattern in each of a plurality of first images representing a first pattern, which is a character or figure surrounded by a white border of different widths, on a background of a first color other than white Receives an input indicating whether the border around
Detecting a border width wider than the border included in the other first image among the borders included in the first image in which it is indicated by the received input that the border is not recognized;
Whether or not the background of the first pattern is recognized as white by the user in each of a plurality of second images representing the first pattern bordered by the first width on a background of different colors. Receiving input
Among the backgrounds of the second image indicated that the background is recognized as white by the received input, a background color having a lightness lower than the background of the other second image is detected as the second color. ,
Receiving a third image representing a second pattern of characters or figures in black on a white background, the third image having a white border of the first width surrounding an outline of the second pattern; Converting to a fourth image having a background of the second color;
An image display method characterized by the above.
(Appendix 6)
The outline of the first pattern in each of a plurality of first images representing a first pattern, which is a character or figure surrounded by a white border of different widths, on a background of a first color other than white Receives an input indicating whether the border around
Detecting a border width wider than the border included in the other first image among the borders included in the first image in which it is indicated by the received input that the border is not recognized;
Whether or not the background of the first pattern is recognized as white by the user in each of a plurality of second images representing the first pattern bordered by the first width on a background of different colors. Receiving input
Among the backgrounds of the second image indicated that the background is recognized as white by the received input, a background color having a lightness lower than the background of the other second image is detected as the second color. ,
Receiving a third image representing a second pattern of characters or figures in black on a white background, the third image having a white border of the first width surrounding an outline of the second pattern; Converting to a fourth image having a background of the second color;
An image display program that causes a computer to execute processing.

10,10a…画像表示装置;11,11a…第1受付部;12,12a…第1検出部;13,13a…第2受付部;14,14a…第2検出部;15,15a…変換部;111…第1提示部;112…入力部;131…第2提示部;21…プロセッサ;22…メモリ;23…入力装置;24…表示装置;25…ネットワークインタフェース;26…メモリカードスロット;27…メモリカード;MEM…保持部;UE…携帯端末装置;NW…ネットワーク;SV…サーバ装置

DESCRIPTION OF SYMBOLS 10, 10a ... Image display apparatus; 11, 11a ... 1st reception part; 12, 12a ... 1st detection part; 13, 13a ... 2nd reception part; 14, 14a ... 2nd detection part; 15, 15a ... Conversion part 111 ... 1st presentation part; 112 ... Input part; 131 ... 2nd presentation part; 21 ... Processor; 22 ... Memory; 23 ... Input device; 24 ... Display device; 25 ... Network interface; ... Memory card; MEM ... Holding unit; UE ... Mobile terminal device; NW ... Network; SV ... Server device

Claims (5)

互いに異なる幅の白色の縁取りで輪郭を囲まれた文字または図形である第1パターンを、白色以外の第1色の背景上にそれぞれ表す複数の第1画像の各々において、前記第1パターンの輪郭を囲む縁取りが、利用者により認識されたか否かを示す入力を受ける第1受付部と、
前記第1受付部で受けた入力により、前記縁取りが認識されないことが示された前記第1画像に含まれる縁取りのうち、他の第1画像に含まれる縁取りよりも広い縁取りの幅を第1幅として検出する第1検出部と、
前記第1幅で縁取られた前記第1パターンを互いに異なる色の背景上に表す複数の第2画像の各々において、前記第1パターンの背景が、前記利用者により白色として認識されたか否かを示す入力を受ける第2受付部と、
前記第2受付部で受けた入力により、前記背景が白色として認識されることが示された前記第2画像の背景のうち、他の第2画像の背景よりも明度が小さい背景の色を第2色として検出する第2検出部と、
白色の背景上に、黒色で文字または図形である第2パターンを表した第3画像を受け、前記第3画像を、前記第2パターンの輪郭を囲む前記第1幅の白色の縁取りを有し、前記第2色の背景を有する第4画像に変換する変換部と、
を備えたことを特徴とする画像表示装置。
The outline of the first pattern in each of a plurality of first images representing a first pattern, which is a character or figure surrounded by a white border of different widths, on a background of a first color other than white A first reception unit that receives an input indicating whether or not a border around the user has been recognized;
Of the borders included in the first image indicated that the border is not recognized by the input received by the first reception unit, the width of the border wider than the border included in the other first image is the first. A first detection unit that detects the width;
Whether or not the background of the first pattern is recognized as white by the user in each of a plurality of second images representing the first pattern bordered by the first width on a background of different colors. A second reception unit that receives an input indicating;
Among the backgrounds of the second image that are shown to be recognized as white by the input received by the second reception unit, the background color having a lightness lower than the background of the other second image is selected. A second detector for detecting two colors;
Receiving a third image representing a second pattern of characters or figures in black on a white background, the third image having a white border of the first width surrounding an outline of the second pattern; A conversion unit for converting into a fourth image having the background of the second color;
An image display device comprising:
請求項1に記載の画像表示装置において、
前記第1受付部は、前記複数の第1画像を、前記第1パターンの輪郭を囲む縁取りの幅が小さい順に前記利用者に提示する第1提示部を有する
ことを特徴とする画像表示装置。
The image display device according to claim 1,
The first display unit includes: a first presentation unit that presents the plurality of first images to the user in a descending order of a border width surrounding the outline of the first pattern.
請求項1又は請求項2に記載の画像表示装置において、
前記第2受付部は、前記複数の第2画像を、前記背景の明度が大きい順に前記利用者に提示する第2提示部を有する
ことを特徴とする画像表示装置。
The image display device according to claim 1 or 2,
The second display unit includes a second presentation unit that presents the plurality of second images to the user in descending order of brightness of the background.
互いに異なる幅の白色の縁取りで輪郭を囲まれた文字または図形である第1パターンを、白色以外の第1色の背景上にそれぞれ表す複数の第1画像の各々において、前記第1パターンの輪郭を囲む縁取りが、利用者により認識されたか否かを示す入力を受け、
前記受けた入力により、前記縁取りが認識されないことが示された前記第1画像に含まれる縁取りのうち、他の第1画像に含まれる縁取りよりも広い縁取りの幅を第1幅として検出し、
前記第1幅で縁取られた前記第1パターンを互いに異なる色の背景上に表す複数の第2画像の各々において、前記第1パターンの背景が、前記利用者により白色として認識されたか否かを示す入力を受け、
前記受けた入力により、前記背景が白色として認識されることが示された前記第2画像の背景のうち、他の第2画像の背景よりも明度が小さい背景の色を第2色として検出し、
白色の背景上に、黒色で文字または図形である第2パターンを表した第3画像を受け、前記第3画像を、前記第2パターンの輪郭を囲む前記第1幅の白色の縁取りを有し、前記第2色の背景を有する第4画像に変換する、
ことを特徴とする画像表示方法。
The outline of the first pattern in each of a plurality of first images representing a first pattern, which is a character or figure surrounded by a white border of different widths, on a background of a first color other than white Receives an input indicating whether the border around
Detecting a border width wider than the border included in the other first image among the borders included in the first image in which it is indicated by the received input that the border is not recognized;
Whether or not the background of the first pattern is recognized as white by the user in each of a plurality of second images representing the first pattern bordered by the first width on a background of different colors. Receiving input
Among the backgrounds of the second image indicated that the background is recognized as white by the received input, a background color having a lightness lower than the background of the other second image is detected as the second color. ,
Receiving a third image representing a second pattern of characters or figures in black on a white background, the third image having a white border of the first width surrounding an outline of the second pattern; Converting to a fourth image having a background of the second color;
An image display method characterized by the above.
互いに異なる幅の白色の縁取りで輪郭を囲まれた文字または図形である第1パターンを、白色以外の第1色の背景上にそれぞれ表す複数の第1画像の各々において、前記第1パターンの輪郭を囲む縁取りが、利用者により認識されたか否かを示す入力を受け、
前記受けた入力により、前記縁取りが認識されないことが示された前記第1画像に含まれる縁取りのうち、他の第1画像に含まれる縁取りよりも広い縁取りの幅を第1幅として検出し、
前記第1幅で縁取られた前記第1パターンを互いに異なる色の背景上に表す複数の第2画像の各々において、前記第1パターンの背景が、前記利用者により白色として認識されたか否かを示す入力を受け、
前記受けた入力により、前記背景が白色として認識されることが示された前記第2画像の背景のうち、他の第2画像の背景よりも明度が小さい背景の色を第2色として検出し、
白色の背景上に、黒色で文字または図形である第2パターンを表した第3画像を受け、前記第3画像を、前記第2パターンの輪郭を囲む前記第1幅の白色の縁取りを有し、前記第2色の背景を有する第4画像に変換する、
処理をコンピュータに実行させることを特徴とする画像表示プログラム。
The outline of the first pattern in each of a plurality of first images representing a first pattern, which is a character or figure surrounded by a white border of different widths, on a background of a first color other than white Receives an input indicating whether the border around
Detecting a border width wider than the border included in the other first image among the borders included in the first image in which it is indicated by the received input that the border is not recognized;
Whether or not the background of the first pattern is recognized as white by the user in each of a plurality of second images representing the first pattern bordered by the first width on a background of different colors. Receiving input
Among the backgrounds of the second image indicated that the background is recognized as white by the received input, a background color having a lightness lower than the background of the other second image is detected as the second color. ,
Receiving a third image representing a second pattern of characters or figures in black on a white background, the third image having a white border of the first width surrounding an outline of the second pattern; Converting to a fourth image having a background of the second color;
An image display program that causes a computer to execute processing.
JP2014028698A 2014-02-18 2014-02-18 Image display device, image display method, and image display program Pending JP2015152859A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014028698A JP2015152859A (en) 2014-02-18 2014-02-18 Image display device, image display method, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014028698A JP2015152859A (en) 2014-02-18 2014-02-18 Image display device, image display method, and image display program

Publications (1)

Publication Number Publication Date
JP2015152859A true JP2015152859A (en) 2015-08-24

Family

ID=53895130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014028698A Pending JP2015152859A (en) 2014-02-18 2014-02-18 Image display device, image display method, and image display program

Country Status (1)

Country Link
JP (1) JP2015152859A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7497474B1 (en) 2023-01-20 2024-06-10 レノボ・シンガポール・プライベート・リミテッド Electronic device and image processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10294863A (en) * 1997-04-18 1998-11-04 Ricoh Co Ltd Edge separator
JPH11120169A (en) * 1997-10-14 1999-04-30 Fuji Xerox Co Ltd Image display device, storage medium recording screen setting program
JP2007193091A (en) * 2006-01-19 2007-08-02 Taito Corp Display system for contour color of character
JP2010135865A (en) * 2008-10-27 2010-06-17 Sony Corp Video signal processing device, image capturing apparatus and video signal processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10294863A (en) * 1997-04-18 1998-11-04 Ricoh Co Ltd Edge separator
JPH11120169A (en) * 1997-10-14 1999-04-30 Fuji Xerox Co Ltd Image display device, storage medium recording screen setting program
JP2007193091A (en) * 2006-01-19 2007-08-02 Taito Corp Display system for contour color of character
JP2010135865A (en) * 2008-10-27 2010-06-17 Sony Corp Video signal processing device, image capturing apparatus and video signal processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7497474B1 (en) 2023-01-20 2024-06-10 レノボ・シンガポール・プライベート・リミテッド Electronic device and image processing method

Similar Documents

Publication Publication Date Title
CN108520241B (en) Fingerprint acquisition method and device based on optical fingerprint technology and user terminal
CN107395958B (en) Image processing method and device, electronic equipment and storage medium
JP5470415B2 (en) Epsilon filter threshold determination method and low-pass filter coefficient determination method
US20140049491A1 (en) System and method for perceiving images with multimodal feedback
CN108476306B (en) Image display method and terminal equipment
WO2017016171A1 (en) Window display processing method, apparatus, device and storage medium for terminal device
CN108364270B (en) Color reduction method and device for color cast image
EP3772038A1 (en) Augmented reality display method of simulated lip makeup
JP2009271135A (en) Dynamic image processing apparatus, method, and program
CN111414114A (en) Display adjustment method and device, electronic equipment and storage medium
CN109716265A (en) Based on the graphical manipulation watched attentively and swept
CN113487473B (en) Method and device for adding image watermark, electronic equipment and storage medium
JP2010055410A (en) Image processing device, image processing method, and image processing program
CN108255562B (en) Page jump method and device
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
JP2015152859A (en) Image display device, image display method, and image display program
JP2008199366A (en) Information processor, information processing method, program, and recording medium
JP4734442B2 (en) Perspective display device and perspective display method
KR101991401B1 (en) Method and apparatus for displaying augmented reality
JP2017084302A (en) Iris position detection device, electronic apparatus, program, and iris position detection method
US20230410706A1 (en) Method for image rendering, terminal device and non-transitory computer-readable storage medium
CN113918253A (en) System bar icon display method and device
CN113344838A (en) Image fusion method and device, electronic equipment and readable storage medium
CA2991106C (en) Image processing device, image processing method, and program
US20120154429A1 (en) Apparatus and method for smoothed aliasing on a two-dimensional plane

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161102

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20170803

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170803

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180313