JP6754834B2 - User authentication device, control method of user authentication device, control program, and recording medium - Google Patents

User authentication device, control method of user authentication device, control program, and recording medium Download PDF

Info

Publication number
JP6754834B2
JP6754834B2 JP2018524952A JP2018524952A JP6754834B2 JP 6754834 B2 JP6754834 B2 JP 6754834B2 JP 2018524952 A JP2018524952 A JP 2018524952A JP 2018524952 A JP2018524952 A JP 2018524952A JP 6754834 B2 JP6754834 B2 JP 6754834B2
Authority
JP
Japan
Prior art keywords
infrared image
image
unit
user
user authentication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018524952A
Other languages
Japanese (ja)
Other versions
JPWO2018003336A1 (en
Inventor
成文 後田
成文 後田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JPWO2018003336A1 publication Critical patent/JPWO2018003336A1/en
Application granted granted Critical
Publication of JP6754834B2 publication Critical patent/JP6754834B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、ユーザの顔の少なくとも一部を撮像した赤外線画像を用いてユーザ認証を行うユーザ認証装置などに関する。 The present invention relates to a user authentication device that authenticates a user by using an infrared image obtained by capturing at least a part of a user's face.

被写体に赤外領域の光を照射して被写体を撮像した画像(赤外線画像)を用いたユーザ認証の技術が従来技術として知られている。例えば下記の特許文献1には、赤外線画像を用いた顔認識を行う赤外線顔認証装置が開示されている。該赤外線顔認証装置は、ユーザの顔と装置との位置関係の調整を補助するために、撮像した赤外線画像を表示部に表示させる。 A user authentication technique using an image (infrared image) obtained by irradiating a subject with light in the infrared region and capturing the subject is known as a conventional technique. For example, Patent Document 1 below discloses an infrared face recognition device that performs face recognition using an infrared image. The infrared face recognition device displays an captured infrared image on a display unit in order to assist in adjusting the positional relationship between the user's face and the device.

日本国公開特許公報「特開2008−181468号公報(2008年8月7日公開)」Japanese Patent Publication "Japanese Patent Laid-Open No. 2008-181468 (published on August 7, 2008)"

しかしながら、上述のような従来技術では、撮像された赤外線画像がすべて表示部に表示されることとなる。つまり、ユーザがユーザ認証を行うことを意図せず撮像された赤外線画像も表示部に表示される。そのため従来技術には、不適切な赤外線画像が表示部に表示されてしまうという問題があった。例えば従来技術では、被写体の衣服が透けた赤外線画像などが表示部に表示されてしまう。 However, in the conventional technique as described above, all the captured infrared images are displayed on the display unit. That is, an infrared image captured without the intention of the user performing user authentication is also displayed on the display unit. Therefore, the prior art has a problem that an inappropriate infrared image is displayed on the display unit. For example, in the prior art, an infrared image or the like through which the clothes of the subject are transparent is displayed on the display unit.

特に、従来技術を携帯端末に適用した場合、該携帯端末のユーザが悪意を持って他人を撮像し、被写体の衣服が透けた赤外線画像を閲覧する可能性も考えられるため、上記の問題点はより顕著となる。 In particular, when the conventional technology is applied to a mobile terminal, the user of the mobile terminal may maliciously take an image of another person and view an infrared image through which the subject's clothes are transparent. It becomes more prominent.

本発明は、前記の問題点に鑑みてなされたものであり、その目的は、赤外線画像を用いてユーザ認証を行う場合に、不適切な画像が表示部に表示されることを防ぐユーザ認証装置を実現することにある。 The present invention has been made in view of the above problems, and an object of the present invention is a user authentication device for preventing an inappropriate image from being displayed on a display unit when user authentication is performed using an infrared image. Is to realize.

上記の課題を解決するために、本発明の一態様に係るユーザ認証装置は、ユーザの顔の少なくとも一部を撮像した赤外線画像を用いてユーザ認証を行うユーザ認証装置であって、上記赤外線画像に、上記ユーザ認証に用いる顔の部分が含まれているか否かを判定する画像判定部と、上記顔の部分が含まれていると判定された場合、上記赤外線画像を表示部に表示させる一方、上記顔の部分が含まれていないと判定された場合、上記赤外線画像を上記表示部に表示させない表示制御部と、を備える。 In order to solve the above problem, the user authentication device according to one aspect of the present invention is a user authentication device that performs user authentication using an infrared image obtained by capturing at least a part of the user's face, and is the infrared image. An image determination unit that determines whether or not the face portion used for user authentication is included, and a display unit that displays the infrared image if it is determined that the face portion is included. A display control unit that does not display the infrared image on the display unit when it is determined that the face portion is not included is provided.

また、上記の課題を解決するために、本発明の一態様に係るユーザ認証装置の制御方法は、ユーザの顔の少なくとも一部を撮像した赤外線画像を用いてユーザ認証を行うユーザ認証装置の制御方法であって、上記赤外線画像に、上記ユーザ認証に用いる顔の部分が含まれているか否かを判定する画像判定ステップと、上記顔の部分が含まれていると判定された場合、上記赤外線画像を表示部に表示させる一方、上記顔の部分が含まれていないと判定された場合、上記赤外線画像を上記表示部に表示させない表示制御ステップと、を含む。 Further, in order to solve the above problems, the control method of the user authentication device according to one aspect of the present invention is to control a user authentication device that performs user authentication using an infrared image obtained by capturing at least a part of the user's face. In the method, an image determination step for determining whether or not the infrared image includes a face portion used for user authentication, and when it is determined that the infrared image includes the face portion, the infrared ray is used. It includes a display control step of displaying the image on the display unit, but not displaying the infrared image on the display unit when it is determined that the face portion is not included.

本発明の一態様によれば、赤外線画像を用いてユーザ認証を行う場合に、不適切な画像が表示部に表示されることを防ぐことができるという効果を奏する。 According to one aspect of the present invention, when user authentication is performed using an infrared image, it is possible to prevent an inappropriate image from being displayed on the display unit.

実施形態1に係る携帯端末の要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part structure of the mobile terminal which concerns on Embodiment 1. FIG. 図1に示す携帯端末を用いて撮像した画像の遷移図、および、該携帯端末に表示される画像の遷移図である。It is a transition diagram of an image captured by using the mobile terminal shown in FIG. 1, and a transition diagram of an image displayed on the mobile terminal. 図1に示す携帯端末が実行する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process executed by the mobile terminal shown in FIG. 実施形態2に係る携帯端末の要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part structure of the mobile terminal which concerns on Embodiment 2. 図4に示す携帯端末を用いて撮像した画像の遷移図、および、該携帯端末に表示される画像の遷移図である。It is a transition diagram of an image taken by using the mobile terminal shown in FIG. 4, and a transition diagram of an image displayed on the mobile terminal.

〔実施形態1〕
以下、本発明の実施形態1について、図1から図3に基づいて詳細に説明する。
[Embodiment 1]
Hereinafter, Embodiment 1 of the present invention will be described in detail with reference to FIGS. 1 to 3.

(本発明の概要)
まず、本発明の概要について図2に基づいて説明する。なお、本実施形態では、本発明に係るユーザ認証装置を携帯端末1に適用した例を説明する。ただし、本発明の適用例は携帯端末に限定されず、被写体に赤外領域の光を照射して被写体を撮像した画像を用いて、該被写体が予め登録されたユーザであるか否かを判定する機能を有する装置に適用することができる。
(Outline of the present invention)
First, the outline of the present invention will be described with reference to FIG. In this embodiment, an example in which the user authentication device according to the present invention is applied to the mobile terminal 1 will be described. However, the application example of the present invention is not limited to the mobile terminal, and it is determined whether or not the subject is a pre-registered user by using the image obtained by irradiating the subject with light in the infrared region and capturing the subject. It can be applied to a device having a function of

図2は、携帯端末1を用いて撮像した画像の遷移図、および、携帯端末1に表示される画像の遷移図である。なお、携帯端末1は図示のようなスマートフォンに限定されず、フィーチャーフォンやタブレット端末などであってもよい。 FIG. 2 is a transition diagram of an image captured by the mobile terminal 1 and a transition diagram of an image displayed on the mobile terminal 1. The mobile terminal 1 is not limited to the smartphone as shown in the figure, and may be a feature phone, a tablet terminal, or the like.

本実施形態に係る携帯端末1(ユーザ認証装置)は、被写体に赤外領域の光を照射して該被写体を撮像する機能を備えている。なお以降、この機能によって撮像した画像を赤外線画像と称する。携帯端末1は、この機能を実現するために、赤外線を被写体に照射する赤外線照射部11および赤外線画像を撮像する赤外線撮像部12を備えている(図2の(b)など参照)。なお、本実施形態に係る赤外線照射部11は、赤外領域の光(赤外線)として、700nmから2500nm程度の近赤外領域の光を照射する構成である。 The mobile terminal 1 (user authentication device) according to the present embodiment has a function of irradiating a subject with light in an infrared region to image the subject. Hereinafter, the image captured by this function will be referred to as an infrared image. In order to realize this function, the mobile terminal 1 includes an infrared irradiation unit 11 that irradiates a subject with infrared rays and an infrared image pickup unit 12 that captures an infrared image (see FIG. 2B and the like). The infrared irradiation unit 11 according to the present embodiment is configured to irradiate light in the near infrared region of about 700 nm to 2500 nm as light in the infrared region (infrared ray).

そして携帯端末1は、該赤外線画像に写る虹彩の特徴点と、予め登録された、携帯端末1のユーザの虹彩の特徴点とを比較して(虹彩認証を行って)、一致する場合に携帯端末1のロックを解除する。なお、携帯端末1は、虹彩認証を行う際に、ユーザの目と携帯端末1との位置関係、具体的には、ユーザの目と携帯端末1との距離や携帯端末1の傾きを適切なものに調整させるため、撮像した赤外線画像を表示部13に表示させる。そのため、赤外線照射部11および赤外線撮像部12は、図2の(b)に示すように、携帯端末1の表示部13と同じ面に設けられている。なお、赤外線照射部11および赤外線撮像部12は、表示部13と同じ面に設けられていればよく、該面における位置は特に限定されない。 Then, the mobile terminal 1 compares the feature points of the iris reflected in the infrared image with the feature points of the iris of the user of the mobile terminal 1 registered in advance (performs iris recognition), and if they match, the mobile terminal 1 is carried. Unlock terminal 1. In addition, when performing iris recognition, the mobile terminal 1 appropriately determines the positional relationship between the user's eyes and the mobile terminal 1, specifically, the distance between the user's eyes and the mobile terminal 1 and the inclination of the mobile terminal 1. The captured infrared image is displayed on the display unit 13 in order to adjust the image. Therefore, as shown in FIG. 2B, the infrared irradiation unit 11 and the infrared imaging unit 12 are provided on the same surface as the display unit 13 of the mobile terminal 1. The infrared irradiation unit 11 and the infrared imaging unit 12 may be provided on the same surface as the display unit 13, and their positions on the surface are not particularly limited.

ただし携帯端末1は、撮像した赤外線画像に人の両目(比較対象となる顔の部分、すなわち、ユーザ認証に必要な顔の部分)が写っている場合のみ、赤外線画像を表示部13に表示させる。これについて、図2を参照しながらより詳細に説明する。図2の(a)、(c)、(e)はそれぞれ、携帯端末1が撮像した赤外線画像21a、21b、21cを示している。また、図2の(b)、(d)、(f)、(g)は、携帯端末1の表示部13に表示される画面を示している。なお以降、赤外線画像21a、21b、21cを区別する必要が無い場合、これらを総称して「赤外線画像21」と記載する。なお、図2の例において、赤外線画像21に写っている人間は、携帯端末1のユーザ(換言すれば、携帯端末1に虹彩の特徴点を予め登録している人)であるとする。 However, the mobile terminal 1 causes the display unit 13 to display the infrared image only when both eyes of a person (the part of the face to be compared, that is, the part of the face required for user authentication) are shown in the captured infrared image. .. This will be described in more detail with reference to FIG. (A), (c), and (e) of FIG. 2 show infrared images 21a, 21b, and 21c captured by the mobile terminal 1, respectively. Further, (b), (d), (f), and (g) of FIG. 2 indicate a screen displayed on the display unit 13 of the mobile terminal 1. Hereinafter, when it is not necessary to distinguish the infrared images 21a, 21b, and 21c, these are collectively referred to as "infrared image 21". In the example of FIG. 2, the person shown in the infrared image 21 is assumed to be a user of the mobile terminal 1 (in other words, a person who has registered the feature points of the iris in the mobile terminal 1 in advance).

図2の(a)に示すように、携帯端末1が撮像した赤外線画像21aには人の両目は写っていない。この場合、携帯端末1は図2の(b)に示すように、赤外線画像21の代わりの画像である代替画像141を表示部13に表示させる。さらに携帯端末1は、赤外線画像21を撮像する撮像デバイス(カメラ)に対して顔を向けるように促すテキスト31を表示部13に表示させる。該テキスト31は、換言すれば、赤外線画像21に両目が写るように、ユーザの目と携帯端末1との距離や携帯端末1の傾きを適切なものに調整するように促すテキストである。これにより、ユーザに赤外線画像21に自身の両目(より具体的には、両目の虹彩)が写っていないことを認識させ、ユーザの目と携帯端末1との位置関係を調整させることができる。また、認証以外の不適切な用途での使用(例えば、他人の服が透けた画像を撮像し、表示部13に表示させるなど)を防ぐことができる。なお、図2に示す代替画像141およびテキスト31は一例であり、図示の例に限定されるものではない。また、テキストを表示部13に表示させることに代えて、あるいは、テキストを表示部13に表示させるとともに、ユーザに撮像デバイスに対して顔を向けるよう促す音声ガイダンスを、図示しないスピーカから出力する構成であってもよい。 As shown in FIG. 2A, the infrared image 21a captured by the mobile terminal 1 does not show both human eyes. In this case, as shown in FIG. 2B, the mobile terminal 1 causes the display unit 13 to display the substitute image 141, which is a substitute image for the infrared image 21. Further, the mobile terminal 1 causes the display unit 13 to display a text 31 urging the imaging device (camera) that captures the infrared image 21 to turn its face. In other words, the text 31 is a text that urges the user to adjust the distance between the user's eyes and the mobile terminal 1 and the inclination of the mobile terminal 1 appropriately so that both eyes are reflected in the infrared image 21. As a result, the user can be made to recognize that the infrared image 21 does not show his / her eyes (more specifically, the iris of both eyes), and the positional relationship between the user's eyes and the mobile terminal 1 can be adjusted. In addition, it is possible to prevent use for improper purposes other than authentication (for example, taking an image through which another person's clothes are transparent and displaying it on the display unit 13). The alternative image 141 and the text 31 shown in FIG. 2 are examples, and are not limited to the illustrated examples. Further, instead of displaying the text on the display unit 13, or while displaying the text on the display unit 13, voice guidance prompting the user to turn his / her face to the imaging device is output from a speaker (not shown). It may be.

また、携帯端末1は、ユーザ認証を行うためのアプリケーションを実行した場合、赤外線画像21に人の両目が写っているか否かに関わらず、図2の(b)に示すように、表示部13に位置合わせ用画像142(位置決め画像)を表示させる。なお、位置合わせ用画像142の詳細については後述する。 Further, when the mobile terminal 1 executes an application for user authentication, the display unit 13 is shown in FIG. 2B regardless of whether or not both eyes of a person are shown in the infrared image 21. Display the alignment image 142 (positioning image). The details of the alignment image 142 will be described later.

一方、図2の(c)に示すように、携帯端末1が撮像した赤外線画像21bには人の両目が写っている場合、携帯端末1は図2の(d)に示すように、赤外線画像21bに対して画像処理を行った画像である赤外線画像22bを表示部13に表示させる。そして、携帯端末1はユーザ認証を開始する。このとき、図2の(d)に示すように、ユーザ認証を行っていることを示すテキスト32を表示部13に表示させてもよい。赤外線画像22bは、図2の(d)に示すように、位置合わせ用画像142の奥に表示される。なお以降、表示部13に表示される赤外線画像を総称して、「赤外線画像22」と記載する場合がある。また、図2に示すテキスト32は一例であり、図示の例に限定されるものではない。 On the other hand, as shown in FIG. 2 (c), when the infrared image 21b captured by the mobile terminal 1 shows both eyes of a person, the mobile terminal 1 has an infrared image as shown in FIG. 2 (d). The display unit 13 displays the infrared image 22b, which is an image obtained by performing image processing on the 21b. Then, the mobile terminal 1 starts user authentication. At this time, as shown in FIG. 2D, the text 32 indicating that the user authentication is being performed may be displayed on the display unit 13. The infrared image 22b is displayed in the back of the alignment image 142 as shown in FIG. 2D. Hereinafter, the infrared images displayed on the display unit 13 may be generically referred to as "infrared image 22". Further, the text 32 shown in FIG. 2 is an example, and is not limited to the illustrated example.

ここで、位置合わせ用画像142について説明する。位置合わせ用画像142は、赤外線画像22とともに表示部13に表示することで、ユーザ認証を行うために適した目の位置をユーザに認識させるための画像である。 Here, the alignment image 142 will be described. The alignment image 142 is an image for causing the user to recognize the position of the eyes suitable for user authentication by displaying the image 142 together with the infrared image 22 on the display unit 13.

位置合わせ用画像142は、ユーザが赤外線画像22を認識できるように表示させる円部分421aおよび421bを有している。なお以降、円部分421aおよび421bを区別する必要が無い場合、これらを総称して「円部分421」と記載する。円部分421は、ユーザの両目(虹彩)と携帯端末1との位置関係が、ユーザ認証を行うために適した位置関係である場合、赤外線画像22に写るユーザの目が片目ずつ円部分421内に位置するように、位置合わせ用画像142に配置されている。ここで、図2の(d)に示すように、赤外線画像22のユーザの目が片目ずつ円部分421内に位置しない場合、赤外線画像22に写る人が携帯端末1のユーザであっても、ロックが解除されない可能性がある。ロックが解除されない場合、ユーザは赤外線画像22が表示部13に表示された後、携帯端末1のロックを解除するために、以下の調整を行う。すなわち、ユーザは、赤外線画像22bと位置合わせ用画像142を確認しながら、自身の目が片目ずつ円部分421内に位置するように、自身の目と携帯端末1との位置関係を調整する。調整の結果、図2の(e)に示す赤外線画像21cが撮像されると、図2の(f)に示すように、ユーザの目が片目ずつ円部分421内に位置している画面が表示される。 The alignment image 142 has circular portions 421a and 421b that are displayed so that the user can recognize the infrared image 22. Hereinafter, when it is not necessary to distinguish between the circular portion 421a and 421b, these are collectively referred to as "circular portion 421". In the circular portion 421, when the positional relationship between the user's eyes (iris) and the mobile terminal 1 is a positional relationship suitable for performing user authentication, the user's eyes reflected in the infrared image 22 are within the circular portion 421 one by one. It is arranged in the alignment image 142 so that it is located at. Here, as shown in FIG. 2D, when the eyes of the user of the infrared image 22 are not located in the circular portion 421 one by one, even if the person reflected in the infrared image 22 is the user of the mobile terminal 1. It may not be unlocked. If the lock is not released, the user makes the following adjustments in order to unlock the mobile terminal 1 after the infrared image 22 is displayed on the display unit 13. That is, the user adjusts the positional relationship between his / her eyes and the mobile terminal 1 so that his / her eyes are positioned in the circular portion 421 one by one while checking the infrared image 22b and the alignment image 142. As a result of the adjustment, when the infrared image 21c shown in FIG. 2 (e) is imaged, as shown in FIG. 2 (f), a screen in which the user's eyes are positioned in the circular portion 421 one by one is displayed. Will be done.

このように、位置合わせ用画像142を赤外線画像22とともに表示部13に表示させることで、携帯端末1は、ユーザ認証に適した目の位置(換言すれば、ユーザの両目(虹彩)と携帯端末1との位置関係)をユーザに認識させることができる。 In this way, by displaying the alignment image 142 on the display unit 13 together with the infrared image 22, the mobile terminal 1 can display the user's eye positions (in other words, both eyes (iris) of the user and the mobile terminal) suitable for user authentication. The user can be made to recognize the positional relationship with 1).

ユーザ認証によって、赤外線画像21(例えば赤外線画像21c)に写るユーザの虹彩の特徴点と、携帯端末1に予め登録された虹彩の特徴点が一致すると、携帯端末1のロックが解除される。そして、携帯端末1はロックを解除したことを示す画面(例えば、図2の(g)に示すメニュー画面)を表示部13に表示させる。なお、携帯端末1のロックは、図2の(d)に示すように、赤外線画像22のユーザの目が片目ずつ円部分421内に位置しない場合であっても、虹彩の特徴点が一致すれば解除される。 When the feature points of the user's iris captured in the infrared image 21 (for example, the infrared image 21c) and the feature points of the iris registered in advance in the mobile terminal 1 match by the user authentication, the lock of the mobile terminal 1 is released. Then, the mobile terminal 1 causes the display unit 13 to display a screen indicating that the lock has been released (for example, the menu screen shown in FIG. 2 (g)). As shown in FIG. 2D, the lock of the mobile terminal 1 has the same feature points of the iris even when the user's eyes of the infrared image 22 are not located in the circular portion 421 one by one. Will be released.

また、図2に示す位置合わせ用画像142は一例であり、この例に限定されるものではない。具体的には、位置合わせ用画像142は、赤外線画像に写る人の虹彩の特徴点と、予め登録された虹彩の特徴点との照合を正確に行うことができるように、ユーザに自身の目と携帯端末1との位置関係を調整させることができる画像であればよい。例えば、赤外線画像における目の周辺以外の領域を表示しない画像であってもよいし、赤外線画像における目の周辺以外の顔の領域を薄く透過して表示させる画像であってもよい。 Further, the alignment image 142 shown in FIG. 2 is an example, and is not limited to this example. Specifically, the alignment image 142 allows the user to accurately match the characteristic points of the human iris reflected in the infrared image with the characteristic points of the pre-registered iris. Any image may be used as long as it can adjust the positional relationship between the image and the mobile terminal 1. For example, it may be an image that does not display a region other than the periphery of the eyes in the infrared image, or an image that thinly transmits and displays a region of the face other than the periphery of the eyes in the infrared image.

(携帯端末1の要部構成)
次に、携帯端末1の要部構成について、図1に基づいて説明する。図1は、携帯端末1の要部構成の一例を示すブロック図である。なお、図1は、携帯端末1が備えている部材のうち、本発明との関連性が高い部材のみを示す図である。そのため、携帯端末1が備えている部材のうち、本発明との関連性が低い部材(例えば、ユーザの操作を受け付ける部材など)については、図示および詳細な説明を省略する。
(Main part configuration of mobile terminal 1)
Next, the configuration of the main part of the mobile terminal 1 will be described with reference to FIG. FIG. 1 is a block diagram showing an example of a main part configuration of the mobile terminal 1. Note that FIG. 1 is a diagram showing only the members that are highly related to the present invention among the members included in the mobile terminal 1. Therefore, among the members included in the mobile terminal 1, the members having low relevance to the present invention (for example, the members that accept the user's operation) are not shown and detailed.

図示のように、携帯端末1は、制御部10、赤外線照射部11、赤外線撮像部12、表示部13、および、記憶部14を備えている。制御部10は、携帯端末1の各部を統括して制御する。赤外線照射部11は、赤外線画像を撮像するために、赤外線を被写体に照射する。赤外線撮像部12は、赤外線画像を撮像する。表示部13は、制御部10が実行した処理の結果に応じた画面を表示する。記憶部14は、携帯端末1にて使用する各種データを記憶する。なお、赤外線撮像部12はいわゆるカメラであるが、赤外線画像のみを撮像するカメラ(赤外線カメラ)であってもよい。また、赤外線撮像部12は、制御部10からの指示に応じて通常の画像(被写体に可視光が照射されることにより撮像された画像)を撮像するモードと、赤外線画像を撮像するモードとを切り替え可能なカメラであってもよい。 As shown in the figure, the mobile terminal 1 includes a control unit 10, an infrared irradiation unit 11, an infrared imaging unit 12, a display unit 13, and a storage unit 14. The control unit 10 controls each unit of the mobile terminal 1 in an integrated manner. The infrared irradiation unit 11 irradiates the subject with infrared rays in order to capture an infrared image. The infrared imaging unit 12 captures an infrared image. The display unit 13 displays a screen according to the result of the process executed by the control unit 10. The storage unit 14 stores various data used in the mobile terminal 1. Although the infrared imaging unit 12 is a so-called camera, it may be a camera (infrared camera) that captures only an infrared image. Further, the infrared imaging unit 12 has a mode of capturing a normal image (an image captured by irradiating the subject with visible light) and a mode of capturing an infrared image in response to an instruction from the control unit 10. It may be a switchable camera.

そして、制御部10には、撮像処理部101、画像処理部102、目検出部103(画像判定部)、認証部104、および表示画面生成部105(表示制御部)が含まれている。また、記憶部14には、代替画像141、位置合わせ用画像142、および認証用データ143が少なくとも記憶されている。なお、代替画像141および位置合わせ用画像142については既に説明しているため、ここでの説明を省略する。 The control unit 10 includes an image processing unit 101, an image processing unit 102, an eye detection unit 103 (image determination unit), an authentication unit 104, and a display screen generation unit 105 (display control unit). Further, at least the alternative image 141, the alignment image 142, and the authentication data 143 are stored in the storage unit 14. Since the alternative image 141 and the alignment image 142 have already been described, the description thereof will be omitted here.

撮像処理部101は、赤外線照射部11および赤外線撮像部12を駆動および制御する。具体的には、撮像処理部101は、図示しない操作部に対するユーザの操作によってユーザ認証を行うためのアプリケーションが実行されたとき、赤外線照射部11を駆動して(図1のd1)、赤外線を照射させる。また、撮像処理部101は、上記アプリケーションが実行されたとき、赤外線撮像部12を駆動して(図1のd2)、赤外線画像を撮像させる。赤外線撮像部12は、撮像処理部101によって制御されて、所定時間ごと(例えば33ミリ秒(30fps)ごと)に赤外線画像を撮像し、画像処理部102に出力する。 The image pickup processing unit 101 drives and controls the infrared irradiation unit 11 and the infrared image pickup unit 12. Specifically, the image pickup processing unit 101 drives the infrared irradiation unit 11 (d1 in FIG. 1) to emit infrared rays when an application for performing user authentication is executed by a user's operation on an operation unit (not shown). Irradiate. Further, when the application is executed, the image pickup processing unit 101 drives the infrared image pickup unit 12 (d2 in FIG. 1) to take an infrared image. The infrared imaging unit 12 is controlled by the image processing unit 101 to capture an infrared image at predetermined time intervals (for example, every 33 milliseconds (30 fps)) and output it to the image processing unit 102.

また、撮像処理部101は、赤外線を検知するセンサ(不図示)から検知結果を取得し、自装置の外部(例えば太陽)から自装置に対して赤外線が十分に照射されているか否かを判定してもよい。そして、赤外線が十分に照射されていると判定した場合、被写体にも赤外線が十分に照射されているとみなして、赤外線照射部11から被写体への赤外線の照射を行わない構成であってもよい。換言すれば、撮像処理部101は、自装置の外部から自装置に対する赤外線の照射量が所定の閾値未満であった場合のみ、赤外線照射部11を駆動し、被写体に赤外線を照射させる構成であってもよい。 Further, the image pickup processing unit 101 acquires a detection result from a sensor (not shown) that detects infrared rays, and determines whether or not the own device is sufficiently irradiated with infrared rays from the outside of the own device (for example, the sun). You may. Then, when it is determined that the subject is sufficiently irradiated with infrared rays, it is considered that the subject is also sufficiently irradiated with infrared rays, and the infrared irradiation unit 11 may not irradiate the subject with infrared rays. .. In other words, the image pickup processing unit 101 is configured to drive the infrared irradiation unit 11 to irradiate the subject with infrared rays only when the amount of infrared rays irradiated to the own device from the outside of the own device is less than a predetermined threshold value. You may.

画像処理部102は、取得した赤外線画像に対して、虹彩認証で使用するための画像処理を行う。具体的には、画像処理部102は、ノイズ低減、エッジ強調などの処理を行う。そして、画像処理部102は、画像処理を行った赤外線画像を目検出部103に出力する。なお、上述した画像処理は一例であり、画像処理部102が行う画像処理はこの例に限定されるものではない。 The image processing unit 102 performs image processing on the acquired infrared image for use in iris recognition. Specifically, the image processing unit 102 performs processing such as noise reduction and edge enhancement. Then, the image processing unit 102 outputs the image-processed infrared image to the eye detection unit 103. The image processing described above is an example, and the image processing performed by the image processing unit 102 is not limited to this example.

目検出部103は、赤外線画像に人の両目が含まれているか否かを判定する。具体的には、目検出部103はまず、取得した赤外線画像から顔を検出する。そして、顔を検出できた場合、顔の領域を切り出し、切り出した顔領域から目の領域を検出する。そして、目の領域が検出できた場合、赤外線画像に人の両目が含まれていると判定し、取得した赤外線画像を認証部104に出力する(図1のd3)。また、取得した赤外線画像と判定結果とを表示画面生成部105に出力する(図1のd4)。一方、目の領域が検出できなかった場合、赤外線画像に人の両目が含まれていないと判定し、判定結果のみを表示画面生成部105に出力する。なお、顔の領域や目の領域の検出には、既存の技術を用いることができる。 The eye detection unit 103 determines whether or not the infrared image includes both human eyes. Specifically, the eye detection unit 103 first detects a face from the acquired infrared image. Then, when the face can be detected, the face area is cut out, and the eye area is detected from the cut out face area. Then, when the eye region can be detected, it is determined that the infrared image includes both human eyes, and the acquired infrared image is output to the authentication unit 104 (d3 in FIG. 1). Further, the acquired infrared image and the determination result are output to the display screen generation unit 105 (d4 in FIG. 1). On the other hand, when the eye region cannot be detected, it is determined that the infrared image does not include both human eyes, and only the determination result is output to the display screen generation unit 105. It should be noted that existing techniques can be used to detect the face area and the eye area.

認証部104は、赤外線画像に含まれる虹彩の特徴点と、予め登録された虹彩の特徴点とを比較(照合)し、2つの特徴点が一致しているか否かを判定する。認証部104が実行する虹彩認証には既存の技術を用いることができる。具体的には、認証部104は、赤外線画像を取得すると、記憶部14から認証用データ143を読み出す。本実施形態に係る認証用データ143は、上述した、予め登録された虹彩の特徴点を示す情報である。該情報は虹彩の特徴点を示す情報であればよく、例えば、予め撮像した赤外線画像であってもよいし、該赤外線画像から切り出した目の領域のみの画像であってもよい。また、虹彩の特徴点を数値化した情報であってもよい。認証部104は、取得した赤外線画像に含まれる虹彩の特徴点と、読み出した認証用データ143が示す虹彩の特徴点とを比較し、一致しているか否かを判定する。そして、一致していると判定したとき、その旨を表示画面生成部105に通知する。 The authentication unit 104 compares (matches) the feature points of the iris included in the infrared image with the feature points of the iris registered in advance, and determines whether or not the two feature points match. Existing technology can be used for the iris recognition performed by the authentication unit 104. Specifically, when the authentication unit 104 acquires an infrared image, the authentication unit 104 reads out the authentication data 143 from the storage unit 14. The authentication data 143 according to the present embodiment is the above-mentioned information indicating the feature points of the pre-registered iris. The information may be any information indicating the feature points of the iris, and may be, for example, an infrared image captured in advance, or an image of only the eye region cut out from the infrared image. Further, the information may be the numerical value of the feature points of the iris. The authentication unit 104 compares the characteristic points of the iris included in the acquired infrared image with the characteristic points of the iris indicated by the read authentication data 143, and determines whether or not they match. Then, when it is determined that they match, the display screen generation unit 105 is notified to that effect.

表示画面生成部105は、表示部13に表示させる画面を生成し、表示部13に表示させる。具体的には、表示画面生成部105は、ユーザ認証を行うためのアプリケーションが起動されると、記憶部14から代替画像141、位置合わせ用画像142、およびテキスト31(図1では不図示)を読み出し、表示部13に表示させる。 The display screen generation unit 105 generates a screen to be displayed on the display unit 13 and causes the display unit 13 to display the screen. Specifically, when the application for performing user authentication is started, the display screen generation unit 105 displays the alternative image 141, the alignment image 142, and the text 31 (not shown in FIG. 1) from the storage unit 14. It is read out and displayed on the display unit 13.

また、表示画面生成部105は、赤外線画像に人の両目が含まれているとの判定結果を取得した場合、該判定結果とともに取得した赤外線画像、およびテキスト32(図1では不図示)を、表示部13に表示させる。これにより、表示部13には図2の(d)や図2の(f)に示す画面が表示される。なお、表示画面生成部105は、赤外線画像に人の両目が含まれているとの判定結果とともに目検出部103から赤外線画像を取得する度に、表示部13に表示されている赤外線画像を更新する。 Further, when the display screen generation unit 105 acquires a determination result that the infrared image includes both eyes of a person, the display screen generation unit 105 displays the infrared image acquired together with the determination result and the text 32 (not shown in FIG. 1). It is displayed on the display unit 13. As a result, the screen shown in FIG. 2D and FIG. 2F is displayed on the display unit 13. The display screen generation unit 105 updates the infrared image displayed on the display unit 13 every time the infrared image is acquired from the eye detection unit 103 together with the determination result that the infrared image includes both human eyes. To do.

一方、表示画面生成部105は、赤外線画像に人の両目が含まれていないとの判定結果を取得した場合、表示部13に表示されている赤外線画像22およびテキスト32を、代替画像141およびテキスト31に変更する。これにより、表示部13には図2の(b)に示す画面が表示される。 On the other hand, when the display screen generation unit 105 acquires the determination result that the infrared image does not include both human eyes, the infrared image 22 and the text 32 displayed on the display unit 13 are replaced with the alternative image 141 and the text. Change to 31. As a result, the screen shown in FIG. 2B is displayed on the display unit 13.

なお、表示画面生成部105は、赤外線画像を表示部13に表示させるときに、該赤外線画像に対する画像処理を行ってもよい。例えば、取得した赤外線画像のうち、円部分421に対応する領域を特定し、該領域のみを表示部13に表示させる構成であってもよい。 The display screen generation unit 105 may perform image processing on the infrared image when displaying the infrared image on the display unit 13. For example, in the acquired infrared image, a region corresponding to the circular portion 421 may be specified, and only that region may be displayed on the display unit 13.

また、表示画面生成部105は、認証部104から、比較した虹彩の特徴点が一致した旨を通知された場合、メニュー画面(図2の(g)に示す画面)を表示部13に表示させる。 Further, when the authentication unit 104 notifies that the feature points of the compared irises match, the display screen generation unit 105 causes the display unit 13 to display the menu screen (the screen shown in FIG. 2 (g)). ..

(携帯端末1が実行する処理の流れ)
次に、携帯端末1が実行する処理の流れについて、図3に基づいて説明する。図3は、携帯端末1が実行する処理の流れの一例を示すフローチャートである。
(Flow of processing executed by mobile terminal 1)
Next, the flow of processing executed by the mobile terminal 1 will be described with reference to FIG. FIG. 3 is a flowchart showing an example of the flow of processing executed by the mobile terminal 1.

ユーザ操作によってユーザ認証を行うためのアプリケーションが起動すると、撮像処理部101によって赤外線照射部11および赤外線撮像部12が駆動される。そして、表示画面生成部105は、記憶部14から代替画像141および位置合わせ用画像142を読み出し、表示部13に表示させる(ステップS1、以下、「ステップ」の記載を省略)。 When the application for performing user authentication is started by the user operation, the infrared irradiation unit 11 and the infrared image pickup unit 12 are driven by the image pickup processing unit 101. Then, the display screen generation unit 105 reads out the alternative image 141 and the alignment image 142 from the storage unit 14 and displays them on the display unit 13 (step S1, hereinafter, the description of "step" is omitted).

続いて、画像処理部102は、赤外線撮像部12が撮像した赤外線画像を取得し(ステップS2)、該赤外線画像の画像処理を行い(S3)、目検出部103に出力する。 Subsequently, the image processing unit 102 acquires the infrared image captured by the infrared imaging unit 12 (step S2), performs image processing on the infrared image (S3), and outputs the image to the eye detection unit 103.

目検出部103は、取得した赤外線画像について、人の両目の検出を行う(S4、画像判定ステップ)。両目が検出できなかった場合(S4でNO)、赤外線画像に人の両目が含まれていないと判定し、判定結果を表示画面生成部105に出力する。 The eye detection unit 103 detects both human eyes with respect to the acquired infrared image (S4, image determination step). When both eyes cannot be detected (NO in S4), it is determined that the infrared image does not include both eyes of a person, and the determination result is output to the display screen generation unit 105.

表示画面生成部105は、赤外線画像に人の両目が含まれていないとの判定結果を取得すると、記憶部14から代替画像141を読み出し、表示部13に表示させる(S9、表示制御ステップ)。そして、図3に示す処理はS2に戻る。つまり、S4において人の両目が検出されるまで、表示部13には赤外線画像は表示されず、代替画像141が表示される。 When the display screen generation unit 105 acquires the determination result that the infrared image does not include both eyes of a person, the display screen generation unit 105 reads the alternative image 141 from the storage unit 14 and displays it on the display unit 13 (S9, display control step). Then, the process shown in FIG. 3 returns to S2. That is, the infrared image is not displayed on the display unit 13 until both eyes of the person are detected in S4, and the alternative image 141 is displayed.

一方、目検出部103が両目を検出した場合(S4でYES)、目検出部103は赤外線画像に人の両目が含まれていると判定し、赤外線画像を認証部104に出力する。また、判定結果および赤外線画像を表示画面生成部105に出力する。表示画面生成部105は、該判定結果および赤外線画像を取得すると、取得した赤外線画像を表示部13に表示させる(S5、表示制御ステップ)。また、認証部104はユーザ認証を開始する(S6)。具体的には、取得した赤外線画像に含まれる虹彩の特徴点と、記憶部14に記憶されている虹彩の特徴点(認証用データ143が示す特徴点)とを比較する。なお、S5およびS6の処理は、図示の順番で行われなくてもよい。例えば、S5の前にS6の処理が行われてもよいし、S5およびS6の処理が同時に行われてもよい。 On the other hand, when the eye detection unit 103 detects both eyes (YES in S4), the eye detection unit 103 determines that the infrared image includes both human eyes and outputs the infrared image to the authentication unit 104. Further, the determination result and the infrared image are output to the display screen generation unit 105. When the display screen generation unit 105 acquires the determination result and the infrared image, the display screen generation unit 105 displays the acquired infrared image on the display unit 13 (S5, display control step). Further, the authentication unit 104 starts user authentication (S6). Specifically, the feature points of the iris included in the acquired infrared image and the feature points of the iris stored in the storage unit 14 (feature points indicated by the authentication data 143) are compared. The processes of S5 and S6 do not have to be performed in the order shown in the drawing. For example, the processing of S6 may be performed before S5, or the processing of S5 and S6 may be performed at the same time.

認証部104は、上記の比較を行うことにより、2つの特徴点が一致するか否か、すなわち、赤外線画像に写る人が携帯端末のユーザであるか否かを判定する(S7)。赤外線画像に写る人が携帯端末のユーザであると特定した場合(S7でYES)、認証部104はその旨を表示画面生成部105に通知する。該通知を受けた表示画面生成部105は、メニュー画面を表示部13に表示させる(S8)。以上で図3に示す処理は終了する。 By performing the above comparison, the authentication unit 104 determines whether or not the two feature points match, that is, whether or not the person reflected in the infrared image is a user of the mobile terminal (S7). When the person reflected in the infrared image is identified as the user of the mobile terminal (YES in S7), the authentication unit 104 notifies the display screen generation unit 105 to that effect. Upon receiving the notification, the display screen generation unit 105 causes the display unit 13 to display the menu screen (S8). This completes the process shown in FIG.

一方、赤外線画像に写る人が携帯端末のユーザであると特定できなかった場合(S7でNO)、図3に示す処理はS2に戻る。 On the other hand, when the person shown in the infrared image cannot be identified as the user of the mobile terminal (NO in S7), the process shown in FIG. 3 returns to S2.

〔実施形態1の変形例〕
上述した実施形態1では、赤外線画像21に人の両目を検出した場合のみ、ユーザ認証を開始する構成であった。しかしながら、ユーザ認証を開始する条件はこの例に限定されない。例えば、片目のみを検出した場合にユーザ認証を開始する構成であってもよい。例えば、目検出部103は、取得した赤外線画像から切り出した顔領域の左半分に目の領域を検出した場合、赤外線画像に目(左目)が含まれていると判定してもよい。同様に、目検出部103は、取得した赤外線画像から切り出した顔領域の右半分に目の領域を検出した場合、赤外線画像に目(右目)が含まれていると判定してもよい。すなわち、目検出部103は、取得した赤外線画像から切り出した顔領域の左半分、または右半分の少なくとも一方から目の領域を検出した場合、赤外線画像に目が含まれていると判定する構成であってもよい。この場合、目検出部103は、取得した赤外線画像を認証部104に出力するとともに、取得した赤外線画像と判定結果とを表示画面生成部105に出力する構成であってもよい。
[Modification of Embodiment 1]
In the first embodiment described above, the user authentication is started only when both eyes of a person are detected in the infrared image 21. However, the conditions for initiating user authentication are not limited to this example. For example, the user authentication may be started when only one eye is detected. For example, when the eye detection unit 103 detects an eye region in the left half of the face region cut out from the acquired infrared image, it may determine that the infrared image includes eyes (left eye). Similarly, when the eye detection unit 103 detects an eye region in the right half of the face region cut out from the acquired infrared image, the eye detection unit 103 may determine that the infrared image includes eyes (right eye). That is, when the eye detection unit 103 detects the eye region from at least one of the left half or the right half of the face region cut out from the acquired infrared image, the eye detection unit 103 determines that the infrared image contains eyes. There may be. In this case, the eye detection unit 103 may be configured to output the acquired infrared image to the authentication unit 104 and output the acquired infrared image and the determination result to the display screen generation unit 105.

なお、この変形例に係る認証部104は、赤外線画像に片目のみが含まれている場合、該片目の虹彩の特徴点と、予め登録された右目または左目の虹彩の特徴点とを比較し、2つの特徴点が一致しているか否かを判定する。 When the infrared image contains only one eye, the authentication unit 104 according to this modification compares the feature points of the iris of the one eye with the feature points of the iris of the right eye or the left eye registered in advance. It is determined whether or not the two feature points match.

このように、少なくとも左右一方の目の領域の検出によって、虹彩認証を実行する構成とすれば、ユーザが片方の目に眼帯をしている場合など、片目の虹彩の特徴点のみを取得および照合可能な場合でも、ユーザ認証を実行することができる。 In this way, if the iris authentication is executed by detecting the area of at least one of the left and right eyes, only the feature points of the iris of one eye are acquired and collated, such as when the user wears an eye patch in one eye. User authentication can be performed even if possible.

〔実施形態2〕
本発明の他の実施形態について、図4および図5に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
Other embodiments of the present invention will be described below with reference to FIGS. 4 and 5. For convenience of explanation, the same reference numerals will be added to the members having the same functions as those described in the above embodiment, and the description thereof will be omitted.

上述した実施形態1では、赤外線画像を用いた虹彩認証によってユーザ認証を行っていた。しかしながら、赤外線画像を用いたユーザ認証は虹彩認証に限定されない。本実施形態では、顔認識によってユーザ認証を行う携帯端末であって、顔認識に用いられる顔の部分(例えば、目、鼻、口、耳、輪郭など)が赤外線画像に含まれている場合のみ、表示部13に赤外線画像を表示させる携帯端末1aについて説明する。なお本実施形態における顔認識は、赤外線画像に写る人の顔の輪郭、両目の位置、鼻の穴の位置、および口の位置と、予め登録された、輪郭、両目の位置、鼻の穴の位置、および口の位置とを比較するものとして説明するが、顔認識はこの例に限定されるものではない。 In the first embodiment described above, user authentication is performed by iris authentication using an infrared image. However, user authentication using infrared images is not limited to iris authentication. In the present embodiment, it is a mobile terminal that performs user authentication by face recognition, and only when the face part (for example, eyes, nose, mouth, ears, contour, etc.) used for face recognition is included in the infrared image. , The mobile terminal 1a for displaying an infrared image on the display unit 13 will be described. The face recognition in the present embodiment includes the contour of the human face, the position of both eyes, the position of the nose hole, and the position of the mouth, and the pre-registered contour, the position of both eyes, and the position of the nose hole. Although described as comparing the position and the position of the mouth, face recognition is not limited to this example.

(携帯端末1aの要部構成)
まず、携帯端末1aの要部構成について説明する。図4は、携帯端末1aの要部構成の一例を示すブロック図である。
(Main part configuration of mobile terminal 1a)
First, the configuration of a main part of the mobile terminal 1a will be described. FIG. 4 is a block diagram showing an example of a main part configuration of the mobile terminal 1a.

図示のように、本実施形態に係る携帯端末1aは、実施形態1にて説明した携帯端末1と異なり、制御部10および記憶部14に代えて、制御部10aおよび記憶部14aを備えている。そして、制御部10aは、制御部10と異なり、目検出部103に代えて照合対象検出部106、認証部104に代えて認証部104aを含んでいる。また、記憶部14aは、記憶部14と異なり、位置合わせ用画像142に代えて位置合わせ用画像142a、認証用データ143に代えて認証用データ143aを記憶している。 As shown in the figure, unlike the mobile terminal 1 described in the first embodiment, the mobile terminal 1a according to the present embodiment includes a control unit 10a and a storage unit 14a in place of the control unit 10 and the storage unit 14. .. And, unlike the control unit 10, the control unit 10a includes a collation target detection unit 106 instead of the eye detection unit 103, and an authentication unit 104a instead of the authentication unit 104. Further, unlike the storage unit 14, the storage unit 14a stores the alignment image 142a instead of the alignment image 142, and the authentication data 143a instead of the authentication data 143.

照合対象検出部106は、赤外線画像に人の顔において顔認識に使われる部分が含まれているか否かを判定する。本実施形態に係る照合対象検出部106は、赤外線画像に顔の輪郭、両目、鼻、口が含まれているか否かを判定する。具体的には、照合対象検出部106はまず、取得した赤外線画像から顔を検出する。そして、顔を検出できた場合、そして、顔を検出できた場合、顔の領域を切り出し、切り出した顔領域から目の領域、鼻の領域、口の領域を検出する。そして、これら4つの領域がすべて検出できた場合、赤外線画像に顔認識に使われる部分が含まれていると判定し、取得した赤外線画像を認証部104aに出力する(図4のd3)。また、取得した赤外線画像と判定結果とを表示画面生成部105に出力する(図4のd4)。一方、上述した4つの領域がすべて検出できなかった場合、赤外線画像に顔認識に使われる部分が含まれていないと判定し、判定結果のみを表示画面生成部105に出力する。なお、各領域の検出には、既存の技術を用いることができる。 The collation target detection unit 106 determines whether or not the infrared image includes a portion of the human face that is used for face recognition. The collation target detection unit 106 according to the present embodiment determines whether or not the infrared image includes the contour of the face, both eyes, the nose, and the mouth. Specifically, the collation target detection unit 106 first detects a face from the acquired infrared image. Then, when the face can be detected, and when the face can be detected, the face area is cut out, and the eye area, the nose area, and the mouth area are detected from the cut out face area. Then, when all of these four regions can be detected, it is determined that the infrared image includes a portion used for face recognition, and the acquired infrared image is output to the authentication unit 104a (d3 in FIG. 4). Further, the acquired infrared image and the determination result are output to the display screen generation unit 105 (d4 in FIG. 4). On the other hand, when all the above four regions cannot be detected, it is determined that the infrared image does not include the portion used for face recognition, and only the determination result is output to the display screen generation unit 105. It should be noted that existing techniques can be used to detect each region.

認証部104aは、実施形態1で説明した認証部104と異なり、赤外線画像に写る人の顔の輪郭、両目の位置、鼻の穴の位置、および口の位置と、予め登録された、輪郭、両目の位置、鼻の穴の位置、および口の位置とを照合する。そして、認証部104aは、これらがすべて一致しているか否かを判定する。具体的には、認証部104は、赤外線画像を取得すると、記憶部14から認証用データ143aを読み出す。本実施形態に係る認証用データ143aは、上述した、顔の輪郭、両目の位置、鼻の穴の位置、および口の位置を示す情報である。該情報は顔の輪郭、両目の位置、鼻の穴の位置、および口の位置を示す情報であればよく、例えば、予め撮像した赤外線画像であってもよいし、顔の輪郭、両目の位置、鼻の穴の位置、および口の位置を数値化した情報であってもよい。また、顔認識において使用する顔の部分が変われば、認証用データ143aに含まれる情報も変わることとなる。例えば、本実施形態における顔認識において、口の位置に代えて両耳の位置を比較する場合、認証用データ143aは、顔の輪郭、両目の位置、鼻の穴の位置、および両耳の位置を示す情報となる。 Unlike the authentication unit 104 described in the first embodiment, the authentication unit 104a includes the contour of the human face, the positions of both eyes, the position of the nose hole, and the position of the mouth in the infrared image, and the pre-registered contour. Match the position of both eyes, the position of the nose hole, and the position of the mouth. Then, the authentication unit 104a determines whether or not all of them match. Specifically, when the authentication unit 104 acquires an infrared image, the authentication unit 104 reads out the authentication data 143a from the storage unit 14. The authentication data 143a according to the present embodiment is the above-mentioned information indicating the contour of the face, the positions of both eyes, the position of the nose hole, and the position of the mouth. The information may be any information indicating the contour of the face, the positions of both eyes, the position of the nose hole, and the position of the mouth. For example, it may be an infrared image captured in advance, or the contour of the face and the positions of both eyes. , The position of the nose hole, and the position of the mouth may be quantified information. Further, if the face portion used in face recognition changes, the information included in the authentication data 143a also changes. For example, in face recognition in the present embodiment, when comparing the positions of both ears instead of the positions of the mouth, the authentication data 143a includes the contour of the face, the positions of both eyes, the positions of the nose holes, and the positions of both ears. It becomes the information indicating.

位置合わせ用画像142aは、実施形態1にて説明した位置合わせ用画像142と異なり、顔認識を正確に行うために、ユーザの顔と携帯端末1aとの適切な位置関係をユーザに認識させるための画像である。なお、該画像の具体例については後述する。 The alignment image 142a is different from the alignment image 142 described in the first embodiment in order to make the user recognize an appropriate positional relationship between the user's face and the mobile terminal 1a in order to accurately perform face recognition. It is an image of. A specific example of the image will be described later.

(本実施形態における画面例)
次に、本実施形態における、表示部13に表示される画面例について、図5に基づいて説明する。携帯端末1aを用いて撮像した画像の遷移図と、携帯端末1aに表示される画像の遷移図である。
(Screen example in this embodiment)
Next, a screen example displayed on the display unit 13 in the present embodiment will be described with reference to FIG. It is a transition diagram of an image captured by using the mobile terminal 1a, and a transition diagram of an image displayed on the mobile terminal 1a.

上述したように、本実施形態に係る照合対象検出部106は、赤外線画像に顔の輪郭、両目、鼻、口が含まれているか否かを判定する。そして、本実施形態に係る表示画面生成部105は、照合対象検出部106が上述した顔の部分が含まれていないと判定した場合、代替画像141を表示部13に表示させる。具体的には、照合対象検出部106が、図5の(a)に示すような赤外線画像21dを取得した場合、表示画面生成部105は、図5の(c)に示すように、代替画像141、およびテキスト31を表示部13に表示させる。これは、該赤外線画像21dには上述した顔の部分が含まれていないためである。この表示により、照合対象検出部106は、赤外線画像21に、顔認識に使用される顔の部分が写っていないことをユーザに認識させる。 As described above, the collation target detection unit 106 according to the present embodiment determines whether or not the infrared image includes the contour of the face, both eyes, the nose, and the mouth. Then, when the display screen generation unit 105 according to the present embodiment determines that the collation target detection unit 106 does not include the above-mentioned face portion, the display screen generation unit 105 causes the display unit 13 to display the alternative image 141. Specifically, when the collation target detection unit 106 acquires the infrared image 21d as shown in FIG. 5A, the display screen generation unit 105 displays the alternative image as shown in FIG. 5C. The 141 and the text 31 are displayed on the display unit 13. This is because the infrared image 21d does not include the above-mentioned facial portion. By this display, the collation target detection unit 106 makes the user recognize that the infrared image 21 does not show the face portion used for face recognition.

一方、照合対象検出部106が、図5の(b)に示すような赤外線画像21eを取得した場合、表示画面生成部105は、図5の(d)に示すように、赤外線画像22e、およびテキスト32を表示部13に表示させる。これは、該赤外線画像21eに上述した顔の部分がすべて含まれているためである。なお、本実施形態における赤外線画像22eは、実施形態1で説明した赤外線画像22と異なり、少なくとも顔の輪郭、両目、鼻、口が写る画像である。 On the other hand, when the collation target detection unit 106 acquires the infrared image 21e as shown in FIG. 5 (b), the display screen generation unit 105 has the infrared image 22e and the infrared image 22e as shown in FIG. 5 (d). The text 32 is displayed on the display unit 13. This is because the infrared image 21e includes all the above-mentioned facial parts. The infrared image 22e in the present embodiment is different from the infrared image 22 described in the first embodiment, and is an image in which at least the contour of the face, both eyes, the nose, and the mouth are captured.

なお、実施形態1と同様に、赤外線画像21に顔認識に使用される顔の部分が写っているか否かに関わらず、表示画面生成部105は、表示部13に位置合わせ用画像142aを表示させる。位置合わせ用画像142aは、図5の(c)および(d)に示すように、破線で形成された四角形であり、赤外線画像22に写るユーザの顔が、該四角形内に位置するように、ユーザに自身の顔と携帯端末1aとの位置関係を調整させるための画像である。なお、位置合わせ用画像142aは、ユーザが自身の顔と携帯端末1aとの位置関係を調整することができる画像であればよく、図5の例に限定されない。 As in the first embodiment, the display screen generation unit 105 displays the alignment image 142a on the display unit 13 regardless of whether or not the infrared image 21 shows the face portion used for face recognition. Let me. As shown in FIGS. 5 (c) and 5 (d), the alignment image 142a is a quadrangle formed by a broken line so that the user's face captured in the infrared image 22 is located within the quadrangle. This is an image for allowing the user to adjust the positional relationship between his / her face and the mobile terminal 1a. The alignment image 142a may be an image in which the user can adjust the positional relationship between his / her face and the mobile terminal 1a, and is not limited to the example of FIG.

〔各実施形態に共通の変形例〕
上述した実施形態1および2では、位置合わせ用画像142および位置合わせ用画像142aを、目検出部103および照合対象検出部106の判定結果に関わらず表示部13に表示させる構成であった。しかしながら、位置合わせ用画像を表示させる条件はこの例に限定されない。例えば実施形態1において、目検出部103が赤外線画像に人の両目が含まれていると判定した場合のみ、表示画面生成部105は位置合わせ用画像142を表示部13に表示させる構成であってもよい。
[Modification example common to each embodiment]
In the above-described first and second embodiments, the alignment image 142 and the alignment image 142a are displayed on the display unit 13 regardless of the determination results of the eye detection unit 103 and the collation target detection unit 106. However, the conditions for displaying the alignment image are not limited to this example. For example, in the first embodiment, the display screen generation unit 105 displays the alignment image 142 on the display unit 13 only when the eye detection unit 103 determines that the infrared image includes both human eyes. May be good.

また、上述した実施形態1および2では、虹彩認証および顔認識に時間制限はないものとして説明した。しかしながら、虹彩認証および顔認識に時間制限があってもよい。例えば実施形態1において、認証部104は、赤外線画像を取得したとき、図示しないタイマを駆動させて赤外線画像を取得してからの時間を計測する。そして、所定時間以内に取得した赤外線画像に含まれる虹彩の特徴点と、読み出した認証用データ143が示す虹彩の特徴点とが一致していると判定しなかった場合、その旨を撮像処理部101および表示画面生成部105に通知する。撮像処理部101は、該通知を受けて赤外線照射部11および赤外線撮像部12を停止させる。 Further, in the above-described first and second embodiments, it has been described that there is no time limit for iris recognition and face recognition. However, there may be a time limit for iris recognition and face recognition. For example, in the first embodiment, when the authentication unit 104 acquires an infrared image, it drives a timer (not shown) to measure the time after acquiring the infrared image. Then, if it is not determined that the characteristic points of the iris included in the infrared image acquired within a predetermined time and the characteristic points of the iris indicated by the read authentication data 143 match, the imaging processing unit determines that fact. Notify 101 and the display screen generation unit 105. Upon receiving the notification, the image pickup processing unit 101 stops the infrared irradiation unit 11 and the infrared image pickup unit 12.

また、表示画面生成部105は、認証部104から、比較した虹彩の特徴点が一致しないまま所定時間が経過した旨を通知された場合、その旨をユーザに報知するための画面(不図示)を表示部13に表示させてもよい。該画面は例えば、ユーザ認証が失敗した旨を示すテキストと、再度ユーザ認証を行うか否かをユーザに選択させるUIとを含む画面であってもよい。ユーザは上記UIに対する操作によって、再度ユーザ認証を行うことを選択すれば、赤外線照射部11および赤外線撮像部12が再度駆動し、赤外線画像が取得される。 Further, when the authentication unit 104 notifies the user that the predetermined time has elapsed without matching the feature points of the compared irises, the display screen generation unit 105 is a screen for notifying the user (not shown). May be displayed on the display unit 13. The screen may be, for example, a screen including a text indicating that the user authentication has failed and a UI that allows the user to select whether or not to perform user authentication again. If the user chooses to perform user authentication again by operating the UI, the infrared irradiation unit 11 and the infrared imaging unit 12 are driven again to acquire an infrared image.

また、上述した携帯端末1および携帯端末1aは、いずれも赤外線照射部11を備えている構成であったが、本発明に係る携帯端末において、赤外線照射部11は必須ではない。なお、本発明に係る携帯端末が赤外線照射部11を備えない構成である場合、該携帯端末は、太陽から被写体に照射される赤外線を使用して赤外線画像を撮像してもよいし、別光源から被写体に照射される赤外線を使用して赤外線画像を撮像してもよい。 Further, although the mobile terminal 1 and the mobile terminal 1a described above are both configured to include the infrared irradiation unit 11, the infrared irradiation unit 11 is not essential in the mobile terminal according to the present invention. When the mobile terminal according to the present invention is not provided with the infrared irradiation unit 11, the mobile terminal may capture an infrared image using infrared rays emitted from the sun to the subject, or may use another light source. An infrared image may be captured using infrared rays emitted from the subject.

〔実施形態3〕
携帯端末1および携帯端末1aの制御ブロック(特に制御部10および制御部10aに含まれる各部材)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよい。また、上記制御ブロックは、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Embodiment 3]
The mobile terminal 1 and the control block of the mobile terminal 1a (particularly, each member included in the control unit 10 and the control unit 10a) may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. .. Further, the control block may be realized by software using a CPU (Central Processing Unit).

後者の場合、携帯端末1および携帯端末1aは、CPU、ROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、RAM(Random Access Memory)などを備えている。CPUは、各機能を実現するソフトウェアであるプログラムの命令を実行する。記録媒体は、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されている。RAMは、上記プログラムを展開する。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the mobile terminal 1 and the mobile terminal 1a include a CPU, a ROM (Read Only Memory) or a storage device (these are referred to as "recording media"), a RAM (Random Access Memory), and the like. The CPU executes the instructions of a program that is software that realizes each function. On the recording medium, the above program and various data are recorded readable by a computer (or CPU). RAM expands the above program. Then, the object of the present invention is achieved by the computer (or CPU) reading the program from the recording medium and executing the program. As the recording medium, a "non-temporary tangible medium", for example, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, the program may be supplied to the computer via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the above program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係るユーザ認証装置(携帯端末1、携帯端末1a)は、ユーザの顔の少なくとも一部を撮像した赤外線画像を用いてユーザ認証を行うユーザ認証装置であって、上記赤外線画像に、上記ユーザ認証に用いる顔の部分が含まれているか否かを判定する画像判定部(目検出部103、照合対象検出部106)と、上記顔の部分が含まれていると判定された場合、上記赤外線画像を表示部(表示部13)に表示させる一方、上記顔の部分が含まれていないと判定された場合、上記赤外線画像を上記表示部に表示させない表示制御部(表示画面生成部105)と、を備える。
[Summary]
The user authentication device (mobile terminal 1, mobile terminal 1a) according to the first aspect of the present invention is a user authentication device that performs user authentication using an infrared image obtained by capturing at least a part of the user's face, and is the infrared image. The image determination unit (eye detection unit 103, collation target detection unit 106) for determining whether or not the face portion used for the user authentication is included, and the face portion are determined to be included. In this case, the display control unit (display screen generation) that displays the infrared image on the display unit (display unit 13) but does not display the infrared image on the display unit when it is determined that the face portion is not included. Section 105) and.

上記の構成によれば、赤外線画像にユーザ認証に用いる顔の部分が含まれている場合のみ、該赤外線画像を表示し、含まれていない場合は該赤外線画像を表示しない。これにより、ユーザ認証を行おうとしている場合に撮像された赤外線画像(すなわち、人の顔が写る赤外線画像)のみが表示されることとなり、換言すれば、ユーザ認証を意図せず撮像された赤外線画像は表示されない。よって、不適切な赤外線画像が表示部に表示されることを防ぐことができる。なお、不適切な赤外線画像とは、例えば、被写体の服が透けた画像などである。また、ユーザ認証に用いる顔の部分が含まれていない場合は赤外線画像が表示部に表示されないので、ユーザに対して、ユーザ認証を行うために必要な赤外線画像(すなわち、上記顔の部分が写る赤外線画像)が撮像できていないことを認識させることができ、ユーザがスムーズにユーザ認証を行うことができるよう補助することができる。 According to the above configuration, the infrared image is displayed only when the infrared image includes the face portion used for user authentication, and the infrared image is not displayed when the infrared image does not include the face portion. As a result, only the infrared image (that is, the infrared image showing the human face) captured when trying to authenticate the user is displayed, in other words, the infrared image captured without the intention of user authentication. The image is not displayed. Therefore, it is possible to prevent an inappropriate infrared image from being displayed on the display unit. The inappropriate infrared image is, for example, an image in which the clothes of the subject are transparent. Further, if the face part used for user authentication is not included, the infrared image is not displayed on the display unit, so that the infrared image (that is, the above face part) necessary for user authentication is shown to the user. It is possible to recognize that the infrared image) has not been captured, and it is possible to assist the user in smoothly performing user authentication.

本発明の態様2に係るユーザ認証装置は、上記態様1において、上記表示制御部は、上記赤外線画像に上記顔の部分が含まれていないと判定された場合、該赤外線画像とは異なる所定の画像を上記表示部に表示させてもよい。 In the user authentication device according to the second aspect of the present invention, when it is determined in the first aspect that the display control unit does not include the face portion in the infrared image, a predetermined device different from the infrared image is determined. The image may be displayed on the display unit.

上記の構成によれば、ユーザ認証において比較対象となる顔の部分が赤外線画像に含まれていない場合、赤外線画像に代えて、該赤外線画像とは異なる所定の画像を表示部に表示させる。これにより、ユーザは、上記顔の部分が赤外線画像に含まれていないと判定されたときに表示部に何も表示しない場合と比べて、ユーザ認証を行うために必要な赤外線画像が撮像できていないことをより明確に認識することができ、ユーザはよりスムーズにユーザ認証を行うことができる。 According to the above configuration, when the face portion to be compared in the user authentication is not included in the infrared image, a predetermined image different from the infrared image is displayed on the display unit instead of the infrared image. As a result, the user can capture the infrared image necessary for user authentication as compared with the case where nothing is displayed on the display unit when it is determined that the face portion is not included in the infrared image. It is possible to more clearly recognize that there is no such thing, and the user can authenticate the user more smoothly.

本発明の態様3に係るユーザ認証装置は、上記態様1または2において、上記表示制御部は、ユーザ認証を行うために適した、上記顔の部分の位置を示す位置決め画像を上記表示部に表示させてもよい。 In the user authentication device according to the third aspect of the present invention, in the first or second aspect, the display control unit displays a positioning image showing the position of the face portion suitable for performing user authentication on the display unit. You may let me.

上記の構成によれば、ユーザ認証を行うために適した上記顔の部分の位置を示す位置決め画像を表示するので、ユーザは、該位置決め画像と赤外線画像とを確認することで、ユーザ認証を行うために適した目の位置を認識することができ、顔の部分とユーザ認証装置との位置関係を、ユーザ認証を行うために適した位置に調整することができる。 According to the above configuration, a positioning image indicating the position of the face portion suitable for user authentication is displayed, so that the user authenticates the user by confirming the positioning image and the infrared image. The position of the eyes suitable for this can be recognized, and the positional relationship between the face portion and the user authentication device can be adjusted to a position suitable for performing user authentication.

本発明の態様4に係るユーザ認証装置は、上記態様1から3のいずれかにおいて、上記表示制御部は、上記顔の部分が含まれていると判定された場合、該顔の部分のみを上記表示部に表示させてもよい。 In any one of the above aspects 1 to 3, the user authentication device according to the fourth aspect of the present invention indicates that the display control unit includes only the face portion when it is determined that the face portion is included. It may be displayed on the display unit.

上記の構成によれば、ユーザ認証において比較対象となる顔の部分が赤外線画像に含まれている場合、該顔の部分のみを表示部に表示させる。これにより、赤外線画像に人の顔と首から下の部分が同時に写っていたとしても、首から下の部分は表示されないので、被写体の服が透けた画像が表示部に表示されることを防ぐことができる。 According to the above configuration, when the face portion to be compared in the user authentication is included in the infrared image, only the face portion is displayed on the display unit. As a result, even if the human face and the part below the neck are shown at the same time in the infrared image, the part below the neck is not displayed, so that the image of the subject's clothes is not displayed on the display. be able to.

本発明の態様5に係るユーザ認証装置は、上記態様1から4のいずれかにおいて、上記顔の部分は、上記ユーザの虹彩であり、上記画像判定部は、上記赤外線画像に上記ユーザの目が含まれているか否かを判定してもよい。 In the user authentication device according to the fifth aspect of the present invention, in any one of the first to fourth aspects, the face portion is the iris of the user, and the image determination unit has the user's eyes on the infrared image. It may be determined whether or not it is included.

上記の構成によれば、赤外線画像にユーザの目が含まれているか否かを判定し、含まれている場合のみ該赤外線画像を表示部に表示させる。これにより、ユーザは自身の目が写るように赤外線画像を撮像するという簡易な方法で、ユーザ認証を行うことができる。また、上記の構成によれば、生体において同じものが存在しない虹彩について比較を行うことでユーザ認証を行うので、セキュリティ性の高いユーザ認証装置を実現することができる。 According to the above configuration, it is determined whether or not the infrared image includes the user's eyes, and the infrared image is displayed on the display unit only when it is included. As a result, the user can authenticate the user by a simple method of capturing an infrared image so that his / her eyes can be seen. Further, according to the above configuration, since the user authentication is performed by comparing the irises in which the same thing does not exist in the living body, it is possible to realize a highly secure user authentication device.

本発明の態様6に係るユーザ認証装置は、ユーザの顔の少なくとも一部を撮像した赤外線画像を用いてユーザ認証を行うユーザ認証装置の制御方法であって、上記赤外線画像に、上記ユーザ認証に用いる顔の部分が含まれているか否かを判定する画像判定ステップ(ステップS4)と、上記顔の部分が含まれていると判定された場合、上記赤外線画像を表示部に表示させる一方、上記顔の部分が含まれていないと判定された場合、上記赤外線画像を上記表示部に表示させない表示制御ステップ(ステップS5、S9)と、を含む。上記の構成によれば、上記態様1に係るユーザ認証装置と同様の作用効果を奏する。 The user authentication device according to the sixth aspect of the present invention is a control method of a user authentication device that performs user authentication using an infrared image obtained by capturing at least a part of the user's face, and the infrared image is used for the user authentication. The image determination step (step S4) for determining whether or not the face portion to be used is included, and when it is determined that the face portion is included, the infrared image is displayed on the display unit, while the above. When it is determined that the face portion is not included, the display control step (steps S5 and S9) of not displaying the infrared image on the display unit is included. According to the above configuration, the same operation and effect as the user authentication device according to the above aspect 1 can be obtained.

本発明の各態様に係るユーザ認証装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記ユーザ認証装置が備える各部(ソフトウェア要素)として動作させることにより上記ユーザ認証装置をコンピュータにて実現させるユーザ認証装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The user authentication device according to each aspect of the present invention may be realized by a computer. In this case, the user authentication device is made into a computer by operating the computer as each part (software element) included in the user authentication device. The control program of the user authentication device to be realized and the computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.

1 携帯端末(ユーザ認証装置)
1a 携帯端末(ユーザ認証装置)
103 目検出部(画像判定部)
105 表示画面生成部(表示制御部)
106 照合対象検出部(画像判定部)
S4 画像判定ステップ
S5 表示制御ステップ
S9 表示制御ステップ
1 Mobile terminal (user authentication device)
1a Mobile terminal (user authentication device)
103rd eye detection unit (image judgment unit)
105 Display screen generation unit (display control unit)
106 Collation target detection unit (image judgment unit)
S4 image determination step S5 display control step S9 display control step

Claims (8)

ユーザの顔の少なくとも一部を撮像した赤外線画像を用いてユーザ認証を行うユーザ認証装置であって、
上記赤外線画像に、上記ユーザ認証に用いる顔の部分が含まれているか否かを判定する画像判定部と、
上記顔の部分が含まれていると判定された場合、上記赤外線画像を表示部に表示させる一方、上記顔の部分が含まれていないと判定された場合、上記赤外線画像を上記表示部に表示させない表示制御部と、を備え
上記表示制御部は、上記ユーザ認証を行う上記顔の部分が、撮影した赤外線画像の適正位置にある場合に上記赤外線画像を上記表示部に表示させ、前記ユーザ周囲に不適切な赤外線画像が含み得る撮影した赤外線画像の適正位置にない場合に上記赤外線画像を上記表示部に表示させないことを特徴とするユーザ認証装置。
A user authentication device that authenticates a user by using an infrared image that captures at least a part of the user's face.
An image determination unit that determines whether or not the infrared image includes a face portion used for user authentication.
When it is determined that the face portion is included, the infrared image is displayed on the display unit, while when it is determined that the face portion is not included, the infrared image is displayed on the display unit. Equipped with a display control unit that does not allow
The display control unit displays the infrared image on the display unit when the face portion for performing user authentication is at an appropriate position of the captured infrared image, and includes an inappropriate infrared image around the user. A user authentication device, characterized in that the infrared image is not displayed on the display unit when the captured infrared image is not at an appropriate position .
上記表示制御部は、上記赤外線画像に上記顔の部分が含まれていないと判定された場合、該赤外線画像とは異なる所定の画像を上記表示部に表示させることを特徴とする請求項1に記載のユーザ認証装置。 The first aspect of the present invention is that the display control unit displays a predetermined image different from the infrared image on the display unit when it is determined that the infrared image does not include the face portion. The user authentication device described. 上記表示制御部は、ユーザ認証を行うために適した、上記顔の部分の位置を示す位置決め画像を上記表示部に表示させることを特徴とする請求項1または2に記載のユーザ認証装置。 The user authentication device according to claim 1 or 2, wherein the display control unit displays a positioning image indicating the position of the face portion on the display unit, which is suitable for performing user authentication. 上記表示制御部は、上記顔の部分が含まれていると判定された場合、該顔の部分のみを上記表示部に表示させることを特徴とする請求項1から3のいずれか1項に記載のユーザ認証装置。 The present invention according to any one of claims 1 to 3, wherein the display control unit displays only the face portion on the display unit when it is determined that the face portion is included. User authentication device. 上記顔の部分は、上記ユーザの虹彩であり、
上記画像判定部は、上記赤外線画像に上記ユーザの目が含まれているか否かを判定することを特徴とする請求項1から4のいずれか1項に記載のユーザ認証装置。
The face part is the iris of the user,
The user authentication device according to any one of claims 1 to 4, wherein the image determination unit determines whether or not the infrared image includes the eyes of the user.
ユーザの顔の少なくとも一部を撮像した赤外線画像を用いてユーザ認証を行うユーザ認証装置の制御方法であって、
上記赤外線画像に、上記ユーザ認証に用いる顔の部分が含まれているか否かを判定する画像判定ステップと、
上記顔の部分が含まれていると判定された場合、上記赤外線画像を表示部に表示させる一方、上記顔の部分が含まれていないと判定された場合、上記赤外線画像を上記表示部に表示させない表示制御ステップと、を含み、
上記表示制御ステップでは、上記ユーザ認証を行う上記顔の部分が、撮影した赤外線画像の適正位置にある場合に上記赤外線画像を上記表示部に表示させ、前記ユーザ周囲に不適切な赤外線画像を含み得る撮影した赤外線画像の適正位置にない場合に上記赤外線画像を上記表示部に表示させないことを特徴とするユーザ認証装置の制御方法。
It is a control method of a user authentication device that authenticates a user by using an infrared image obtained by capturing at least a part of the user's face.
An image determination step for determining whether or not the infrared image includes a face portion used for user authentication, and an image determination step.
When it is determined that the face portion is included, the infrared image is displayed on the display unit, while when it is determined that the face portion is not included, the infrared image is displayed on the display unit. and a display control step that does not give, only including,
In the display control step, when the portion of the face to be authenticated by the user is at an appropriate position of the captured infrared image, the infrared image is displayed on the display unit, and an inappropriate infrared image is included around the user. A control method of a user authentication device, characterized in that the infrared image is not displayed on the display unit when the captured infrared image is not at an appropriate position .
請求項1に記載のユーザ認証装置としてコンピュータを機能させるための制御プログラムであって、上記画像判定部および上記表示制御部としてコンピュータを機能させるための制御プログラム。 The control program for operating a computer as the user authentication device according to claim 1, wherein the computer functions as the image determination unit and the display control unit. 請求項7に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which the control program according to claim 7 is recorded.
JP2018524952A 2016-06-29 2017-05-17 User authentication device, control method of user authentication device, control program, and recording medium Active JP6754834B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016129268 2016-06-29
JP2016129268 2016-06-29
PCT/JP2017/018443 WO2018003336A1 (en) 2016-06-29 2017-05-17 User authentication device, user authentication device control method, control program, and recording medium

Publications (2)

Publication Number Publication Date
JPWO2018003336A1 JPWO2018003336A1 (en) 2019-03-07
JP6754834B2 true JP6754834B2 (en) 2020-09-16

Family

ID=60786863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018524952A Active JP6754834B2 (en) 2016-06-29 2017-05-17 User authentication device, control method of user authentication device, control program, and recording medium

Country Status (2)

Country Link
JP (1) JP6754834B2 (en)
WO (1) WO2018003336A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI722872B (en) 2020-04-17 2021-03-21 技嘉科技股份有限公司 Face recognition device and face recognition method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293663A (en) * 1999-04-01 2000-10-20 Oki Electric Ind Co Ltd Individual identifying device
JP2005334402A (en) * 2004-05-28 2005-12-08 Sanyo Electric Co Ltd Method and device for authentication
JP2006181012A (en) * 2004-12-27 2006-07-13 Matsushita Electric Ind Co Ltd Eye image photographing device, authentication device and guiding method
JP2008181468A (en) * 2006-02-13 2008-08-07 Smart Wireless Kk Infrared face authentication apparatus, and portable terminal and security apparatus including the same
JP2008244753A (en) * 2007-03-27 2008-10-09 Oki Electric Ind Co Ltd Peeping prevention method and peeping prevention device
JP2009199392A (en) * 2008-02-22 2009-09-03 Oki Electric Ind Co Ltd Iris authentication method and iris authentication apparatus

Also Published As

Publication number Publication date
JPWO2018003336A1 (en) 2019-03-07
WO2018003336A1 (en) 2018-01-04

Similar Documents

Publication Publication Date Title
CN110889320B (en) Periocular face recognition switching
US11693937B2 (en) Automatic retries for facial recognition
US10205883B2 (en) Display control method, terminal device, and storage medium
CN109325327B (en) Process for updating templates used in face recognition
US10719692B2 (en) Vein matching for difficult biometric authentication cases
US20190213394A1 (en) Multiple enrollments in facial recognition
KR102387184B1 (en) Systems and methods for spoof detection in iris based biometric systems
EP2680192B1 (en) Facial recognition
JP5609970B2 (en) Control access to wireless terminal functions
KR101326221B1 (en) Facial feature detection
EP2680191B1 (en) Facial recognition
US20170109513A1 (en) Identification, authentication, and/or guiding of a user using gaze information
US8886953B1 (en) Image processing
EP2680190A2 (en) Facial recognition
US20140056491A1 (en) Method and device for authenticating a user
US10708467B2 (en) Information processing apparatus that performs authentication processing for approaching person, and control method thereof
JP2007011667A (en) Iris authentication device and iris authentication method
JP2009015518A (en) Eye image photographing device and authentication device
JP6754834B2 (en) User authentication device, control method of user authentication device, control program, and recording medium
JP7226477B2 (en) Information processing system, information processing method and storage medium
JP2008139973A (en) Face image authentication system and imaging device
JPWO2019044944A1 (en) Image processing system, image processing method, and storage medium
AU2020100218B4 (en) Process for updating templates used in facial recognition
WO2020009126A1 (en) Authentication device and authentication method
JP2006141589A (en) Personal authentication device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6754834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150