JP6816913B2 - 携帯機器、認証方法および認証プログラム - Google Patents

携帯機器、認証方法および認証プログラム Download PDF

Info

Publication number
JP6816913B2
JP6816913B2 JP2016164138A JP2016164138A JP6816913B2 JP 6816913 B2 JP6816913 B2 JP 6816913B2 JP 2016164138 A JP2016164138 A JP 2016164138A JP 2016164138 A JP2016164138 A JP 2016164138A JP 6816913 B2 JP6816913 B2 JP 6816913B2
Authority
JP
Japan
Prior art keywords
light spot
iris
screen
image
iris region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016164138A
Other languages
English (en)
Other versions
JP2018032222A (ja
Inventor
漠 藤野
漠 藤野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Connected Technologies Ltd
Original Assignee
Fujitsu Connected Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Connected Technologies Ltd filed Critical Fujitsu Connected Technologies Ltd
Priority to JP2016164138A priority Critical patent/JP6816913B2/ja
Priority to US15/678,106 priority patent/US20180060556A1/en
Publication of JP2018032222A publication Critical patent/JP2018032222A/ja
Application granted granted Critical
Publication of JP6816913B2 publication Critical patent/JP6816913B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)

Description

本発明は、携帯機器、認証方法および認証プログラムに関する。
近年、スマートフォンや携帯電話などの携帯機器では、第三者への個人情報の漏洩を防止するために行う本人認証の方法として、瞳の中の虹彩を用いた虹彩認証を採用した携帯機器が広く利用されるようになっている。虹彩認証は、携帯機器に備えられたカメラを使ってユーザの目を撮影し、目の撮影画像から虹彩を抽出し、予め登録された虹彩のテンプレートと比較することによって認証を行う方法である。
特開2005−025439号公報 特開2003−037766号公報
携帯機器は携帯して使用可能な機器であるため、使用する場所は固定されていない。このため、携帯機器を使って虹彩認証を実施する場合、虹彩を認識できる確率を示す認識率が光量に左右されやすいという問題がある。特に、ユーザが眼鏡をかけている場合、ユーザに照射される光の角度によっては、眼鏡のレンズで反射した光による円状の画像が虹彩の領域に重なって写ってしまうため、虹彩認証に失敗することがある。
このため、虹彩認証を実施する場所に依らず、高精度で本人認証ができることが望ましい。
本発明の1つの側面では、虹彩認証を実施する場所に依らず、高精度で本人認証を行うことができる携帯機器、認証方法および認証プログラムを提供することを目的とする。
発明の一観点によれば、カメラと、前記カメラによって撮影された画像を表示する表示部とを用いて、虹彩を用いた照合処理を実行する携帯機器において、前記画像に含まれる光点が虹彩の領域に重なっている場合に、前記光点と前記虹彩の領域との位置関係に基づいて、前記表示部の画面における目の位置を指定するガイド画像の表示位置を移動させる画面制御部を有する携帯機器が提供される。
一実施態様によれば、ユーザと携帯機器との位置関係に依らず、高精度で本人認証を行うことができる携帯機器、認証方法および認証プログラムを提供することができる。
図1は、第1の実施形態における、携帯機器の機能ブロック図の一例を示す図である。 図2は、携帯機器のハードウェア構成の一例を示す図である。 図3は、携帯機器の正面図の一例を示す図である。 図4は、第1の実施形態における、虹彩認証方法の一例を示すフローチャートである。 図5は、両目の画像の取得方法の一例を示す図である。 図6は、領域情報取得部が取得する情報を説明するための図である。 図7は、最小の移動ベクトルを算出する背景を説明するための図である。 図8は、S108の処理の手順を示すフローチャートである。 図9は、第1の実施形態における、光点の移動距離の算出方法を説明するための図である。 図10は、赤外線カメラによって撮影されたユーザの顔の画像を画面に表示しているときの様子を示す図である。 図11は、第1の実施形態における、赤外線カメラによって撮影されたユーザの顔の画像を画面に表示しているときの様子を示す図である。 図12は、携帯機器を動かしたときの画面上の光点の挙動を示す図である。 図13は、S109において、ガイド画像の指定領域の表示位置を移動させたときの光点の挙動の一例を示す図である。 図14は、第2の実施形態における、虹彩認証方法の一例を示すフローチャートである。 図15は、第2の実施形態における、光点の移動距離の算出方法を説明するための図である。
以下、本発明の実施形態について、図1乃至図15を参照して具体的に説明する。
(第1の実施形態)
図1は、第1の実施形態における、携帯機器の機能ブロック図の一例を示す図である。図1に示すように、携帯機器100は、制御部10と、記憶部20と、撮像部30と、入力部40と、表示部50とを備えている。以下、各部の機能について説明する。
制御部10は、携帯機器100全体の処理を管理するハードウェアである。制御部10は、受信部11と、検出部12と、照合部13と、判定部14と、領域情報取得部15と、算出部16と、画面制御部17とを備えている。
受信部11は、撮像部30が撮影したユーザの目の画像を受信する。また、受信部11は、入力部40を介してユーザから各種コマンドを受信する。
検出部12は、受信部11から受信した目の画像から虹彩の画像を検出する。虹彩とは、目の角膜と水晶体の間にある膜であり、黒目の領域において、黒目の中心にある瞳孔よりも外側の、ドーナツ状の部分を示している。そして、ドーナツ状の部分には、個人毎に異なる模様が存在する。検出部12は、受信部11から受信した目の画像から、眼鏡のレンズで反射した光(以降では、光点と呼称する)の画像を検出する機能も有している。
照合部13は、検出部12によって検出された虹彩の模様のパターンを、予め登録されたテンプレートと照合する。
判定部14は、携帯機器100によって行われる各種の判定処理を実行する。例えば、判定部14は、両目のうち、少なくとも一方の目の虹彩がテンプレートと一致した場合に、虹彩認証に成功したと判定する。
領域情報取得部15は、検出部12によって検出された虹彩および光点の各領域について、領域情報として、それぞれの中心の座標および半径の情報を取得する。
算出部16は、領域情報取得部15によって取得された座標および半径の情報を用いて、虹彩の領域に重なっている光点を、虹彩の領域と重ならなくなるまで移動させたときの移動ベクトルを算出する。移動ベクトルの算出方法については後述する。なお、以降では、説明の便宜上、黒目全体の領域を「虹彩の領域」として説明する。
画面制御部17は、算出部16によって算出された光点の移動ベクトルに基づいて、ユーザが虹彩認証を行う際に表示部50の画面に表示される、目の位置を指定するためのガイド画像の表示位置を移動させる制御を実行する。ガイド画像の詳細については後述する。
続いて、制御部10に接続されている記憶部20、撮像部30、入力部40および表示部50について説明する。
記憶部20は、制御部10が実行する処理に用いられる情報およびプログラムを格納するハードウェアである。例えば記憶部20は、認証に用いる虹彩の各種テンプレートを格納する。記憶部20は、用途または必要とする記憶容量などに応じて、単数または複数の記憶装置によって構成することができる。
撮像部30は、ユーザの目の画像を撮影するためのカメラである。撮像部30は、撮影した目の画像を制御部10の受信部11へ送信する。
入力部40は、ユーザからの各コマンドの入力を受け付ける入力インターフェースである。入力部40は、ユーザからの各コマンドを受信部11に送信する。
表示部50は、画面制御部17に接続され、画面制御部17による制御に従って、画像を表示することができる。
次に、携帯機器100のハードウェア構成について説明する。
図2は、携帯機器のハードウェア構成の一例を示す図である。図2に示すように、携帯機器100は、プロセッサ60、オーディオ入出力部61、ROM(Read Only Memory)62、RAM(Random Access Memory)63、タッチセンサ64、ディスプレイ65、無線部66、アンテナ67、赤外線カメラ68および赤外線LED69等を備えている。
プロセッサ60は、携帯機器100全体の動作を制御する処理を実行する演算処理装置である。プロセッサ60は、例えばCPU(Central Processing Unit)またはMPU(Micro Processing Unit)によって実現することができる。また、プロセッサ60を、マルチコアプロセッサ、または複数のプロセッサによって構成することもできる。プロセッサ60は、図1に示す制御部10の一例である。
オーディオ入出力部61は、例えば、マイクなどのオーディオ入力デバイスや、スピーカなどのオーディオ出力デバイスを備える。オーディオ入出力部61は、例えば携帯機器100が、通話可能なスマートフォンなどの携帯電話機である場合には、ユーザの発話音声の入力を受け付けたり、受話音声を出力したりする。
ROM62は、携帯機器100の動作を制御するプログラム(情報処理プログラムを含む)を格納することができる、不揮発性の記憶装置である。RAM63は、プログラムを実行する際に、必要に応じて作業領域として使用することが可能な揮発性の記憶装置である。なお、RAM63は、プロセッサ60の内部に備えることもできる。ROM62およびRAM63は、図1に示す記憶部20の一例である。
タッチセンサ64は、操作面に指などを接触させることによって携帯機器100を操作する入力装置である。タッチセンサ64は、例えば後述のディスプレイ65の上に重なるように配置して構成することができる。タッチセンサ64は、図1に示す入力部40の一例である。
ディスプレイ65は、画像を画面に表示するためのデバイスである。ディスプレイ65は、アイコンやテキストなどの画像の他、赤外線カメラ68によって撮影された画像を表示することができる。ディスプレイ65は、例えば液晶ディスプレイ、プラズマディスプレイまたは有機ELディスプレイ等によって実現される。ディスプレイ65は、図1に示す表示部50の一例である。
無線部66は、アンテナ67を介して信号を受信し、受信信号をプロセッサ60へ出力するハードウェアである。また、無線部66は、プロセッサ60の処理によって生成された信号を、アンテナ67を介して送信する機能も有している。無線部66は、例えば携帯機器100が携帯電話機である場合には、ユーザの発話音声または受話音声などの信号を送受信する。
赤外線カメラ68は、ユーザの目の画像を撮影するための電子部品である。赤外線カメラ68は、図1に示す撮像部30の一例である。
赤外線LED69は、赤外線を照射するための電子部品である。携帯機器100は、赤外線カメラ68と赤外線LED69とを併用することによって、ユーザの目の画像を撮影する。赤外線を用いることで、暗い場所でも虹彩認証を行うことができる。
図3は、携帯機器の正面図の一例を示す図である。なお、図3において図2と共通の部品には同一の符号を付している。図3に示すように、携帯機器100は、本体110と、ディスプレイ65と、赤外線カメラ68と、赤外線LED69とを備えている。
ディスプレイ65は、本体110の上面から露出するように配置されている。図3の例では、ディスプレイ65の画面の形状は長方形であるが、画面の形状として、例えば輪郭の一部に直線を有する角丸四角形の形状を用いることもできる。赤外線カメラ68および赤外線LED69は、ディスプレイ65の上隣の位置にそれぞれ離間して配置されている。このように、ディスプレイ65、赤外線カメラ68および赤外線LED69は、携帯機器100の同じ面に搭載されている。
次に、第1の実施形態における、図1に示す携帯機器100により実行される認証方法について説明する。
図4は、第1の実施形態における、虹彩認証方法の一例を示すフローチャートである。本フローチャートは、眼鏡をかけたユーザに対する虹彩認証方法を想定している。また、光点の形状が真円であるものとして説明する。
まず、表示部50は、ガイド画像を画面に表示する(S101)。ガイド画像とは、ユーザの目の画像を撮影する際に、ユーザに対して、画面に映ったユーザの両目が画面上の指定領域内に入るように誘導させるために表示する画像である。すなわち、ガイド画像を表示することによって、当該指定領域の位置が画面上で指定される。本実施形態では、指定領域以外の場所が半透明の暗い色でマスクされたように見える画像を、ガイド画像として例示している。
図5は、両目の画像の取得方法の一例を示す図である。図5(a)は、ガイド画像の一例を示す図である。図5(a)に示すように、ガイド画像72は、両目の位置を指定する2つの円状の指定領域73と、指定領域73以外のマスク領域74とを有している。このマスク領域74は、指定領域73よりも暗く表示されている。なお、2つの円状の領域の間隔および面積は、ユーザの顔の大きさに応じて適宜変更することも可能である。また、指定領域73の形状として、例えば、四角形などの多角形や、楕円形などの形状を用いることもできる。
表示部50がガイド画像を画面に表示している間、撮像部30は、ユーザの両目の画像を撮影している(S102)。図5(b)は、ガイド画像72によって誘導された両目の位置を示す図である。S102において、受信部11は、眼鏡80をかけたユーザの両目がガイド画像72の指定領域73内に入ったときに撮影された両目の画像を受信する。そして、検出部12は、両目の画像から、虹彩の模様と、眼鏡に写った光点とを検出する(S103)。画像中の虹彩を認識する処理方法として、例えばDaugmanのアルゴリズムを用いることができる。
続いて、照合部13は、検出された虹彩の模様を、予め記憶部20に登録されたユーザの虹彩の模様のテンプレートと照合する(S104)。
続いて、判定部14は、虹彩認証に成功したか否かを判定する(S105)。判定部14は、両目のうち、少なくとも一方の目の虹彩がテンプレートと一致した場合に、虹彩認証に成功したと判定する。虹彩認証に成功したと判定された場合(S105:Yes)、虹彩認証の処理を終了する。一方、虹彩認証に成功しなかったと判定された場合(S105:No)、判定部14は、虹彩の領域と光点の領域が、所定の割合以上重なっているか否かを判定する(S106)。S106では、まず算出部16は、瞼から露出している虹彩の領域の面積と、虹彩の領域に重なっている光点の面積とを算出する。続いて算出部16は、虹彩の領域の面積に対する光点の面積の割合を算出する。そして、判定部14は、算出された割合が、予め設定された閾値よりも大きいか否かを判定する。閾値は、例えば0.1〜0.2程度である。
S106において、虹彩の領域と光点の領域が、所定の割合以上重なっていないと判定された場合(S106:No)、虹彩認証に成功しなかった原因が光点によるものではないと判定し、虹彩認証の処理を終了する。一方、虹彩の領域と光点の領域が、所定の割合以上重なっていると判定された場合(S106:Yes)、虹彩認証に成功しなかった原因が光点によるものであると判定し、領域情報取得部15は、検出部12によって検出された虹彩および光点の各領域から、中心の座標および半径の情報を取得する(S107)。
図6は、領域情報取得部が取得する情報を説明するための図である。図6は、携帯機器100の表示部50の画面に表示された両目の画像を示しており、当該画像は、両目の中の虹彩の領域81、83、領域81、83と重なって表示された光点82、84、および眼鏡80の画像を含む。表示部50は、後述するように、撮影した画像をミラー反転して画面に表示する。このため、画面に表示された両目の画像は、右側の目が右目を示しており、左側の目が左目を示している。領域情報取得部15は、ミラー反転する前の画像を用いてS107の処理を実行するが、説明の便宜上、画面に表示された両目の画像を用いてS107の処理を説明する。
S107において、領域情報取得部15は、左目の虹彩の領域の中心の座標(x1,y1)と、左目の虹彩の領域の半径R1と、左目に重なっている光点の中心の座標(p1,q1)と、左目の虹彩の領域に重なっている光点の半径r1とを取得する。また、領域情報取得部15は、右目の虹彩の領域の中心の座標(x2,y2)と、右目の虹彩の領域の半径R2と、右目の虹彩の領域に重なっている光点の中心の座標(p2,q2)と、右目に重なっている光点の半径r2とを取得する。
S107の処理の後、算出部16は、領域情報取得部15によって取得された中心の座標および半径の情報を用いて、虹彩の領域に重なっている光点を、虹彩の領域と重ならなくなるまで移動させた場合の最小の移動ベクトルを算出する(S108)。
図7は、最小の移動ベクトルを算出する背景を説明するための図である。図7(a)は、虹彩の領域および光点の位置関係の一例を示している。図7(b)は、図7(a)に示す2つの光点に対して、所定の方向に同一の距離を移動させたときの図を示している。図7(c)は、虹彩の領域および光点の位置関係の別の一例を示している。図7(d)は、図7(c)に示す2つの光点に対して、所定の方向に同一の距離を移動させたときの図を示している。なお、図中の矢印が移動ベクトルを示している。
図7(a)の例では、2つの光点82、84に対して同一の距離を移動させた場合、図7(b)に示すように、右目の虹彩の領域83に重なっていた光点84は虹彩の領域83から外れているのに対し、左目の虹彩の領域81に重なっていた光点82は、依然として虹彩の領域81と重なったままである。このことから、図7(a)の例では、右目の虹彩の領域83に重なっている光点84の移動距離の方が、左目の虹彩の領域81に重なっている光点82の移動距離よりも短いことがわかる。
一方、図7(c)の例では、2つの光点82、84に対して同一の距離を移動させた場合、図7(d)に示すように、左目の虹彩の領域81に重なっていた光点82は虹彩の領域81から外れているのに対し、右目の虹彩の領域83に重なっていた光点84は、依然として虹彩の領域83と重なったままである。このことから、図7(c)の例では、左目の虹彩の領域81に重なっている光点82の移動距離の方が、右目の虹彩の領域83に重なっている光点84の移動距離よりも短いことがわかる。
このように、画面に表示された虹彩の領域と光点の位置関係によって、両者が重ならなくなるまで移動させたときに、左目に重なっていた光点82の移動距離と、右目に重なっていた光点84の移動距離のどちらが短いのかが決まる。以下、S108の処理の手順について説明する。
図8は、S108の処理の手順を示すフローチャートである。
まず、算出部16は、領域情報取得部15によって取得された中心の座標および半径の情報を用いて、左目の虹彩の領域81に重なっている光点82を、虹彩の領域81と重ならなくなるまで移動させたときの最短の移動距離L1、および右目の虹彩の領域83に重なっている光点84を、虹彩の領域83と重ならなくなるまで移動させたときの最短の移動距離L2を算出する(S201)。
虹彩の領域に重なっている光点を、虹彩の領域と重ならなくなるまで移動させるためには、虹彩の領域の中心から光点の中心へ向かう方向に移動させるのが最短である。また、光点が移動を開始して虹彩の領域の外周線を超えた後、光点が虹彩の領域に外接した状態になったときに、初めて虹彩の領域と光点とが重ならなくなる。このとき、虹彩の領域の中心と光点の中心との距離は、虹彩の領域の半径と光点の半径との和と等しくなる。換言すると、虹彩の領域の中心と光点の中心との距離が、虹彩の領域の半径と光点の半径との和よりも大きい場合には、虹彩の領域と光点とが重ならない。光点の最短の移動距離は、光点が移動を開始してから、虹彩の領域の中心と光点の中心との距離が、虹彩の領域の半径と光点の半径との和と等しくなるまでに移動した距離である。
以上を踏まえて、図6に示す座標および半径のパラメータを用いながら、左目に重なっている光点の移動距離の算出方法について説明する。
図9は、第1の実施形態における、光点の移動距離の算出方法を説明するための図である。図9は、携帯機器100の表示部50の画面に表示された左目の像を示している。図9は、図6に示す状態から虹彩の領域81と光点82とが重ならなくなるまでの最短の移動距離を移動して、光点82が虹彩の領域81に外接した状態を示している。また、移動前の光点82を点線で示している。虹彩の領域81の中心の座標を(x1,y1)とし、移動前の光点82の中心の座標を(p1,q1)とする。また、最短の移動距離を移動した後の光点82の中心の座標を(x,y)とする。図9を用いた説明では、虹彩の領域81の中心を原点としたxy座標系を想定したときに、光点82がxy座標系の第4象限内で、x軸の正の方向、且つy軸の負の方向に移動するものと仮定する。すなわち、x>p1>x1およびy<q1<y1であると仮定する。
図9に示すように、光点82のx軸方向の移動距離をΔp、光点82のy軸方向の移動距離をΔqとすると、光点82の移動ベクトルは、(△p,△q)と表すことができる。このとき、xおよびyは、それぞれ
(式1):
Figure 0006816913
と表すことができる。
虹彩の領域81の中心と、最短の移動距離を移動した後の光点82の中心との距離が虹彩の領域81の半径R1と光点82の半径r1との和と等しい場合、以下の方程式が成り立つ。
(式2):
Figure 0006816913
さらに、光点82が虹彩の領域81の中心から光点82の中心へ向かう方向に移動する場合、虹彩の領域81の中心と移動前の光点82の中心とを結ぶ直線の傾きと、虹彩の領域81の中心と最短の移動距離を移動した後の光点82の中心とを結ぶ直線の傾きとが等しくなることから、以下の方程式が成り立つ。
(式3):
Figure 0006816913
式2および式3の連立方程式を解くと、xおよびyは、それぞれ
(式4):
Figure 0006816913
(式5):
Figure 0006816913
と算出される。よって、左目の虹彩の領域81に重なっている光点82の最短の移動距離L1は、移動前の光点82の中心と移動後の光点82の中心との距離と等しいことから、
(式6):
Figure 0006816913
と算出される。
L1と同様の算出方法により、図6に示されている、右目の虹彩の領域83に重なっている光点84の最短の移動距離L2は、
(式7):
Figure 0006816913
と算出される。
図8に戻り、S201の後、判定部14は、左目の虹彩の領域81に重なっている光点82の最短の移動距離L1と、右目に重なっている光点84の最短の移動距離L2とを比較し、L1がL2以下であるか否かを判定する(S202)。
L1がL2以下であると判定された場合(S202:Yes)、算出部16は、L1に基づいて、左目に重なっている光点82の移動ベクトルを算出する(S203)。光点82の移動ベクトルは、(Δp,Δq)で表すことができる。式4および式5を式1に代入することによって、ΔpおよびΔqは、
(式8):
Figure 0006816913
(式9):
Figure 0006816913
と算出することができる。
一方、L1がL2以下でないと判定された場合(S202:No)、算出部16は、L2に基づいて、右目に重なっている光点84の移動ベクトルを算出する(S204)。
右目の虹彩の領域83に重なっている光点84の場合、xおよびyは、それぞれ
(式10):
Figure 0006816913
と表すことができる。左目の虹彩の領域81に重なっている光点82の場合と同様の方法で連立方程式を解くと、xおよびyは、それぞれ
(式11):
Figure 0006816913
(式12):
Figure 0006816913
と算出される。式11および式12を式10に代入すると、移動ベクトルのx座標Δp、および移動ベクトルのy座標Δqは、それぞれ
(式13):
Figure 0006816913
(式14):
Figure 0006816913
と算出される。
以上のようにして、携帯機器100は、S108の処理を実行することができる。
図4に戻り、S108の後、画像制御部17は、一方の虹彩の領域と光点とが重ならないようにするため、S108で算出された移動ベクトルに基づいて、ガイド画像72の指定領域73の表示位置を移動する(S109)。
ここで、撮像部30によって撮影された画像と、画面に表示される画像との関係について説明する。
図10は、赤外線カメラによって撮影されたユーザの顔の画像を画面に表示しているときの様子を示す図である。図10では、説明の便宜上、ガイド画像72を非図示としている。図10(a)に示すように、赤外線カメラ68によって撮影されたユーザ85の顔の画像をそのまま画面に表示した場合、画面に映った2つの目のうち、ユーザ85の右目は左側の目として映り、ユーザ85の左目は右側の目として映る。すなわち、ユーザ85の目は左右逆の位置に表示される。このとき、図10(b)に示すように、携帯機器100の位置を固定した状態でユーザ85が頭部を画面に対して右方向へ動かすと、画面上の顔の画像は、頭部の移動方向と逆の方向、すなわち左方向に移動する。このため、ガイド画像72の表示位置を移動させた後に、ユーザ85が再び目の位置をガイド画像72の位置に合わせようとした場合、その調整は必ずしも容易ではない。
図11は、第1の実施形態における、赤外線カメラによって撮影されたユーザの顔の画像を画面に表示しているときの様子を示す図である。図11でも、説明の便宜上、ガイド画像72を非図示としている。図11(a)に示すように、本実施形態では、赤外線カメラ68によって撮影されたユーザ85の顔の画像をミラー反転して画面に表示させている。このため、図11(b)に示すように、赤外線カメラによって撮影されたユーザ85の顔の画像をそのまま画面に表示した場合、画面に映った2つの目のうち、ユーザ85の右目は右側の目として映り、ユーザ85の左目は左側の目として映る。そして、携帯機器100の位置を固定した状態でユーザ85が頭部を画面に対して右方向へ動かすと、画面上の顔の画像は、頭部の移動方向と同じ方向、すなわち右方向に移動する。
このように、本実施形態では、赤外線カメラ68によって撮影されたユーザ85の顔の画像をミラー反転して画面に表示させる。この方法によれば、ガイド画像の表示位置を移動させた後に、ユーザが再び目の位置をガイド画像の位置に合わせようとした場合においても、ユーザは直感的に、容易に目の位置をガイド画像の位置に合わせることができる。以下、S109の処理について説明する。
図12は、携帯機器を動かしたときの画面上の光点の挙動を示す図である。図12でも、説明の便宜上、ガイド画像72を非図示としている。図12(a)は、携帯機器100を動かす前の状態を示している。図12(b)は、携帯機器100を動かした後の状態を示している。眼鏡80をかけたユーザが、目の位置を固定した状態で携帯機器100を図12(a)に示す状態から右方向に動かすと、図12(b)に示すように、画面上の、眼鏡のレンズに写った光点82、84も、目の位置に対して右方向に移動する。S109の処理は、この性質を利用して、一方の目と光点とが重ならないようにするために、携帯機器100とユーザの顔との相対位置が変わるように促すための処理である。S109では、相対位置が変わるように促すための手段として、画面上のガイド画像72の表示位置を移動させる処理が実行される。
図13は、S109において、ガイド画像の指定領域の表示位置を移動させたときの光点の挙動の一例を示す図である。図13(a)は、ガイド画像72の表示位置を移動させる前の状態を示している。図13(b)は、ガイド画像72の指定領域73の表示位置を移動させているときの状態を示している。図13(c)は、ガイド画像72の指定領域73の表示位置を移動させた後の状態を示している。以下では、移動ベクトルの方向が右方向であるものと仮定して説明する。
図13(a)に示すように、移動前は、ユーザの両目が指定領域73内に収まっている。ここで、図13(b)に示すように、目の位置を図13(a)に示す位置に固定した状態で、指定領域73を移動ベクトルの方向とは逆の方向、すなわち左方向に移動させる。このとき、指定領域73の移動距離は、S108で算出された移動ベクトルに所定の係数を乗じることによって決定された距離である。なお、一方の目が光点と重ならないようにするために最低限必要な指定領域73の移動距離は、赤外線カメラ68の屈折率や倍率などの光学特性の他、ユーザの眼鏡の屈折率などの光学特性にも依存する。このため、係数は、ユーザ毎、あるいは眼鏡の種類毎に異なる係数を個別に設定することもできる。
指定領域73を左方向に移動させると、図13(b)に示すように、ユーザの両目は指定領域73から外れてしまう。このため、ユーザは、指定領域73と両目の位置とを再び合わせようとして、頭部の位置を固定した状態で、携帯機器100のみを指定領域73の移動方向に対して逆の方向、すなわち右方向に移動させる。すると、図13(c)に示すように、ユーザの両目がガイド画像72の指定領域73内に再び収まり、眼鏡80のレンズに写った光点82、84は、それぞれ携帯機器100の移動方向と同じ方向である右方向に移動する。すると、光点82、84のうち、少なくとも右目の光点84は、虹彩の領域83と重ならない状態となる。これにより、右目の虹彩の認識率が向上し、虹彩認証を妨げる一因である光点による影響を排除することが可能となる。また、移動ベクトルに基づいてガイド画像72の指定領域73の表示位置を移動させることによって、指定領域73の移動距離を最小限に抑えることができる。
S109の後S102に戻り、再び虹彩認証の処理を実行する。
以上のようにして、携帯機器100による認証処理を実行する。
第1の実施形態によれば、画像に含まれる光点が虹彩の領域に重なっている場合に、虹彩の領域と光点との位置関係に基づいて、画面における目の位置を指定するガイド画像の表示位置を移動させる。この方法によれば、例え虹彩の領域と光点とが重なった状態で画面に表示されても、携帯機器100の移動動作によって虹彩の領域と光点とが重ならなくなるため、虹彩認証を実施する場所に依らず、高精度で本人認証を行うことができる。
(第2の実施形態)
次に、第2の実施形態について説明する。第1の実施形態では、虹彩の領域の中心から光点の中心へ向かう方向に平行な、光点の移動ベクトルを算出した。これに対して第2の実施態様では、移動ベクトルの方向を、画面が延在する方向に沿った所定の座標軸に平行な方向に固定することを特徴としている。
以下、図14および図15を参照しながら、第2の実施形態について説明する。第2の実施形態における携帯機器を携帯機器100aとする。携帯機器100aの機能ブロック図は、図1に示す第1の実施形態における携帯機器100と同様であるので、説明を省略する。また、携帯機器100aのハードウェア構成図は、図2に示す第1の実施形態における携帯機器100のハードウェア構成図と同様であるので、説明を省略する。
図14は、第2の実施形態における、虹彩認証方法の一例を示すフローチャートである。
まず、図1に示すS101乃至S107と同様の処理を実行する。
S107の処理の後、算出部16は、領域情報取得部15によって取得された座標および半径の情報を用いて、虹彩の領域に重なっている光点を、虹彩の領域と重ならなくなるまで所定の座標軸に平行な方向に移動させた場合の、最小の移動ベクトルを算出する(S108a)。ここで、図6に示す座標および半径のパラメータを用いながら、右目の虹彩の領域に重なっている光点の移動距離の算出方法について説明する。ここでは、移動ベクトルの方向をx軸に平行な方向に固定した場合の例について説明する。
図15は、第2の実施形態における、光点の移動距離の算出方法を説明するための図である。図15は、携帯機器100aの表示部50の画面に表示された左目の画像を示しており、図6に示す状態から虹彩の領域81と光点82とが重ならなくなるまでの最短の移動距離を移動して、光点82が虹彩の領域81に外接した状態を示している。また、移動前の光点82を点線で示している。虹彩の領域81の中心の座標を(x1,y1)とし、移動前の光点82の中心の座標を(p1,q1)とする。また、最短の移動距離を移動した後の光点82の中心の座標を(x,y)とする。図15を用いた説明では、虹彩の領域81の中心を原点としたxy座標系を想定したときに、光点82がxy座標系の第4象限内で、x軸の正の方向に移動するものと仮定する。すなわち、x>p1>x1およびy=q1<y1であると仮定する。
図15に示すように、光点82のx軸方向の移動距離をΔrとすると、光点82の移動ベクトルは、(△r,0)と表すことができる。このとき、xおよびyは、それぞれ
(式15):
Figure 0006816913
と表すことができる。
虹彩の領域81に重なっている光点82を、虹彩の領域81と重ならなくなるまで移動させたときの光点82の最短の移動距離は、光点82が移動を開始してから、虹彩の領域81の中心と光点82の中心との距離が、虹彩の領域81の半径と光点82の半径との和と等しくなるまでに移動した距離である。図15の例では、虹彩の領域81の中心の座標(x1,y1)と、最短の移動距離を移動した後の光点82の中心の座標(x,y)とを結ぶ直線上に、外接点が存在する。すなわち、式2と同様に、以下の方程式によって表すことができる。
(式16):
Figure 0006816913
ここで、式15のxおよびyを式16に代入すると、
(式17):
Figure 0006816913
となる。x>p1>x1を前提として式17を変形すると、Δrは、
(式18):
Figure 0006816913
と算出される。
よって、左目の虹彩の領域81に重なっている光点82の最短の移動距離L1は、
(式19):
Figure 0006816913
と算出される。
L1と同様の算出方法により、図6に示されている、右目の虹彩の領域83に重なっている光点84の最短の移動距離L2は、
(式20):
Figure 0006816913
と算出される。
以上のようにして、携帯機器100aは、S108の処理を実行することができる。
S108の処理の後、図4に示すS109以降の処理と同様の処理を実行する。S105で肯定(Yes)判定された場合、またはS106で否定(No)判定された場合に、虹彩認証の処理を終了する。
以上のようにして、携帯機器100aによる認証処理を実行する。
第2の実施形態によれば、移動ベクトルの方向を所定の座標軸に平行な方向に固定している。このため、光点の最短の移動距離を算出する処理を簡略化することができる。ここでは、移動ベクトルの方向をx軸に平行な方向に固定した例について説明したが、y軸に平行な方向に固定することも可能である。但し、携帯機器aを操作しながら虹彩認証を行うユーザにとっては、画面上で2つの目が並ぶ方向、すなわちx軸に平行な方向に移動ベクトルの方向を固定する方法が、ユーザにとって操作が容易となるため好ましい。
以上、本発明の好ましい実施例について詳述したが、本発明は特定の実施例に限定されるものではなく、種々の変形や変更が可能である。例えば、第1および第2の実施形態では光点の形状は真円であったが、光点が楕円形や棒状など、真円と異なる形状を有していても、本発明を適用することができる。また、例えば、図13では、両目のうち、右目の光点84だけが虹彩の領域83から外れる例について説明したが、両目の光点82、84がそれぞれ虹彩の領域81、83から外れる程度まで指定領域73を移動させることもできる。
なお、前述した携帯端末装置および制御方法をコンピュータに実行させるコンピュータプログラム、およびそのプログラムを記録した、非一時的なコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、非一時的なコンピュータ読み取り可能な記録媒体は、例えばSDメモリカードなどのメモリカードである。なお、前記コンピュータプログラムは、前記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
10:制御部
11:受信部
12:検出部
13:照合部
14:判定部
15:領域情報取得部
16:算出部
17:画面制御部
20:記憶部
30:撮像部
40:入力部
50:表示部
60:プロセッサ
61:オーディオ入出力部
62:ROM
63:RAM
64:タッチセンサ
65:ディスプレイ
66:無線部
67:アンテナ
68:赤外線カメラ
69:赤外線LED
72:ガイド画像
73:指定領域
74:マスク領域
80:眼鏡
81、83:虹彩の領域
82、84:光点
85:ユーザ
100、100a:携帯機器

Claims (9)

  1. カメラと、前記カメラによって撮影された画像を表示する表示部とを用いて、虹彩を用いた照合処理を実行する携帯機器において、
    前記画像に含まれる光点が虹彩の領域に重なっている場合に、前記光点と前記虹彩の領域との位置関係に基づいて、前記表示部の画面における目の位置を指定するガイド画像の表示位置を前記光点と前記虹彩の領域とが重ならなくなるまで最短距離で移動させることのできる画面制御部を有することを特徴とする携帯機器。
  2. 前記光点が前記虹彩の領域に重なっている場合に、前記画面上で前記虹彩の領域と前記光点とが重ならなくなるまで前記光点を移動させたときの移動ベクトルを算出する算出部を更に有し、
    前記画面制御部は、前記算出部によって算出された前記移動ベクトルに基づいて決定された移動方向に、前記ガイド画像の表示位置を移動させることを特徴とする請求項1記載の携帯機器。
  3. 前記移動ベクトルは、前記画面が延在する方向に沿った所定の座標軸に平行な方向を有することを特徴とする請求項2記載の携帯機器。
  4. 前記所定の座標軸は、前記画面の輪郭に含まれる直線に平行であることを特徴とする請求項3記載の携帯機器。
  5. 前記画面制御部は、前記移動ベクトルと逆の方向に前記表示位置を移動させることを特徴とする請求項2〜4のいずれか1項に記載の携帯機器。
  6. 前記画面制御部は、前記移動ベクトルの大きさに所定の係数を乗じることによって、前記表示位置の移動量を算出することを特徴とする請求項2〜5のいずれか1項に記載の携帯機器。
  7. 前記表示部は、前記画像をミラー反転して表示することを特徴とする請求項1〜6のいずれか1項に記載の携帯機器。
  8. カメラと、前記カメラによって撮影された画像を表示する表示部とを用いて、虹彩を用いた照合処理を実行する携帯機器によって実行される認証方法であって、
    前記画像に含まれる光点が虹彩の領域に重なっている場合に、前記光点と前記虹彩の領域との位置関係に基づいて、前記表示部の画面における目の位置を指定するガイド画像の表示位置を前記光点と前記虹彩の領域とが重ならなくなるまで最短距離で移動させられることを特徴とする認証方法。
  9. カメラと、前記カメラによって撮影された画像を表示する表示部とを用いて、虹彩を用いた照合処理を実行する携帯機器に、
    前記画像に含まれる光点が虹彩の領域に重なっている場合に、前記光点と前記虹彩の領域との位置関係に基づいて、前記表示部の画面における目の位置を指定するガイド画像の表示位置を前記光点と前記虹彩の領域とが重ならなくなるまで最短距離で移動可能にさせるための認証プログラム。
JP2016164138A 2016-08-24 2016-08-24 携帯機器、認証方法および認証プログラム Active JP6816913B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016164138A JP6816913B2 (ja) 2016-08-24 2016-08-24 携帯機器、認証方法および認証プログラム
US15/678,106 US20180060556A1 (en) 2016-08-24 2017-08-15 Authentication method, mobile device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016164138A JP6816913B2 (ja) 2016-08-24 2016-08-24 携帯機器、認証方法および認証プログラム

Publications (2)

Publication Number Publication Date
JP2018032222A JP2018032222A (ja) 2018-03-01
JP6816913B2 true JP6816913B2 (ja) 2021-01-20

Family

ID=61242864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016164138A Active JP6816913B2 (ja) 2016-08-24 2016-08-24 携帯機器、認証方法および認証プログラム

Country Status (2)

Country Link
US (1) US20180060556A1 (ja)
JP (1) JP6816913B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102255351B1 (ko) * 2014-09-11 2021-05-24 삼성전자주식회사 홍채 인식 방법 및 장치
KR20180098881A (ko) * 2017-02-27 2018-09-05 삼성전자주식회사 생체 정보를 이용하여 인증을 수행하기 위한 전자 장치 및 그의 동작 방법
CN106878505A (zh) * 2017-03-03 2017-06-20 东莞市坚野材料科技有限公司 可测量微型通信设备
CN109614909B (zh) * 2018-12-04 2020-11-20 北京中科虹霸科技有限公司 一种扩展采集距离的虹膜采集设备与方法
KR20200093922A (ko) * 2019-01-29 2020-08-06 삼성전자주식회사 전자 장치의 외부 전자 장치를 제어하는 방법, 전자 장치 및 저장 매체
CN112580413A (zh) * 2019-09-30 2021-03-30 Oppo广东移动通信有限公司 人眼区域定位方法、相关装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3642336B2 (ja) * 2003-07-01 2005-04-27 松下電器産業株式会社 目画像撮像装置
JP2005334402A (ja) * 2004-05-28 2005-12-08 Sanyo Electric Co Ltd 認証方法および認証装置
KR102237479B1 (ko) * 2014-06-03 2021-04-07 (주)아이리스아이디 홍채 인식 단말기 및 방법
US9762791B2 (en) * 2014-11-07 2017-09-12 Intel Corporation Production of face images having preferred perspective angles
WO2016190484A1 (ko) * 2015-05-26 2016-12-01 엘지전자 주식회사 이동 단말기 및 그 제어방법
WO2018016837A1 (en) * 2016-07-18 2018-01-25 Samsung Electronics Co., Ltd. Method and apparatus for iris recognition

Also Published As

Publication number Publication date
JP2018032222A (ja) 2018-03-01
US20180060556A1 (en) 2018-03-01

Similar Documents

Publication Publication Date Title
JP6816913B2 (ja) 携帯機器、認証方法および認証プログラム
US20230224179A1 (en) Mobile information terminal
US11693475B2 (en) User recognition and gaze tracking in a video system
US10205883B2 (en) Display control method, terminal device, and storage medium
US11163995B2 (en) User recognition and gaze tracking in a video system
US10585288B2 (en) Computer display device mounted on eyeglasses
KR102329765B1 (ko) 홍채 기반 인증 방법 및 이를 지원하는 전자 장치
US9836663B2 (en) User authenticating method and head mounted device supporting the same
US10318806B2 (en) Method and device for irradiating light for photographing iris
US9514524B2 (en) Optical distortion compensation
EP3171294B1 (en) Information processing apparatus, biometric authentication method, and biometric authentication program
JP6307805B2 (ja) 画像処理装置、電子機器、眼鏡特性判定方法および眼鏡特性判定プログラム
WO2012137801A1 (ja) 入力装置及び入力方法並びにコンピュータプログラム
JP2017151556A (ja) 電子機器、認証方法および認証プログラム
WO2015194017A1 (ja) ウェアラブル装置および認証方法
KR20160146037A (ko) 카메라의 초점을 변경하는 방법 및 장치
EP4095744A1 (en) Automatic iris capturing method and apparatus, computer-readable storage medium, and computer device
US11393257B2 (en) Information processor, information processing method, program, and wearable device
EP4002199A1 (en) Method and device for behavior recognition based on line-of-sight estimation, electronic equipment, and storage medium
CN112748798B (zh) 一种眼球追踪校准方法及相关设备
US10732786B2 (en) Terminal device and display control method
JP2012008745A (ja) ユーザインターフェース装置及び電子機器
JP2016207145A (ja) ウェアラブル装置、制御方法及び制御プログラム
JP6833997B2 (ja) 携帯端末
JP2019075175A (ja) ウェアラブル装置、制御方法及び制御プログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180405

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180514

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201218

R150 Certificate of patent or registration of utility model

Ref document number: 6816913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533