JP2007246031A - Vehicle management device - Google Patents

Vehicle management device Download PDF

Info

Publication number
JP2007246031A
JP2007246031A JP2006075244A JP2006075244A JP2007246031A JP 2007246031 A JP2007246031 A JP 2007246031A JP 2006075244 A JP2006075244 A JP 2006075244A JP 2006075244 A JP2006075244 A JP 2006075244A JP 2007246031 A JP2007246031 A JP 2007246031A
Authority
JP
Japan
Prior art keywords
vehicle
contact lens
iris
image data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006075244A
Other languages
Japanese (ja)
Inventor
Masahiro Yuhara
雅裕 湯原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006075244A priority Critical patent/JP2007246031A/en
Publication of JP2007246031A publication Critical patent/JP2007246031A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle use management device capable of surely discriminating whether a user of a vehicle uses contact lenses or not. <P>SOLUTION: A card reading and writing section 11 obtains driving conditional information expressing the vehicle driving condition from an electronic driver's license 2. An eye image obtaining section 12a obtains eye image data by photographing eye images of an applicant for a use of the vehicle, and a face image obtaining section 12b obtains face image data in the periphery of the eyes by photographing at lest a face image in the periphery of the eyes of the applicant for a use of the vehicle. A control section 14 performs a user identification processing comprising a comparing processing for comparing the iris information extracted from the eye image data with the iris information stored in a memory 13, a driving propriety determination processing based on the driving conditional information, and a contact lens discriminating processing for discriminating whether the applicant for a use of the vehicle uses contact lenses or not based on the eye image data. The contact lens discriminating processing is performed by extracting a circular edge from the eye image data and discriminating installation of the contact lenses based on the number and dimension of the extracted circular edge. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、車両の使用管理を行う車両管理装置に関する。   The present invention relates to a vehicle management apparatus that manages use of a vehicle.

電子免許証に記憶された情報や虹彩等の生体情報を用いて車両の使用を管理する技術が各種提案されている(例えば、特許文献1、2参照)。特許文献1に記載された認証装置は、電子免許証に記憶された情報と生体情報を入力し、予め登録された免許証情報及び生体情報との比較結果に応じて、車両のドアの施錠及び開錠、車両のエンジンの始動等の車両の動作を制御するものである。なお、虹彩を生体として利用する場合、虹彩画像から得た虹彩コードを認証に利用することができる(例えば、特許文献2参照)。しかし、特許文献1の技術は、免許証に記載された事項を使用者の認証に利用するものである。   Various techniques for managing the use of a vehicle using information stored in an electronic license or biological information such as an iris have been proposed (see, for example, Patent Documents 1 and 2). The authentication device described in Patent Document 1 inputs information stored in an electronic license and biometric information, and locks a door of a vehicle according to a comparison result between license information and biometric information registered in advance. It controls vehicle operations such as unlocking and starting the vehicle engine. In addition, when using an iris as a living body, an iris code obtained from an iris image can be used for authentication (see, for example, Patent Document 2). However, the technique of Patent Document 1 uses the items described in the license for user authentication.

特許文献3に記載された運転支援システムは、運転免許証に記載された運転条件(例えば、眼鏡等使用、初心者・高齢者マークの貼付)を読み取って記憶しておき、運転者の状態(例えば、眼鏡やコンタクトレンズを使用しているかどうか)、又は車両の状態(例えば、初心者・高齢者マークが貼り付けられているかどうか)に基いて、エンジンの作動をさせない等の処理を行うものである。具体的には、画像認識手段により車両の使用希望者の顔面や車両のボンネット等を撮影し、得られる情報に基づいて運転条件を満たしているかどうかを判断し、エンジンの始動を禁止するものである。しかし、顔面画像情報に基いて運転希望者がコンタクトレンズを装着しているかどうかを判断することは難しく、確実な運転管理ができない。   The driving support system described in Patent Document 3 reads and stores the driving conditions (for example, use of glasses and the like, pasting of beginner / elderly person marks) described in the driver's license, and the driver's state (for example, , Whether or not glasses or contact lenses are used) or the state of the vehicle (for example, whether a beginner / elderly person mark is affixed) or the like, the engine is not operated. . Specifically, the image recognition means captures the face of the person who wants to use the vehicle, the hood of the vehicle, etc., determines whether the driving conditions are satisfied based on the obtained information, and prohibits starting the engine. is there. However, it is difficult to determine whether or not the driver wants to wear a contact lens based on the facial image information, and reliable driving management cannot be performed.

特開2005−248445号公報JP 2005-248445 A 特表平8−504979号公報JP-T 8-504979 特開2005−1643号公報(請求項23、段落[0062]、[0063]、[0180]〜[0191]、図27、30)JP 2005-1643 A (claim 23, paragraphs [0062], [0063], [0180] to [0191], FIGS. 27 and 30)

本発明は、上記事情に鑑みなされたもので、車両の使用者がコンタクトレンズを装着しているかを確実に識別することを可能とする車両管理装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a vehicle management device that enables a vehicle user to reliably identify whether a contact lens is worn.

本発明の車両管理装置は、車両の使用管理を行う車両管理装置であって、前記車両を使用する車両使用者の目画像データを取得する目画像取得部と、前記目画像取得部で取得した目画像データに基づいて、前記車両使用者のコンタクトレンズの装着を識別するコンタクトレンズ識別部とを備え、前記コンタクトレンズ識別部は、前記目画像データから円形エッジを抽出する処理を含み、抽出した前記円形エッジの数に基づいてコンタクトレンズの装着を識別するものである。   The vehicle management device according to the present invention is a vehicle management device that performs vehicle usage management, and is acquired by an eye image acquisition unit that acquires eye image data of a vehicle user who uses the vehicle, and the eye image acquisition unit. A contact lens identifying unit that identifies wearing of the contact lens of the vehicle user based on eye image data, the contact lens identifying unit including a process of extracting a circular edge from the eye image data Contact lens wear is identified based on the number of circular edges.

本発明によれば、目画像データのエッジ抽出処理によって抽出したエッジの形状の分析のみでコンタクトレンズの装着を識別するので、簡単な画像処理でコンタクトレンズを識別することができ、車両の使用者がコンタクトレンズを装着しているかを確実に識別することが可能となる。   According to the present invention, since wearing of a contact lens is identified only by analyzing an edge shape extracted by edge extraction processing of eye image data, the contact lens can be identified by simple image processing. It is possible to reliably identify whether a contact lens is worn.

本発明の車両管理装置は、前記円形エッジが、少なくとも瞳孔の外形エッジ及び虹彩の外形エッジを含むものを含む。本発明によれば、瞳孔の外形エッジと虹彩の外形エッジを識別することにより、他の円形エッジの有無及び大きさに基づき、コンタクトレンズの装着の有無を識別することができる。   In the vehicle management device of the present invention, the circular edge includes at least an outer edge of the pupil and an outer edge of the iris. According to the present invention, by identifying the outer edge of the pupil and the outer edge of the iris, the presence or absence of the contact lens can be identified based on the presence and size of another circular edge.

本発明の車両管理装置は、さらに、前記車両を使用する車両使用者の目周辺の顔画像データを取得する顔画像取得部と、前記顔画像取得部で取得した顔画像データに基づいて、前記車両使用者の眼鏡の装着を識別する眼鏡識別部とを備えるものを含む。本発明によれば、車両使用者の眼鏡の装着も識別することができ、眼鏡等の装着の有無を確実に識別することができるので、運転免許の制限事項に基づく車両の使用管理をさらに確実に行うことが可能となる。   The vehicle management device of the present invention further includes a face image acquisition unit that acquires face image data around eyes of a vehicle user who uses the vehicle, and the face image data acquired by the face image acquisition unit, And a spectacles identifying unit that identifies spectacles worn by the vehicle user. According to the present invention, it is possible to identify the wearing of the vehicle user's glasses, and it is possible to reliably identify whether or not the glasses are worn, so that the vehicle usage management based on the restrictions of the driver's license is further ensured. Can be performed.

本発明の車両管理装置は、さらに、車両使用許可者の虹彩情報を含む認証情報を記憶する認証情報記憶部と、前記目画像データから抽出した虹彩情報と、前記認証情報記憶部に記憶された虹彩情報との対比処理を含む使用者認証処理を行う認証処理部と、電子運転免許証に記憶された、車両運転の条件を示す運転条件情報を含むデータを取得するデータ取得部と、前記車両使用者による当該車両の運転の可否を判断する運転可否判別部とを備え、前記運転可否判別部は、前記データ取得部を介して取得した前記車両使用者の前記運転条件情報が眼鏡等の使用を示している場合、前記コンタクトレンズ識別部及び前記眼鏡識別部の少なくとも一方の識別結果と、前記認証処理部の使用者認証処理結果に基づいて、当該車両の運転の可否を判断するものを含む。本発明によれば、虹彩情報を使用者認証処理とコンタクトレンズ識別処理の一部を共用できるので、車両の使用管理処理の負担を全体として軽減することができる。   The vehicle management device of the present invention is further stored in an authentication information storage unit that stores authentication information including iris information of a vehicle use authorized person, iris information extracted from the eye image data, and the authentication information storage unit. An authentication processing unit that performs user authentication processing including contrast processing with iris information, a data acquisition unit that acquires data including driving condition information indicating vehicle driving conditions stored in an electronic driving license, and the vehicle A driving propriety determination unit that determines whether the user can drive the vehicle, and the driving propriety determination unit uses the driving condition information of the vehicle user acquired through the data acquisition unit such as glasses. Is determined based on the identification result of at least one of the contact lens identification unit and the eyeglass identification unit and the user authentication processing result of the authentication processing unit. Including things. According to the present invention, since the iris information can be shared with a part of the user authentication process and the contact lens identification process, the burden of the vehicle use management process can be reduced as a whole.

本発明の車両管理装置は、前記コンタクトレンズ識別部が、前記認証処理部の認証処理に先立ってコンタクトレンズの装着の識別を行うものを含む。   The vehicle management device according to the present invention includes a device in which the contact lens identification unit identifies the wearing of the contact lens prior to the authentication processing of the authentication processing unit.

本発明の車両管理装置は、コンタクトレンズ識別部が、前記眼鏡識別部が眼鏡の装着を識別できない場合にコンタクトレンズの装着の識別を行うものを含む。   The vehicle management device according to the present invention includes a contact lens identification unit that identifies the wearing of a contact lens when the eyeglass identification unit cannot identify the wearing of the glasses.

以上の説明から明らかなように、本発明によれば、車両の使用者がコンタクトレンズを装着しているかを確実に識別することを可能とする車両管理装置を提供することができる。   As is apparent from the above description, according to the present invention, it is possible to provide a vehicle management device that enables a vehicle user to reliably identify whether a contact lens is worn.

以下、本発明の実施の形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態の車両使用管理装置の概略機能ブロック図である。図1の車両使用管理装置1は、カード読込み書込み部11、目画像取得部12a、顔画像取得部12b、記憶部13、制御部14、出力部15、操作部16、車両側インタフェース17を含んで構成され、電子運転免許証2のデータの読取り書込みが可能となっているとともに、車両状態検出部3、車両制御部4と接続されている。   FIG. 1 is a schematic functional block diagram of a vehicle use management apparatus according to an embodiment of the present invention. 1 includes a card read / write unit 11, an eye image acquisition unit 12a, a face image acquisition unit 12b, a storage unit 13, a control unit 14, an output unit 15, an operation unit 16, and a vehicle side interface 17. The electronic driving license 2 can be read and written, and is connected to the vehicle state detection unit 3 and the vehicle control unit 4.

カード読込み書込み部11は、電子運転免許証2との間でデータの読取り書込みを行うものであり、電子運転免許証2に記憶された、車両運転の条件を示す運転条件情報を含むデータを取得するデータ取得部としての機能を有する。カード読込み書込み部11は、車両を使用しようとする車両使用希望者の電子運転免許証との間のデータの読取り書込みが行える位置に配置される。カード読込み書込み部11は、接触方式でも非接触方式でもよく、電子運転免許証2の種類に応じて選択する。例えば、電子運転免許証2が接触型ICで構成される場合は、接触型ICカードリーダーライターを含んで構成され、非接触型ICカードで構成される場合は、非接触型ICカードリーダーライターを含んで構成される。また、カード読込み書込み部11として無線通信を行うものを採用し、通信部の設置位置から運転席の周辺までの通信可能な方式を採用することにより、車両使用希望者が所持したままで通信が可能となるようにしてもよい。   The card reading / writing unit 11 reads and writes data with the electronic driver's license 2 and acquires data including driving condition information indicating vehicle driving conditions stored in the electronic driver's license 2. Function as a data acquisition unit. The card read / write unit 11 is arranged at a position where data can be read / written with the electronic driver's license of the vehicle use applicant who intends to use the vehicle. The card reading / writing unit 11 may be a contact type or a non-contact type, and is selected according to the type of the electronic driving license 2. For example, when the electronic driver's license 2 is composed of a contact IC, it is configured to include a contact IC card reader / writer, and when it is composed of a non-contact IC card, a non-contact IC card reader / writer is used. Consists of including. In addition, by adopting a wireless communication system as the card reading / writing unit 11 and adopting a method capable of communication from the installation position of the communication unit to the vicinity of the driver's seat, communication can be performed while the vehicle user desires to carry it. It may be possible.

目画像取得部12aは、車両を使用しようとする車両使用希望者の目画像を撮影し、目画像データを取得するものであり、運転席に着座した人間の目の撮影が可能な位置に配置されたカメラ(図1では図示せず)と、そのカメラの撮影領域を照明する近赤外照明部材(図1では図示せず)を含んで構成される。カメラの撮影解像度は、撮影した画像データから虹彩が識別できる程度とする。   The eye image acquisition unit 12a captures an eye image of a vehicle use applicant who intends to use the vehicle, acquires eye image data, and is arranged at a position where the eye of a human seated in the driver's seat can be captured. And a near-infrared illumination member (not shown in FIG. 1) for illuminating the imaging region of the camera. The imaging resolution of the camera is such that the iris can be identified from the captured image data.

顔画像取得部12bは、車両を使用しようとする車両使用希望者の少なくとも目周辺の顔画像を撮影し、目周辺の顔画像データを取得するものであり、運転席に着座した人間の目の撮影が可能な位置に配置されたカメラ(図1では図示せず)を含んで構成される。必要ならそのカメラの撮影領域を照明する適宜の照明部材(図1では図示せず)が設けられる。カメラの撮影解像度は、撮影した目周辺の顔画像データから眼鏡を装着しているかどうかの識別できる程度とする。なお、目画像取得部12aを構成するカメラと顔画像取得部12bを構成するカメラを兼用してもよい。その場合、目周辺の顔画像データから虹彩が識別できる程度に高解像度の画像が取得できるカメラを用いることにより、1つの画像データから虹彩と眼鏡の識別を行うことができる。また、ズーム機能を備えるカメラを利用し、目画像と目周辺の顔画像を別々に撮影してもよい。   The face image acquisition unit 12b captures at least a face image around the eyes of a vehicle use applicant who intends to use the vehicle, and acquires face image data around the eyes. It includes a camera (not shown in FIG. 1) arranged at a position where photographing can be performed. If necessary, an appropriate illumination member (not shown in FIG. 1) for illuminating the imaging region of the camera is provided. The imaging resolution of the camera is such that it can be identified whether or not glasses are worn from the face image data around the captured eye. In addition, you may combine the camera which comprises the eye image acquisition part 12a, and the camera which comprises the face image acquisition part 12b. In that case, the iris and glasses can be identified from one image data by using a camera that can acquire an image with high resolution to the extent that the iris can be identified from the facial image data around the eyes. Alternatively, a camera having a zoom function may be used to separately capture an eye image and a face image around the eye.

図8に、顔画像及び目画像取得の様子を模式的に示す。図8(a)は、2つのカメラを利用する場合であり、撮影範囲21aの画像を撮影する目画像撮影用カメラ21と、撮影範囲22aの画像を撮影する顔画像撮影用カメラ22を備える。近赤外照明装置30は、目画像撮影用カメラ21の動作時に運転者20の目周辺を照明する。図8(b)は、1台のカメラを利用する場合である。顔画像撮影用カメラ23は、ズーム機能を有し、撮影範囲23aの画像を撮影することにより、顔画像を撮影する。また、撮影範囲23bの画像を撮影することにより、目画像を撮影する。目画像撮影時には、図8(a)と同様に、近赤外照明装置30により、運転者20の目周辺を照明する。なお、撮影範囲23aの画像が虹彩を識別できる程度に高解像度の画像である場合には、ズーム機能は、不要である。   FIG. 8 schematically shows how the face image and the eye image are acquired. FIG. 8A illustrates a case where two cameras are used, and includes an eye image capturing camera 21 that captures an image in the capturing range 21a and a face image capturing camera 22 that captures an image in the capturing range 22a. The near-infrared illumination device 30 illuminates the periphery of the eyes of the driver 20 when the eye image capturing camera 21 is operated. FIG. 8B shows a case where one camera is used. The face image capturing camera 23 has a zoom function and captures a face image by capturing an image in the capturing range 23a. Also, an eye image is taken by taking an image of the photographing range 23b. At the time of photographing an eye image, the vicinity of the eyes of the driver 20 is illuminated by the near-infrared illumination device 30 as in FIG. Note that the zoom function is not necessary when the image in the shooting range 23a is a high-resolution image that can identify the iris.

記憶部13は、その車両の使用が許可される者(車両使用許可者)の認証情報を含む各種情報を記憶するものである。認証情報には、虹彩情報が含まれ、車両使用許可者の虹彩情報が予め記憶される。記憶される虹彩情報は、例えば特許文献2に示される虹彩コードである。虹彩コードは、車両使用許可者を識別するID情報(電子運転免許証のIDを利用してもよい。)に対応付けて記載してもよいし、単にシリアル番号に対応付けて記憶してもよい。   The memory | storage part 13 memorize | stores various information including the authentication information of the person (vehicle use permission person) who is permitted use of the vehicle. The authentication information includes iris information, and iris information of the vehicle use authorized person is stored in advance. The stored iris information is, for example, an iris code shown in Patent Document 2. The iris code may be described in association with ID information (an electronic driver's license ID may be used) for identifying a vehicle use authorized person, or simply stored in association with a serial number. Good.

制御部14は、画像取得部12、通信部11の制御を含む車両の使用管理処理の制御、及び車両使用管理装置1全体の動作制御を行うもので、所定のプログラムによって動作するプロセッサを含んで構成される。使用管理処理には、目画像取得部12aで取得した車両使用希望者の目画像データから抽出した虹彩情報と、記憶部13に記憶された虹彩情報との対比処理を含む使用者認証処理(認証処理部としての機能)、カード読込み書込み部11を介して取得した車両使用希望者の電子運転免許証2に記憶された運転条件情報等に基づいて、その車両使用希望者による車両の運転の可否を判断する運転可否判別処理(運転可否判別部としての機能)、目画像取得部12aで取得した目画像データに基づいて、車両使用希望者がコンタクトレンズを装着しているかどうかを識別するコンタクトレンズ識別処理(コンタクトレンズ識別部としての機能)、顔画像取得部12bで取得した顔画像データに基づいて、車両使用希望者が眼鏡を装着しているかどうかを識別する眼鏡識別処理(眼鏡識別部としての機能)が含まれる。これらの処理の詳細は、後述する。なお、電子運転免許証2に記憶される車両運転の条件を示す運転条件情報には、「眼鏡等」が含まれ、「眼鏡等」が運転条件となっている場合、眼鏡やコンタクトレンズの装着が車両運転の条件となる。   The control unit 14 performs control of vehicle use management processing including control of the image acquisition unit 12 and the communication unit 11, and operation control of the entire vehicle use management device 1, and includes a processor that operates according to a predetermined program. Composed. The use management process includes a user authentication process (authentication) including a comparison process between the iris information extracted from the eye image data of the vehicle use applicant acquired by the eye image acquisition unit 12 a and the iris information stored in the storage unit 13. Function as a processing unit), based on driving condition information stored in the electronic driver's license 2 of the vehicle use applicant obtained through the card reading / writing unit 11, whether or not the vehicle use applicant can drive the vehicle A contact lens for determining whether or not the vehicle use applicant is wearing a contact lens based on the eye image data acquired by the eye image acquisition unit 12a (function as a drive availability determination unit) Based on the identification processing (function as a contact lens identification unit) and the face image data acquired by the face image acquisition unit 12b, whether the vehicle user desires to wear glasses Glasses identification process identifies whether (function as spectacles identification unit) are included. Details of these processes will be described later. The driving condition information indicating the vehicle driving conditions stored in the electronic driver's license 2 includes “glasses etc.”. When “glasses etc.” is the driving condition, wearing glasses or contact lenses Is the condition for driving the vehicle.

出力部15は、車両使用管理装置1の動作状態、使用管理処理に伴う使用可否の判断結果、車両使用管理装置1の操作時のガイダンス情報の出力等を行うもので、表示装置、スピーカ等である。操作部16は、使用者が車両使用管理装置1の操作を行うためのもので、各種スイッチ、キー等である。   The output unit 15 outputs the operation state of the vehicle usage management device 1, the determination result of the availability of usage management processing, guidance information when operating the vehicle usage management device 1, and the like. is there. The operation unit 16 is for a user to operate the vehicle use management device 1 and includes various switches, keys, and the like.

車両側インタフェース17は、車両使用管理装置1と、機能的にまとめて示した車両状態検出部3及び車両制御部4との間の情報の授受を行うためのものである。車両状態検出部3は、車両各部の状態を検出するものである。例えば、車両の電源状態、エンジンの状態、ドアの開閉状態、始動スイッチの動作状態、運転席の着座状態等を検出する。車両制御部4は、車両各部の状態を制御するもので、例えば、エンジンの起動停止を制御する。   The vehicle-side interface 17 is used for exchanging information between the vehicle use management device 1 and the vehicle state detection unit 3 and the vehicle control unit 4 collectively shown functionally. The vehicle state detection unit 3 detects the state of each part of the vehicle. For example, a vehicle power state, an engine state, a door open / close state, a start switch operating state, a driver seated state, and the like are detected. The vehicle control unit 4 controls the state of each part of the vehicle, and controls, for example, start and stop of the engine.

以上説明した車両使用管理装置1は、各機能ブロックを構成する要素を専用に設けてもよいが、他の車載機器を兼用してもよい。たとえば、記憶部13、出力部15、操作部16等は、兼用が可能である。   Although the vehicle use management apparatus 1 demonstrated above may provide the element which comprises each functional block for exclusive use, you may combine other vehicle equipment. For example, the storage unit 13, the output unit 15, the operation unit 16, and the like can be used in common.

次に図1の車両使用管理装置1の動作を、図2〜図4のフロー図を用いて説明する。図2は基本動作を示す図であり、図3は眼鏡等の識別動作を示す図であり、図4は虹彩認証動作を示す図である。これらの動作は、基本的に制御部14によって制御される。   Next, operation | movement of the vehicle use management apparatus 1 of FIG. 1 is demonstrated using the flowchart of FIGS. 2 is a diagram showing a basic operation, FIG. 3 is a diagram showing an identification operation such as glasses, and FIG. 4 is a diagram showing an iris authentication operation. These operations are basically controlled by the control unit 14.

車両使用管理装置1は、車両の使用開始がされる前に電源オンとなり、動作可能となっている。例えば、ドア開等がされると、電源オンとなり、起動条件が成立するのを待っている。起動条件は、例えば、運転席への着座検出(車両状態検出3からの着座信号に基づいて判断する。)である。なお、起動条件としては、着座検出だけでなく更に別の条件(エンジン始動スイッチの押下等)を加えることができる。また、起動条件は、ドア開とし、その後連続で目画像データ及び顔画像データを取得してもよい。目画像を自動的に確実に取得するためには、着座検出を条件とするのが好ましい。また、車両使用管理装置1の電源は、常時オンにしておいてもよい。これにより、起動条件が成立した後の制御開始時間を短くすることができる。   The vehicle use management device 1 is turned on before the start of use of the vehicle and is operable. For example, when the door is opened, the power is turned on and waiting for the activation condition to be satisfied. The activation condition is, for example, seating detection in the driver's seat (determined based on the seating signal from the vehicle state detection 3). In addition, as a starting condition, not only the seating detection but also other conditions (such as pressing of an engine start switch) can be added. Alternatively, the activation condition may be that the door is opened, and then the eye image data and the face image data are acquired continuously. In order to automatically and reliably acquire an eye image, it is preferable to make seating detection a condition. Moreover, the power supply of the vehicle use management apparatus 1 may be always turned on. Thereby, the control start time after the activation condition is satisfied can be shortened.

ステップS101で起動条件成立と判断すると、ステップS102で、運転席に着座している使用希望者が所持している電子運転免許証2との通信を開始する。そして、電子運転免許証2に記載された事項(免許証情報)を取得する。取得する事項には、少なくとも電子運転免許証2に記憶された運転の条件を示す情報が含まれる。運転の条件を示す情報は、例えば「眼鏡等」であり、「眼鏡等」が記憶されている場合、運転者は、運転時に眼鏡やコンタクトレンズを装着する必要がある。   If it is determined in step S101 that the activation condition is satisfied, in step S102, communication with the electronic driver's license 2 possessed by the use applicant sitting in the driver's seat is started. And the matter (license information) described in the electronic driver's license 2 is acquired. Items to be acquired include at least information indicating the driving conditions stored in the electronic driving license 2. The information indicating the driving condition is, for example, “glasses etc.”. When “glasses etc.” is stored, the driver needs to wear glasses or contact lenses during driving.

ステップS103では、免許証情報を取得することができたかどうかを判断する。電子運転免許証2との通信ができなった場合、及び通信ができても免許証情報が受信できない場合は、Noを判断し、ステップS111に移り、報知1を出力部15から出力して終了する。報知1は、例えば、免許証情報が取得できない旨の表示出力又は音声出力、及び電子運転免許証の所持の確認を求める表示出力又は音声出力である。   In step S103, it is determined whether the license information has been acquired. If communication with the electronic driver's license 2 is not possible, and if the license information cannot be received even if communication is possible, No is determined, the process proceeds to step S111, the notification 1 is output from the output unit 15, and the process ends. To do. The notification 1 is, for example, a display output or voice output indicating that the license information cannot be acquired, and a display output or voice output for requesting confirmation of possession of the electronic driving license.

免許証情報が取得できた場合は、ステップS104で、目画像データ及び顔画像データの取得を行う。目画像データの取得は、目画像取得部12aを動作させて行い、顔画像データの取得は、顔画像取得部12bを動作させて行う。ここで取得する目画像データは、目の虹彩部分全体を少なくとも含むものであり、顔画像データは、少なくとも眼鏡装着領域を含む目の周辺を含むものである。なお、図8(b)に示すように、目画像取得部12aを構成するカメラと顔画像取得部12bを構成するカメラを兼用する場合は、ズーム機能によって撮影範囲を変更し、眼鏡を含む範囲の画像と虹彩部分のみの画像との2種類の画像を取得する。また、1台のカメラが、高解像度の画像データを取得できる場合は、眼鏡装着領域を含む目の周辺の画像データを取得するだけでもよい。このような顔画像データを取得すると、後述するように、眼鏡装着の識別、コンタクトレンズ装着の識別、及び虹彩情報の取得を同一の画像データを利用して行うことができる。   If the license information can be acquired, eye image data and face image data are acquired in step S104. The eye image data is acquired by operating the eye image acquisition unit 12a, and the face image data is acquired by operating the face image acquisition unit 12b. The eye image data acquired here includes at least the entire iris portion of the eye, and the face image data includes at least the periphery of the eye including the spectacle wearing region. As shown in FIG. 8B, when the camera constituting the eye image acquisition unit 12a and the camera constituting the face image acquisition unit 12b are used together, the shooting range is changed by the zoom function, and the range includes glasses. Two types of images, i.e., the image of the iris portion and the image of only the iris portion are acquired. In addition, when one camera can acquire high-resolution image data, it is only necessary to acquire image data around the eye including the spectacle wearing region. When such face image data is acquired, identification of wearing glasses, identification of wearing contact lenses, and acquisition of iris information can be performed using the same image data, as will be described later.

続いて、電子運転免許証2から取得した免許証情報の運転条件に「眼鏡等」が含まれているかどうかを判断する。「眼鏡等」が含まれていない場合は、眼鏡等の装着の有無を判別する必要がないので、ステップS108に移って虹彩認証を行う。「眼鏡等」が含まれている場合は、ステップS106で、眼鏡等使用の識別を行う。   Subsequently, it is determined whether or not “glasses” is included in the driving conditions of the license information acquired from the electronic driving license 2. When “glasses etc.” is not included, it is not necessary to determine whether or not glasses etc. are worn, so that the process proceeds to step S108 to perform iris authentication. If “glasses etc.” is included, the use of glasses etc. is identified in step S106.

眼鏡等使用の識別処理について、図3に基づいて説明する。ステップS201では、ステップS104で取得した目画像データ及び顔画像データに対して輪郭強調処理を施す。輪郭強調処理自体は周知であるので説明を省略する。輪郭強調処理を行うことにより、眼鏡を装着している場合は眼鏡の輪郭が強調される。また、瞳孔を中心に、瞳孔と虹彩の境界、及び虹彩の外形が強調される。   The identification process for using glasses or the like will be described with reference to FIG. In step S201, contour enhancement processing is performed on the eye image data and face image data acquired in step S104. Since the contour emphasis processing itself is well known, the description thereof is omitted. By performing the contour emphasis process, the contour of the glasses is enhanced when wearing the glasses. In addition, the boundary between the pupil and the iris and the outline of the iris are emphasized around the pupil.

ステップS202では、輪郭強調された顔画像中に眼鏡形状があるかどうかを判断し、ある場合は、眼鏡を装着していると判断し、眼鏡等を使用している旨出力する(ステップS208)。輪郭強調された画像中に眼鏡形状がないと判断された場合、ステップS203以降で、輪郭強調された目画像データを利用してコンタクトレンズの装着の有無を判別する(コンタクトレンズ識別処理)。なお、ステップS104で共通の顔画像データを取得した場合は、共通の顔画像データに対して輪郭強調された顔画像データを利用して眼鏡形状の有無、コンタクトレンズの装着の有無を判断する。この場合、眼鏡形状の有無を判断するための輪郭強調処理と、コンタクトレンズの装着の有無を判断するための輪郭強調処理とを別々に行ってもよい。   In step S202, it is determined whether or not the contour-enhanced face image has a spectacle shape, and if there is, it is determined that the spectacles are worn, and output that the spectacles are being used is output (step S208). . When it is determined that there is no spectacle shape in the contour-enhanced image, the presence or absence of the contact lens is determined using the eye-image data with the contour emphasis (contact lens identification processing) in step S203 and subsequent steps. Note that when common face image data is acquired in step S104, the presence or absence of eyeglass shapes and the presence or absence of a contact lens are determined using the face image data whose contour is enhanced with respect to the common face image data. In this case, the contour emphasis process for determining the presence or absence of the eyeglass shape and the contour emphasis process for determining the presence or absence of the contact lens may be performed separately.

ステップS203では、輪郭強調された目画像から円形の境界(円形エッジ)を抽出する。既述のように、虹彩部分の強調画像では、瞳孔と虹彩の境界、及び虹彩の外形が円形エッジとして抽出されるとともに、コンタクトレンズが撮影されている場合はその輪郭も円形エッジとして抽出される。   In step S203, a circular boundary (circular edge) is extracted from the contour-enhanced eye image. As described above, in the enhanced image of the iris portion, the boundary between the pupil and the iris and the outer shape of the iris are extracted as circular edges, and when the contact lens is photographed, the contour is also extracted as a circular edge. .

輪郭強調された目画像は、模式的には図5に示すようなものとなる。図5(a)は、コンタクトレンズを装着していない場合の例であり、2つの円形エッジ51、52を有する。一方、コンタクトレンズを装着している場合、図5(b)、(c)に示すように、コンタクトレンズの外形に対応する円形エッジ53、54を有する。図5(b)は、ハードコンタクトレンズの例であり、円形エッジ53は、虹彩外形を示す円形エッジ51より小さいものとなる。また、図5(c)は、ソフトコンタクトレンズの例であり、円形エッジ53は、虹彩外形を示す円形エッジ51と同じかそれ以上の大きさとなる。   The outline-enhanced eye image is typically as shown in FIG. FIG. 5A shows an example in which no contact lens is attached, and two circular edges 51 and 52 are provided. On the other hand, when a contact lens is mounted, as shown in FIGS. 5B and 5C, circular edges 53 and 54 corresponding to the outer shape of the contact lens are provided. FIG. 5B is an example of a hard contact lens, and the circular edge 53 is smaller than the circular edge 51 showing the iris outline. FIG. 5C is an example of a soft contact lens, and the circular edge 53 is the same size or larger than the circular edge 51 indicating the iris outline.

ステップS204では、抽出された円形エッジの数が3以上かどうかを判断する。コンタクトレンズを使用していない場合は、円形形状は、瞳孔と虹彩の境界と、虹彩の外形だけであるので、円形エッジの数が3以上でない場合、コンタクトレンズが写っていないと判断できる。したがって、円形エッジの数が3以上でない場合は、眼鏡等を装着していないと判断し、眼鏡等を使用していない旨出力する(ステップS209)。   In step S204, it is determined whether the number of extracted circular edges is three or more. When the contact lens is not used, the circular shape is only the boundary between the pupil and the iris and the outer shape of the iris. Therefore, when the number of circular edges is not 3 or more, it can be determined that the contact lens is not captured. Therefore, if the number of circular edges is not 3 or more, it is determined that glasses are not worn, and a message that glasses are not being used is output (step S209).

円形エッジの数が3以上である場合、抽出された円形エッジの中にコンタクトレンズの外形に対応する円形エッジが含まれるかどうかを調べ、コンタクトレンズの装着の有無を識別する。ステップS205では、抽出した円形エッジのうち、虹彩外形に対応する円形エッジと瞳孔外形(瞳孔と虹彩の境界)に対応する円形エッジを抽出する。具体的には、中心を同一とする2つの円形エッジ間に虹彩模様がある場合、外側の円形エッジを虹彩外形と、内側の円形エッジを瞳孔外形と判断する。   When the number of circular edges is 3 or more, it is checked whether or not the extracted circular edges include a circular edge corresponding to the outer shape of the contact lens, and the presence or absence of the contact lens is identified. In step S205, a circular edge corresponding to the iris outer shape and a circular edge corresponding to the pupil outer shape (a boundary between the pupil and the iris) are extracted from the extracted circular edges. Specifically, when there is an iris pattern between two circular edges having the same center, it is determined that the outer circular edge is an iris outline and the inner circular edge is a pupil outline.

ステップS206では、虹彩外形及び瞳孔外形に対応する円形エッジ以外の円形エッジがコンタクトレンズの外形に対応する円形エッジかどうかを判断するために、それらの円形エッジの大きさを検出する。コンタクトレンズは、虹彩の大きさに対して所定の範囲の大きさに作成するので、円形エッジの大きさを検出することにより、コンタクトレンズに対応するものかどうかを識別できる。一般に、ハードコンタクトレンズは虹彩外形に対して0.5〜1.1倍の大きさに作成し、ソフトコンタクトレンズは虹彩外形に対して1.0〜1.5倍の大きさに作成する。したがって、虹彩外形に対して0.5〜1.5倍の大きさの円形エッジはコンタクトレンズに対応する円形エッジと判断することができる。   In step S206, in order to determine whether a circular edge other than the circular edge corresponding to the iris outline and the pupil outline is a circular edge corresponding to the outline of the contact lens, the size of these circular edges is detected. Since the contact lens is created in a predetermined range with respect to the size of the iris, it is possible to identify whether the contact lens corresponds to the contact lens by detecting the size of the circular edge. In general, the hard contact lens is made 0.5 to 1.1 times larger than the iris outline, and the soft contact lens is made 1.0 to 1.5 times larger than the iris outline. Accordingly, a circular edge having a size 0.5 to 1.5 times the iris outline can be determined as a circular edge corresponding to the contact lens.

したがって、ステップS207において、虹彩外形及び瞳孔外形に対応する円形エッジ以外の円形エッジの大きさが、規定範囲内(例えば、虹彩外形に対して0.5〜1.5倍)である場合、コンタクトレンズを装着していると判断し、眼鏡等を使用している旨出力する(ステップS208)。一方、規定範囲内でない場合は、検出された虹彩外形及び瞳孔外形以外の円形エッジがコンタクトレンズに対応するものでないと考えられるので、コンタクトレンズを装着していないと判断し、眼鏡等を使用していない旨出力する(ステップS209)。なお、コンタクトレンズの装着状態が、虹彩外形又は瞳孔外形と一致する状態も考えられるが、このような状態となる期間は少ないので、再度目画像の取得を行うようにすれば問題は生じない。   Therefore, in step S207, when the size of the circular edge other than the circular edge corresponding to the iris outline and the pupil outline is within a specified range (for example, 0.5 to 1.5 times the iris outline), the contact It is determined that the lens is attached, and a message indicating that glasses are being used is output (step S208). On the other hand, if it is not within the specified range, it is considered that the circular edges other than the detected iris outline and pupil outline do not correspond to the contact lens, so it is determined that the contact lens is not worn and glasses etc. are used. Is output (step S209). Although a state in which the contact lens is attached may coincide with the iris outline or the pupil outline, there is little period for such a state, and there is no problem if the eye image is acquired again.

図2に戻って、ステップS106の処理結果を参照し(ステップS107)、眼鏡等を使用していない場合は、ステップS112に移り、報知2を出力部15から出力して終了する。報知2は、例えば、眼鏡等を使用していない旨の表示出力又は音声出力、及び眼鏡等の使用を求める表示出力又は音声出力である。眼鏡等を使用している場合は、ステップS108に移り、ステップS104で取得した目画像データを利用して虹彩認証を行う。   Returning to FIG. 2, the processing result of step S106 is referred to (step S107), and when glasses or the like are not used, the process proceeds to step S112, where notification 2 is output from the output unit 15 and the process ends. The notification 2 is, for example, display output or sound output indicating that glasses are not used, and display output or sound output for requesting use of glasses or the like. If glasses are used, the process proceeds to step S108, and iris authentication is performed using the eye image data acquired in step S104.

目画像データを利用した虹彩認証について、図4に基づいて説明する。ステップS301では、ステップS104で取得した目画像データに対して輪郭強調処理を施す。輪郭強調処理自体は周知であるので説明を省略する。輪郭強調処理を行うことにより、瞳孔を中心に、瞳孔と虹彩の境界、及び虹彩の外形が強調される。なお、この処理は、コンタクトレンズ識別処理を行っている場合、ステップS201で取得した輪郭強調処理画像を利用することにより、省略可能である。   Iris authentication using eye image data will be described with reference to FIG. In step S301, contour enhancement processing is performed on the eye image data acquired in step S104. Since the contour emphasis processing itself is well known, the description thereof is omitted. By performing the contour emphasis processing, the boundary between the pupil and the iris and the outer shape of the iris are emphasized around the pupil. Note that this process can be omitted by using the contour enhancement image acquired in step S201 when the contact lens identification process is performed.

ステップS302では、輪郭強調された画像から円形の境界(円形エッジ)を抽出する。既述のように、虹彩部分の強調画像では、瞳孔と虹彩の境界、及び虹彩の外形が円形エッジとして抽出されるとともに、コンタクトレンズが撮影されている場合はその輪郭も円形エッジとして抽出される。この処理も、コンタクトレンズ識別処理を行っている場合、ステップS203で抽出した円形エッジを利用することにより、省略可能である。   In step S302, a circular boundary (circular edge) is extracted from the contour-enhanced image. As described above, in the enhanced image of the iris portion, the boundary between the pupil and the iris and the outer shape of the iris are extracted as circular edges, and when the contact lens is photographed, the contour is also extracted as a circular edge. . This process can also be omitted by using the circular edge extracted in step S203 when the contact lens identification process is performed.

ステップS303では、抽出した円形エッジのうち、虹彩外形に対応する円形エッジと瞳孔外形(瞳孔と虹彩の境界)に対応する円形エッジを抽出する。具体的には、円形エッジの中に虹彩模様がある場合、その円形エッジを虹彩外形に対応するものと判断し、虹彩外形に対応する円形エッジ中心部にある円形エッジを瞳孔外形に対応する円形エッジと判断する。この処理も、コンタクトレンズ識別処理を行っている場合、ステップS205で抽出した虹彩外形に対応する円形エッジと瞳孔外形に対応する円形エッジを利用することにより、省略可能である。   In step S303, out of the extracted circular edges, a circular edge corresponding to the iris outer shape and a circular edge corresponding to the pupil outer shape (boundary between the pupil and the iris) are extracted. Specifically, if there is an iris pattern in the circular edge, it is determined that the circular edge corresponds to the iris outline, and the circular edge at the center of the circular edge corresponding to the iris outline corresponds to the pupil outline. Judge as an edge. This process can also be omitted by using a circular edge corresponding to the iris outline extracted in step S205 and a circular edge corresponding to the pupil outline when the contact lens identification process is performed.

ステップS304では、虹彩関連円形エッジ以外の円形エッジを除去して目画像の虹彩模様に基づいて虹彩コードを抽出する。虹彩コードの抽出は、虹彩外形と瞳孔外形間の領域の虹彩模様を、コード化することにより行う。そして、ステップS305では、ステップS304で抽出した虹彩コードと、記憶部13に記憶された車両使用許可者の虹彩コードとを比較する。ステップS303の虹彩コード抽出処理及びステップS305の虹彩コードの比較処理の詳細は、特許文献2に示されているので詳細な説明は省略する。   In step S304, circular codes other than the iris-related circular edges are removed, and an iris code is extracted based on the iris pattern of the eye image. The iris code is extracted by coding an iris pattern in a region between the iris outline and the pupil outline. In step S305, the iris code extracted in step S304 is compared with the iris code of the vehicle use authorized person stored in the storage unit 13. Details of the iris code extraction process in step S303 and the iris code comparison process in step S305 are shown in Patent Document 2, and thus detailed description thereof is omitted.

ステップS306において、虹彩コードが一致していると判断される場合、認証が成功である旨出力する(ステップS307)。一方、虹彩コードが一致していると判断されない場合は、認証が失敗である旨出力する(ステップS308)。   If it is determined in step S306 that the iris codes match, a message indicating that the authentication is successful is output (step S307). On the other hand, if it is not determined that the iris codes match, an output indicating that the authentication has failed is output (step S308).

図2に戻って、ステップS108の処理結果を参照し(ステップS109)、認証失敗である場合は、ステップS113に移り、報知3を出力部15から出力して終了する。報知3は、虹彩認証が失敗である旨の表示出力又は音声出力である。認証成功である場合は、ステップS110に移り、エンジン始動許可を車両側インタフェース17を介して車両制御部4に出力する。   Returning to FIG. 2, the processing result of step S108 is referred to (step S109). If the authentication is unsuccessful, the process proceeds to step S113, the notification 3 is output from the output unit 15, and the process is terminated. The notification 3 is a display output or an audio output indicating that the iris authentication has failed. If the authentication is successful, the process proceeds to step S110, and the engine start permission is output to the vehicle control unit 4 via the vehicle side interface 17.

以上の説明では、虹彩認証処理を眼鏡等の識別処理の後に行っているが、先に行ってもよい。また、眼鏡等使用の識別処理において、眼鏡の装着の有無の判断を先に行い、眼鏡の装着していない判断された場合にコンタクトレンズの装着の有無の判断を行うようにしたが、先にコンタクトレンズの装着の有無の判断を行ってもよい。   In the above description, the iris authentication process is performed after the identification process of glasses or the like, but may be performed first. Also, in the identification process for the use of eyeglasses, etc., the presence / absence of eyeglasses is determined first, and when it is determined that the eyeglasses are not worn, the presence / absence of contact lenses is determined. It may be determined whether or not a contact lens is attached.

虹彩認証処理を先に行い、コンタクトレンズの装着の有無の判断を先に行う場合の動作を、図6、図7を用いて説明する。   The operation when the iris authentication process is performed first and the determination as to whether or not the contact lens is mounted is performed first will be described with reference to FIGS.

図6のステップS301、S302、S303、及びS311は、図2のステップS101、S102、S103、及びS111と同様の処理であるので、説明を省略する。ステップS303で、免許証情報が取得できた場合は、ステップS304で、目画像データの取得を行う。目画像データの取得は、目画像取得部12aを動作させて行う。そして、ステップS304で取得した目画像データを利用して虹彩認証を行う(ステップS305)。虹彩認証処理は、図4に示した手順で行う。   Steps S301, S302, S303, and S311 in FIG. 6 are the same as steps S101, S102, S103, and S111 in FIG. If the license information can be acquired in step S303, eye image data is acquired in step S304. The eye image data is acquired by operating the eye image acquisition unit 12a. Then, iris authentication is performed using the eye image data acquired in step S304 (step S305). The iris authentication process is performed according to the procedure shown in FIG.

続いて、ステップS305の処理結果を参照し(ステップS306)、認証失敗である場合は、ステップS312に移り、報知3を出力部15から出力して終了する。報知3は、虹彩認証が失敗である旨の表示出力又は音声出力である。認証成功である場合は、ステップS307に移り、電子運転免許証2から取得した免許証情報の運転条件に「眼鏡等」が含まれているかどうかを判断する。「眼鏡等」が含まれていない場合は、眼鏡等の装着の有無を判別する必要がないので、ステップS310に移り、エンジン始動許可を車両側インタフェース17を介して車両制御部4に出力する。免許証情報の運転条件に「眼鏡等」が含まれている場合は、ステップS308で、眼鏡等使用の識別を行う。   Subsequently, the processing result of step S305 is referred to (step S306). If the authentication is unsuccessful, the process proceeds to step S312 and notification 3 is output from the output unit 15 and the process ends. The notification 3 is a display output or an audio output indicating that the iris authentication has failed. If the authentication is successful, the process proceeds to step S307, and it is determined whether or not “glasses etc.” is included in the driving conditions of the license information acquired from the electronic driving license 2. If “glasses etc.” is not included, it is not necessary to determine whether or not glasses etc. are worn, so the process proceeds to step S310, and engine start permission is output to the vehicle control unit 4 via the vehicle-side interface 17. If the driving information of the license information includes “glasses etc.”, the use of glasses etc. is identified in step S308.

眼鏡等使用の識別処理は、図7に示す手順で行う。ステップS401では、ステップS304で取得した目画像データに対して輪郭強調処理を施す。輪郭強調処理を行うことにより、瞳孔を中心に、瞳孔と虹彩の境界、及び虹彩の外形が強調される。そして、ステップS402で、輪郭強調された目画像から円形の境界(円形エッジ)を抽出する。既述のように、虹彩部分の強調画像では、瞳孔と虹彩の境界、及び虹彩の外形が円形エッジとして抽出される。なお、ステップS401、S402の処理は、虹彩認証処理における輪郭抽出処理(ステップS301)及び円形エッジの抽出処理(ステップS302)の結果を利用することにより、省略可能である。   The identification process of using glasses or the like is performed according to the procedure shown in FIG. In step S401, contour enhancement processing is performed on the eye image data acquired in step S304. By performing the contour emphasis processing, the boundary between the pupil and the iris and the outer shape of the iris are emphasized around the pupil. In step S402, a circular boundary (circular edge) is extracted from the contour-enhanced eye image. As described above, in the enhanced image of the iris portion, the boundary between the pupil and the iris and the outer shape of the iris are extracted as circular edges. Note that the processes in steps S401 and S402 can be omitted by using the results of the contour extraction process (step S301) and the circular edge extraction process (step S302) in the iris authentication process.

ステップS404では、抽出された円形エッジの数が3以上かどうかを判断する。コンタクトレンズを使用していない場合は、円形形状は、瞳孔と虹彩の境界と、虹彩の外形だけであるので、円形エッジの数が3以上でない場合、コンタクトレンズが写っていないと判断できる。したがって、円形エッジの数が3以上でない場合は、コンタクトレンズを装着していないと判断し、ステップS408に移る。   In step S404, it is determined whether the number of extracted circular edges is 3 or more. When the contact lens is not used, the circular shape is only the boundary between the pupil and the iris and the outer shape of the iris. Therefore, when the number of circular edges is not 3 or more, it can be determined that the contact lens is not captured. Therefore, if the number of circular edges is not 3 or more, it is determined that no contact lens is attached, and the process proceeds to step S408.

円形エッジの数が3以上である場合、抽出された円形エッジの中にコンタクトレンズの外形に対応する円形エッジが含まれるかどうかを調べ、コンタクトレンズの装着の有無を識別する。ステップS404では、抽出した円形エッジのうち、虹彩外形に対応する円形エッジと瞳孔外形(瞳孔と虹彩の境界)に対応する円形エッジを抽出する。具体的には、中心を同一とする2つの円形エッジ間に虹彩模様がある場合、外側の円形エッジを虹彩外形と、内側の円形エッジを瞳孔外形と判断する。   When the number of circular edges is 3 or more, it is checked whether or not the extracted circular edges include a circular edge corresponding to the outer shape of the contact lens, and the presence or absence of the contact lens is identified. In step S404, a circular edge corresponding to the iris outer shape and a circular edge corresponding to the pupil outer shape (a boundary between the pupil and the iris) are extracted from the extracted circular edges. Specifically, when there is an iris pattern between two circular edges having the same center, it is determined that the outer circular edge is an iris outline and the inner circular edge is a pupil outline.

ステップS405では、虹彩外形及び瞳孔外形に対応する円形エッジ以外の円形エッジがコンタクトレンズの外形に対応する円形エッジかどうかを判断するために、それらの円形エッジの大きさを検出する。コンタクトレンズは、虹彩の大きさに対して所定の範囲の大きさに作成するので、円形エッジの大きさを検出することにより、コンタクトレンズに対応するものかどうかを識別できる。一般に、ハードコンタクトレンズは虹彩外形に対して0.5〜1.1倍の大きさに作成し、ソフトコンタクトレンズは虹彩外形に対して1.0〜1.5倍の大きさに作成する。したがって、虹彩外形に対して0.5〜1.5倍の大きさの円形エッジはコンタクトレンズに対応する円形エッジと判断することができる。   In step S405, in order to determine whether a circular edge other than the circular edge corresponding to the iris outline and the pupil outline is a circular edge corresponding to the outline of the contact lens, the size of these circular edges is detected. Since the contact lens is created in a predetermined range with respect to the size of the iris, it is possible to identify whether the contact lens corresponds to the contact lens by detecting the size of the circular edge. In general, the hard contact lens is made 0.5 to 1.1 times larger than the iris outline, and the soft contact lens is made 1.0 to 1.5 times larger than the iris outline. Accordingly, a circular edge having a size 0.5 to 1.5 times the iris outline can be determined as a circular edge corresponding to the contact lens.

したがって、ステップS406において、虹彩外形及び瞳孔外形に対応する円形エッジ以外の円形エッジの大きさが、規定範囲内(例えば、虹彩外形に対して0.5〜1.5倍)である場合、コンタクトレンズを装着していると判断し、眼鏡等を使用している旨出力する(ステップS407)。一方、規定範囲内でない場合は、コンタクトレンズを装着していないと判断し、ステップS408に移る。   Therefore, in step S406, if the size of the circular edge other than the circular edge corresponding to the iris outline and the pupil outline is within a specified range (for example, 0.5 to 1.5 times the iris outline), contact is made. It is determined that the lens is attached, and an output indicating that glasses are being used is output (step S407). On the other hand, if it is not within the specified range, it is determined that the contact lens is not attached, and the process proceeds to step S408.

ステップS408では、顔画像データに対して輪郭強調を施す。そして、輪郭強調された顔画像中に眼鏡形状があるかどうかを判断し、ある場合は、眼鏡を装着していると判断し、眼鏡等を使用している旨出力する(ステップS407)。輪郭強調された画像中に眼鏡形状がないと判断された場合、眼鏡等を装着していないと判断し、眼鏡等を使用していない旨出力する(ステップS410)。   In step S408, contour enhancement is performed on the face image data. Then, it is determined whether or not the face image with the contour emphasis has a spectacle shape, and if there is, it is determined that the spectacles are worn, and the fact that the spectacles are being used is output (step S407). If it is determined that there is no spectacle shape in the contour-enhanced image, it is determined that no spectacles or the like are worn, and an indication that the spectacles or the like are not used is output (step S410).

図6に戻って、ステップS308の処理結果を参照し(ステップS309)、眼鏡等を使用していない場合は、ステップS313に移り、報知2を出力部15から出力して終了する。報知2は、例えば、眼鏡等を使用していない旨の表示出力又は音声出力、及び眼鏡等の使用を求める表示出力又は音声出力である。眼鏡等を使用している場合は、ステップS310に移り、エンジン始動許可を車両側インタフェース17を介して車両制御部4に出力する。   Returning to FIG. 6, the processing result of step S308 is referred to (step S309). When glasses or the like is not used, the process proceeds to step S313, and notification 2 is output from the output unit 15 and the process ends. The notification 2 is, for example, display output or sound output indicating that glasses are not used, and display output or sound output for requesting use of glasses or the like. If glasses or the like are used, the process proceeds to step S310, and the engine start permission is output to the vehicle control unit 4 via the vehicle side interface 17.

以上の説明から明らかなように、虹彩認証処理を先に行い、コンタクトレンズの装着の有無の判断を先に行うようにすると、免許証情報の運転条件に「眼鏡等」が含まれている場合、及び車両使用者がコンタクトレンズを装着している場合、車両使用者の顔画像データの取得及び画像処理を省略することができ、車両の運転の可否を判断を迅速に行うことができる。   As is clear from the above explanation, if the iris authentication process is performed first and the contact lens is mounted first or not, the driving conditions of the license information include “glasses”. When the vehicle user wears the contact lens, the acquisition of the face image data and the image processing of the vehicle user can be omitted, and it is possible to quickly determine whether or not the vehicle can be driven.

また、虹彩認証処理を先に行い、眼鏡の装着の有無の判断を先に行うようにしてもよいし、虹彩認証処理を後に行い、コンタクトレンズの装着の有無の判断を先に行うようにしてもよい。   Further, the iris authentication process may be performed first, and the determination of whether or not the glasses are worn may be performed first, or the iris authentication process may be performed later and the determination of whether or not the contact lenses are mounted is performed first. Also good.

本発明は、目画像データから円形エッジを抽出し、抽出した円形エッジの数及び大きさに基づいてコンタクトレンズの装着を識別するので、車両の使用者がコンタクトレンズを装着しているかを確実に識別することを可能とする車両使用管理装置等として有用である。   Since the present invention extracts circular edges from eye image data and identifies the wearing of contact lenses based on the number and size of the extracted circular edges, it is ensured that the user of the vehicle is wearing the contact lenses. This is useful as a vehicle use management device that can be identified.

本発明の実施の形態の車両使用管理装置の概略機能ブロック図Schematic functional block diagram of a vehicle use management apparatus according to an embodiment of the present invention 本発明の実施の形態の車両使用管理装置の基本動作を示すフロー図The flowchart which shows the basic operation | movement of the vehicle use management apparatus of embodiment of this invention. 本発明の実施の形態の車両使用管理装置における眼鏡等の識別動作を示すフロー図The flowchart which shows identification operation | movement of glasses etc. in the vehicle use management apparatus of embodiment of this invention 本発明の実施の形態の車両使用管理装置における虹彩認証動作を示すフロー図The flowchart which shows the iris authentication operation | movement in the vehicle use management apparatus of embodiment of this invention. 本発明の実施の形態の車両使用管理装置における輪郭強調された目画像の一例を模式的に示す図The figure which shows typically an example of the eye image by which the outline was emphasized in the vehicle use management apparatus of embodiment of this invention. 本発明の実施の形態の車両使用管理装置の基本動作の他の例を示すフロー図The flowchart which shows the other example of basic operation | movement of the vehicle use management apparatus of embodiment of this invention. 本発明の実施の形態の車両使用管理装置における眼鏡等の識別動作の他の例を示すフロー図The flowchart which shows the other example of identification operation | movement of glasses etc. in the vehicle use management apparatus of embodiment of this invention 本発明の実施の形態の車両管理装置における顔画像及び目画像取得の様子を模式的に示す図The figure which shows typically the mode of face image and eye image acquisition in the vehicle management apparatus of embodiment of this invention

符号の説明Explanation of symbols

1・・・車両使用管理装置
2・・・電子運転免許証
3・・・車両状態検出部
4・・・車両制御部
11・・・カード読込み書込み部
12a・・・目画像取得部
12b・・・顔画像取得部
13・・・記憶部
14・・・制御部
15・・・出力部
16・・・操作部
17・・・車両側インタフェース
20・・・運転者
21・・・目画像撮影用カメラ
22、23・・・顔画像撮影用カメラ
21a、22a、23a、23b・・・撮影範囲
30・・・近赤外照明装置
DESCRIPTION OF SYMBOLS 1 ... Vehicle use management apparatus 2 ... Electronic driver's license 3 ... Vehicle state detection part 4 ... Vehicle control part 11 ... Card reading / writing part 12a ... Eye image acquisition part 12b ... -Face image acquisition part 13 ... Storage part 14 ... Control part 15 ... Output part 16 ... Operation part 17 ... Vehicle side interface 20 ... Driver 21 ... For eye image photography Cameras 22, 23... Face image capturing cameras 21a, 22a, 23a, 23b... Shooting range 30.

Claims (6)

車両の使用管理を行う車両管理装置であって、
前記車両を使用する車両使用者の目画像データを取得する目画像取得部と、
前記目画像取得部で取得した目画像データに基づいて、前記車両使用者のコンタクトレンズの装着を識別するコンタクトレンズ識別部とを備え、
前記コンタクトレンズ識別部は、前記目画像データから円形エッジを抽出する処理を含み、抽出した前記円形エッジの数に基づいてコンタクトレンズの装着を識別する車両管理装置。
A vehicle management device for managing the use of a vehicle,
An eye image acquisition unit for acquiring eye image data of a vehicle user who uses the vehicle;
A contact lens identification unit for identifying wearing of the contact lens of the vehicle user based on the eye image data acquired by the eye image acquisition unit;
The contact lens identification unit includes a process of extracting a circular edge from the eye image data, and identifies a wearing of a contact lens based on the extracted number of the circular edges.
請求項1記載の車両管理装置であって、
前記円形エッジは、少なくとも瞳孔の外形エッジ及び虹彩の外形エッジを含む車両管理装置。
The vehicle management device according to claim 1,
The circular edge includes at least a pupil outer edge and an iris outer edge.
請求項1又は2記載の車両管理装置であって、
前記車両を使用する車両使用者の目周辺の顔画像データを取得する顔画像取得部と、
前記顔画像取得部で取得した顔画像データに基づいて、前記車両使用者の眼鏡の装着を識別する眼鏡識別部とを備える車両管理装置。
The vehicle management device according to claim 1 or 2,
A face image acquisition unit for acquiring face image data around eyes of a vehicle user who uses the vehicle;
A vehicle management apparatus comprising: an eyeglass identification unit that identifies wearing of the vehicle user's eyeglasses based on face image data acquired by the face image acquisition unit.
請求項3記載の車両管理装置であって、
車両使用許可者の虹彩情報を含む認証情報を記憶する認証情報記憶部と、
前記目画像データから抽出した虹彩情報と、前記認証情報記憶部に記憶された虹彩情報との対比処理を含む使用者認証処理を行う認証処理部と、
電子運転免許証に記憶された、車両運転の条件を示す運転条件情報を含むデータを取得するデータ取得部と、
前記車両使用者による当該車両の運転の可否を判断する運転可否判別部とを備え、
前記運転可否判別部は、前記データ取得部を介して取得した前記車両使用者の前記運転条件情報が眼鏡等の使用を示している場合、前記コンタクトレンズ識別部及び前記眼鏡識別部の少なくとも一方の識別結果と、前記認証処理部の使用者認証処理結果に基づいて、当該車両の運転の可否を判断する車両管理装置。
The vehicle management device according to claim 3,
An authentication information storage unit for storing authentication information including iris information of a vehicle use authorized person;
An authentication processing unit that performs a user authentication process including a comparison process between the iris information extracted from the eye image data and the iris information stored in the authentication information storage unit;
A data acquisition unit for acquiring data including driving condition information indicating conditions of vehicle driving stored in the electronic driving license;
A driving availability determination unit that determines whether the vehicle user can drive the vehicle;
When the driving condition information of the vehicle user acquired through the data acquisition unit indicates the use of glasses or the like, the driving availability determination unit is configured to use at least one of the contact lens identification unit and the glasses identification unit. A vehicle management apparatus that determines whether or not the vehicle can be driven based on an identification result and a user authentication processing result of the authentication processing unit.
請求項4記載の車両管理装置であって、
コンタクトレンズ識別部は、前記認証処理部の認証処理に先立ってコンタクトレンズの装着の識別を行う車両管理装置。
The vehicle management device according to claim 4,
The contact lens identification unit is a vehicle management device that identifies wearing of a contact lens prior to the authentication process of the authentication processing unit.
請求項5記載の車両管理装置であって、
コンタクトレンズ識別部は、前記眼鏡識別部が眼鏡の装着を識別できない場合にコンタクトレンズの装着の識別を行う車両管理装置。
The vehicle management device according to claim 5,
The contact lens identifying unit is a vehicle management device that identifies wearing of a contact lens when the glasses identifying unit cannot identify wearing of glasses.
JP2006075244A 2006-03-17 2006-03-17 Vehicle management device Withdrawn JP2007246031A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006075244A JP2007246031A (en) 2006-03-17 2006-03-17 Vehicle management device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006075244A JP2007246031A (en) 2006-03-17 2006-03-17 Vehicle management device

Publications (1)

Publication Number Publication Date
JP2007246031A true JP2007246031A (en) 2007-09-27

Family

ID=38590749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006075244A Withdrawn JP2007246031A (en) 2006-03-17 2006-03-17 Vehicle management device

Country Status (1)

Country Link
JP (1) JP2007246031A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012002069A1 (en) * 2010-06-29 2012-01-05 富士フイルム株式会社 Method and device for shape extraction, and dimension measuring device and distance measuring device
CN105480152A (en) * 2015-12-04 2016-04-13 北海创思电子科技产业有限公司 Automobile driving recorder without shooting dead angle
WO2018066023A1 (en) * 2016-10-03 2018-04-12 三菱電機株式会社 Driving authorization transfer determination device and driving authorization transfer determination method
CN112298103A (en) * 2019-07-31 2021-02-02 比亚迪股份有限公司 Vehicle control method and device, storage medium, electronic equipment and vehicle
US11295128B2 (en) 2017-08-30 2022-04-05 Nec Corporation Iris recognition system, iris recognition method, and storage medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012002069A1 (en) * 2010-06-29 2012-01-05 富士フイルム株式会社 Method and device for shape extraction, and dimension measuring device and distance measuring device
JP5620990B2 (en) * 2010-06-29 2014-11-05 富士フイルム株式会社 Shape extraction method and apparatus, and dimension measuring apparatus and distance measuring apparatus
CN105480152A (en) * 2015-12-04 2016-04-13 北海创思电子科技产业有限公司 Automobile driving recorder without shooting dead angle
WO2018066023A1 (en) * 2016-10-03 2018-04-12 三菱電機株式会社 Driving authorization transfer determination device and driving authorization transfer determination method
JPWO2018066023A1 (en) * 2016-10-03 2019-02-14 三菱電機株式会社 Driving authority shift determination device and driving authority shift determination method
US11295128B2 (en) 2017-08-30 2022-04-05 Nec Corporation Iris recognition system, iris recognition method, and storage medium
US11670066B2 (en) 2017-08-30 2023-06-06 Nec Corporation Iris recognition system, iris recognition method, and storage medium
CN112298103A (en) * 2019-07-31 2021-02-02 比亚迪股份有限公司 Vehicle control method and device, storage medium, electronic equipment and vehicle

Similar Documents

Publication Publication Date Title
US10205883B2 (en) Display control method, terminal device, and storage medium
US20080063244A1 (en) Biometric apparatus and biometric method
EP1605412A2 (en) Multi-identification method and multi-identification apparatus
US8493178B2 (en) Forged face detecting method and apparatus thereof
JP4760049B2 (en) Face authentication device, face authentication method, electronic device incorporating the face authentication device, and recording medium recording the face authentication program
JP2009086951A (en) Registration device, registration method, authentication device and authentication method
JP2007246031A (en) Vehicle management device
JP6267025B2 (en) Communication terminal and communication terminal authentication method
JP2006251946A (en) Entry management device
KR20190130448A (en) Electronic device for perfoming biometric authentication and operation method thereof
JP2006212185A (en) Living body discrimination device, authentication apparatus and living body discrimination method
KR20200080533A (en) Apparatus and Method for Recognizing Fake Face By Using Minutia Data Variation
JP2009015518A (en) Eye image photographing device and authentication device
JP2017045346A (en) Biometric authentication apparatus and method
JP4680100B2 (en) Image authentication apparatus, photographing apparatus, and image authentication system
JP2006318374A (en) Glasses determination device, authentication device, and glasses determination method
JP4811873B2 (en) Authentication device
JP2020144692A (en) Face collation device, face collation system, face collation method, and information recording medium issuance system
JP6497272B2 (en) Information code reading system and information code reading device
JP2009205203A (en) Iris authentication device
JP2010072693A (en) Authentication device and imaging device
JP2007082655A (en) Ocular image photographing device, living body identifying device, authentication device and registration device using the same, and method of photographing ocular image
US20120307090A1 (en) Imaging apparatus and control method configured to authenticate a user
JPH0721366A (en) Individual identifying device
CN113553890A (en) Multi-modal biological feature fusion method and device, storage medium and equipment

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071113

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090309

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110530