JP6182830B2 - Electronics - Google Patents

Electronics Download PDF

Info

Publication number
JP6182830B2
JP6182830B2 JP2012131571A JP2012131571A JP6182830B2 JP 6182830 B2 JP6182830 B2 JP 6182830B2 JP 2012131571 A JP2012131571 A JP 2012131571A JP 2012131571 A JP2012131571 A JP 2012131571A JP 6182830 B2 JP6182830 B2 JP 6182830B2
Authority
JP
Japan
Prior art keywords
unit
electronic device
light
imaging
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012131571A
Other languages
Japanese (ja)
Other versions
JP2013257609A (en
Inventor
菅原 寛
寛 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MOFIRIA CORPORATION
Original Assignee
MOFIRIA CORPORATION
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MOFIRIA CORPORATION filed Critical MOFIRIA CORPORATION
Priority to JP2012131571A priority Critical patent/JP6182830B2/en
Priority to CN201310215007.0A priority patent/CN103488969A/en
Publication of JP2013257609A publication Critical patent/JP2013257609A/en
Application granted granted Critical
Publication of JP6182830B2 publication Critical patent/JP6182830B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)
  • Telephone Function (AREA)

Description

本発明は電子機器に関する。より具体的には、指紋や血管のパターン等といった生体情報を取得する機能を備えた電子機器に関する。   The present invention relates to an electronic device. More specifically, the present invention relates to an electronic device having a function of acquiring biological information such as a fingerprint or a blood vessel pattern.

近年、セキュリティ保護の観点から、指紋、虹彩および血管のパターン等といった生体情報を用いた生体認証技術が注目されている。そして、現金自動預け払い機(ATM)、入退室管理装置、パーソナルコンピュータ、携帯情報端末および携帯電話などといった種々の電子機器に、生体認証技術が導入されている。   In recent years, from the viewpoint of security protection, biometric authentication technology using biometric information such as fingerprints, irises, and blood vessel patterns has attracted attention. Biometric authentication technology has been introduced into various electronic devices such as an automated teller machine (ATM), an entrance / exit management device, a personal computer, a portable information terminal, and a mobile phone.

例えば、静脈パターンは、生体内を透過した近赤外光や生体内で反射した近赤外光を撮像することによって取得することができる。近赤外光は、生体組織に対する透過性が高い。一方、特定の波長(800ナノメートル前後)の近赤外光は静脈の血液中の還元ヘモグロビンに吸収されるといった特性を示す。従って、生体からの近赤外光を撮像した画像において、静脈パターンは影となって表れる。   For example, the vein pattern can be acquired by imaging near-infrared light transmitted through the living body or near-infrared light reflected within the living body. Near-infrared light is highly permeable to living tissue. On the other hand, near-infrared light having a specific wavelength (around 800 nanometers) exhibits a characteristic that it is absorbed by reduced hemoglobin in the blood of veins. Therefore, the vein pattern appears as a shadow in an image obtained by imaging near-infrared light from a living body.

携帯情報端末や携帯電話などの小型の電子機器用途としては、静脈パターン等といった生体情報の取得をする装置の小型化が必要である。ここで、エリアセンサを用いて生体画像を撮像するといった構成の装置では、結像のために対象物(生体)との間に所定の距離を確保する必要があり、小型化には限界がある。これに対して、ラインセンサを用いて生体画像を撮像するといった構成の装置は、前者の装置に比べてより小型化を図ることができる。例えば、特開2007−143866号公報(特許文献1)には、ラインセンサを用いた静脈画像撮像装置が記載されている。   In order to use small electronic devices such as portable information terminals and mobile phones, it is necessary to reduce the size of a device that acquires biological information such as vein patterns. Here, in an apparatus configured to capture a biological image using an area sensor, it is necessary to secure a predetermined distance from an object (living body) for imaging, and there is a limit to downsizing. . In contrast, an apparatus configured to capture a biological image using a line sensor can be further downsized as compared to the former apparatus. For example, Japanese Unexamined Patent Application Publication No. 2007-143866 (Patent Document 1) describes a vein image capturing apparatus using a line sensor.

特開2007−143866号公報JP 2007-143866 A

ラインセンサを用いて静脈パターン等といった生体情報を取得する場合、基本的には、ラインセンサと生体との位置関係を順次変えて複数の一次元画像情報を得るとともに、生体の位置情報の変化などに基づいて複数の一次元画像情報を二次元画像情報に展開する必要がある。   When acquiring biological information such as a vein pattern using a line sensor, basically, the positional relationship between the line sensor and the living body is sequentially changed to obtain a plurality of one-dimensional image information, and the positional information of the living body changes. It is necessary to develop a plurality of one-dimensional image information into two-dimensional image information based on the above.

上述した特許文献1では、ラインセンサに対する生体の移動を検出するために、付加的な検出手段としてロータリーエンコーダを用いている。この構成の装置にあっては、ラインセンサの他にロータリーエンコーダも合わせて実装する必要があり、装置が占有する体積を或る程度にしか小さくすることはできない。従って、一層の小型化が要求される電子機器用途には不向きであるし、ロータリーエンコーダ等のコストも嵩む。   In patent document 1 mentioned above, in order to detect the movement of the biological body with respect to a line sensor, the rotary encoder is used as an additional detection means. In the apparatus having this configuration, it is necessary to mount a rotary encoder in addition to the line sensor, and the volume occupied by the apparatus can be reduced only to a certain extent. Therefore, it is not suitable for electronic equipment applications that require further miniaturization, and the cost of a rotary encoder or the like increases.

また、例えば並んで配置された複数の撮像ラインを備えたラインセンサを用いて、それぞれの撮像ラインの信号(映像)の差分に基づいて生体の位置情報の変化などを取得するといった方法も考えられるが、ラインセンサのコストが嵩み、生体情報を取得する機能を実装した電子機器のコストアップ要因となる。   Further, for example, a method of using a line sensor including a plurality of imaging lines arranged side by side to acquire a change in position information of a living body based on a difference between signals (videos) of the respective imaging lines can be considered. However, the cost of the line sensor increases, and this increases the cost of an electronic device equipped with a function for acquiring biological information.

従って、本発明の目的は、小型化が可能であり、低コスト化も図ることができる、生体情報を取得する機能を備えた電子機器を提供することにある。   Accordingly, an object of the present invention is to provide an electronic device having a function of acquiring biological information that can be reduced in size and can be reduced in cost.

上記の目的を達成するための本発明の電子機器は、
画像を表示する表示部、
表示部の前面側に載置される生体の位置を検出する位置検出部、
表示部の端部に沿って線状に配置された撮像領域を有する撮像部、及び、
位置検出部からの情報と撮像部からの情報とに基づいて生体情報を生成する生体情報生成部を有する制御部、
を備えた電子機器である。
In order to achieve the above object, an electronic device of the present invention provides
A display for displaying images,
A position detection unit for detecting the position of a living body placed on the front side of the display unit;
An imaging unit having an imaging region arranged linearly along the edge of the display unit; and
A control unit having a biological information generation unit that generates biological information based on information from the position detection unit and information from the imaging unit;
Is an electronic device.

本発明に係る電子機器において、撮像部は、近赤外光画像および可視光画像の少なくとも一方を撮像する構成とすることができる。即ち、近赤外光画像を撮像する構成であってもよいし、可視光画像を撮像する構成であってもよいし、近赤外光画像および可視光画像の双方を撮像する構成であってもよい。   In the electronic apparatus according to the present invention, the imaging unit can be configured to capture at least one of a near-infrared light image and a visible light image. That is, it may be configured to capture a near-infrared light image, may be configured to capture a visible light image, or may be configured to capture both a near-infrared light image and a visible light image. Also good.

例えば、生体情報として指の静脈パターンを得るといった場合には、近赤外光画像を撮像する構成とすればよいし、生体情報として指の指紋パターンを得るといった場合には、可視光画像を撮像する構成とすればよい。指の静脈パターンと指紋パターンの双方を得るといった場合には、近赤外光画像および可視光画像の双方を撮像する構成とすればよい。   For example, when obtaining a finger vein pattern as biometric information, it may be configured to capture a near-infrared light image. When obtaining a finger fingerprint pattern as biometric information, a visible light image is captured. What is necessary is just to be the structure to do. In the case of obtaining both the finger vein pattern and the fingerprint pattern, a configuration may be adopted in which both a near-infrared light image and a visible light image are captured.

上記の好ましい構成を含む本発明に係る電子機器にあっては、表示部から近赤外光が照射され、撮像部は、生体内で反射した近赤外光に基づく近赤外光画像を撮像する構成とすることができる。   In the electronic apparatus according to the present invention including the above preferable configuration, near infrared light is irradiated from the display unit, and the imaging unit captures a near infrared light image based on the near infrared light reflected in the living body. It can be set as the structure to do.

表示部から近赤外光が照射される構成の本発明に係る電子機器にあっては、表示部は透過型の表示パネルから成り、表示部の背面には、光を照射する照明部が配置されており、照明部は、可視光を発する第1の光源と、近赤外光を発する第2の光源とを備えており、照明部の発する近赤外光が表示部から照射される構成とすることができる。この場合において、第2の光源は、近赤外光画像を撮像する際に点灯状態とされる構成とすることができる。   In the electronic apparatus according to the present invention configured to irradiate near infrared light from the display unit, the display unit includes a transmissive display panel, and an illumination unit for irradiating light is disposed on the back of the display unit. The illumination unit includes a first light source that emits visible light and a second light source that emits near-infrared light, and the display unit emits near-infrared light emitted from the illumination unit. It can be. In this case, the second light source can be configured to be turned on when a near-infrared light image is captured.

上記の各種の好ましい構成を含む本発明に係る電子機器において、撮像部は、導光用の光学部材とラインセンサから構成されている構成とすることができる。この場合において、ラインセンサは、電子機器内の空きスペースに配置され、光学部材は、撮像領域から入射する光をラインセンサの受光面に導くように配置されている構成とすることができる。   In the electronic apparatus according to the present invention including the various preferable configurations described above, the imaging unit can be configured to include a light guide optical member and a line sensor. In this case, the line sensor may be arranged in an empty space in the electronic device, and the optical member may be arranged to guide light incident from the imaging region to the light receiving surface of the line sensor.

上記の各種の好ましい構成を含む本発明に係る電子機器において、制御部は、生成した生体情報の登録処理を行う生体情報登録部と、生成した生体情報を用いて認証処理を行う生体情報認証部とを更に備えている構成とすることができる。 In the electronic device according to the present invention including the various preferable configurations described above, the control unit includes a biometric information registration unit that performs registration processing of the generated biometric information, and a biometric information authentication unit that performs authentication processing using the generated biometric information It can be set as the structure further provided.

また、上記の各種の好ましい構成を含む本発明に係る電子機器は、表示部上に載置される生体の移動に対応して所定の動作を行う携帯用の電子機器であり、電子機器に所定の動作を行わせる際の操作と同様の操作により生体情報を生成する構成とすることができる。   Moreover, the electronic device according to the present invention including the above-described various preferable configurations is a portable electronic device that performs a predetermined operation in response to movement of a living body placed on the display unit. It can be set as the structure which produces | generates biometric information by operation similar to operation when performing this operation | movement.

上記の各種の好ましい構成を含む本発明の電子機器(以下、単に、本発明と呼ぶ場合がある)の種類は特に限定するものではなく、テレビジョン受像機、コンピュータディスプレイ、ノート型コンピュータあるいはタブレット型コンピュータといった比較的大型の電子機器や、携帯情報端末、携帯電話、あるいはこれらを統合した電子機器といった携帯用の電子機器を例示することができる。本発明に用いられる表示部として、例えば自発光型の表示パネルや透過型の表示パネルを用いることができる。表示部は、モノクロ表示であってもよいし、カラー表示であってもよい。後述する実施形態にあっては、表示部として、アクティブマトリクス方式の透過型液晶表示パネルを用いる。   The type of the electronic apparatus of the present invention including the above-described various preferred configurations (hereinafter simply referred to as the present invention) is not particularly limited, and is a television receiver, a computer display, a notebook computer, or a tablet type. Examples include relatively large electronic devices such as computers, and portable electronic devices such as portable information terminals, mobile phones, and electronic devices in which these are integrated. As the display unit used in the present invention, for example, a self-luminous display panel or a transmissive display panel can be used. The display unit may be a monochrome display or a color display. In an embodiment described later, an active matrix transmissive liquid crystal display panel is used as the display unit.

表示部の形状は特に限定するものではなく、横長の矩形状であってもよいし縦長の矩形状であってもよい。表示部の画素(ピクセル)の数PX×PYを(PX,PY)で表記したとき、例えば横長の矩形状の場合には、(640,480)、(800,600)、(1024,768)、(1280,720)、(1440,1080)、(1920,1080)等の画像表示用解像度の幾つかを例示することができ、縦長の矩形状の場合には相互に値を入れ替えた解像度を例示することができるが、これらの値に限定するものではない。 The shape of the display unit is not particularly limited, and may be a horizontally long rectangular shape or a vertically long rectangular shape. When the number of pixels (pixels) P X × P Y in the display unit is expressed by (P X , P Y ), for example, in the case of a horizontally long rectangle, (640, 480), (800, 600), ( 1024, 768), (1280, 720), (1440, 1080), (1920, 1080), etc., can be exemplified, and in the case of a vertically long rectangular shape, values are mutually set. The exchanged resolution can be exemplified, but is not limited to these values.

位置検出部として、例えばタッチパネル(タッチスクリーン)を用いることができる。タッチパネルの方式は特に限定するものではない。例えば、抵抗膜方式であってもよいし、静電容量方式であってもよい。タッチパネルは、表示部を構成する表示パネルと一体の構成(いわゆるインセル方式)であってもよいし、表示部とは別体の構成であってもよい。   For example, a touch panel (touch screen) can be used as the position detection unit. The touch panel method is not particularly limited. For example, a resistance film method or a capacitance method may be used. The touch panel may have a configuration (so-called in-cell method) integrated with a display panel that constitutes the display unit, or may have a configuration separate from the display unit.

撮像部を構成するラインセンサの方式は特に限定するものではない。例えば、CCD方式であってもよいし、CMOS方式であってもよい。撮像部によって撮像される生体(例えば指)の部分の長さは、静脈パターン等の認証などの観点からは、少なくとも30[ミリメートル]程度以上の長さであることが好ましい。   The method of the line sensor that constitutes the imaging unit is not particularly limited. For example, a CCD system or a CMOS system may be used. The length of the part of the living body (for example, a finger) imaged by the imaging unit is preferably at least about 30 [mm] or more from the viewpoint of authentication of the vein pattern or the like.

ラインセンサに光を導く導光用の光学部材として、屈折率分布レンズから成るアレイ、光ファイバ、及び、プリズム等の周知の光学材料を用いることができる。これらの光学部材の仕様は、電子機器の仕様などに応じて適宜設定すればよい。   As an optical member for guiding light to the line sensor, a known optical material such as an array of refractive index distribution lenses, an optical fiber, and a prism can be used. The specifications of these optical members may be set as appropriate according to the specifications of the electronic device.

生体情報生成部を有する制御部は、演算回路や記憶装置(メモリ)等といった周知の回路素子などを用いて構成することができる。静脈パターン等の生体情報の登録を行う生体情報登録部や取得した生体情報を用いて認証を行う生体情報認証部についても同様である。   The control unit having the biological information generation unit can be configured using a known circuit element such as an arithmetic circuit or a storage device (memory). The same applies to a biometric information registration unit that registers biometric information such as a vein pattern and a biometric information authentication unit that performs authentication using the acquired biometric information.

生体情報の登録処理および生体情報の認証処理の構成は、特に限定するものではない。例えば生体情報として静脈パターンを用いる場合には、血管の分岐点の位置や方向などの特徴をパラメータ化しこれを登録するといった構成であってもよいし、血管パターンそのものを登録するといった構成であってもよい。また、生体情報の認証は、例えば、周知のパターンマッチングのアルゴリズムから適宜好適なものを選択して行えばよい。   The configuration of biometric information registration processing and biometric information authentication processing is not particularly limited. For example, when a vein pattern is used as biometric information, the configuration may be such that features such as the position and direction of a blood vessel branch point are parameterized and registered, or the blood vessel pattern itself is registered. Also good. The authentication of biometric information may be performed by selecting a suitable one from known pattern matching algorithms, for example.

表示部の背面に配置される照明部の構成は特に限定するものではない。例えば、照明部は、直下型方式の構成であってもよいし、あるいは又、エッジライト方式の構成であってもよい。照明部の光源として、例えば、発光ダイオード(LED)やエレクトロルミネッセンス(EL)装置を挙げることができる。光源の小型化といった観点からは、中でも、光源として発光ダイオードを用いることが好ましい。   The structure of the illumination part arrange | positioned at the back surface of a display part is not specifically limited. For example, the illumination unit may have a direct type configuration, or may have an edge light type configuration. As a light source of an illumination part, a light emitting diode (LED) and an electroluminescence (EL) apparatus can be mentioned, for example. From the viewpoint of reducing the size of the light source, it is preferable to use a light emitting diode as the light source.

照明部は、上述した光源の他、例えば、光拡散シート等の光学機能シートや導光板といった周知の光学材料を備えている構成とすることができる。光学機能シートは、例えば、照明部における表示部側の面に配置される。   In addition to the light source described above, the illumination unit can be configured to include a known optical material such as an optical function sheet such as a light diffusion sheet or a light guide plate. For example, the optical function sheet is disposed on the surface of the illumination unit on the display unit side.

本発明の電子機器にあっては、本来は表示部に表示されるアイコン等の操作対象に対して指示を行うために用いられる位置検出部と、撮像部とを利用して生体情報を生成する。従って、生体情報を取得する機能を備えた電子機器の小型化が可能であり、低コスト化も図ることができる。   In the electronic device of the present invention, biological information is generated by using a position detection unit and an imaging unit that are originally used to instruct an operation target such as an icon displayed on the display unit. . Therefore, it is possible to reduce the size of an electronic device having a function of acquiring biometric information, and to reduce the cost.

図1は、第1の実施形態に係る電子機器の模式的な斜視図である。FIG. 1 is a schematic perspective view of the electronic apparatus according to the first embodiment. 図2は、電子機器を仮想的に分離したときの模式的な斜視図である。FIG. 2 is a schematic perspective view when the electronic device is virtually separated. 図3は、電子機器の動作を説明するための模式的なフローチャートである。FIG. 3 is a schematic flowchart for explaining the operation of the electronic apparatus. 図4の(A)は、生体情報を取得するときの動作を説明するための模式的な平面図である。図4の(B)は、図4の(A)に示すA−A断面を模式的に示した図である。FIG. 4A is a schematic plan view for explaining an operation when obtaining biological information. FIG. 4B is a diagram schematically showing the AA cross section shown in FIG. 図5の(A)及び(B)は、図4の(A)に引き続き、生体情報を取得するときの動作を説明するための模式的な平面図である。5A and 5B are schematic plan views for explaining an operation when obtaining biological information, following FIG. 4A. 図6の(A)及び(B)は、図5の(B)に引き続き、生体情報を取得するときの動作を説明するための模式的な平面図である。6 (A) and 6 (B) are schematic plan views for explaining the operation when obtaining biological information, following FIG. 5 (B). 図7は、取得した一次元画像情報と指の位置との関係を説明するための模式的な平面図である。FIG. 7 is a schematic plan view for explaining the relationship between the acquired one-dimensional image information and the position of the finger. 図8の(A)及び(B)は、導光用の光学部材とラインセンサの配置を説明するための電子機器の一部の模式的な断面図である。FIGS. 8A and 8B are schematic cross-sectional views of a part of the electronic apparatus for explaining the arrangement of the light guide optical member and the line sensor. 図9の(A)は、変形例に係る電子機器の模式的な平面図である。図9の(B)は、生体情報を取得するときの指の移動方向を説明するための模式的な平面図である。FIG. 9A is a schematic plan view of an electronic apparatus according to a modification. FIG. 9B is a schematic plan view for explaining the moving direction of the finger when obtaining biological information. 図10は、撮像部の変形例を示す模式的な斜視図である。FIG. 10 is a schematic perspective view showing a modification of the imaging unit.

以下、図面を参照して、実施形態に基づき本発明の電子機器を説明する。本発明は実施形態に限定されるものではなく、実施形態における種々の数値や材料は例示である。以下の説明において、同一要素または同一機能を有する要素には同一符号を用いることとし、重複する説明は省略する。   Hereinafter, an electronic apparatus according to an embodiment of the invention will be described with reference to the drawings. The present invention is not limited to the embodiment, and various numerical values and materials in the embodiment are examples. In the following description, the same reference numerals are used for the same elements or elements having the same function, and redundant description is omitted.

[第1の実施形態]
第1の実施形態は、本発明の電子機器に関する。
[First Embodiment]
The first embodiment relates to an electronic apparatus of the present invention.

図1は、第1の実施形態に係る電子機器の模式的な斜視図である。図2は、電子機器を仮想的に分離したときの模式的な斜視図である。   FIG. 1 is a schematic perspective view of the electronic apparatus according to the first embodiment. FIG. 2 is a schematic perspective view when the electronic device is virtually separated.

電子機器1は、例えば、携帯情報端末と携帯電話とを統合した電子機器(いわゆるスマートフォン)である。図2に示すように、電子機器1は、画像を表示する表示部10、表示部10の前面側に載置される生体の位置を検出する位置検出部20、表示部10の端部に沿って線状に配置された撮像領域44を有する撮像部40、及び、位置検出部20からの情報と撮像部40からの情報とに基づいて生体情報を生成する生体情報生成部51を有する制御部50を備えている。尚、制御部50は、図示せぬ基板上に配置された演算回路や記憶装置(メモリ)等から構成されている。   The electronic device 1 is, for example, an electronic device (a so-called smartphone) that integrates a portable information terminal and a mobile phone. As shown in FIG. 2, the electronic apparatus 1 includes a display unit 10 that displays an image, a position detection unit 20 that detects the position of a living body placed on the front side of the display unit 10, and an end of the display unit 10. And a control unit having a biometric information generating unit 51 that generates biometric information based on information from the position detection unit 20 and information from the imaging unit 40. 50. The control unit 50 includes an arithmetic circuit, a storage device (memory), and the like arranged on a substrate (not shown).

表示部10は、例えば透過型の液晶表示パネルから成り、画素13がマトリクス状に配列された矩形状の表示領域11を有している。符号12A,12B,12C,12Dは、表示領域11の各辺を示す。図においてX方向に延びる辺12B,12Dは短辺、Y方向に延びる辺12A,12Cは長辺である。説明の都合上、電子機器1は、辺12B,12Dが延びる方向が水平方向となり、且つ、辺12Bが操作者側になるようにして使用されるものとする。   The display unit 10 includes a transmissive liquid crystal display panel, for example, and includes a rectangular display region 11 in which pixels 13 are arranged in a matrix. Reference numerals 12A, 12B, 12C, and 12D denote the sides of the display area 11. In the figure, sides 12B and 12D extending in the X direction are short sides, and sides 12A and 12C extending in the Y direction are long sides. For convenience of explanation, it is assumed that the electronic device 1 is used such that the direction in which the sides 12B and 12D extend is the horizontal direction and the side 12B is on the operator side.

位置検出部20は、例えば静電容量式のタッチパネルから成り、表示部10上に重ねて配置されている。例えば、表示部10に電子機器1の機能に応じた種々のアイコンを表示した状態でタッチパネルを指で触れアイコンを選択したり、タッチパネル上で指を滑らせるといった動作をすることによって、電子機器1に所望の動作を行わせるといったことができる。   The position detection unit 20 includes, for example, a capacitive touch panel, and is disposed on the display unit 10 in an overlapping manner. For example, the electronic device 1 is operated by touching the touch panel with a finger while the various icons corresponding to the function of the electronic device 1 are displayed on the display unit 10 and selecting an icon or sliding the finger on the touch panel. To perform a desired operation.

このように、電子機器1は、表示部10上に載置される生体の移動に対応して所定の動作を行う携帯用の電子機器である。そして、後述するように、電子機器に所定の動作を行わせる際の操作と同様の操作により生体情報を生成することができる。   As described above, the electronic device 1 is a portable electronic device that performs a predetermined operation in response to the movement of the living body placed on the display unit 10. Then, as will be described later, biometric information can be generated by an operation similar to the operation for causing the electronic device to perform a predetermined operation.

撮像領域44は、表示部10の辺12A側の端部に沿って線状に配置されている。表示部10の前面(より具体的には、図2に示す例では位置検出部20の面)は平面状であり、表示部10の前面の延長上に撮像領域44が位置するように配置されている。図2に示すように、撮像部40は、導光用の光学部材41,42とラインセンサ43から構成されている。ラインセンサ43は、電子機器1内の空きスペースに配置され、光学部材41,42は、撮像領域44から入射する光をラインセンサ43の受光面に導くように構成されている。   The imaging area 44 is arranged in a line along the end of the display unit 10 on the side 12A side. The front surface of the display unit 10 (more specifically, the surface of the position detection unit 20 in the example shown in FIG. 2) is planar, and is arranged so that the imaging region 44 is positioned on the extension of the front surface of the display unit 10. ing. As shown in FIG. 2, the imaging unit 40 includes light guide optical members 41 and 42 and a line sensor 43. The line sensor 43 is disposed in an empty space in the electronic apparatus 1, and the optical members 41 and 42 are configured to guide light incident from the imaging region 44 to the light receiving surface of the line sensor 43.

ラインセンサ43の設定にもよるが、撮像部40は、近赤外光画像および可視光画像の少なくとも一方を撮像する構成とすることができる。具体的には、撮像部40が、近赤外光画像を撮像する構成、可視光画像を撮像する構成、あるいは又、近赤外光画像および可視光画像を撮像する構成とすることができる。可視光画像を撮像することで、例えば指紋といった生体表面のパターンを撮像することができる。また、近赤外光画像を撮像することで、例えば指静脈パターンを撮像することができる。ここでは、撮像部40は、近赤外光画像を撮像するとして説明する。   Depending on the setting of the line sensor 43, the imaging unit 40 can be configured to capture at least one of a near-infrared light image and a visible light image. Specifically, the imaging unit 40 can be configured to capture a near-infrared light image, to be configured to capture a visible light image, or to be configured to capture a near-infrared light image and a visible light image. By capturing a visible light image, it is possible to capture a biological surface pattern such as a fingerprint, for example. Further, by capturing a near-infrared light image, for example, a finger vein pattern can be captured. Here, the imaging unit 40 will be described as capturing a near-infrared light image.

光学部材41は、例えば近赤外光フィルタであり、その一面が撮像領域44に対応する。光学部材42は、例えば小さな屈折率分布レンズが多数集まって成るアレイ(屈折率分布レンズアレイ)であって、近赤外光をラインセンサ43の受光面に導くとともに受光面で結像させる。図2に示す例では、光学部材42はZ方向の高さが一定である矩形状であって、光学部材41,42及びラインセンサ43は、表示部10の面に対して直交して延在するように配置されている。尚、撮像部40の構成はこれに限るものではない。例えば、近赤外光フィルタをラインセンサの直前に配置するといった構成であってもよい。   The optical member 41 is, for example, a near infrared light filter, and one surface thereof corresponds to the imaging region 44. The optical member 42 is an array (refractive index distribution lens array) in which a large number of small refractive index distribution lenses are gathered, for example, and guides near infrared light to the light receiving surface of the line sensor 43 and forms an image on the light receiving surface. In the example shown in FIG. 2, the optical member 42 has a rectangular shape with a constant height in the Z direction, and the optical members 41 and 42 and the line sensor 43 extend perpendicular to the surface of the display unit 10. Are arranged to be. Note that the configuration of the imaging unit 40 is not limited to this. For example, a configuration in which the near-infrared light filter is disposed immediately before the line sensor may be employed.

電子機器1にあっては、表示部10から近赤外光が照射され、撮像部40は、生体内で反射した近赤外光に基づく近赤外光画像を撮像する。表示部10の背面には、光を照射する照明部30が配置されており、照明部30の発する近赤外光が表示部10から照射される。   In the electronic device 1, near-infrared light is irradiated from the display unit 10, and the imaging unit 40 captures a near-infrared light image based on the near-infrared light reflected in the living body. An illumination unit 30 that emits light is disposed on the back surface of the display unit 10, and near infrared light emitted from the illumination unit 30 is emitted from the display unit 10.

照明部30はエッジライト方式のバックライトから成る。照明部30は、表示部10と略同様の矩形状の導光板31と、例えば白色の可視光を発する第1の光源33(33A,33B,33C,33D)と、例えば波長760ナノメートル前後の近赤外光を発する第2の光源34(34A,34B)を含んでいる。尚、第1の光源33A,33B,33C,33Dを纏めて、単に、「第1の光源33」と表す場合がある。第2の光源34A,34Bについても同様である。導光板31は、例えばアクリル系の透明材料から成る。第1の光源33と第2の光源34は、例えば発光ダイオードから成る。尚、照明部30は、光拡散シート等といった他の光学材料を更に備えていてもよい。   The illumination unit 30 includes an edge light type backlight. The illumination unit 30 includes a rectangular light guide plate 31 that is substantially the same as the display unit 10, a first light source 33 (33A, 33B, 33C, 33D) that emits white visible light, for example, and a wavelength of about 760 nanometers, for example. A second light source 34 (34A, 34B) that emits near infrared light is included. Note that the first light sources 33A, 33B, 33C, and 33D may be collectively referred to simply as “first light source 33”. The same applies to the second light sources 34A and 34B. The light guide plate 31 is made of, for example, an acrylic transparent material. The 1st light source 33 and the 2nd light source 34 consist of light emitting diodes, for example. The illumination unit 30 may further include another optical material such as a light diffusion sheet.

表示領域11の辺12A側に位置する導光板31の辺を符号32Aで表し、辺12B側に位置する導光板31の辺を符号32Bで表す。同様に、表示領域11の辺12C側に位置する導光板31の辺を符号32Cで表し、辺12D側に位置する導光板31の辺を符号32Dで表す。   The side of the light guide plate 31 located on the side 12A side of the display area 11 is represented by reference numeral 32A, and the side of the light guide plate 31 located on the side 12B side is represented by reference numeral 32B. Similarly, the side of the light guide plate 31 located on the side 12C side of the display area 11 is represented by reference numeral 32C, and the side of the light guide plate 31 located on the side 12D side is represented by reference numeral 32D.

第1の光源33A,33Bは導光板の辺32A側の端面に配置されており、第1の光源33C,33Dは導光板の辺32C側の端面に配置されている。第1の光源33が発生する可視光は、導光板31の端面から導光板31内に入射し、導光板31内を伝播した後、導光板31の前面(表示部10と対向する面)から出射し、表示部10を背面から照射する。   The first light sources 33A and 33B are disposed on the end surface on the side 32A side of the light guide plate, and the first light sources 33C and 33D are disposed on the end surface on the side 32C side of the light guide plate. Visible light generated by the first light source 33 enters the light guide plate 31 from the end face of the light guide plate 31, propagates through the light guide plate 31, and then from the front surface of the light guide plate 31 (surface facing the display unit 10). The light is emitted, and the display unit 10 is irradiated from the back side.

近赤外光を発する第2の光源34(34A,34B)は、生体内で反射した近赤外光などの検出が良好に行われるように、撮像部40に近い部分に配置されている。図に示す例では、光源34Aは、導光板31の辺32A側の端面に配置されており、光源34Bは、辺32B側の端面に配置されている。第2の光源34が発生する近赤外光も、導光板31の端面から導光板31内に入射し、導光板31内を伝播した後、導光板31の前面から出射し、表示部10を背面から照射する。   The second light source 34 (34A, 34B) that emits near-infrared light is disposed in a portion close to the imaging unit 40 so that detection of near-infrared light reflected in the living body can be satisfactorily performed. In the example shown in the drawing, the light source 34A is disposed on the end surface on the side 32A side of the light guide plate 31, and the light source 34B is disposed on the end surface on the side 32B side. Near-infrared light generated by the second light source 34 also enters the light guide plate 31 from the end surface of the light guide plate 31, propagates through the light guide plate 31, then exits from the front surface of the light guide plate 31, and displays the display unit 10. Irradiate from the back.

従って、表示部10から操作者側に向けて、第1の光源33が発生する可視光の他、第2の光源34が発生する近赤外光が照射される。   Therefore, near infrared light generated by the second light source 34 is irradiated in addition to visible light generated by the first light source 33 from the display unit 10 toward the operator.

近赤外光は視認されないため、第2の光源34は画像の表示に寄与しない。消費電力の低減化といった観点からは、第2の光源34は、近赤外光画像を撮像する際に点灯状態とされ、それ以外の場合は消灯状態となるように制御されることが好ましい。   Since near-infrared light is not visually recognized, the second light source 34 does not contribute to image display. From the viewpoint of reducing power consumption, the second light source 34 is preferably controlled so as to be turned on when taking a near-infrared light image, and to be turned off in other cases.

以上、電子機器1の構成について説明した。次いで、位置検出部20からの情報と撮像部40からの情報とに基づいて生体情報を生成するなどといった動作について、詳しく説明する。説明の都合上、ここでは、第二指(人差し指)の末節から中節にかけての静脈パターンを含む生体情報を生成するものとする。   The configuration of the electronic device 1 has been described above. Next, an operation of generating biological information based on information from the position detection unit 20 and information from the imaging unit 40 will be described in detail. For convenience of explanation, it is assumed here that biometric information including a vein pattern from the last node to the middle node of the second finger (index finger) is generated.

図3は、電子機器の動作を説明するための模式的なフローチャートである。   FIG. 3 is a schematic flowchart for explaining the operation of the electronic apparatus.

認証や登録などといった「生体情報の取得が必要となる」アプリケーションが起動されると、例えば画面上に、「撮像領域を横切るように、表示領域から撮像領域側に向けて指を滑らせる」といった動作を操作者に促す表示がされる。   When an application that requires acquisition of biometric information, such as authentication or registration, is activated, for example, “slide a finger from the display area toward the imaging area so as to cross the imaging area” on the screen A display prompting the operator to perform the operation is displayed.

そして、電子機器1は、例えば所定の時間間隔ΔT毎に、指の位置情報と一次元画像情報を取得し、例えば制御部50が備える記憶装置に保存する(ステップS1)。図4ないし図7を参照して、詳しく説明する。   The electronic device 1 acquires finger position information and one-dimensional image information, for example, at predetermined time intervals ΔT, and stores them in, for example, a storage device included in the control unit 50 (step S1). This will be described in detail with reference to FIGS.

図4の(A)、図5の(A)及び(B)、並びに、図6の(A)及び(B)は、生体情報を取得するときの動作を説明するための模式的な平面図である。   FIGS. 4A, 5A and 5B, and FIGS. 6A and 6B are schematic plan views for explaining the operation when obtaining biological information. It is.

図4の(A)は、指100が載置された初期状態を模式的に示す。表示部10上に指100が載置されると、例えば指100の接触部分の座標値が位置情報として、位置検出部20によって検出される。指100が接触したことが感知されると、例えば制御部50の指示に基づいて、所定の一定時間(より具体的には、通常の動作において指100が撮像領域44を横切るのに足りる時間)の間、照明部30における第2の光源34が点灯状態とされる。   FIG. 4A schematically shows an initial state where the finger 100 is placed. When the finger 100 is placed on the display unit 10, for example, the coordinate value of the contact portion of the finger 100 is detected by the position detection unit 20 as position information. When it is detected that the finger 100 is touched, for example, based on an instruction from the control unit 50, for a predetermined time (more specifically, a time sufficient for the finger 100 to cross the imaging region 44 in a normal operation). During this time, the second light source 34 in the illumination unit 30 is turned on.

図4の(B)は、図4の(A)に示すA−A断面を模式的に示した図である。尚、図示の都合上、図4の(B)は拡大図とした。また、表示部10と位置検出部20を一体として表した。更には、照明部30や撮像部40を模式的に示した。尚、符号PCBで示す部分は、制御部50等が実装された回路基板を模式的に示す。   FIG. 4B is a diagram schematically showing the AA cross section shown in FIG. For convenience of illustration, FIG. 4B is an enlarged view. Further, the display unit 10 and the position detection unit 20 are shown as an integral unit. Furthermore, the illumination part 30 and the imaging part 40 were shown typically. Note that a portion indicated by reference numeral PCB schematically shows a circuit board on which the control unit 50 and the like are mounted.

照明部30からは、指100を照射するように近赤外光が照射される。近赤外光は、指100内で反射し、その一部が表示部10側に向かう。指100が移動して撮像領域44上に位置すれば、撮像部40によってその位置に応じた一次元画像情報を得ることができる。   Near-infrared light is irradiated from the illumination unit 30 so as to irradiate the finger 100. Near-infrared light is reflected within the finger 100 and part of it is directed toward the display unit 10. If the finger 100 moves and is positioned on the imaging region 44, the imaging unit 40 can obtain one-dimensional image information corresponding to the position.

制御部50は、位置検出部20からの情報(具体的には、座標値(X,Y))、及び、撮像部40からの一次元画像情報を、所定の時間間隔ΔT毎に取得し、制御部50の記憶装置に保存する。説明の都合上、ここでは、座標値(X,Y)及び一次元画像情報の取得などを、N回行うとして説明する。また、第n回目(但し、n=1,2,3・・・,N)の座標値を(Xn,Yn)で表す。 The control unit 50 acquires information from the position detection unit 20 (specifically, coordinate values (X, Y)) and one-dimensional image information from the imaging unit 40 at each predetermined time interval ΔT, The data is stored in the storage device of the control unit 50. For convenience of explanation, here, it is assumed that acquisition of coordinate values (X, Y) and one-dimensional image information is performed N times. Further, the coordinate value of the nth time (where n = 1, 2, 3,..., N) is represented by (X n , Y n ).

操作者は、図4の(A)に示す状態から図6の(B)に示す状態に遷移するように、指100をX方向に移動させる。図5の(A)は、第(n−1)回目のデータ取得における状態を表す模式図であり、図5の(B)は、第n回目のデータ取得における状態を表す模式図である。   The operator moves the finger 100 in the X direction so as to transition from the state shown in FIG. 4A to the state shown in FIG. 5A is a schematic diagram illustrating a state in the (n−1) th data acquisition, and FIG. 5B is a schematic diagram illustrating a state in the nth data acquisition.

発明の理解を助けるため、図3に示す次の(ステップS2)に関連する事項であるが、指の移動速度の求め方について説明する。図5の(A)及び(B)においては、指100の接触点は表示部10上にあるので、位置検出部20による座標値の検出が可能である。図5の(A)と図5の(B)との時間差は上述したΔTであるから、指の移動速度のX方向の速度成分VXは、VX=(Xn−Xn-1)/ΔTといった式により求めることができる。また、図示はしていないが、Y方向の速度成分VYは、VY=(Yn−Yn-1)/ΔTといった式により求めることができる。 In order to help the understanding of the invention, a method of obtaining the finger moving speed will be described as the matter related to the next (step S2) shown in FIG. 5A and 5B, since the contact point of the finger 100 is on the display unit 10, the position detection unit 20 can detect the coordinate value. Since the time difference between (A) in FIG. 5 and (B) in FIG. 5 is ΔT described above, the velocity component VX in the X direction of the moving velocity of the finger is VX = (X n −X n−1 ) / ΔT. It can obtain | require by a type | formula. Although not shown, the velocity component VY in the Y direction can be obtained by an equation such as VY = (Y n −Y n−1 ) / ΔT.

尚、n=1の場合は(Xn-1,Yn-1)に対応するデータがないので、上述の速度成分VX,VYの計算はできない。しかしながら、一次元画像情報を二次元画像情報に展開する際にn=1における速度情報は不要なので、特段の支障はない。 When n = 1, since there is no data corresponding to (X n−1 , Y n−1 ), the above speed components VX and VY cannot be calculated. However, when developing the one-dimensional image information into the two-dimensional image information, the speed information at n = 1 is unnecessary, so there is no particular problem.

また、説明の都合上、Y方向の速度成分VYはX方向の速度成分VXに対して充分に小さく、一次元画像情報を二次元画像情報に展開する際に速度成分VYの影響は無視できるとする。   For convenience of explanation, the velocity component VY in the Y direction is sufficiently smaller than the velocity component VX in the X direction, and the influence of the velocity component VY can be ignored when developing one-dimensional image information into two-dimensional image information. To do.

指100が更に撮像部側に移動すると、指100の接触点が表示部10の外となる。この状態を図6の(A)に示し、最終的な状態を図6の(B)に示す。指100の接触点の座標値は検出されないので、この場合には、座標値に換えて例えば「接触点は検出されない」といったことを示すデータと、一次元画像情報とを取得して、記憶装置に保存すればよい。   When the finger 100 further moves to the imaging unit side, the contact point of the finger 100 becomes outside the display unit 10. This state is shown in FIG. 6A, and the final state is shown in FIG. Since the coordinate value of the contact point of the finger 100 is not detected, in this case, for example, data indicating that “the contact point is not detected” and one-dimensional image information are obtained instead of the coordinate value, and the storage device You can save it.

図3に示す次の(ステップS2)に関連する事項であるが、この場合の指の移動速度の求め方について説明する。通常、指100を図4の(A)に示す状態から図6の(B)に示す状態に遷移させるときの移動速度は、始期と終期を除いて略一定と考えることができる。換言すれば、上述したX方向の速度成分VXは、指100が移動する際には、或る一定値VXConstに略等しいとして扱うことができる。一定値VXConstの値は、例えば、指100の接触点のX座標値の変化に基づいて平均速度を算出することで得ることができる。Y方向の速度成分VYについても同様である。 Although it is a matter relevant to the following (step S2) shown in FIG. 3, how to obtain | require the moving speed of the finger in this case is demonstrated. Usually, the moving speed when the finger 100 is changed from the state shown in FIG. 4A to the state shown in FIG. 6B can be considered to be substantially constant except for the start and end. In other words, the velocity component VX in the X direction described above can be handled as being approximately equal to a certain constant value VX Const when the finger 100 moves. The value of the constant value VX Const can be obtained, for example, by calculating an average speed based on a change in the X coordinate value of the contact point of the finger 100. The same applies to the velocity component VY in the Y direction.

あるいは又、接触点が検出されなくなった時点以降の指100の移動速度は、接触点の検出が可能であった最後の状態における移動速度に略等しいとして扱うこともできる。例えば、接触点の座標値の検出が可能であった最後の回が第n’回であったとすれば、VX≒(Xn'−Xn'-1)/ΔTとして扱うこともできる。Y方向の速度成分VYについても同様である。 Alternatively, the moving speed of the finger 100 after the point in time when the contact point is no longer detected can be treated as substantially equal to the moving speed in the last state where the contact point can be detected. For example, 'if was times, VX ≒ (X n' the last time it was possible to detect the coordinates of the contact point is the n may be treated as -X n'-1) / ΔT. The same applies to the velocity component VY in the Y direction.

以上、図3に示す(ステップS1)においてどのようなデータが取得されるのかについて説明した。尚、上述した「ΔT」や「N」の値は、電子機器1の仕様などに応じて、適宜設定すればよい。   This completes the description of what data is acquired in (step S1) shown in FIG. Note that the values of “ΔT” and “N” described above may be set as appropriate according to the specifications of the electronic device 1 and the like.

次いで、電子機器1は、取得した一次元画像情報を二次元画像情報に展開し(ステップS2)、二次元画像情報から静脈パターンを抽出し(ステップS3)、特徴点などを抽出し(ステップS4)、その後、必要に応じて登録処理や認証処理などを実行する(ステップS5)。   Next, the electronic device 1 expands the acquired one-dimensional image information into two-dimensional image information (step S2), extracts a vein pattern from the two-dimensional image information (step S3), and extracts feature points (step S4). Thereafter, registration processing, authentication processing, and the like are executed as necessary (step S5).

記憶装置に保存した指100の座標情報に基づいて、上述した一定値VXConstを算出する。図7に示すように、第(n−1)回目の一次元画像情報と第n回目の一次元画像情報とは、X方向において(VXConst×ΔT)離れた位置を撮像したデータであると扱うことができる。これによって、N個の一次元画像情報を二次元画像情報に展開することができる(ステップS2)。 The constant value VX Const described above is calculated based on the coordinate information of the finger 100 stored in the storage device. As shown in FIG. 7, the (n−1) th one-dimensional image information and the n-th one-dimensional image information are data obtained by imaging positions separated by (VX Const × ΔT) in the X direction. Can be handled. As a result, N pieces of one-dimensional image information can be developed into two-dimensional image information (step S2).

尚、N個の一次元画像情報を二次元画像情報に展開する方法は、これに限るものではない。例えば、指100の接触点が検出されていたといった条件下では、VX=(Xn−Xn-1)/ΔTを個別に計算してその値を用い、接触点が検出されなくなった時点以降は、接触点の検出が可能であった最後の状態における移動速度の値を用いるといったこともできる。 Note that the method of developing N pieces of one-dimensional image information into two-dimensional image information is not limited to this. For example, under the condition that the contact point of the finger 100 has been detected, VX = (X n −X n−1 ) / ΔT is calculated separately and used, and after that point, the contact point is no longer detected. Can use the value of the moving speed in the last state in which the contact point could be detected.

また、Y方向の速度成分VYの影響が無視できない場合には、速度成分VYも考慮して、一次元画像情報を二次元画像情報に展開すればよい。   If the influence of the velocity component VY in the Y direction cannot be ignored, the one-dimensional image information may be developed into two-dimensional image information in consideration of the velocity component VY.

次いで、得られた二次元画像情報から静脈パターンを抽出する画像処理を行う(ステップS3)。画像処理の方法は特に限定するものではない。例えば、差分法や零交差法を用いた方法やレンジフィルタを用いた方法などといった周知の画像処理方法から、適宜選択して画像処理を行えばよい。これによって、静脈パターンを抽出することができる。   Next, image processing for extracting a vein pattern from the obtained two-dimensional image information is performed (step S3). The image processing method is not particularly limited. For example, image processing may be performed by appropriately selecting from well-known image processing methods such as a method using a difference method and a zero crossing method, a method using a range filter, and the like. Thereby, a vein pattern can be extracted.

その後、例えば、静脈パターンにおける血管の分岐点の位置や方向などの特徴を抽出し、必要なデータ化を行う(ステップS4)。データ化の方法は特に限定するものではない。例えば指紋認証技術と同様に、マニューシャ(細かな枝分かれや途切れている部分)を抽出するといった方法で行うことができる。   Thereafter, for example, features such as the position and direction of the branch point of the blood vessel in the vein pattern are extracted, and necessary data is formed (step S4). There is no particular limitation on the data conversion method. For example, similarly to the fingerprint authentication technique, it can be performed by a method of extracting minutiae (fine branching or broken portions).

次いで、必要に応じて、登録処理や認証処理などを実行する(ステップS5)。静脈パターンを新たに登録するといった場合には、図2に示す生体情報登録部52の動作に基づいて、静脈パターンのデータを新たに登録するといった処理を行えばよい。登録処理の方法は特に限定するものではなく、電子機器1の仕様などに応じて、例えば周知の方法の中から適宜好適な方法を選択して用いればよい。また、静脈パターンの認証を行う場合には、図2に示す生体情報認証部53の動作に基づいて、既登録の静脈パターンのデータとを対比して認証処理を行えばよい。認証処理の方法は特に限定するものではなく、電子機器1の仕様などに応じて、例えば周知の方法の中から適宜好適な方法を選択して用いればよい(ステップS5)。   Next, registration processing, authentication processing, and the like are executed as necessary (step S5). In the case of newly registering a vein pattern, a process of newly registering vein pattern data may be performed based on the operation of the biometric information registration unit 52 shown in FIG. The registration processing method is not particularly limited, and a suitable method may be selected and used as appropriate from among known methods, for example, according to the specifications of the electronic device 1. Further, when performing vein pattern authentication, authentication processing may be performed based on the registered vein pattern data based on the operation of the biometric information authentication unit 53 shown in FIG. The authentication processing method is not particularly limited, and a suitable method may be selected and used as appropriate from among known methods, for example, according to the specifications of the electronic device 1 (step S5).

以上、位置検出部20からの情報と撮像部40からの情報とに基づいて生体情報を生成するなどといった動作について説明した。   The operation of generating biological information based on information from the position detection unit 20 and information from the imaging unit 40 has been described above.

第1の実施形態の電子機器にあっては、タッチパネル等の位置検出部が生体情報生成のための位置センサを兼ねるため、ラインセンサを付加し制御部に生体情報生成部などを加えることで生体情報を取得する機能を実装することができる。従って、小型化が可能であり、低コスト化も図ることができる。   In the electronic apparatus according to the first embodiment, since the position detection unit such as the touch panel also serves as a position sensor for generating biological information, a line sensor is added and the biological information generating unit is added to the control unit. A function to acquire information can be implemented. Therefore, the size can be reduced and the cost can be reduced.

表示部上で指を滑らせるといった動作は、電子機器に所望の動作を行わせる際の通常の動作と同様である。従って、電子機器は、登録や認証といった動作を行う際に、操作者に対して違和感を覚えさせることがないといった利点を備えている。   The operation of sliding a finger on the display unit is the same as a normal operation when the electronic device performs a desired operation. Therefore, the electronic device has an advantage that the operator does not feel uncomfortable when performing operations such as registration and authentication.

また、画像の表示に用いられる照明部に近赤外光を発生する光源を付加するだけで、生体に近赤外光を照射することができる。従って、撮像のための近赤外光の照射装置を別途設けるといったことが不要である。   Moreover, a near-infrared light can be irradiated to a living body only by adding a light source that generates near-infrared light to an illumination unit used for displaying an image. Accordingly, it is not necessary to separately provide a near infrared light irradiation device for imaging.

更には、撮像部によって一次元画像情報が取得される際には、撮像領域は指で覆われた状態である。従って、第1の実施形態の電子機器は、認証などの妨げになる外光の影響を受けにくいといった利点も備えている。   Furthermore, when the one-dimensional image information is acquired by the imaging unit, the imaging region is covered with a finger. Therefore, the electronic device according to the first embodiment also has an advantage that it is not easily affected by external light that hinders authentication and the like.

以上、本発明を好ましい実施形態に基づいて説明したが、本発明はこの実施形態に限定されるものではない。実施形態における電子機器の構成要素の具体的な構成、構造は例示であり、適宜、変更することができる。   As mentioned above, although this invention was demonstrated based on preferable embodiment, this invention is not limited to this embodiment. The specific configuration and structure of the components of the electronic device in the embodiment are examples, and can be changed as appropriate.

例えば指紋といった生体表面のパターンを撮像する構成とする場合には、撮像部が可視光を検出する構成とすればよい。この場合、撮像部付近の表示部を例えば白色表示とすることによって、生体に可視光を照射することができる。   For example, in the case of a configuration for imaging a biological surface pattern such as a fingerprint, the imaging unit may be configured to detect visible light. In this case, the living body can be irradiated with visible light by setting the display unit in the vicinity of the imaging unit to white display, for example.

また、図2に示す構成では、撮像部40を構成する光学部材41(赤外線フィルタ)と、光学部材42(屈折率分布レンズから成るアレイ)と、ラインセンサ43が、Z方向に重ねて並ぶように配置されている。この様子を図8の(A)に示す。尚、図8の(A)は、図4の(B)と同様の断面図である。電子機器1の設計上、これらの構成要素をZ方向に重ねて並べる余裕がないといった場合には、スペースの開いた部分に構成要素を配置するため、図8の(B)に示すように、光学部材(図に示す例では光学部材42)のラインセンサ側の部分を、表示部10の面に沿って延在するように配置するなどといった構成とすることもできる。   In the configuration shown in FIG. 2, the optical member 41 (infrared filter), the optical member 42 (array made up of a refractive index distribution lens), and the line sensor 43 that constitute the imaging unit 40 are arranged so as to overlap in the Z direction. Is arranged. This state is shown in FIG. 8A is a cross-sectional view similar to FIG. 4B. In the design of the electronic device 1, when there is no room to arrange these constituent elements in the Z direction, as shown in FIG. A portion of the optical member (the optical member 42 in the example shown in the figure) on the line sensor side may be arranged so as to extend along the surface of the display unit 10.

また、図1においては、撮像領域44が表示部10の長辺側の端部に沿って線状に配置されているとしたが、短辺側の端部に沿って線状に配置されている構成とすることもできる。図9の(A)及び(B)は、撮像領域44を辺12B側の端部に沿って配置した構成の電子機器1Aの模式的な平面図である。   Further, in FIG. 1, the imaging region 44 is arranged linearly along the long-side end of the display unit 10, but is arranged linearly along the short-side end. It can also be set as the structure which is. 9A and 9B are schematic plan views of the electronic apparatus 1A having a configuration in which the imaging region 44 is arranged along the end on the side 12B side.

電子機器1Aにおいて生体情報を生成するといった場合には、例えば、撮像領域44に直交するように指100を載置し、−Y方向に指を滑らせるといった動作をすればよい。   When biometric information is generated in the electronic apparatus 1A, for example, the finger 100 may be placed so as to be orthogonal to the imaging region 44 and the finger may be slid in the −Y direction.

また、図2に示す構成では、撮像部40の撮像領域44は平面上に位置するように配置されるとしたが、例えば、指に倣うように撮像領域44を湾曲面上に位置するように配置するといった構成とすることもできる。この場合の撮像部の模式的な斜視図を図10に示す。   In the configuration shown in FIG. 2, the imaging area 44 of the imaging unit 40 is arranged so as to be positioned on a plane. For example, the imaging area 44 is positioned on a curved surface so as to follow a finger. It can also be set as the structure of arrange | positioning. FIG. 10 shows a schematic perspective view of the imaging unit in this case.

図10では、光学部材42の一面が湾曲する構成とされている。撮像領域44とラインセンサ43の受光面までの距離が一定ではないが、屈折率分布レンズアレイから成る光学部材42において、アレイを構成するレンズの強度が連続して変化するように構成することで、支障なく一次元画像情報を撮像することができる。また、例えば光学部材42を細かな光ファイバを束ねた構造としてもよい。尚、指に倣うように撮像領域44を湾曲面上に位置するように配置するといったことは、本発明に限らず、ラインセンサを用いて撮像を行うといった技術全般に適用することができる。   In FIG. 10, one surface of the optical member 42 is curved. Although the distance between the imaging region 44 and the light receiving surface of the line sensor 43 is not constant, the optical member 42 composed of a gradient index lens array is configured so that the strength of the lenses constituting the array changes continuously. One-dimensional image information can be taken without any trouble. Further, for example, the optical member 42 may have a structure in which fine optical fibers are bundled. Note that disposing the imaging region 44 on the curved surface so as to follow the finger is not limited to the present invention, and can be applied to all techniques in which imaging is performed using a line sensor.

1,1A・・・電子機器、10・・・表示部、11・・・表示領域、12A,12B,12C,12D・・・辺、13・・・画素、20・・・位置検出部、30・・・照明部、31・・・導光板、32A,32B,32C,32D・・・辺、33,33A,33B,33C,33D・・・第1の光源、34,34A,34B・・・第2の光源、40・・・撮像部、41,42・・・光学部材、43・・・ラインセンサ、44・・・撮像領域、50・・・制御部、51・・・生体情報生成部、52・・・生体情報登録部、53・・・生体情報認証部、100・・・生体(指) DESCRIPTION OF SYMBOLS 1,1A ... Electronic device, 10 ... Display part, 11 ... Display area, 12A, 12B, 12C, 12D ... Side, 13 ... Pixel, 20 ... Position detection part, 30 ... Lighting part, 31 ... Light guide plate, 32A, 32B, 32C, 32D ... Side, 33, 33A, 33B, 33C, 33D ... First light source, 34, 34A, 34B ... 2nd light source, 40 ... imaging part, 41, 42 ... optical member, 43 ... line sensor, 44 ... imaging region, 50 ... control part, 51 ... biological information generation part 52 ... Biometric information registration unit, 53 ... Biometric authentication unit, 100 ... Biological (finger)

Claims (8)

画像を表示する表示部、
表示部の前面側に載置される生体の位置を検出する位置検出部、
表示部の端部に沿って線状に配置された撮像領域を有する撮像部、及び、
位置検出部からの情報と撮像部からの情報とに基づいて生体情報を生成する生体情報生成部を有する制御部、
を備えており、
撮像部の撮像領域は表示部外に配置されており、
表示部は透過型の表示パネルから成り、
表示部の背面には、光を照射する照明部が配置されており、
照明部は、可視光を発する第1の光源と、近赤外光を発する第2の光源とを備えており、照明部の発する近赤外光が表示部から生体に向けて照射され、
撮像部は、生体内で反射した近赤外光に基づく近赤外光画像を撮像する、
電子機器。
A display for displaying images,
A position detection unit for detecting the position of a living body placed on the front side of the display unit;
An imaging unit having an imaging region arranged linearly along the edge of the display unit; and
A control unit having a biological information generation unit that generates biological information based on information from the position detection unit and information from the imaging unit;
With
The imaging area of the imaging unit is located outside the display unit,
The display unit consists of a transmissive display panel,
On the back of the display unit, there is an illumination unit that emits light,
Lighting unit includes a first light source which emits visible light, is irradiated toward the near-infrared and a second light source emitting light, a near-infrared light display unit or al raw material emitted by the illuminating unit ,
The imaging unit captures a near-infrared light image based on near-infrared light reflected in the living body,
Electronics.
第2の光源は、近赤外光画像を撮像する際に点灯状態とされる、
請求項1に記載の電子機器。
The second light source is turned on when taking a near-infrared light image.
The electronic device according to claim 1 .
撮像部は、導光用の光学部材とラインセンサから構成されている、
請求項1または請求項2に記載の電子機器。
The imaging unit is composed of a light guide optical member and a line sensor.
The electronic device according to claim 1 or 2 .
ラインセンサは、電子機器内の空きスペースに配置され、
光学部材は、撮像領域から入射する光をラインセンサの受光面に導くように配置されている、
請求項3に記載の電子機器。
Line sensors are placed in empty spaces in electronic equipment,
The optical member is arranged to guide the light incident from the imaging region to the light receiving surface of the line sensor.
The electronic device according to claim 3 .
撮像部の撮像領域は、湾曲面上に位置するように配置されている、
請求項3または請求項4に記載の電子機器。
The imaging area of the imaging unit is arranged to be located on the curved surface,
The electronic device according to claim 3 or claim 4 .
光学部材は屈折率分布レンズアレイから成る、
請求項5に記載の電子機器。
The optical member comprises a gradient index lens array,
The electronic device according to claim 5 .
制御部は、生成した生体情報の登録処理を行う生体情報登録部と、生成した生体情報を用いて認証処理を行う生体情報認証部とを更に備えている、
請求項1ないし請求項6のいずれか1項に記載の電子機器。
The control unit further includes a biometric information registration unit that performs registration processing of the generated biometric information, and a biometric information authentication unit that performs authentication processing using the generated biometric information.
The electronic device according to claim 1 .
電子機器は、表示部上に載置される生体の移動に対応して所定の動作を行う携帯用の電子機器であり、
電子機器に所定の動作を行わせる際の操作と同様の操作により生体情報を生成する、
請求項1ないし請求項7のいずれか1項に記載の電子機器。
The electronic device is a portable electronic device that performs a predetermined operation corresponding to the movement of the living body placed on the display unit,
Generating biometric information by an operation similar to the operation for causing the electronic device to perform a predetermined operation;
The electronic device according to claim 1 .
JP2012131571A 2012-06-11 2012-06-11 Electronics Active JP6182830B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012131571A JP6182830B2 (en) 2012-06-11 2012-06-11 Electronics
CN201310215007.0A CN103488969A (en) 2012-06-11 2013-05-31 Electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012131571A JP6182830B2 (en) 2012-06-11 2012-06-11 Electronics

Publications (2)

Publication Number Publication Date
JP2013257609A JP2013257609A (en) 2013-12-26
JP6182830B2 true JP6182830B2 (en) 2017-08-23

Family

ID=49829178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012131571A Active JP6182830B2 (en) 2012-06-11 2012-06-11 Electronics

Country Status (2)

Country Link
JP (1) JP6182830B2 (en)
CN (1) CN103488969A (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820796A (en) * 2014-01-31 2015-08-05 株式会社茉菲莉亚 Personal identification system, personal information medium, terminal device, and personal identification method
JP6743429B2 (en) 2016-03-11 2020-08-19 富士通株式会社 Biometric apparatus, biometric method, and biometric program
KR102643660B1 (en) * 2017-02-14 2024-03-06 삼성전자주식회사 electronic device including biometric sensor
JP6862899B2 (en) 2017-02-21 2021-04-21 富士通株式会社 Information processing device, biometric authentication method, biometric authentication program
CN109166469B (en) * 2018-09-14 2021-03-02 京东方科技集团股份有限公司 Display panel, manufacturing method and display device
CN110062932B (en) * 2019-03-12 2023-05-23 深圳市汇顶科技股份有限公司 Back optical fingerprint identification system and electronic device
JP7336510B2 (en) 2019-04-12 2023-08-31 株式会社半導体エネルギー研究所 Display device
JP7028235B2 (en) * 2019-11-29 2022-03-02 カシオ計算機株式会社 Electronics, methods and programs

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5528355A (en) * 1994-03-11 1996-06-18 Idnetix Incorporated Electro-optic palm scanner system employing a non-planar platen
JP3738629B2 (en) * 1999-11-25 2006-01-25 三菱電機株式会社 Portable electronic devices
JP2006011711A (en) * 2004-06-24 2006-01-12 Sony Ericsson Mobilecommunications Japan Inc Authentication device and portable terminal
JP2006288872A (en) * 2005-04-13 2006-10-26 Canon Inc Blood vessel image input apparatus, blood vessel image constituting method, and personal authentication system using the apparatus and method
JP2008129643A (en) * 2006-11-16 2008-06-05 Canon Inc Electronic document management system
JP4844481B2 (en) * 2007-06-25 2011-12-28 株式会社日立製作所 Imaging apparatus and apparatus equipped with the same
US20090159786A1 (en) * 2007-12-19 2009-06-25 Sony Corporation Display apparatus and illumination apparatus
JP2009245416A (en) * 2008-03-12 2009-10-22 Hitachi Maxell Ltd Biometric information acquisition apparatus
CN201302723Y (en) * 2008-10-29 2009-09-02 北京市新技术应用研究所 Online multi-spectral palm image collecting instrument
US8605960B2 (en) * 2009-03-02 2013-12-10 Avago Technologies General Ip (Singapore) Pte. Ltd. Fingerprint sensing device
CN101539995B (en) * 2009-04-24 2011-05-25 清华大学深圳研究生院 Imaging device based on vein pattern and backside pattern of finger and multimode identity authentication method
CN201789553U (en) * 2010-06-13 2011-04-06 苏州捷泰科信息技术有限公司 Image and video acquisition device suitable for low illumination level condition
CN102402679A (en) * 2010-09-07 2012-04-04 北京北科慧识科技股份有限公司 Non-contact type palm print and palm vein recognition system
JP2013140440A (en) * 2011-12-28 2013-07-18 Sharp Corp Information processing device and driving method for the same, control program and readable storage medium

Also Published As

Publication number Publication date
JP2013257609A (en) 2013-12-26
CN103488969A (en) 2014-01-01

Similar Documents

Publication Publication Date Title
JP6182830B2 (en) Electronics
CN208013965U (en) Optical fingerprint sensor arrangement under display for mitigating Moire effect
CN108291838B (en) Integrated optical sensor for display backplane
US11048903B2 (en) Under-LCD screen optical sensor module for on-screen fingerprint sensing
US20200097699A1 (en) Fingerprint identification apparatus and electronic device
CN109496313B (en) Fingerprint identification device and electronic equipment
US9589170B2 (en) Information detection and display apparatus, and detecting method and displaying method thereof
US11288483B2 (en) Fingerprint recognition device, fingerprint recognition method, and display device
US10635878B2 (en) Optical fingerprint sensor with force sensing capability
KR102457710B1 (en) Optical fingerprint sensor under the display
US11361583B2 (en) Fingerprint identification apparatus and electronic device
US10275096B2 (en) Apparatus for contactlessly detecting indicated position on reproduced image
CN109791325B (en) Device with peripheral taskbar display and LCD underscreen optical sensor module for on-screen fingerprint sensing
CN107004130B (en) Optical sensor module under screen for sensing fingerprint on screen
CN101971123B (en) Interactive surface computer with switchable diffuser
WO2020077506A1 (en) Fingerprint recognition method and apparatus and terminal device with fingerprint recognition function
JP4748257B2 (en) Biometric authentication device
WO2020124511A1 (en) Fingerprint recognition method, fingerprint recognition device and electronic apparatus
US20090039241A1 (en) Biometric device and information terminal
US20200342197A1 (en) Optical fingerprint identification apparatus, electronic device and fingerprint identification method
CN110785770A (en) Fingerprint identification method and device and electronic equipment
WO2018185992A1 (en) Biometric authentication device and method
JP2014233005A (en) Image display apparatus
KR20050018101A (en) A Pointing Device and Pointing Method having the Fingerprint Image Recognition Function
CN113986028A (en) Touch panel, electronic equipment and user identity authentication method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170710

R150 Certificate of patent or registration of utility model

Ref document number: 6182830

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250