JP2021043995A - Electronic device - Google Patents

Electronic device Download PDF

Info

Publication number
JP2021043995A
JP2021043995A JP2020186894A JP2020186894A JP2021043995A JP 2021043995 A JP2021043995 A JP 2021043995A JP 2020186894 A JP2020186894 A JP 2020186894A JP 2020186894 A JP2020186894 A JP 2020186894A JP 2021043995 A JP2021043995 A JP 2021043995A
Authority
JP
Japan
Prior art keywords
image
personal authentication
unit
data
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020186894A
Other languages
Japanese (ja)
Other versions
JP7167973B2 (en
Inventor
伸明 高橋
Nobuaki Takahashi
伸明 高橋
知也 神山
Tomoya Kamiyama
知也 神山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2020186894A priority Critical patent/JP7167973B2/en
Publication of JP2021043995A publication Critical patent/JP2021043995A/en
Priority to JP2022170512A priority patent/JP2023011714A/en
Application granted granted Critical
Publication of JP7167973B2 publication Critical patent/JP7167973B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Collating Specific Patterns (AREA)

Abstract

To provide an electronic device allowing for personal authentication without interfering with an imaging operation.SOLUTION: A digital camera 2 includes: an input unit (touch panel) for receiving an input for personal authentication; a generation unit (CPU) for generating a predetermined pattern based on the data input to the input unit, as data for personal authentication; a personal information storage unit which stores the predetermined pattern generated by the generation unit as data for personal authentication; and a recognition unit (CPU) for recognizing an object from the input data. The generation unit generates a predetermined pattern on the basis of recognition data recognized by the recognition unit.SELECTED DRAWING: Figure 1

Description

本発明は、電子機器に関するものである。 The present invention relates to electronic devices.

従来、個人認証を行う場合に認証画面を表示部に表示する電子機器が知られている(例えば、特許文献1参照)。 Conventionally, there are known electronic devices that display an authentication screen on a display unit when performing personal authentication (see, for example, Patent Document 1).

特開2010−152758JP 2010-152758

ところで、この電子機器においては、撮影動作中に個人認証が行われた場合、撮影画面に代えて認証画面が表示部に表示されるため、操作者が撮影画面を見ながら行うフレーミングなどの撮影動作が阻害されるという問題が生じる。 By the way, in this electronic device, when personal authentication is performed during the shooting operation, the authentication screen is displayed on the display unit instead of the shooting screen, so that the operator performs shooting operations such as framing while looking at the shooting screen. Is hindered.

本発明の目的は、撮影動作を阻害することなく個人認証ができる電子機器を提供することである。 An object of the present invention is to provide an electronic device capable of personal authentication without disturbing a shooting operation.

本発明の電子機器は、個人認証するための入力を受付ける入力部と、前記入力部に入力されたデータに基づく所定のパターンを前記個人認証のためのデータとして記憶する記憶部と、を備える。 The electronic device of the present invention includes an input unit that accepts an input for personal authentication, and a storage unit that stores a predetermined pattern based on the data input to the input unit as data for personal authentication.

本発明の電子機器によれば、撮影動作を阻害することなく個人認証ができる。 According to the electronic device of the present invention, personal authentication can be performed without disturbing the photographing operation.

第1の実施の形態に係るデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera which concerns on 1st Embodiment. 第1の実施の形態に係るデジタルカメラの処理を示すフローチャートである。It is a flowchart which shows the processing of the digital camera which concerns on 1st Embodiment. 第2の実施の形態に係るデジタルカメラの処理を示すフローチャートである。It is a flowchart which shows the processing of the digital camera which concerns on 2nd Embodiment. 第1の実施の形態に係るデジタルカメラの表示画面を示す図である。It is a figure which shows the display screen of the digital camera which concerns on 1st Embodiment. 第1の実施の形態に係るデジタルカメラの表示画面を示す図である。It is a figure which shows the display screen of the digital camera which concerns on 1st Embodiment. 第3の実施の形態に係るデジタルカメラを背面から視た斜視図である。It is a perspective view which looked at the digital camera which concerns on 3rd Embodiment from the back. 第3の実施の形態に係るデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera which concerns on 3rd Embodiment. 第3の実施の形態に係るデジタルカメラの登録処理を示すフローチャートである。It is a flowchart which shows the registration process of the digital camera which concerns on 3rd Embodiment. 第3の実施の形態に係るデジタルカメラを用いて個人認証データを登録する状況を示す図である。It is a figure which shows the situation which the personal authentication data is registered using the digital camera which concerns on 3rd Embodiment. 第3の実施の形態に係るデジタルカメラの登録モードで連続撮影された画像を示す図である。It is a figure which shows the image which was taken continuously in the registration mode of the digital camera which concerns on 3rd Embodiment. 第3の実施の形態に係るデジタルカメラの登録モードで取得された輪郭画像を示す図である。It is a figure which shows the contour image acquired in the registration mode of the digital camera which concerns on 3rd Embodiment. 第3の実施の形態に係るデジタルカメラの個人認証処理を示すフローチャートである。It is a flowchart which shows the personal authentication process of the digital camera which concerns on 3rd Embodiment. 第3の実施の形態に係るデジタルカメラを用いて個人認証モードで連続撮影された画像を示す図である。It is a figure which shows the image which was taken continuously in the personal authentication mode using the digital camera which concerns on 3rd Embodiment. 第3の実施の形態に係るデジタルカメラによって個人認証モードで取得された輪郭画像を示す図である。It is a figure which shows the contour image acquired in the personal authentication mode by the digital camera which concerns on 3rd Embodiment. 第3の実施の形態において、特定の撮影条件を設定した場合の輪郭画像を示す図である。It is a figure which shows the contour image when the specific shooting condition is set in the 3rd Embodiment.

以下、図面を参照して第1の実施の形態に係るデジタルカメラについて説明する。図1は、実施の形態に係るデジタルカメラの構成を示すブロック図である。デジタルカメラ2は、デジタルカメラ2の各部を統括的に制御するCPU4を備えている。CPU4には、操作部6、GPS衛星から受信した信号に基づいて現在位置を測位するGPS5、アップロードする画像の画像データをインターネットを介してwebサーバに送信する通信部8、スルー画像等を表示するLCD表示部10の表示制御を行う表示制御部12、LCD表示部10において指等の接触の位置を検出するタッチパネル14、被写体光を撮像して撮像信号を生成する撮像素子16、撮像素子16により撮像された画像の画像データを一時的に記憶する画像記憶部18、点または線によって描かれた図形パターンを個人認証データとして記憶する個人情報記憶部20、及び画像データを記憶するメモリカード21を装着するメモリカードスロット23が接続されている。 Hereinafter, the digital camera according to the first embodiment will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a digital camera according to an embodiment. The digital camera 2 includes a CPU 4 that controls each part of the digital camera 2 in an integrated manner. The CPU 4 displays an operation unit 6, a GPS 5 that positions the current position based on a signal received from a GPS satellite, a communication unit 8 that transmits image data of an image to be uploaded to a web server via the Internet, a through image, and the like. The display control unit 12 that controls the display of the LCD display unit 10, the touch panel 14 that detects the position of contact with a finger or the like on the LCD display unit 10, the image pickup element 16 that captures the subject light and generates an image pickup signal, and the image pickup element 16 An image storage unit 18 that temporarily stores image data of an captured image, a personal information storage unit 20 that stores a graphic pattern drawn by dots or lines as personal authentication data, and a memory card 21 that stores image data. The memory card slot 23 to be installed is connected.

ここで、操作部6には、電源スイッチ(図示せず)、シャッタボタン(図示せず)等が含まれている。また、図形パターンには、後述する投稿モードの設定の可否を判定する際に用いられる第1図形パターン、及び投稿モードの終了の可否判定する際に用いられる第2図形パターンが存在する。なお、図形パターンは、予め操作者がLCD表示部10に所定の図形を指で描くことにより、個人情報記憶部20に登録したものである。 Here, the operation unit 6 includes a power switch (not shown), a shutter button (not shown), and the like. Further, the graphic pattern includes a first graphic pattern used when determining whether or not the posting mode can be set, which will be described later, and a second graphic pattern used when determining whether or not the posting mode can be terminated. The graphic pattern is registered in the personal information storage unit 20 by the operator drawing a predetermined graphic on the LCD display unit 10 with a finger in advance.

次に、図2に示すフローチャートを参照し、第1の実施の形態に係るデジタルカメラ2の処理について説明する。まず、操作者の操作により電源がオンにされると、CPU4は、撮像素子16によりスルー画像の撮影を開始し、撮影したスルー画像をLCD表示部10に表示する(ステップS1)。 Next, the processing of the digital camera 2 according to the first embodiment will be described with reference to the flowchart shown in FIG. First, when the power is turned on by the operation of the operator, the CPU 4 starts shooting a through image by the image sensor 16 and displays the shot through image on the LCD display unit 10 (step S1).

次に、CPU4は、タッチパネル入力がなされたかを判定する(ステップS2)。即ち、タッチパネル14により、操作者の指がLCD表示部10に接触したか否かを判定する。タッチパネル入力がなされない場合(ステップS2:No)、CPU4は、電源がオンにされてから所定の時間経過していれば(ステップS3:Yes)、一連の処理を終了する。一方、電源がオンにされてから所定の時間が経過していなければ(ステップS3:No)、ステップS2の処理を繰り返す。 Next, the CPU 4 determines whether the touch panel input has been made (step S2). That is, the touch panel 14 determines whether or not the operator's finger touches the LCD display unit 10. When the touch panel input is not made (step S2: No), the CPU 4 ends a series of processes if a predetermined time has elapsed since the power was turned on (step S3: Yes). On the other hand, if a predetermined time has not elapsed since the power was turned on (step S3: No), the process of step S2 is repeated.

タッチパネル入力がなされた場合(ステップS2:Yes)、CPU4は、タッチパネル入力が長時間押しか否かを判定する(ステップS4)。なお、長時間押しか否かの判定は公知の技術を用いて行われる。タッチパネル入力が長時間押しでない場合(ステップS4:No)、即ち、タッチパネル入力が短時間押しであった場合、CPU4は、操作者の指が接触したタッチパネル14上の位置を検出し、検出した位置に焦点を合わせるタッチAFを行った後(ステップS5)、撮像素子16による画像の撮影を行う(ステップS6)。 When the touch panel input is made (step S2: Yes), the CPU 4 determines whether or not the touch panel input is pressed for a long time (step S4). It should be noted that the determination of whether or not the product is pressed for a long time is performed using a known technique. When the touch panel input is not pressed for a long time (step S4: No), that is, when the touch panel input is pressed for a short time, the CPU 4 detects the position on the touch panel 14 where the operator's finger touches, and the detected position. After performing touch AF to focus on (step S5), an image is taken by the image pickup element 16 (step S6).

一方、タッチパネル入力が長時間押しであった場合(ステップS4:Yes)、CPU4は、LCD表示部10に接触した指の軌跡が個人情報記憶部20に記憶されている第1図形パターンと一致するか否かを判定することによる個人認証を行う(ステップS7)。ここで、一致とは、完全一致のみならず略一致を含む。指の軌跡が第1図形パターンと一致しない場合(ステップS7:No)、「パターンが一致しません。もう一度図形を描いてください。」等のエラーメッセージがLCD表示部10に表示され(ステップS8)、ステップS2の処理に戻る。 On the other hand, when the touch panel input is pressed for a long time (step S4: Yes), the CPU 4 matches the locus of the finger in contact with the LCD display unit 10 with the first graphic pattern stored in the personal information storage unit 20. Personal authentication is performed by determining whether or not (step S7). Here, the match includes not only an exact match but also a substantially match. If the finger locus does not match the first figure pattern (step S7: No), an error message such as "The pattern does not match. Please draw the figure again" is displayed on the LCD display unit 10 (step S8). , Return to the process of step S2.

指の軌跡が第1図形パターンと一致した場合(ステップS7:Yes)、CPU4は、撮影された画像をwebサーバが提供する所定の画像投稿サイト(図示せず)にアップロードさせる投稿モードを設定する(ステップS9)。ここで、シャッタボタンが操作され、被写体の画像が撮影されると(ステップS10)、CPU4は、撮影された画像の画像データを画像記憶部18に一旦記憶する。次に、CPU4は、画像記憶部18から読み出した画像データを通信部8により、インターネットを介してwebサーバに送信し、画像データに基づく画像を画像投稿サイトにアップロードする(ステップS11)。 When the trajectory of the finger matches the first graphic pattern (step S7: Yes), the CPU 4 sets a posting mode for uploading the captured image to a predetermined image posting site (not shown) provided by the web server. (Step S9). Here, when the shutter button is operated and an image of the subject is captured (step S10), the CPU 4 temporarily stores the image data of the captured image in the image storage unit 18. Next, the CPU 4 transmits the image data read from the image storage unit 18 to the web server via the Internet by the communication unit 8, and uploads the image based on the image data to the image posting site (step S11).

次に、CPU4は、再びタッチパネル入力がなされたかを判定する(ステップS12)。タッチパネル入力がなされない場合(ステップS12:No)、ステップS10〜12の処理が繰り返される。 Next, the CPU 4 determines whether the touch panel input has been made again (step S12). When the touch panel input is not made (step S12: No), the processes of steps S10 to 12 are repeated.

一方、タッチパネル入力がなされた場合(ステップS12:Yes)、CPU4は、タッチパネル入力が長時間押しか否かを判定する(ステップS14)。タッチパネル入力が長時間押しでなく短時間押しであった場合(ステップS14:No)、「パターンが一致しません。もう一度図形を描いてください。」等のエラーメッセージがLCD表示部10に表示され(ステップS16)、ステップS12の処理に戻る。 On the other hand, when the touch panel input is made (step S12: Yes), the CPU 4 determines whether or not the touch panel input is pressed for a long time (step S14). If the touch panel input is not a long-time press but a short-time press (step S14: No), an error message such as "The patterns do not match. Please draw a figure again." Is displayed on the LCD display unit 10 (step S14: No). Step S16) returns to the process of step S12.

一方、タッチパネル入力が長時間押しであった場合(ステップS14:Yes)、CPU4は、LCD表示部10に接触した指の軌跡が個人情報記憶部20に記憶されている第2図形パターンと一致するか否かを判定する(ステップS15)。指の軌跡が第2図形パターンと一致しない場合(ステップS15:No)、ステップS16の処理に進み、「パターンが一致しません。もう一度図形を描いてください。」等のエラーメッセージがLCD表示部10に表示される。 On the other hand, when the touch panel input is pressed for a long time (step S14: Yes), the CPU 4 matches the locus of the finger in contact with the LCD display unit 10 with the second graphic pattern stored in the personal information storage unit 20. Whether or not it is determined (step S15). If the finger locus does not match the second figure pattern (step S15: No), the process proceeds to step S16, and an error message such as "The pattern does not match. Please draw the figure again." Is displayed on the LCD display unit 10. Is displayed in.

一方、指の軌跡が第2図形パターンと一致した場合(ステップS15:Yes)、CPU4は、投稿モードを終了し(ステップS17)、撮影を終了する操作がなされたか否かを判定する(ステップS18)。撮影を終了する操作がなされない場合(ステップS18:No)、ステップS2の処理に戻る。一方、撮影を終了する操作がなされた場合(ステップS18:Yes)、一連の処理を終了する。 On the other hand, when the locus of the finger matches the second graphic pattern (step S15: Yes), the CPU 4 ends the posting mode (step S17) and determines whether or not an operation for ending the shooting has been performed (step S18). ). If the operation for ending the shooting is not performed (step S18: No), the process returns to the process of step S2. On the other hand, when the operation for ending the shooting is performed (step S18: Yes), the series of processes is terminated.

この第1の実施の形態に係るデジタルカメラ2によれば、タッチパネル14によって認識された指の軌跡に基づいて個人認証を行うため、撮影動作中に個人認証がなされてもパスワード入力などの認証画面をLCD表示部10に表示させる必要がなく、操作者の撮影動作を阻害せずに個人認証を行うことができる。即ち、操作者は、スルー画像を見ながら個人認証操作を行い、撮影した画像を画像投稿サイトにアップロードすることができる。 According to the digital camera 2 according to the first embodiment, since personal authentication is performed based on the trajectory of the finger recognized by the touch panel 14, even if personal authentication is performed during the shooting operation, an authentication screen such as password input is performed. It is not necessary to display the image on the LCD display unit 10, and personal authentication can be performed without disturbing the shooting operation of the operator. That is, the operator can perform the personal authentication operation while looking at the through image and upload the captured image to the image posting site.

また、操作者がスルー画像撮影中に咄嗟に撮影を撮影しアップロードしたくなった場合でも、指で表示画面をなぞるだけで迅速に個人認証操作を完了させ、投稿モードに移行させることができる。 In addition, even if the operator wants to take a picture and upload it while taking a through image, he / she can quickly complete the personal authentication operation and shift to the posting mode by simply tracing the display screen with his / her finger.

また、LCD表示部10に接触した操作者の指の軌跡が予め操作者によって描かれた図形パターンと一致するか否かを判定することにより、セキュリティレベルの高い個人認証を行うことができる。 Further, personal authentication with a high security level can be performed by determining whether or not the trajectory of the finger of the operator who comes into contact with the LCD display unit 10 matches the graphic pattern drawn by the operator in advance.

また、投稿モードの終了の可否を判定する場合には、投稿モードの設定の可否を判定する場合とは異なる図形パターンを用いて個人認証を行うことにより、次のような効果が得られる。例えば、デジタルカメラ2が第1図形パターンを知る盗難者により盗難されたとする。そして、盗難者が第1図形パターンの軌跡をタッチ入力して投稿モードを設定し、撮影した画像を画像投稿サイトにアップロードしたとする。ここで、投稿される画像の画像データには、GPS5によって取得された位置情報と日時情報が付加されているものとする。このような場合、盗難者が第2図形パターンの軌跡をタッチ入力して投稿モードを終了させることができなければ、撮影が行われる度に画像が画像投稿サイトにアップロードされ続けるため、アップロードされた画像の画像データに付加された位置情報から、盗難者の現在位置を追跡することが可能となる。 Further, when determining whether or not the posting mode can be terminated, the following effects can be obtained by performing personal authentication using a graphic pattern different from the case where determining whether or not the posting mode can be set. For example, assume that the digital camera 2 is stolen by a thief who knows the first graphic pattern. Then, it is assumed that the thief touch-inputs the trajectory of the first graphic pattern to set the posting mode and uploads the captured image to the image posting site. Here, it is assumed that the position information and the date and time information acquired by GPS 5 are added to the image data of the posted image. In such a case, if the thief cannot touch-input the trajectory of the second graphic pattern to exit the posting mode, the image will continue to be uploaded to the image posting site every time the image is taken, so the image was uploaded. From the position information added to the image data of the image, it is possible to track the current position of the thief.

次に、第2の実施の形態に係るデジタルカメラの処理について説明する。この第2の実施の形態に係るデジタルカメラは、第1の実施の形態において、動画撮影中に個人認証が行われた場合に撮影中の動画像を所定の画像投稿サイトにアップロードするようにしたものである。また、個人認証データとして、後述する動画投稿モードの設定の可否を判定する際に用いられる第3図形パターン、及び動画投稿モードの終了の可否を判定する際に用いられる第4図形パターンを個人情報記憶部20に記憶するようにしたものである。従って、第2の実施の形態では、第1の実施の形態と異なる部分について詳細に説明し、重複する部分については適宜説明を省略する。 Next, the processing of the digital camera according to the second embodiment will be described. In the first embodiment, the digital camera according to the second embodiment uploads a moving image during shooting to a predetermined image posting site when personal authentication is performed during video shooting. It is a thing. Further, as personal authentication data, personal information includes a third graphic pattern used when determining whether or not the video posting mode can be set, which will be described later, and a fourth graphic pattern used when determining whether or not the video posting mode can be terminated. It is designed to be stored in the storage unit 20. Therefore, in the second embodiment, the parts different from the first embodiment will be described in detail, and the overlapping parts will be omitted as appropriate.

まず、操作者の操作により動画像を撮影する動画撮影モードが設定され、シャッタボタンが操作されると、CPU4は、撮像素子16により動画像の撮影を開始し(ステップS31)、撮影された被写体の画像データを順次画像記憶部18に記憶する。そして、画像記憶部18から順次画像データを読み出し、画像データに基づく画像をLCD表示部10に表示する。LCD表示部10に表示された画像の画像データは、メモリカード21に記憶される。 First, a moving image shooting mode for shooting a moving image is set by the operation of the operator, and when the shutter button is operated, the CPU 4 starts shooting the moving image by the image sensor 16 (step S31), and the shot subject is shot. The image data of the above is sequentially stored in the image storage unit 18. Then, the image data is sequentially read from the image storage unit 18, and the image based on the image data is displayed on the LCD display unit 10. The image data of the image displayed on the LCD display unit 10 is stored in the memory card 21.

ここで、タッチパネル入力がなされると(ステップS32:Yes)、CPU4は、タッチパネル入力が長時間押しか否かを判定する(ステップS34)。タッチパネル入力が長時間押しでなく短時間押しであった場合(ステップS34:No)、CPU4は、操作者の指が接触したタッチパネル14上の位置を検出し、検出した位置に焦点を合わせる(ステップS36)。このような動画撮影中の短時間押しは、被写体の焦点位置を変更したい場合に行われる。 Here, when the touch panel input is made (step S32: Yes), the CPU 4 determines whether or not the touch panel input is pressed for a long time (step S34). When the touch panel input is not a long-time press but a short-time press (step S34: No), the CPU 4 detects a position on the touch panel 14 that the operator's finger touches and focuses on the detected position (step). S36). Such a short-time press during movie shooting is performed when it is desired to change the focal position of the subject.

一方、タッチパネル入力が長時間押しであった場合(ステップS34:Yes)、CPU4は、LCD表示部10に接触した指の軌跡が個人情報記憶部20に記憶されている第3図形パターンと一致するか否かを判定することによる個人認証を行う(ステップS37)。指の軌跡が第3図形パターンと一致しない場合(ステップS37:No)、「パターンが一致しません。もう一度図形を描いてください。」等のエラーメッセージがLCD表示部10に表示され(ステップS38)、ステップS32の処理に戻る。 On the other hand, when the touch panel input is pressed for a long time (step S34: Yes), the CPU 4 matches the locus of the finger in contact with the LCD display unit 10 with the third graphic pattern stored in the personal information storage unit 20. Personal authentication is performed by determining whether or not (step S37). If the finger locus does not match the third figure pattern (step S37: No), an error message such as "The pattern does not match. Please draw the figure again" is displayed on the LCD display unit 10 (step S38). , Return to the process of step S32.

指の軌跡が第3図形パターンと一致した場合(ステップS37:Yes)、CPU4は、撮影中の動画像を途中から所定の画像投稿サイトにアップロードさせる動画投稿モードを設定する(ステップS39)。次に、CPU4は、画像記憶部18から順次読み出される画像データを通信部8からインターネットを介してwebサーバに送信する(ステップS41)。これにより、動画撮影中において、個人認証後に撮影された動画像が画像投稿サイトにアップロードされる。 When the locus of the finger matches the third graphic pattern (step S37: Yes), the CPU 4 sets a video posting mode in which the moving image being shot is uploaded to a predetermined image posting site from the middle (step S39). Next, the CPU 4 transmits the image data sequentially read from the image storage unit 18 from the communication unit 8 to the web server via the Internet (step S41). As a result, the moving image taken after personal authentication is uploaded to the image posting site during movie shooting.

次に、CPU4は、再びタッチパネル入力がなされたかを判定する(ステップS42)。タッチパネル入力がなされない場合(ステップS42:No)、ステップS42の処理に戻り、撮影中の動画像のアップロードを継続する。 Next, the CPU 4 determines whether the touch panel input has been made again (step S42). If no touch panel input is made (step S42: No), the process returns to step S42 and the uploading of the moving image during shooting is continued.

一方、タッチパネル入力がなされた場合(ステップS42:Yes)、タッチパネル入力が長時間押しであれば(ステップS44:Yes)、CPU4は、LCD表示部10に接触した指の軌跡が個人情報記憶部20に記憶されている第4図形パターンと一致するか否かを判定する(ステップS45)。指の軌跡が第4図形パターンと一致しない場合(ステップS45:No)、CPU4は、「パターンが一致しません。もう一度図形を描いてください。」等のエラーメッセージがLCD表示部10に表示され(ステップS46)、ステップS42の処理に戻る。 On the other hand, when the touch panel input is made (step S42: Yes), if the touch panel input is pressed for a long time (step S44: Yes), the CPU 4 has the personal information storage unit 20 in which the locus of the finger in contact with the LCD display unit 10 is recorded. It is determined whether or not the pattern matches the fourth graphic pattern stored in (step S45). If the finger locus does not match the fourth figure pattern (step S45: No), the CPU 4 displays an error message such as "The pattern does not match. Please draw the figure again." On the LCD display unit 10 (step S45: No). Step S46) returns to the process of step S42.

指の軌跡が第4図形パターンと一致すると(ステップS45:Yes)、CPU4は、動画投稿モードを終了し(ステップS47)、動画撮影を終了する操作がなされたか否かを判定する(ステップS48)。動画撮影を終了する操作がなされなければ(ステップS48:No)、ステップS32の処理に戻り、動画撮影を終了する操作がなされた場合は(ステップS48:Yes)、一連の処理を終了する。 When the trajectory of the finger matches the fourth graphic pattern (step S45: Yes), the CPU 4 exits the video posting mode (step S47) and determines whether or not the operation of ending the video shooting has been performed (step S48). .. If the operation for ending the moving image shooting is not performed (step S48: No), the process returns to the process of step S32, and if the operation for ending the moving image shooting is performed (step S48: Yes), the series of processes is ended.

この第2の実施の形態に係るデジタルカメラによれば、操作者は、LCD表示部10に表示された動画像を見ながら個人認証操作を行い、撮影中の動画像を途中から画像投稿サイトにアップロードすることができる。また、撮影中に再度個人認証操作を行うことにより、動画像のアップロードを途中で終了させることができる。 According to the digital camera according to the second embodiment, the operator performs a personal authentication operation while looking at the moving image displayed on the LCD display unit 10, and the moving image being photographed is posted on the image posting site from the middle. You can upload it. Further, by performing the personal authentication operation again during shooting, the uploading of the moving image can be terminated in the middle.

なお、上述の第1の実施の形態の投稿モードにおいて撮影される画像は、静止画像だけでなく動画像でもよい。この場合、投稿モードにおいて動画像が撮影されると、CPU4は、順次画像記憶部18に記憶された動画像の画像データを読み出し、インターネットを介してwebサーバに送信する。そして、動画撮影が終了しwebサーバに画像データが送信できなくなると、画像投稿サイトへの一つの動画像のアップロードが完了する。 The image taken in the posting mode of the first embodiment described above may be a moving image as well as a still image. In this case, when the moving image is taken in the posting mode, the CPU 4 sequentially reads the image data of the moving image stored in the image storage unit 18 and transmits it to the web server via the Internet. Then, when the moving image shooting is completed and the image data cannot be transmitted to the web server, the upload of one moving image to the image posting site is completed.

また、上述の第1の実施の形態において、タッチパネル入力が短時間押しであった場合、必ずしもタッチAFを行う必要はない。例えば、図4に示すように、メニュー画面を表示させる「MENU」ボタンがスルー画像撮影中のLCD表示部10に表示されていたとする。ここで、「MENU」ボタンがタッチされた場合には、LCD表示部10に表示されているスルー画像の画面をメニュー画面に切替えてもよい。 Further, in the above-described first embodiment, when the touch panel input is pressed for a short time, it is not always necessary to perform touch AF. For example, as shown in FIG. 4, it is assumed that the "MENU" button for displaying the menu screen is displayed on the LCD display unit 10 during the through image shooting. Here, when the "MENU" button is touched, the screen of the through image displayed on the LCD display unit 10 may be switched to the menu screen.

また、上述の第1の実施の形態において、タッチAF時の撮影処理は、指が接触したタッチパネル14上の位置に焦点を合わせた直後に行われてもよく、タッチされた位置に焦点を合わせた後、シャッタボタンが操作された場合に行われるようにしてもよい。 Further, in the first embodiment described above, the shooting process during touch AF may be performed immediately after focusing on the position on the touch panel 14 in which the finger touches, and focuses on the touched position. After that, it may be performed when the shutter button is operated.

また、上述の第1の実施の形態において、投稿モードを終了させる場合には、必ずしもタッチパネル入力によらなくてもよい。例えば、投稿モードが継続している場合は、図4に示すように、「ログイン中」のようなアイコンを表示させる。そして、アイコンがタッチされた場合に投稿モードを終了させるようにしてもよい。 Further, in the above-described first embodiment, when the posting mode is terminated, it is not always necessary to use the touch panel input. For example, when the posting mode is continued, an icon such as "logged in" is displayed as shown in FIG. Then, the posting mode may be terminated when the icon is touched.

また、上述の各実施の形態において、投稿モード、動画投稿モードの設定時と終了時とで異なる図形パターンをタッチ入力しなくてもよい。即ち、第1図形パターン、第3図形パターンがタッチ入力された場合に、投稿モード、動画投稿モードを終了させるようにしてもよい。 Further, in each of the above-described embodiments, it is not necessary to touch-input different graphic patterns at the time of setting and the time of ending the posting mode and the moving image posting mode. That is, when the first graphic pattern and the third graphic pattern are touch-input, the posting mode and the moving image posting mode may be terminated.

また、上述の各実施の形態において、タッチ入力は必ずしも指で行われる必要はなく、指示棒等の操作部材によって行われるようにしてもよい。 Further, in each of the above-described embodiments, the touch input does not necessarily have to be performed by a finger, and may be performed by an operating member such as a pointer.

また、上述の各実施の形態において、デジタルカメラ2は、コンパクトカメラ、一眼レフカメラの何れでもよい。 Further, in each of the above-described embodiments, the digital camera 2 may be either a compact camera or a single-lens reflex camera.

次に、図面を参照して第3の実施の形態に係るデジタルカメラについて説明する。 Next, the digital camera according to the third embodiment will be described with reference to the drawings.

従来、掌の形状を認識することにより個人認証を行う掌形認証用基準点検出装置が知られている(例えば、特開2004−348522参照)。 Conventionally, a palm shape authentication reference point detection device that performs personal authentication by recognizing the shape of the palm is known (see, for example, Japanese Patent Application Laid-Open No. 2004-348522).

ところで、この掌形認証用基準点検出装置においては、指の形状を直線に置換した単純なモデルを個人認証用データとして用いるため、例えば、掌の形状が類似する人物がこの掌形認証用基準点検出装置を用いた場合、誤って個人認証がなされる可能性がある。 By the way, in this palm shape authentication reference point detection device, since a simple model in which the finger shape is replaced with a straight line is used as personal authentication data, for example, a person having a similar palm shape is the palm shape authentication reference. When a point detection device is used, personal authentication may be erroneously performed.

また、デジタルカメラで上述の方法による個人認証を行う場合には、この掌形認証用基準点検出装置をデジタルカメラに搭載する必要があり、製造コストが割高になるという問題が生じる。 Further, when personal authentication is performed by the above method with a digital camera, it is necessary to mount this palm-shaped authentication reference point detection device on the digital camera, which causes a problem that the manufacturing cost becomes high.

第3の実施の形態に係る発明の目的は、高精度の個人認証ができる安価な撮像装置を提供することである。 An object of the invention according to the third embodiment is to provide an inexpensive imaging device capable of highly accurate personal authentication.

図6は、第3の実施の形態に係るデジタルカメラ22を背面から視た斜視図である。デジタルカメラ22は、金属やプラスチックからなる筐体24を備え、筐体24の背面には、LCD表示部26、マルチセレクタ28、及びズームボタン29が設けられている。 FIG. 6 is a perspective view of the digital camera 22 according to the third embodiment as viewed from the back. The digital camera 22 includes a housing 24 made of metal or plastic, and an LCD display unit 26, a multi-selector 28, and a zoom button 29 are provided on the back surface of the housing 24.

また、筐体24の上面には、電源ボタン32、及びシャッタボタン34が設けられ、筐体24の前面には、撮影レンズ(図7参照)を収納するレンズ鏡筒36が設けられている。 A power button 32 and a shutter button 34 are provided on the upper surface of the housing 24, and a lens barrel 36 for accommodating a photographing lens (see FIG. 7) is provided on the front surface of the housing 24.

図7は、第3の実施の形態に係るデジタルカメラ22の構成を示すブロック図である。デジタルカメラ22は、デジタルカメラ22の各部を統括的に制御するCPU44を備えている。CPU44には、操作部46、LCD表示部26の表示制御を行う表示制御部48、LCD表示部26に表示されるアイコン等を指で触れることにより入力の操作を行うタッチパネル50、被写体を撮影するための撮影部54、撮影部54により撮影された画像の画像データを一時的に記憶する画像記憶部56、画像データについて画素の二値化処理を行う画像処理部58、個人認証を行う際に用いる個人認証データを記憶する情報記憶部59、及び画像データを記憶するメモリカード60を装着するメモリカードスロット62が接続されている。 FIG. 7 is a block diagram showing the configuration of the digital camera 22 according to the third embodiment. The digital camera 22 includes a CPU 44 that comprehensively controls each part of the digital camera 22. The CPU 44 has an operation unit 46, a display control unit 48 that controls the display of the LCD display unit 26, a touch panel 50 that performs an input operation by touching an icon or the like displayed on the LCD display unit 26 with a finger, and a subject. Imaging unit 54 for the purpose, image storage unit 56 that temporarily stores image data of the image captured by the photographing unit 54, image processing unit 58 that performs pixel binarization processing on the image data, and when performing personal authentication. An information storage unit 59 for storing personal authentication data to be used and a memory card slot 62 for mounting a memory card 60 for storing image data are connected.

ここで、操作部46には、マルチセレクタ28、ズームボタン29、電源ボタン32、及びシャッタボタン34等が含まれている。また、撮影部54は、撮影レンズ64の駆動制御を行うレンズ駆動部66、CCD等により構成される撮像素子68、レンズ駆動部62、及び撮像素子68の駆動制御を行う撮影制御部70を備えている。 Here, the operation unit 46 includes a multi-selector 28, a zoom button 29, a power button 32, a shutter button 34, and the like. Further, the photographing unit 54 includes a lens driving unit 66 that controls the driving of the photographing lens 64, an image sensor 68 composed of a CCD or the like, a lens driving unit 62, and a photographing control unit 70 that controls the drive of the image sensor 68. ing.

次に、図8に示すフローチャートを参照して、第3の実施の形態に係るデジタルカメラ22に予め個人認証データを登録する登録処理について説明する。なお、以下では、操作者Aが腕時計のブレスレット部分を登録対象物とする場合を具体例として説明する。 Next, with reference to the flowchart shown in FIG. 8, a registration process for registering personal authentication data in advance in the digital camera 22 according to the third embodiment will be described. In the following, a case where the operator A sets the bracelet portion of the wristwatch as the object to be registered will be described as a specific example.

まず、電源がオンにされると、CPU44は、撮影部54によりスルー画像の撮影を開始し、撮影したスルー画像をLCD表示部26に表示する。 First, when the power is turned on, the CPU 44 starts shooting a through image by the shooting unit 54, and displays the shot through image on the LCD display unit 26.

次に、操作者Aが例えばタッチパネル50を操作して、個人認証データの登録を行う登録モードを設定すると(ステップS101)、CPU44は、撮像制御部70によりレンズ駆動部66を駆動し、撮影部54の撮影画角が画角(W1)になるように撮影レンズ64を移動させる(ステップS102)。ここで、画角(W1)は、撮影部54において最もワイド側の撮影画角である。 Next, when the operator A operates the touch panel 50, for example, to set the registration mode for registering the personal authentication data (step S101), the CPU 44 drives the lens driving unit 66 by the imaging control unit 70, and the photographing unit The photographing lens 64 is moved so that the photographing angle of view of 54 becomes the angle of view (W1) (step S102). Here, the angle of view (W1) is the widest shooting angle of view in the shooting unit 54.

次に、CPU44は、「登録対象物が画面に写るようにし、シャッタボタンを押してください。」等のメッセージをLCD表示部26に表示する。ここで、図9に示すように、操作者Aが腕を伸ばし、手首に装着されている腕時計80のブレスレット82の部分をレンズ鏡筒36の前に近づけると、腕時計80のブレスレット82の部分のスルー画像がLCD表示部26に表示される。 Next, the CPU 44 displays a message such as "Please make the registered object appear on the screen and press the shutter button" on the LCD display unit 26. Here, as shown in FIG. 9, when the operator A extends his arm and brings the portion of the bracelet 82 of the wristwatch 80 worn on the wrist closer to the front of the lens barrel 36, the portion of the bracelet 82 of the wristwatch 80 The through image is displayed on the LCD display unit 26.

次に、操作者Aは、例えば、ブレスレット82がLCD表示部26の表示画面の中心付近に表示されるようにデジタルカメラ22の位置を調節し、シャッタボタン34を操作する。 Next, the operator A adjusts the position of the digital camera 22 so that the bracelet 82 is displayed near the center of the display screen of the LCD display unit 26, and operates the shutter button 34, for example.

シャッタボタン34が操作されると、CPU44は、撮影部54の撮影画角を順次テレ側に変化させながら連続撮影を行う(ステップS103)。例えば、図10に示すように、CPU44は、まず、撮影部54の撮影画角を画角(W1)に合わせた状態で画像aを撮影する。次に、撮影部54の撮影画角を画角(W1)よりもテレ側の画角(W2)に合わせて画像bを撮影する。そして、画角(W2)よりもテレ側の画角(W3)で画像cを撮影する。 When the shutter button 34 is operated, the CPU 44 performs continuous shooting while sequentially changing the shooting angle of view of the shooting unit 54 to the telephoto side (step S103). For example, as shown in FIG. 10, the CPU 44 first shoots the image a in a state where the shooting angle of view of the shooting unit 54 is adjusted to the angle of view (W1). Next, the image b is photographed by adjusting the angle of view of the photographing unit 54 to the angle of view (W2) on the telephoto side of the angle of view (W1). Then, the image c is taken at the angle of view (W3) on the telephoto side of the angle of view (W2).

以下、同様にして、CPU44は、画角(M1)で画像dを撮影し、画角(M2)で画像eを撮影し、画角(M3)で画像fを撮影する。更に、画角(T1)で画像gを撮影し、画角(T2)で画像hを撮影し、画角(T3)で画像iを撮影する。連続撮影された複数の画像の画像データは、画像記憶部56に記憶される。 Hereinafter, in the same manner, the CPU 44 captures the image d at the angle of view (M1), captures the image e at the angle of view (M2), and captures the image f at the angle of view (M3). Further, the image g is photographed at the angle of view (T1), the image h is photographed at the angle of view (T2), and the image i is photographed at the angle of view (T3). The image data of the plurality of continuously captured images is stored in the image storage unit 56.

次に、CPU44は、連続撮影された複数の画像データを画像記憶部56から読み出し、画像処理部58により、各画像データについて画素の二値化処理を行う(ステップS104)。例えば、画像データを構成するそれぞれの画素の微分値を算出し、微分値が閾値以上であれば、その画素の画素値を“High”と判定し、微分値が閾値未満であれば、その画素の画素値を“Low”であると判定する。 Next, the CPU 44 reads out a plurality of continuously captured image data from the image storage unit 56, and the image processing unit 58 performs pixel binarization processing on each image data (step S104). For example, the differential value of each pixel constituting the image data is calculated, and if the differential value is equal to or more than the threshold value, the pixel value of the pixel is determined to be "High", and if the differential value is less than the threshold value, the pixel is determined. It is determined that the pixel value of is "Low".

次に、CPU44は、画像処理部58を制御して、各画像データから“High”と判定された画素を輪郭とする輪郭画像の輪郭画像データを生成する。即ち、図11に示すように、画像aの画像データから輪郭画像aの輪郭画像データを生成する。また、画像bの画像データから輪郭画像bの輪郭画像データを生成する。同様にして、画像cの画像データから輪郭画像cの輪郭画像データを生成し、画像dの画像データから輪郭画像dの輪郭画像データを生成し、画像eの画像データから輪郭画像eの輪郭画像データを生成し、画像fの画像データから輪郭画像fの輪郭画像データを生成し、画像gの画像データから輪郭画像gの輪郭画像データを生成し、画像hの画像データから輪郭画像hの輪郭画像データを生成し、画像iの画像データから輪郭画像iの輪郭画像データを生成する。 Next, the CPU 44 controls the image processing unit 58 to generate contour image data of a contour image whose contour is a pixel determined to be “High” from each image data. That is, as shown in FIG. 11, the contour image data of the contour image a is generated from the image data of the image a. Further, the contour image data of the contour image b is generated from the image data of the image b. Similarly, the contour image data of the contour image c is generated from the image data of the image c, the contour image data of the contour image d is generated from the image data of the image d, and the contour image of the contour image e is generated from the image data of the image e. Data is generated, contour image data of contour image f is generated from image data of image f, contour image data of contour image g is generated from image data of image g, and contour of contour image h is generated from image data of image h. Image data is generated, and contour image data of contour image i is generated from the image data of image i.

次に、CPU44は、それぞれの輪郭画像データからブレスレット82を構成する金具部分の重心点を検出する(ステップS105)。例えば、図11に示すように、CPU44は、輪郭画像aの輪郭画像データから重心点1(a)、重心点2(a)、…、重心点n(a)を検出する。次に、輪郭画像bの輪郭画像データから、重心点1(b)、重心点2(b)、…、重心点n(b)をそれぞれ検出する。以下同様にして、輪郭画像iの輪郭画像データから、重心点1(i)、重心点2(i)、…、重心点n(i)を検出するまで、各輪郭画像データについてこの処理を繰り返す。 Next, the CPU 44 detects the center of gravity of the metal fitting portion constituting the bracelet 82 from each contour image data (step S105). For example, as shown in FIG. 11, the CPU 44 detects the center of gravity point 1 (a), the center of gravity point 2 (a), ..., The center of gravity point n (a) from the contour image data of the contour image a. Next, the center of gravity point 1 (b), the center of gravity point 2 (b), ..., And the center of gravity point n (b) are detected from the contour image data of the contour image b, respectively. Hereinafter, in the same manner, this process is repeated for each contour image data until the center of gravity point 1 (i), the center of gravity point 2 (i), ..., And the center of gravity point n (i) are detected from the contour image data of the contour image i. ..

次に、CPU44は、各輪郭画像データにおける重心点の位置の座標を算出し、各重心点の座標の推移を示す軌跡データを生成する(ステップS106)。具体的には、重心点1(a)→重心点1(b)→ … →重心点1(i)の座標の推移、重心点2(a)→重心点2(b)→ … →重心点2(i)の座標の推移、…、及び重心点n(a)→重心点n(b)→ … →重心点n(i)の座標の推移をそれぞれ示す軌跡データを生成する。次に、CPU44は、この軌跡データを個人認証データとして情報記憶部59に記憶する(ステップS107)。 Next, the CPU 44 calculates the coordinates of the position of the center of gravity point in each contour image data, and generates locus data indicating the transition of the coordinates of each center of gravity point (step S106). Specifically, the center of gravity point 1 (a) → the center of gravity point 1 (b) →… → the transition of the coordinates of the center of gravity point 1 (i), the center of gravity point 2 (a) → the center of gravity point 2 (b) →… → the center of gravity point 2 (i) Coordinate transition, ..., And locus data showing the transition of the coordinates of the center of gravity point n (a) → the center of gravity point n (b) → ... → the center of gravity point n (i) are generated. Next, the CPU 44 stores this locus data as personal authentication data in the information storage unit 59 (step S107).

次に、図12に示すフローチャートを参照して、第3の実施の形態に係るデジタルカメラ22を用いて個人認証を行う個人認証処理について説明する。なお、以下では、ブレスレット82を登録対象物として個人認証データを登録した操作者Aが個人認証処理を行う場合を例に説明する。なお、個人認証処理には登録処理と重複する部分が多いため、重複する部分については適宜説明を省略する。 Next, a personal authentication process for performing personal authentication using the digital camera 22 according to the third embodiment will be described with reference to the flowchart shown in FIG. In the following, an example will be described in which the operator A who has registered the personal authentication data with the bracelet 82 as the registration target performs the personal authentication process. Since there are many parts of the personal authentication process that overlap with the registration process, the description of the overlapping parts will be omitted as appropriate.

まず、電源がオンにされると、CPU44は、撮影部54によりスルー画像の撮影を開始し、撮影したスルー画像をLCD表示部26に表示する。 First, when the power is turned on, the CPU 44 starts shooting a through image by the shooting unit 54, and displays the shot through image on the LCD display unit 26.

次に、操作者Aが例えばタッチパネル50を操作して、個人認証を行う個人認証モードを設定すると(ステップS201)、CPU44は、「認証対象物が画面に写るようにし、所定の操作を行ってください。」等のメッセージをLCD表示部26に表示する。 Next, when the operator A operates, for example, the touch panel 50 to set the personal authentication mode for performing personal authentication (step S201), the CPU 44 "makes the authentication target appear on the screen and performs a predetermined operation. A message such as "Please." Is displayed on the LCD display unit 26.

ここで、操作者Aがブレスレット82の部分をレンズ鏡筒36の前に近づけると、腕時計80のブレスレット82の部分のスルー画像がLCD表示部26に表示される。そして、操作者Aがズームボタン29を操作すると、CPU44は、ズームボタン29の操作に従って撮影部54の撮影画角を変化させながら連続撮影を行う(ステップS202)。例えば、操作者Aが画角(W3)から画角(M3)の範囲内で撮影画角を順次テレ側に変化させる操作を行った場合、CPU44は、図13に示すように、画角(W3)で画像c´を撮影し、画角(M1)で画像d´を撮影し、画角(M2)で画像e´を撮影し、画角(M3)で画像f´を撮影する。連続撮影された複数の画像の画像データは、画像記憶部56に記憶される。 Here, when the operator A brings the portion of the bracelet 82 closer to the front of the lens barrel 36, the through image of the portion of the bracelet 82 of the wristwatch 80 is displayed on the LCD display unit 26. Then, when the operator A operates the zoom button 29, the CPU 44 performs continuous shooting while changing the shooting angle of view of the shooting unit 54 according to the operation of the zoom button 29 (step S202). For example, when the operator A performs an operation of sequentially changing the shooting angle of view to the telephoto side within the range of the angle of view (W3) to the angle of view (M3), the CPU 44 determines the angle of view (as shown in FIG. 13). The image c'is photographed at the angle of view (M1), the image d'is photographed at the angle of view (M1), the image e'is photographed at the angle of view (M2), and the image f'is photographed at the angle of view (M3). The image data of the plurality of continuously captured images is stored in the image storage unit 56.

次に、CPU44は、連続撮影された複数の画像データを画像記憶部56から読み出し、画像処理部58により、各画像データについて画素の二値化処理を行い(ステップS203)、輪郭画像データを生成する。 Next, the CPU 44 reads out a plurality of continuously captured image data from the image storage unit 56, and the image processing unit 58 performs pixel binarization processing on each image data (step S203) to generate contour image data. To do.

例えば、図14に示すように、画像c´の画像データから輪郭画像c´の輪郭画像データを生成し、画像d´の画像データから輪郭画像d´の輪郭画像データを生成し、画像e´の画像データから輪郭画像e´の輪郭画像データを生成し、画像f´の画像データから輪郭画像f´の輪郭画像データを生成する。 For example, as shown in FIG. 14, the contour image data of the contour image c'is generated from the image data of the image c', the contour image data of the contour image d'is generated from the image data of the image d', and the image e'. The contour image data of the contour image e'is generated from the image data of the above, and the contour image data of the contour image f'is generated from the image data of the image f'.

次に、CPU44は、それぞれの輪郭画像データからブレスレット82の金具部分の重心点を検出する(ステップS204)。例えば、図14に示すように、輪郭画像c´の輪郭画像データから重心点1(c´)、重心点2(c´)、…、重心点n(c´)を検出する。次に、輪郭画像dの輪郭画像データから、重心点1(d´)、重心点2(d´)、…、重心点n(d´)をそれぞれ検出する。同様に、輪郭画像eの輪郭画像データから、重心点1(e´)、重心点2(e´)、…、重心点n(e´)を検出し、輪郭画像fの輪郭画像データから、重心点1(f´)、重心点2(f´)、…、重心点n(f´)を検出する。 Next, the CPU 44 detects the center of gravity of the metal fitting portion of the bracelet 82 from the respective contour image data (step S204). For example, as shown in FIG. 14, the center of gravity point 1 (c'), the center of gravity point 2 (c'), ..., And the center of gravity point n (c') are detected from the contour image data of the contour image c'. Next, the center of gravity point 1 (d'), the center of gravity point 2 (d'), ..., And the center of gravity point n (d') are detected from the contour image data of the contour image d, respectively. Similarly, the center of gravity point 1 (e'), the center of gravity point 2 (e'), ..., The center of gravity point n (e') are detected from the contour image data of the contour image e, and from the contour image data of the contour image f, The center of gravity point 1 (f'), the center of gravity point 2 (f'), ..., The center of gravity point n (f') are detected.

次に、CPU44は、各輪郭画像データにおける重心点の位置の座標を算出し、各重心点の座標の推移を示す軌跡データを生成する(ステップS205)。具体的には、重心点1(c´)→重心点1(d´)→重心点1(e´)→重心点1(f´)の座標の推移、重心点2(c´)→重心点2(d´)→重心点2(e´)→重心点2(f´)の座標の推移、…、及び重心点n(c´)→重心点n(d´)→重心点n(e´)→重心点n(f´)の座標の推移をそれぞれ示す軌跡情報を生成する。 Next, the CPU 44 calculates the coordinates of the position of the center of gravity point in each contour image data, and generates locus data indicating the transition of the coordinates of each center of gravity point (step S205). Specifically, the transition of the coordinates of the center of gravity point 1 (c') → the center of gravity point 1 (d') → the center of gravity point 1 (e') → the center of gravity point 1 (f'), the center of gravity point 2 (c') → the center of gravity. Point 2 (d')-> Center of gravity point 2 (e')-> Center of gravity point 2 (f') transition of coordinates, ..., Center of gravity point n (c')-> Center of gravity point n (d')-> Center of gravity point n ( e') → Generate locus information indicating the transition of the coordinates of the center of gravity point n (f').

次に、CPU44は、情報記憶部59から個人認証データを読み出し、軌跡情報に基づく重心点の座標の軌跡(以下、軌跡情報に基づく軌跡という。)が個人認証データに基づく重心点の座標の軌跡(以下、個人認証データに基づく軌跡という。)の一部または全部と略一致するか否かを判定する(ステップS206)。 Next, the CPU 44 reads the personal authentication data from the information storage unit 59, and the locus of the coordinates of the center of gravity point based on the locus information (hereinafter, referred to as a locus based on the locus information) is the locus of the coordinates of the center of gravity point based on the personal authentication data. It is determined whether or not it substantially matches a part or all of (hereinafter, referred to as a locus based on personal authentication data) (step S206).

軌跡情報に基づく軌跡が個人認証データに基づく軌跡の一部または全部と略一致する場合(ステップS206:Yes)、CPU44は、個人認証に成功したと判定し、デジタルカメラ22からの画像データの出力を許可する。なお、本実施の形態において、軌跡情報に含まれる重心点1(c´)→重心点1(d´)→重心点1(e´)→重心点1(f´)の軌跡、重心点2(c´)→重心点2(d´)→重心点2(e´)→重心点2(f´)の軌跡、…、及び重心点n(c´)→重心点n(d´)→重心点n(e´)→重心点n(f´)の軌跡は、それぞれ、個人認証データに含まれる重心点1(c´)→重心点1(d´)→重心点1(e´)→重心点1(f´)の軌跡、重心点2(c´)→重心点2(d´)→重心点2(e´)→重心点2(f´)の軌跡、及び重心点n(c´)→重心点n(d´)→重心点n(e´)→重心点n(f´)の軌跡に対応するものである。即ち、軌跡情報に基づく軌跡は、個人認証データに基づく軌跡の一部と略一致している。従って、CPU44は、個人認証に成功したと判定し、デジタルカメラ22からの画像データの出力を許可する。 When the locus based on the locus information substantially matches a part or all of the locus based on the personal authentication data (step S206: Yes), the CPU 44 determines that the personal authentication was successful, and outputs the image data from the digital camera 22. Allow. In the present embodiment, the center of gravity point 1 (c')-> the center of gravity point 1 (d')-> the center of gravity point 1 (e')-> the center of gravity point 1 (f') included in the locus information, the center of gravity point 2 (C') → Center of gravity point 2 (d') → Center of gravity point 2 (e') → Trajectory of center of gravity point 2 (f'), ..., Center of gravity point n (c') → Center of gravity point n (d') → The locus of the center of gravity point n (e') → the center of gravity point n (f') is the center of gravity point 1 (c') → the center of gravity point 1 (d') → the center of gravity point 1 (e') included in the personal authentication data, respectively. → Trajectory of center of gravity point 1 (f ′), center of gravity point 2 (c ′) → Center of gravity point 2 (d ′) → Center of gravity point 2 (e ′) → Trajectory of center of gravity point 2 (f ′), and center of gravity point n ( It corresponds to the locus of c ′) → center of gravity point n (d ′) → center of gravity point n (e ′) → center of gravity point n (f ′). That is, the locus based on the locus information substantially coincides with a part of the locus based on the personal authentication data. Therefore, the CPU 44 determines that the personal authentication has been successful, and permits the output of the image data from the digital camera 22.

画像データの出力が許可された場合、例えば、撮影された画像を図示しないプリンターで印刷することや、図示しないサーバにアップロードすることが可能となる。 When the output of image data is permitted, for example, it is possible to print the captured image with a printer (not shown) or upload it to a server (not shown).

一方、軌跡情報に基づく軌跡が個人認証データに基づく軌跡の一部または全部と略一致しない場合(ステップS206:No)、CPU44は、個人認証ができなかったと判定
する。そして、デジタルカメラ22からの画像データの出力を禁止し、「個人認証に失敗しました。」等のメッセージをLCD表示部26に表示する。画像データの出力が禁止された場合、例えば、撮影された画像を図示しないプリンターで印刷することや、サーバにアップロードすることが禁止される。
On the other hand, when the locus based on the locus information does not substantially match a part or all of the locus based on the personal authentication data (step S206: No), the CPU 44 determines that the personal authentication could not be performed. Then, the output of the image data from the digital camera 22 is prohibited, and a message such as "Personal authentication failed" is displayed on the LCD display unit 26. When the output of image data is prohibited, for example, it is prohibited to print the captured image with a printer (not shown) or upload it to a server.

なお、画像データの出力を許可または禁止する場合、メモリカード60をデジタルカメラ22の外部の機器として扱ってもよい。この場合、例えば、画像データの出力が許可されて初めて画像データがメモリカード60に記憶され、実質的に撮影が可能になるようにする。また、画像データの出力が禁止された場合、シャッタボタン34が操作された際に、画像データが内部メモリに記憶されてもメモリカード60には記憶されないようにし、実質的に撮影を行うことができないようにする。 When the output of image data is permitted or prohibited, the memory card 60 may be treated as an external device of the digital camera 22. In this case, for example, the image data is stored in the memory card 60 only after the output of the image data is permitted, so that the image data can be substantially photographed. Further, when the output of the image data is prohibited, when the shutter button 34 is operated, even if the image data is stored in the internal memory, it is not stored in the memory card 60, and the image can be substantially photographed. Make it impossible.

この第3の実施の形態に係る発明によれば、カメラが一般的に有するズーム機能、及び画像処理機能を利用して複雑な個人認証データを生成することが可能なため、高精度の個人認証ができる安価なデジタルカメラ22を提供することができる。また、操作者は、予め個人認証データを登録しておけば、ズームボタン29を操作するだけで容易に個人認証を行うことができる。 According to the invention according to the third embodiment, since it is possible to generate complicated personal authentication data by using the zoom function and the image processing function generally possessed by the camera, high-precision personal authentication can be performed. It is possible to provide an inexpensive digital camera 22 capable of providing an inexpensive digital camera 22. Further, if the operator registers the personal authentication data in advance, the operator can easily perform the personal authentication simply by operating the zoom button 29.

また、個人認証データは、登録モードにおいて撮影部54の撮影画角を一方向に変化させながらブレスレット82を連続撮影して生成されるため、個人認証モードにおいて反対方向に撮影部54の撮影画角を変化させてブレスレット82を撮影したとしても、個人認証データに基づく軌跡の一部または全部と略一致する軌跡の軌跡情報を取得することができない。このため、例えば、デジタルカメラ22と腕時計80を不正に入手した第三者が反対方向に撮影部54の撮影画角を変化させてブレスレット82を撮影したとしても個人認証がなされることはない。 Further, since the personal authentication data is generated by continuously shooting the bracelet 82 while changing the shooting angle of view of the shooting unit 54 in one direction in the registration mode, the shooting angle of view of the shooting unit 54 is generated in the opposite direction in the personal authentication mode. Even if the bracelet 82 is photographed by changing the above, it is not possible to acquire the locus information of the locus that substantially matches a part or all of the locus based on the personal authentication data. Therefore, for example, even if a third party who illegally obtains the digital camera 22 and the wristwatch 80 changes the shooting angle of view of the shooting unit 54 in the opposite direction to shoot the bracelet 82, personal authentication is not performed.

また、個人認証モードにおいては、軌跡情報に基づく軌跡が個人認証データに基づく軌跡の一部と略一致すれば個人認証を行うことができるため、操作者Aは、登録処理の時に撮影した全ズーム範囲をズーム撮影する必要がなく、容易に認証操作を行うことができる。 Further, in the personal authentication mode, if the locus based on the locus information substantially matches a part of the locus based on the personal authentication data, personal authentication can be performed. Therefore, the operator A can perform all zooms taken during the registration process. It is not necessary to zoom in on the range, and the authentication operation can be easily performed.

また、登録モード、及び個人認証モードにおいては、複雑な画像処理ではなく簡単な二値化処理を行うため、迅速な処理速度で登録処理、個人認証処理を行うことができる。 Further, in the registration mode and the personal authentication mode, since the simple binarization process is performed instead of the complicated image processing, the registration process and the personal authentication process can be performed at a high processing speed.

なお、上述の第3の実施の形態において、タッチパネル50等の操作により、レンズ歪曲補正のオン/オフを設定できるようにしてもよい。この場合、撮影部54により被写体を撮影すると、撮影レンズ64の特性を反映した歪んだ被写体像の画像データが取得される。従って、操作者Aは、レンズ歪曲補正をオフにした状態で登録処理を行うことにより、歪曲収差を活用したより複雑な軌跡を有する個人認証データを生成することができる。 In the third embodiment described above, the lens distortion correction may be turned on / off by operating the touch panel 50 or the like. In this case, when the subject is photographed by the photographing unit 54, the image data of the distorted subject image reflecting the characteristics of the photographing lens 64 is acquired. Therefore, the operator A can generate personal authentication data having a more complicated locus utilizing the distortion by performing the registration process with the lens distortion correction turned off.

また、上述の第3の実施の形態において個人認証に成功した場合に、画像データの出力の許可以外のことを行ってもよい。例えば、個人認証に成功すると、CPU44は、デジタルカメラ22の撮影モードを、予め操作者によって登録された操作者A専用の撮影条件に設定する。一方、個人認証に失敗した場合、操作者A専用の撮影条件に設定することが禁止される。 Further, when the personal authentication is successful in the third embodiment described above, the permission for outputting the image data may be performed. For example, if the personal authentication is successful, the CPU 44 sets the shooting mode of the digital camera 22 to the shooting conditions dedicated to the operator A registered in advance by the operator. On the other hand, if personal authentication fails, it is prohibited to set the shooting conditions exclusively for the operator A.

また、上述の第3の実施の形態において、登録処理においても個人認証処理の場合と同様に、操作者Aがズームボタン29を操作して撮影画角を変化させながらブレスレット82を連続撮影してもよい。この場合、操作者Aは、さらに複雑な軌跡を有する個人認証データを生成することができる。 Further, in the third embodiment described above, in the registration process as well as in the case of the personal authentication process, the operator A operates the zoom button 29 to continuously shoot the bracelet 82 while changing the shooting angle of view. May be good. In this case, the operator A can generate personal authentication data having a more complicated trajectory.

例えば操作者Aは、画角(W3)→画角(M1)→画角(M2)→画角(M3)→画角(T1)→画角(M3)のように、撮影画角の変化に折り返し点(画角(T1))を設けてブレスレット82を連続撮影する。これにより、デジタルカメラ22と腕時計80を不正に入手した第三者は、個人認証を行おうとしても、ズームボタン29をどの方向に操作すればよいのかを容易に推測することが困難になる。従って、第三者によってデジタルカメラ22が不正に利用されることを的確に防止することができる。 For example, the operator A changes the shooting angle of view in the order of angle of view (W3) → angle of view (M1) → angle of view (M2) → angle of view (M3) → angle of view (T1) → angle of view (M3). The bracelet 82 is continuously photographed by providing a folding point (angle of view (T1)). As a result, it becomes difficult for a third party who illegally obtains the digital camera 22 and the wristwatch 80 to easily guess in which direction the zoom button 29 should be operated even if he / she tries to perform personal authentication. Therefore, it is possible to accurately prevent the digital camera 22 from being used illegally by a third party.

なお、この場合、個人認証処理において、軌跡情報に基づく軌跡が個人認証データに基づく軌跡の折り返し点を含む部分と略一致していれば個人認証に成功したと判定するようにしてもよい。例えば、軌跡情報に基づいて、画角(M3)→画角(T1)→画角(M3)に対応する軌跡が確認できればデジタルカメラ22からの画像データの出力を許可する。 In this case, in the personal authentication process, if the locus based on the locus information substantially matches the portion including the turning point of the locus based on the personal authentication data, it may be determined that the personal authentication is successful. For example, if the trajectory corresponding to the angle of view (M3) → the angle of view (T1) → the angle of view (M3) can be confirmed based on the trajectory information, the output of the image data from the digital camera 22 is permitted.

また、上述の第3の実施の形態において、特定の撮影条件が設定された状態で登録処理が行われるようにしてもよい。例えば、操作者Aは、登録モードを設定する際にISO感度を高感度に設定する。そして、ISO感度を高感度に設定された状態で撮影部54の撮影画角を変化させながらブレスレット82を連続撮影する。ここで、連続撮影された画像データについて二値化処理が行われると、CPU44は、高感度で撮影された画像データから全ての金具部分の輪郭を認識することができず、図15に示すように、複数の金具部分の輪郭が一個の輪郭として認識された輪郭画像データが生成される。 Further, in the third embodiment described above, the registration process may be performed with specific shooting conditions set. For example, the operator A sets the ISO sensitivity to high sensitivity when setting the registration mode. Then, the bracelet 82 is continuously photographed while changing the angle of view of the photographing unit 54 in a state where the ISO sensitivity is set to high sensitivity. Here, when the binarization processing is performed on the continuously shot image data, the CPU 44 cannot recognize the contours of all the metal fittings from the image data shot with high sensitivity, as shown in FIG. In addition, contour image data in which the contours of a plurality of metal fittings are recognized as one contour is generated.

ここで、重心点の数は、ISO感度を高感度に設定しない通常の場合よりも少なくなり、重心点の位置もまた、通常の場合とは異なる位置で認識される。このため、通常の場合とは、異なる軌跡データが生成される。 Here, the number of the center of gravity points is smaller than in the normal case where the ISO sensitivity is not set to high sensitivity, and the position of the center of gravity points is also recognized at a position different from the normal case. Therefore, trajectory data different from the normal case is generated.

この場合、デジタルカメラ22で撮影等を行いたい操作者は、個人認証モードにおいてISO感度を高感度に設定していなければ、どのようにズームボタン29を操作してブレスレット82を連続撮影しても個人認証データに基づく軌跡の一部または全部と略一致する軌跡を取得することができず、個人認証されることがない。従って、第三者によってデジタルカメラ22が盗難されたなどにおいて、デジタルカメラ22が不正に利用されることを的確に防止することができる。 In this case, the operator who wants to shoot with the digital camera 22 can continuously shoot the bracelet 82 by operating the zoom button 29, unless the ISO sensitivity is set to high in the personal authentication mode. It is not possible to acquire a trajectory that substantially matches a part or all of the trajectory based on the personal authentication data, and personal authentication is not performed. Therefore, it is possible to accurately prevent the digital camera 22 from being used illegally when the digital camera 22 is stolen by a third party.

なお、この場合、ISO感度の他、露出補正値やホワイトバランスを特定の撮影条件として所定の値に設定してもよい。 In this case, in addition to the ISO sensitivity, the exposure compensation value and the white balance may be set to predetermined values as specific shooting conditions.

また、上述の第3の実施の形態において、撮像装置は必ずしもデジタルカメラ22である必要はなく、スマートフォン、携帯電話、タブレット端末等であってもよい。 Further, in the third embodiment described above, the imaging device does not necessarily have to be a digital camera 22, and may be a smartphone, a mobile phone, a tablet terminal, or the like.

2…デジタルカメラ、4…CPU、5…GPS、6…操作部、8…通信部、10…LCD表示部、14…タッチパネル、16…撮像素子、18…画像記憶部、20…個人情報記憶部、21…メモリカード、22…デジタルカメラ、44…CPU、46…操作部、26…LCD表示部、50…タッチパネル、54…撮影部、56…画像記憶部、58…画像処理部、59…情報処理部、60…メモリカード、64…撮影レンズ、66…レンズ駆動部、68…撮像素子、70…撮影制御部
2 ... Digital camera, 4 ... CPU, 5 ... GPS, 6 ... Operation unit, 8 ... Communication unit, 10 ... LCD display unit, 14 ... Touch panel, 16 ... Image sensor, 18 ... Image storage unit, 20 ... Personal information storage unit , 21 ... Memory card, 22 ... Digital camera, 44 ... CPU, 46 ... Operation unit, 26 ... LCD display unit, 50 ... Touch panel, 54 ... Shooting unit, 56 ... Image storage unit, 58 ... Image processing unit, 59 ... Information Processing unit, 60 ... Memory card, 64 ... Shooting lens, 66 ... Lens drive unit, 68 ... Image sensor, 70 ... Shooting control unit

Claims (8)

個人認証するための入力を受付ける入力部と、
前記入力部に入力されたデータに基づく所定のパターンを前記個人認証のためのデータとして記憶する記憶部と、
を備える電子機器。
An input section that accepts input for personal authentication,
A storage unit that stores a predetermined pattern based on the data input to the input unit as data for personal authentication, and a storage unit.
Electronic equipment equipped with.
請求項1に記載の電子機器において、
前記入力部に入力されたデータに基づいて個人認証を行う所定のパターンを示すデータを生成する生成部を備え、
前記記憶部は、前記生成部により生成された所定のパターンを前記個人認証のためのデータとして記憶する電子機器。
In the electronic device according to claim 1,
A generation unit that generates data indicating a predetermined pattern for personal authentication based on the data input to the input unit is provided.
The storage unit is an electronic device that stores a predetermined pattern generated by the generation unit as data for personal authentication.
請求項2に記載の電子機器において、
前記入力部は前記データとして画像を入力し、
前記生成部は、入力された画像に基づいて所定のパターンを生成する電子機器。
In the electronic device according to claim 2.
The input unit inputs an image as the data and
The generation unit is an electronic device that generates a predetermined pattern based on an input image.
請求項2または3に記載の電子機器において、
前記入力部は前記データとして複数の画像を入力し、
前記生成部は、入力された複数の画像に基づいて所定のパターンを生成する電子機器。
In the electronic device according to claim 2 or 3.
The input unit inputs a plurality of images as the data, and the input unit inputs a plurality of images.
The generation unit is an electronic device that generates a predetermined pattern based on a plurality of input images.
請求項2〜4のいずれか一項に記載の電子機器において、
入力されたデータから対象物を認識する認識部を備え、
前記生成部は、前記認識部が認識した認識データに基づいて所定のパターンを生成する電子機器。
In the electronic device according to any one of claims 2 to 4.
Equipped with a recognition unit that recognizes an object from the input data
The generation unit is an electronic device that generates a predetermined pattern based on the recognition data recognized by the recognition unit.
請求項5に記載の電子機器において、
前記入力部は、異なる画角で撮影された複数の画像を入力し、
前記認識部は、異なる画角で撮影された複数の画像内の対象物を認識する電子機器。
In the electronic device according to claim 5.
The input unit inputs a plurality of images taken at different angles of view, and inputs a plurality of images.
The recognition unit is an electronic device that recognizes an object in a plurality of images taken at different angles of view.
請求項5または6に記載の電子機器において、
前記認識部は、対象物の所定の認証ポイントを認識する電子機器
In the electronic device according to claim 5 or 6.
The recognition unit is an electronic device that recognizes a predetermined authentication point of an object.
請求項1〜7いずれか一項に記載の電子機器において、
前記生成部は、点または線によって描かれた図形パターンを生成する電子機器。
In the electronic device according to any one of claims 1 to 7.
The generation unit is an electronic device that generates a graphic pattern drawn by points or lines.
JP2020186894A 2020-11-10 2020-11-10 Electronics Active JP7167973B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020186894A JP7167973B2 (en) 2020-11-10 2020-11-10 Electronics
JP2022170512A JP2023011714A (en) 2020-11-10 2022-10-25 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020186894A JP7167973B2 (en) 2020-11-10 2020-11-10 Electronics

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019114224A Division JP6795058B2 (en) 2019-06-20 2019-06-20 Imaging device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022170512A Division JP2023011714A (en) 2020-11-10 2022-10-25 Electronic apparatus

Publications (2)

Publication Number Publication Date
JP2021043995A true JP2021043995A (en) 2021-03-18
JP7167973B2 JP7167973B2 (en) 2022-11-09

Family

ID=74862435

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020186894A Active JP7167973B2 (en) 2020-11-10 2020-11-10 Electronics
JP2022170512A Pending JP2023011714A (en) 2020-11-10 2022-10-25 Electronic apparatus

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022170512A Pending JP2023011714A (en) 2020-11-10 2022-10-25 Electronic apparatus

Country Status (1)

Country Link
JP (2) JP7167973B2 (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261751A (en) * 1998-12-17 2000-09-22 Internatl Business Mach Corp <Ibm> System and method for image recognition
JP2000306095A (en) * 1999-04-16 2000-11-02 Fujitsu Ltd Image collation/retrieval system
JP2005153491A (en) * 2003-10-30 2005-06-16 Konica Minolta Photo Imaging Inc Id card creating system and id card creating method
JP2007122164A (en) * 2005-10-25 2007-05-17 Hitachi Ltd Identification device and control method therefor
JP2007206898A (en) * 2006-01-31 2007-08-16 Toshiba Corp Face authentication device and access management device
JP2007249587A (en) * 2006-03-15 2007-09-27 Omron Corp Authentication device, authentication method, authentication program and computer readable recording medium having the same recorded thereon
JP2008009617A (en) * 2006-06-28 2008-01-17 Glory Ltd System, program, and method for individual biological information collation
JP2009064140A (en) * 2007-09-05 2009-03-26 Toshiba Corp Personal identification device and personal identification managing system
JP2009104599A (en) * 2007-10-04 2009-05-14 Toshiba Corp Face authenticating apparatus, face authenticating method and face authenticating system
JP2011192093A (en) * 2010-03-15 2011-09-29 Omron Corp Matching device, digital image processing system, matching device control program, computer-readable recording medium, and matching device control method
JP2013134565A (en) * 2011-12-26 2013-07-08 Nikon Corp Individual authentication device
US20140071041A1 (en) * 2012-09-10 2014-03-13 Seiko Epson Corporation Head-mounted display device, control method for the head-mounted display device, and authentication system

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261751A (en) * 1998-12-17 2000-09-22 Internatl Business Mach Corp <Ibm> System and method for image recognition
JP2000306095A (en) * 1999-04-16 2000-11-02 Fujitsu Ltd Image collation/retrieval system
JP2005153491A (en) * 2003-10-30 2005-06-16 Konica Minolta Photo Imaging Inc Id card creating system and id card creating method
JP2007122164A (en) * 2005-10-25 2007-05-17 Hitachi Ltd Identification device and control method therefor
JP2007206898A (en) * 2006-01-31 2007-08-16 Toshiba Corp Face authentication device and access management device
JP2007249587A (en) * 2006-03-15 2007-09-27 Omron Corp Authentication device, authentication method, authentication program and computer readable recording medium having the same recorded thereon
JP2008009617A (en) * 2006-06-28 2008-01-17 Glory Ltd System, program, and method for individual biological information collation
JP2009064140A (en) * 2007-09-05 2009-03-26 Toshiba Corp Personal identification device and personal identification managing system
JP2009104599A (en) * 2007-10-04 2009-05-14 Toshiba Corp Face authenticating apparatus, face authenticating method and face authenticating system
JP2011192093A (en) * 2010-03-15 2011-09-29 Omron Corp Matching device, digital image processing system, matching device control program, computer-readable recording medium, and matching device control method
JP2013134565A (en) * 2011-12-26 2013-07-08 Nikon Corp Individual authentication device
US20140071041A1 (en) * 2012-09-10 2014-03-13 Seiko Epson Corporation Head-mounted display device, control method for the head-mounted display device, and authentication system

Also Published As

Publication number Publication date
JP7167973B2 (en) 2022-11-09
JP2023011714A (en) 2023-01-24

Similar Documents

Publication Publication Date Title
JP6293706B2 (en) Electronic device and method of operating electronic device
CN109076156B (en) Electronic device and control method thereof
JP4206888B2 (en) Image processing apparatus and program
JP2012065263A (en) Imaging apparatus
CN103248813A (en) Photographic equipment and operating control method thereof
US20140176738A1 (en) Image capture methods and systems
CN104380709A (en) Imaging device and operation control method thereof
US20050185063A1 (en) Digital camera
CN112414400B (en) Information processing method and device, electronic equipment and storage medium
JP4210189B2 (en) Imaging device
JP2017162371A (en) Image processing device, image processing method and program
JP2012147100A (en) Imaging device
JP5565433B2 (en) Imaging apparatus, imaging processing method, and program
US20160350622A1 (en) Augmented reality and object recognition device
CN103856715A (en) Imaging device and method
JP6795058B2 (en) Imaging device
JP7167973B2 (en) Electronics
JP6460310B2 (en) Imaging apparatus, image display method, and program
JP6547251B2 (en) Imaging device
JP5914714B2 (en) Imaging equipment and method
CN114827447B (en) Image jitter correction method and device
CN114339017B (en) Distant view focusing method, device and storage medium
JP2018113527A (en) Imaging apparatus
JP6436297B2 (en) Imaging apparatus, captured image control method, and program
JP2006129033A (en) Electronic device and photographing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221010

R150 Certificate of patent or registration of utility model

Ref document number: 7167973

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150