JP2017034518A - 認証装置および処理装置 - Google Patents

認証装置および処理装置 Download PDF

Info

Publication number
JP2017034518A
JP2017034518A JP2015153702A JP2015153702A JP2017034518A JP 2017034518 A JP2017034518 A JP 2017034518A JP 2015153702 A JP2015153702 A JP 2015153702A JP 2015153702 A JP2015153702 A JP 2015153702A JP 2017034518 A JP2017034518 A JP 2017034518A
Authority
JP
Japan
Prior art keywords
person
authentication
unit
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015153702A
Other languages
English (en)
Inventor
直哉 延谷
Naoya Nobetani
直哉 延谷
真史 小野
Masashi Ono
真史 小野
林 学
Manabu Hayashi
学 林
訓稔 山本
Kunitoshi Yamamoto
訓稔 山本
透 鈴木
Toru Suzuki
透 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2015153702A priority Critical patent/JP2017034518A/ja
Priority to US14/982,738 priority patent/US20170039010A1/en
Priority to EP16153089.4A priority patent/EP3128454B1/en
Priority to CN201610089920.4A priority patent/CN106412357A/zh
Publication of JP2017034518A publication Critical patent/JP2017034518A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimiles In General (AREA)

Abstract

【課題】人の顔画像を撮影した時点ですぐに認証を開始する場合と比べて、認証対象者以外の人が認証されてしまうことを抑制する。【解決手段】画像形成装置10は、自装置の周囲の人を撮像する第1カメラを含む撮像部109と、第1カメラが撮像した人の顔画像により、個人の認証を行う顔登録認証部112と、顔登録認証部112による認証の開始を指示する指示部113とを有し、顔登録認証部112は、指示部113による指示の前に顔画像を取得するとともに、指示部113による指示の後に、顔画像を用いた認証を行う。【選択図】図5

Description

本発明は、認証装置および処理装置に関する。
公報記載の従来技術として、画像形成装置のフロント側に前方に向けて第1の撮像部を設けるとともに、画像形成装置の上部に設けられたユーザインタフェース13に上方に向けて第2の撮像部を設け、第1の撮像部により撮影された画像に基づいて画像形成装置に人が近づいていると判断されると、画像形成装置のメインシステムをスリープモードからスタンバイモードに復帰させ、また、第2の撮像部にて、画像形成装置の前に立つ人の顔の画像を撮影し、得られた顔画像を用いて、この人に関する認証処理を実行するものが存在する(特許文献1参照)。
特開2015−11537号公報
ここで、自装置の周囲に存在する人の顔画像が撮影されたことを契機として、この人が自装置に到達する前に、顔画像を用いた認証処理を実行しておくことが考えられる。しかしながら、このような手法を採用した場合には、自装置の周囲に存在する人が、この自装置の使用を目的とする人(使用者)であるとは限らないため、使用者以外の人が認証されてしまうという事態が生じ得る。
本発明は、人の顔画像を撮影した時点ですぐに認証を開始する場合と比べて、認証対象者以外の人が認証されてしまうことを抑制することを目的とする。
請求項1記載の発明は、自装置の周囲の人を撮像する撮像部と、前記撮像部が撮像した人の顔画像により、個人の認証を行う認証部と、認証の開始を指示する指示部とを有し、前記認証部は、前記指示部による指示の前に顔画像を取得し、当該指示部による指示の後に認証を行うことを特徴とする認証装置である。
請求項2記載の発明は、前記撮像部は、第1の領域内に存在する人の画像を撮像し、前記指示部は、人が前記第1の領域内であって当該第1の領域よりも狭い第2の領域に存在する場合に、前記認証の開始を指示することを特徴とする請求項1記載の認証装置である。
請求項3記載の発明は、前記撮像部は、第1の領域内に存在する人の画像を撮像し、前記指示部は、前記第1の領域内に存在する人が当該第1の領域に予め設定された設定時間以上滞在する場合に、前記認証の開始を指示することを特徴とする請求項1記載の認証装置である。
請求項4記載の発明は、前記撮像部は、第1の領域内に存在する人の画像を撮像し、前記指示部は、前記第1の領域に存在する人が自装置に接近している場合に、前記認証の開始を指示することを特徴とする請求項1記載の認証装置である。
請求項5記載の発明は、前記指示部は、人が自装置を使用する意図を推定する条件を満たした場合に、前記認証の開始を指示することを特徴とする請求項1乃至4のいずれか1項記載の認証装置である。
請求項6記載の発明は、前記撮像部が撮像した顔画像を保持する保持部をさらに有し、前記保持部は、前記撮像部が撮像した複数の画像のうち、予め決められた条件を満たす顔画像を抽出して保持することを特徴とする請求項1記載の認証装置である。
請求項7記載の発明は、前記撮像部が撮像した顔画像を保持する保持部をさらに有し、前記保持部は、前記撮像部が複数名の顔画像を撮像した場合には、それぞれの顔画像を保持することを特徴とする請求項1記載の認証装置である。
請求項8記載の発明は、前記保持部が複数名の顔画像を保持している場合に、どの顔画像により認証を行うかを選択する選択部をさらに有することを特徴とする請求項7記載の認証装置である。
請求項9記載の発明は、前記保持部は、前記認証部が認証を行った後、認証に用いた人以外の顔画像を削除することを特徴とする請求項6乃至8のいずれか1項記載の認証装置である。
請求項10記載の発明は、前記認証部による認証可否を報知する報知部をさらに有することを特徴とする請求項1乃至9のいずれか1項記載の認証装置である。
請求項11記載の発明は、撮像部と、前記撮像部が撮像した顔画像により、個人を特定する特定部と、特定された個人毎に異なる処理を実行する処理部と、人が自装置を使用する意図を推定する条件を満たした場合に、当該人の認証を指示する指示部とを有し、前記特定部は、前記指示の前に個人の特定を完了させ、前記処理部は、前記指示の後に前記特定された個人に対応する処理を開始することを特徴とする処理装置である。
請求項1記載の発明によれば、人の顔画像を撮影した時点ですぐに認証を開始する場合と比べて、認証対象者以外の人が認証されてしまうことを抑制することができる。
請求項2記載の発明によれば、第1の領域内であって第2の領域内には存在しない人を認証する場合と比べて、認証対象者以外の人が認証されてしまうことを抑制することができる。
請求項3記載の発明によれば、第1の領域内に規定時間よりも短い時間滞在する人を認証する場合と比べて、認証対象者以外の人が認証されてしまうことを抑制することができる。
請求項4記載の発明によれば、第1の領域内にて自装置から離隔する人を認証する場合と比べて、認証対象者以外の人が認証されてしまうことを抑制することができる。
請求項5記載の発明によれば、自装置を使用する意図を推定する条件を満たさない人を認証する場合と比べて、認証対象者以外の人が認証されてしまうことを抑制することができる。
請求項6記載の発明によれば、決められた条件を満たさない顔画像を含めて保持する場合と比べて、保持部に必要な記憶容量を低減することが可能になる。
請求項7記載の発明によれば、1人の顔画像のみを保持する場合と比較して、認証対象者以外の人が認証されてしまうことを抑制することができる。
請求項8記載の発明によれば、複数名の顔画像から選択を行わない場合と比べて、認証対象者以外の人が認証されてしまうことを抑制することができる。
請求項9記載の発明によれば、認証に用いない人の顔画像を含めて保持し続ける場合と比べて、保持部に必要な記憶容量を低減することが可能になる。
請求項10記載の発明によれば、認証可否を報知しない場合と比べて、認証が完了しない状態で自装置に近づいた人が、認証をするために自装置から離れることを抑制することができる。
請求項11記載の発明によれば、人の顔画像を撮影した時点ですぐに認証を開始する場合と比べて、認証対象者以外の人が認証されてしまうことを抑制することができる。
本実施の形態が適応される画像形成装置の斜視図である。 ユーザインタフェースの上面図である。 画像形成装置により人物の存在等が検知される範囲を説明するための上面図である。 画像形成装置により人物の存在等が検知される範囲を説明するための側面図である。 画像形成装置の機能ブロック図である。 画像形成装置のモードの制御に関する処理の流れを説明するためのフローチャートである。 画像形成装置における認証手順の流れを説明するためのフローチャートである。 認証手順における顔検出・顔画像取得処理の流れを説明するためのフローチャートである。 認証手順における顔認証処理の流れを説明するためのフローチャートである。 (a)は使用者が事前に画像形成装置に登録した登録テーブルの一例を、(b)は顔検出・顔画像取得処理で用いられる追跡テーブルの一例を、それぞれ示す図である。 (a)〜(e)は、画像形成装置の周辺にいる人物の位置の時間的変化の第1の例を示した図である。 (a)〜(d)は、顔認証処理において、ユーザインタフェースに表示される案内画面の一例を示す図である。 (a)、(b)は、それぞれ、第1カメラによって撮影された第1カメラ画像の一例を示す図である。 (a)、(b)は、それぞれ、第1カメラによって撮影された第1カメラ画像の他の一例を示す図である。 (a)〜(d)は、画像形成装置の周辺にいる人物の位置の時間的変化の第2の例を示した図である。 (a)〜(e)は、画像形成装置の周辺にいる人物の位置の時間的変化の第3の例を示した図である。 (a)〜(e)は、画像形成装置の周辺にいる人物の位置の時間的変化の第4の例を示した図である。
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
図1は、本実施の形態が適用される画像形成装置10の斜視図である。認証装置、処理装置および表示装置の一例としての画像形成装置10は、スキャン機能、プリント機能、コピー機能およびファクシミリ機能を備えた所謂複合機である。
画像形成装置10は、スキャナ11と、プリンタ12と、ユーザインタフェース(UI)13とを備える。これらのうち、スキャナ11は、原稿に形成された画像を読み取るための装置であり、プリンタ12は、記録材に画像を形成するための装置である。また、ユーザインタフェース13は、使用者が画像形成装置10を使用する際に、使用者による操作(指示)を受け付け、且つ、使用者に対し各種情報の表示を行うための装置である。
本実施の形態のスキャナ11は、プリンタ12の上方に配置されている。また、ユーザインタフェース13は、スキャナ11に取り付けられている。ここで、ユーザインタフェース13は、画像形成装置10を使用する際に使用者が立つ、画像形成装置10(スキャナ11)のフロント側に配置される。そして、ユーザインタフェース13は、画像形成装置10のフロント側に立った使用者が上方から下方を見た状態で操作できるように、上方に向けて配置される。
また、この画像形成装置10は、焦電センサ14と、第1カメラ15と、第2カメラ16とをさらに備える。これらのうち、焦電センサ14および第1カメラ15は、プリンタ12のフロント側且つ左側に、前方に向けて取り付けられている。そして、第1カメラ15は、焦電センサ14の上方に配置されている。また、第2カメラ16は、ユーザインタフェース13における左側に、上方に向けて取り付けられている。
ここで、焦電センサ14は、画像形成装置10のフロント側における、使用者を含む移動体(人物等)の移動を検知する機能を有している。また、第1カメラ15は所謂ビデオカメラで構成されており、画像形成装置10のフロント側の画像を撮影する機能を有している。さらに、第2カメラ16も所謂ビデオカメラで構成されており、画像形成装置10の上側の画像を撮影する機能を有している。ここで、第1カメラ15および第2カメラ16には、それぞれ魚眼レンズが取り付けられている。これにより、第1カメラ15および第2カメラ16は、一般的なレンズを用いた場合に比べ、より広角にて画像の撮影を行う。
さらに、この画像形成装置10は、プロジェクタ17をさらに備える。この例において、プロジェクタ17は、フロント側からみて画像形成装置10の本体の右側に配置されている。そして、プロジェクタ17は、画像形成装置10の背後に設けられたスクリーン(図示せず)に、各種画像を投影するようになっている。ここで、スクリーンとしては、所謂映写幕に限られるものではなく、壁等を利用してもかまわない。なお、画像形成装置10の本体に対するプロジェクタ17の設置位置については、変更することが可能である。また、この例では画像形成装置10の本体とプロジェクタ17とを別個に設けているが、例えばスキャナ11の背面側にプロジェクタ17を取り付けるなどの手法を用いることで、画像形成装置10の本体とプロジェクタ17とを一体化してもかまわない。
図2は、図1に示すユーザインタフェース13の上面図である。ただし、図2は、ユーザインタフェース13に配置される第2カメラ16も、併せて示している。
ユーザインタフェース13は、タッチパネル130と、第1操作ボタン群131と、第2操作ボタン群132と、USBメモリ装着部133とを有する。ここで、第1操作ボタン群131は、タッチパネル130の右側に配置されている。また、第2操作ボタン群132、USBメモリ装着部133および第2カメラ16は、タッチパネル130の左側に配置されている。
ここで、タッチパネル130は、使用者に対し画像を用いた情報を表示し、且つ、使用者からの入力を受け付ける機能を有している。また、第1操作ボタン群131および第2操作ボタン群132は、使用者からの入力を受け付ける機能を有している。さらに、USBメモリ装着部133は、使用者によるUSBメモリの装着を受け付ける機能を有している。
また、ユーザインタフェース13に取り付けられる第2カメラ16は、画像形成装置10を使用する使用者の顔の画像を撮影できる位置に配置されている。そして、第2カメラ16で撮影された画像(使用者の顔の画像を含む)は、タッチパネル130に表示されるようになっている。ここで、本実施の形態の画像形成装置10では、後述するように、この画像形成装置10に近づいてくる人物の顔を、第1カメラ15で撮影して得た顔画像を用いて、画像形成装置10の使用を許可するための認証を行う。このため、この画像形成装置10を使用しようとする人物(使用者)は、事前に、顔画像の登録を行う必要がある。そして、本実施の形態における第2カメラ16は、このような顔画像の登録において、人物の顔を撮影するために使用される。
また、本実施の形態では、第1カメラ15で撮影された画像も、タッチパネル130に表示することが可能となっている。なお、以下の説明においては、第1カメラ15が撮影した画像を第1カメラ画像と称し、第2カメラ16が撮影した画像を第2カメラ画像と称する。
図3は、画像形成装置10により人物の存在が検知される範囲を説明するための上面図である。図3は、画像形成装置10およびその周辺を、画像形成装置10の高さ方向上側からみたものを示している。
また、図4は、画像形成装置10により人物の存在が検知される範囲を説明するための側面図である。図4は、画像形成装置10およびその周辺を、画像形成装置の側方(この例では画像形成装置10のフロント側からみて右側)からみたものを示している。なお、図4には、人物Hを併せて示しているが、図3に示す検出範囲Fについては記載を省略している。
ここで、図3および図4に示すように、画像形成装置10にて第1カメラ15(図1参照)が取り付けられている部位を、画像形成装置10の位置Pと呼ぶ。
この例において、焦電センサ14(図1参照)は、検出範囲F内に存在する人物Hを検知する。この検出範囲Fは、画像形成装置10のフロント側に形成され、高さ方向上側からみたときに、中心角が180度未満に設定された扇形を呈している。
また、この例では、第1カメラ15(図1参照)が撮影した第1カメラ画像を解析した結果を用いて、人検知範囲R1内、人操作範囲R2内、進入検知範囲R3内および接近検知範囲R4内に存在する人物Hを検出する。
これらのうち、人検知範囲R1は、画像形成装置10のフロント側に形成され、高さ方向上側からみたときに、中心角が180度に設定された扇形を呈している。この人検知範囲R1は、検出範囲Fの全体を含む(但し、この例では一部を含まない)ように設定される。なお、人検知範囲R1の中心角については、180度以外であってもかまわない。ただし、第1カメラ15は、少なくとも人検知範囲R1の全体を撮影範囲とする。
続いて、人操作範囲R2は、画像形成装置10のフロント側に設定され、高さ方向上側からみたときに、矩形を呈している。この例において、この矩形範囲における幅方向の長さは、画像形成装置10の幅方向の長さと同じである。また、人操作範囲R2の全域は、人検知範囲R1の内側に位置する。さらに、人操作範囲R2は、人検知範囲R1の中で画像形成装置10により近い側に配置される。
さらに、進入検知範囲R3は、画像形成装置10のフロント側に形成され、高さ方向上側からみたときに、中心角が180度に設定された扇形を呈している。また、進入検知範囲R3の全域は、人検知範囲R1の内側に位置する。さらに、進入検知範囲R3は、人検知範囲R1の中で、画像形成装置10により近い側に配置される。また、上述した人操作範囲R2の全域は、進入検知範囲R3の内側に位置する。さらに、人操作範囲R2は、進入検知範囲R3の中で、画像形成装置10により近い側に配置される。
そして、接近検知範囲R4は、画像形成装置10のフロント側に形成され、高さ方向上側からみたときに、中心角が180度に設定された扇形を呈している。また、接近検知範囲R4の全域は、進入検知範囲R3の内側に位置する。さらに、接近検知範囲R4は、進入検知範囲R3の中で、画像形成装置10により近い側に配置される。また、上述した人操作範囲R2の全域は、接近検知範囲R4の内側に位置する。さらに、人操作範囲R2は、接近検知範囲R4の中で、画像形成装置10により近い側に配置される。
本実施の形態の画像形成装置10では、後述するように、この画像形成装置10に近づいてくる人物Hの顔を第1カメラ15で撮影して得た顔画像を用いて、画像形成装置10の使用を許可するための認証を行う。また、この画像形成装置10では、後述するように、第1カメラ15が撮影した第1カメラ画像を用いて、人検知範囲R1内に存在する人物Hのつま先を検出し、この人物Hが画像形成装置10に向かってきているか否かの判断を行う。
ここで、画像形成装置10の高さは、通常、使いやすさを考慮して1000〜1300mm程度に設定されることから、第1カメラ15の高さは設置面から700〜900mm程度となる。また、上述したように、第1カメラ15を用いて人物Hのつま先を撮影する必要があることから、第1カメラ15の高さはある程度低い位置に制限される。このような理由により、設置面からの第1カメラ15の高さ(位置P)は、図4に示したように一般的な成人(人物H)の顔の高さに比べ、より低くなる。このため、画像形成装置10に人物Hが近づきすぎると、魚眼レンズを用いたとしても、第1カメラ15による人物Hの顔の撮影が困難となり、また、人物Hの顔が撮影できたとしても、得られた顔画像の解析が困難となってしまう。
そこで、この例では、第1カメラ15が撮影した第1カメラ画像を解析することで人物Hの顔画像の解析が可能な距離の限界を、顔検知限界Lとして定めている。この顔検知限界Lは、一般的な身長を有する人物Hの顔を、第1カメラ15にて撮影することが可能な距離に基づいて決められている。この例において、顔検知限界Lは、人操作範囲R2の外側且つ接近検知範囲R4の内側に位置している。
本実施の形態の画像形成装置10を使用しようとする人物Hがいた場合、この人物Hは、最初に検出範囲F内に進入する。また、検出範囲F内に進入した人物Hは、続いて人検知範囲R1内に進入し、さらに進入検知範囲R3から接近検知範囲R4を介して人操作範囲R2に進入する。なお、この例では、人検知範囲R1内を移動する人物Hが、接近検知範囲R4から人操作範囲R2に進入する間に、顔検知限界Lを突破する。そして、人操作範囲R2に進入した人物Hは、人操作範囲R2内に滞在しつつ、ユーザインタフェース13を使用した操作等を行うことになる。なお、人検知範囲R1、人操作範囲R2、進入検知範囲R3および接近検知範囲R4の各々は、厳密に図3に示すとおりに設定される必要はなく、第1カメラ15が撮影した第1カメラ画像に基づいて特定し得る精度で足りる。また、顔検知限界Lは、人操作範囲R2と接近検知範囲R4との間に設定される必要はなく、第1カメラ15の性能や取り付け位置(設置面からの位置Pの高さ)等によって変わることがある。
図5は、画像形成装置10の機能ブロック図である。本実施の形態の画像形成装置10は、制御部101と、通信部102と、操作部103と、表示部104と、記憶部105と、画像読取部106と、画像形成部107とを備える。また、この画像形成装置10は、検知部108と、撮像部109と、人検出部110と、顔検出部111と、顔登録認証部112と、指示部113と、選択部114と、報知部115とをさらに備える。
制御部101は、例えばCPU(Central Processing Unit)とメモリとを備え、画像形成装置10の各部を制御する。CPUは、メモリまたは記憶部105に記憶されたプログラムを実行する。メモリは、例えばROM(Read Only Memory)とRAM(Random Access Memory)とを備える。ROMは、予めプログラムやデータを記憶する。RAMは、プログラムやデータを一時的に記憶し、CPUがプログラムを実行する際の作業領域として用いられる。
通信部102は、図示しない通信回線に接続される通信用のインタフェースである。通信部102は、クライアント装置や他の画像形成装置(ともに図示せず)と、通信回線を介して通信を行う。
操作部103は、使用者の操作に応じた情報を制御部101に入力する。この例において、操作部103は、ユーザインタフェース13に設けられたタッチパネル130、第1操作ボタン群131および第2操作ボタン群132によって実現される。
表示部104は、使用者に対し各種情報を表示する。この例において、表示部104は、ユーザインタフェース13に設けられたタッチパネル130によって実現される。
記憶部105は、例えばハードディスクであり、制御部101により用いられる各種のプログラムやデータを記憶する。
画像読取部106は、原稿の画像を読み取って画像データを生成する。この例において、画像読取部106はスキャナ11によって実現される。
画像形成部107は、画像データに応じた画像を用紙等のシート状の記録材に形成する。この例において、画像形成部107はプリンタ12によって実現される。なお、画像形成部107は、電子写真方式により画像を形成してもよいし、その他の方式により画像を形成してもよい。
検知部108は、人物Hを含む移動体の検知を行う。この例において、検知部108は、焦電センサ14によって実現される。
撮像部109は、人物Hを含む撮影対象の撮像を行う。この例において、撮像部109は、第1カメラ15および第2カメラ16によって実現される。
人検出部110は、第1カメラ15が撮影した第1カメラ画像を解析して、人検知範囲R1内、人操作範囲R2内、進入検知範囲R3内および接近検知範囲R4内に存在する人物Hの検出を行う。
顔検出部111は、第1カメラ15が撮影した第1カメラ画像を解析して、人検知範囲R1内であって顔検知限界Lの外側に存在する人物Hの顔画像を検出する。
顔登録認証部112は、この画像形成装置10を使用することが可能な人物H(使用者)について、事前に、この使用者の顔画像を用いた登録を行う。ここで、登録においては、第2カメラ16を用いて使用者の顔画像の撮影を行うとともに、撮影で得られた顔画像から特徴量の抽出を行う。そして、使用者のID(登録ID)と、使用者が設定した各種情報(登録人物情報と称する)と、使用者の顔画像から抽出された特徴量(顔情報と称する)とを対応付けて、記憶部105に記憶させる。なお、以下の説明においては、登録IDと登録人物情報と顔情報とを対応付けたものを登録テーブルと呼び、登録テーブルに登録されている使用者(人物H)を登録人物と呼ぶ。
また、顔登録認証部112は、使用者がこの画像形成装置10を使用しようとする際に、この使用者の顔画像を用いた認証を行う。ここで、認証においては、第1カメラ15を用いて人物H(使用者)の顔画像の撮影を行うとともに、撮影で得られた顔画像から特徴量の抽出を行う。そして、今回の撮影で得られた特徴量が、既に登録されている特徴量と一致するか否かを調べ、一致するものがある場合(使用者として登録された登録人物である場合)には画像形成装置10の使用を許可し、一致するものがない場合(使用者として登録されていない未登録人物である場合)には画像形成装置10の使用を禁止する。
指示部113は、第1カメラ15を用いて撮影した顔画像を用いた認証を開始するための指示を、顔登録認証部112に出力する。
選択部114は、同じ人物Hについて、第1カメラ15を用いて複数の顔画像が取得されている場合に、複数の顔画像の中から1つの顔画像を選択する。
報知部115は、例えば人検知範囲R1内に存在する人物Hに対し、必要に応じて、知らしめたい情報を報知する。この報知部115は、プロジェクタ17によって実現される。
本実施の形態では、撮像部109(より具体的には第1カメラ15)が撮像部の一例となっており、顔登録認証部112が認証部の一例となっており、記憶部105が保持部の一例となっている。また、顔検出部111および顔登録認証部112が特定部の一例となっており、顔登録認証部112が処理部の一例となっている。さらに、人検知範囲R1のうち顔検知限界Lよりも内側(画像形成装置10に近い側)となる領域が設定範囲の一例となっており、人検知範囲R1が第1の領域の一例となっている。さらにまた、進入検知範囲R3が第2の領域の一例となっており、人検知範囲R1のうち顔検知限界Lよりも外側となる領域が第3の領域の一例となっている。
ここで、本実施の形態の画像形成装置10は、「通常モード」および「スリープモード」という、消費電力量が異なる2つのモードのいずれかに従って動作する。画像形成装置10が通常モードで動作するときには、画像形成装置10の各部に、各種処理の実行に要する電力が供給される。一方、画像形成装置10がスリープモードで動作するときには、画像形成装置10の少なくとも一部への電力供給が停止させられ、画像形成装置10の消費電力量が通常モードのときよりも少なくなる。ただし、画像形成装置10がスリープモードで動作するときにも、制御部101、焦電センサ14および第1カメラ15への電力供給が行われ、これら各部が、スリープモード時においても動作を行い得るようになっている。
図6は、画像形成装置10のモードの制御に関する処理の流れを示すフローチャートである。
この例では、初期状態において、画像形成装置10がスリープモードに設定されている(ステップ1)。なお、スリープモードにおいても、焦電センサ14は起動されており、動作を行っている。一方、このとき、第1カメラ15は起動されていないものとする。画像形成装置10がスリープモードで動作するとき、制御部101は、焦電センサ14による赤外線の量の検出結果を監視して、検出範囲F内に人物Hが存在するか否かを判断する(ステップ2)。ステップ2において否定の判断(NO)を行った場合は、ステップ2に戻ってこの処理を繰り返す。
一方、ステップ2で肯定の判断(YES)を行った場合、すなわち、検出範囲F内で人物Hを検知した場合、制御部101は、第1カメラ15への電力供給を開始させるとともに、第1カメラ15を起動させて人検知範囲R1の撮影を開始させる(ステップ3)。第1カメラ15による撮影が開始されると、人検出部110は、第1カメラ15から取得した第1カメラ画像を解析して、人物Hの動きを検出する処理を開始する(ステップ4)。
ステップ4で開始される人物Hの動きを検出する処理において、人検出部110は、画像形成装置10から人物Hまでの距離を推定するとともに、人物Hの動きを示す動きベクトルを算出する。この人物Hの動きを検出する処理は公知の方法により行われてよいが、例えば、人検出部110は、撮影画像から検出した身体の部位の大きさに基づいて、画像形成装置10から人物Hまでの距離を推定する。また、人検出部110は、第1カメラ15の撮影画像に対しフレーム処理を施し、複数フレームの撮影画像を時系列順に比較する。この際、人検出部110は、人物Hの身体の部位として、例えばつま先を検出し、検出した部位の動きを解析して動きベクトルを算出する。また、人検出部110は、第1カメラ15から取得した第1カメラ画像(魚眼レンズを介して得られる歪んだ画像)を、平面画像に補正(平面視展開)してから人物Hの動きを検出する。
次に、人検出部110は、人検知範囲R1内に存在する人物Hの、画像形成装置10への接近を検知したか否かを判断する(ステップ5)。例えば、人物Hが人検知範囲R1内に存在し且つ画像形成装置10に向かって移動していると判断した場合に、人検出部110は、ステップ5で肯定の判断(YES)を行う。ステップ5で否定の判断(NO)を行った場合は、ステップ5に戻ってこの処理を繰り返す。
これに対し、ステップ5で肯定の判断(YES)を行った場合、制御部101は、画像形成装置10のモードを、スリープモードから通常モードに移行させる(ステップ6)。その際、制御部101は、通常モードに応じた電力供給を画像形成装置10の各部に行うように指示するとともに、画像形成装置10の各部を起動させる。このとき、制御部101は、第2カメラ16への電力供給を開始させ、第2カメラ16を起動させる。
本実施の形態では、人検知範囲R1内の人物Hの存在を検知することをトリガとして、スリープモードから直ちに通常モードへと移行させるのでなく、人検知範囲R1内に存在する人物Hの画像形成装置10への接近を検知したことをトリガとして、スリープモードから通常モードへと移行させている。このような制御を行うことで、例えば人物Hが人検知範囲R1内を通り過ぎただけの場合に、画像形成装置10がスリープモードから通常モードに移行してしまう機会が少なくなる。
また、ステップ6でスリープモードから通常モードへ移行することに伴い、顔検出部111は、第1カメラ15から取得した第1カメラ画像を解析して、人検知範囲R1内に存在する人物Hの顔を検出する処理を開始する(ステップ7)。
続いて、人検出部110は、第1カメラ15から取得した第1カメラ画像を解析して、人操作範囲R2内に人物Hが存在(滞在)しているか否かを判断する(ステップ8)。このとき、人検出部110は、第1カメラ15による第1カメラ画像を解析して人物Hの身体の部位を検出し、検出した部位の位置及び大きさに基づいて、人操作範囲R2内の人物Hの存在を検知する。例えば、人検出部110は、検出した身体の部位の大きさに基づいて、画像形成装置10から人物Hまでの距離を推定し、検出した身体の部位の位置に基づいて人物Hが存在する方向を特定する。
ステップ8において肯定の判断(YES)を行った場合は、ステップ8に戻り、ステップ7で開始した人物Hの顔を検出する処理を続行する。したがって、人検出部110は、人操作範囲R2内の人物Hの存在を検知しなくなるまで、通常モードのまま、人操作範囲R2内の人物Hの存在を検出する処理を繰り返す。
一方、ステップ8において否定の判断(NO)を行った場合、すなわち、人操作範囲R2に人物Hが存在しなくなった(人操作範囲R2から人物Hが退去した)場合、制御部101は、タイマによる計時を開始する(ステップ9)。すなわち、制御部101は、人操作範囲R2内に人物Hが存在しなくなったときからの経過時間をタイマで計る。
次に、人検出部110は、人操作範囲R2内に人物Hが存在するか否かを判断する(ステップ10)。ステップ10において、人検出部110は、人操作範囲R2内に人物Hが存在しなくなった後、人操作範囲R2内に再び人物Hが存在するようになったかどうかを判断する。
ステップ10で否定の判断(NO)を行った場合、制御部101は、タイマによる計時時刻が設定期間を経過したかどうかを判断する(ステップ11)。設定期間は、例えば1分であるが、1分以外の時間に設定されていてもよい。ステップ11において否定の判断(NO)を行った場合、制御部101は、ステップ10に戻って処理を続行する。すなわち、ステップ10、11では、人操作範囲R2内に人物Hが存在しない期間が、設定期間分だけ継続するかどうかを判断することとなる。
これに対し、ステップ11で肯定の判断(YES)を行った場合、制御部101は、画像形成装置10のモードを、通常モードからスリープモードに移行させる(ステップ12)。その際、制御部101は、画像形成装置10の各部にスリープモード時の電力供給をするように指示を行うとともに、スリープモード時に停止させる画像形成装置10の各部の動作を停止させる。その後、制御部101は、焦電センサ14が検出範囲F内で人物Hの存在を検知しなくなると、第1カメラ15の動作を停止させる。
ここで、ステップ9でタイマによる計時を開始した後、人操作範囲R2内に人物Hが存在しなくなったときから設定期間が経過する前に、人操作範囲R2内に再び人物Hの存在を検出した場合を考える。この場合、制御部101は、ステップ10で肯定の判断(YES)を行うとともに、タイマによる計時を停止してタイマをリセットする(ステップ13)。そして、制御部101は、ステップ8へと戻って処理を続行する。すなわち、人物Hが人操作範囲R2内に存在する場合の処理を再び実行する。なお、ここでは、同一である人物Hが人操作範囲R2内に戻ってきた場合を例としているが、前とは別の人物Hが人操作範囲R2内に移動してきた場合にも、人検出部110は、ステップ10で肯定の判断(YES)を行うことになる。
ここで、従来にあっては、画像形成装置10を使用しようとする人物H(使用者)が、自身の顔画像を用いた認証を行う場合に、使用者自身が顔画像の撮影の指示および認証の要求を行っていた。例えば、人物Hが人操作範囲R2内に立ち、自身の顔をユーザインタフェース13に設けられた第2カメラ16に向けた状態で、顔画像の撮影を行わせていた。これに対し、本実施の形態の画像形成装置10では、人検知範囲R1内に存在する人物Hの顔画像を第1カメラ15で予め撮影しておき、特定の条件が満たされた状態で、撮影済みの人物Hの顔画像を用いて、認証を行うようにしている。
図7は、画像形成装置10における認証手順の流れを説明するためのフローチャートである。なお、図7に示す処理は、画像形成装置10が通常モードに設定された状態で実行される。
画像形成装置10が通常モードに設定されることにより、図6のステップ7に示したように、第1カメラ15から取得した第1カメラ画像を解析して、人検知範囲R1内に存在する人物Hの顔を検出する処理が開始される。これに伴い、顔検出部111は、第1カメラ画像から人物Hの顔を検出するとともに検出した顔画像を取得する顔検出・顔画像取得処理を実行する(ステップ20)。また、顔登録認証部112は、指示部113から、顔認証処理を開始する旨の指示があったか否かを判断する(ステップ40)。ステップ40において否定の判断(NO)を行った場合は、ステップ20に戻って処理を続行する。
一方、ステップ40において肯定の判断(YES)を行った場合、顔登録認証部112は、ステップ20における顔検出・顔画像取得処理の結果、すなわち、第1カメラ15による第1カメラ画像から得られた人物Hの顔画像を用いて、認証の可否を設定する顔認証処理を実行し(ステップ60)、この処理を完了する。
なお、図7では、ステップ20を実行した後にステップ40を実行するようになっているが、実際には、ステップ20およびステップ40は並列に実行される。したがって、ステップ20の処理の実行中に、ステップ40において肯定の判断(YES)がなされた場合、すなわち、顔認証処理の開始指示があった場合は、ステップ20の処理を中断してステップ60へと移行する。
では、上述したステップ20の顔検出・顔画像取得処理および上述したステップ60の顔認証処理のそれぞれについて、さらに詳細な説明を行う。
図8は、本実施の形態の認証手順における顔検出・顔画像取得処理(ステップ20)の流れを説明するためのフローチャートである。また、図9は、本実施の形態の認証手順における顔認証処理(ステップ60)の流れを説明するためのフローチャートである。
最初に、図8を参照しつつ、ステップ20における顔検出・顔画像取得処理の内容について説明を行う。
ここでは、まず、人検出部110および顔検出部111が、第1カメラ15が撮影した第1カメラ画像を取得する(ステップ21)。次に、人検出部110が、ステップ21で取得した第1カメラ画像を解析して、人検知範囲R1内に人物Hが存在するか否かを判断する(ステップ22)。ステップ22で否定の判断(NO)を行った場合は、ステップ21へと戻って処理を続行する。
一方、ステップ22において肯定の判断(YES)を行った場合、人検出部110は、ステップ22で存在を検出した人物Hが、既に存在が検知済みであって追跡が行われている追跡人物であるか否かを判断する(ステップ23)。ステップ23で肯定の判断(YES)を行った場合は、後述するステップ25へと進む。
これに対し、ステップ23で否定の判断(NO)を行った場合、人検出部110は、ステップ22で存在を検出した人物Hに対する追跡IDを取得して記憶部105に記憶させるとともに、この人物Hの追跡を開始する(ステップ24)。そして、顔検出部111は、ステップ21で取得した第1カメラ画像を解析して、追跡人物の顔を探索する(ステップ25)。
次いで、顔検出部111は、第1カメラ画像から追跡人物の顔を検出できたか否かを判断する(ステップ26)。ステップ26で否定の判断(NO)を行った場合は、後述するステップ30へと進む。
一方、ステップ26で肯定の判断(YES)を行った場合、顔検出部111は、この追跡人物の追跡IDに関連付けて、この追跡人物の顔画像から抽出された顔情報を、記憶部105に登録する(ステップ27)。なお、以下の説明においては、追跡IDと顔情報とを対応付けたものを、追跡テーブルと呼ぶ。そして、顔検出部111は、この追跡人物に関し、同じ追跡人物の顔情報が、追跡テーブルに複数(この例では2つ)登録されているか否かを判断する(ステップ28)。ステップ28で否定の判断(NO)を行った場合は、後述するステップ30へと進む。
これに対し、ステップ28で肯定の判断(YES)を行った場合、選択部114は、記憶部105に追跡テーブルとして登録されている同じ追跡人物に関する2つの顔情報のうち、一方の顔情報を選択し、選択されなかった他方の顔情報を記憶部105から削除する(ステップ29)。
それから、人検出部110は、第1カメラ15が撮影した第1カメラ画像を取得する(ステップ30)。次に、人検出部110は、ステップ30で取得した第1カメラ画像を解析して、人検知範囲R1内に追跡人物が存在するか否かを判断する(ステップ31)。ステップ31で肯定の判断(YES)を行った場合は、ステップ21に戻って処理を続行する。
一方、ステップ31で否定の判断(NO)を行った場合、人検出部110は、ステップ31で存在が検出されなくなった追跡人物(人物H)の追跡IDおよび顔情報を追跡テーブルから削除し(ステップ32)、ステップ21へと戻って処理を続行する。
続いて、図9を参照しつつ、ステップ60における顔認証処理の内容について説明を行う。
ここでは、まず、選択部114が、図7に示すステップ40において顔認証処理の開始指示の対象となった人物H(対象人物と呼ぶ)を選択し、顔登録認証部112が、この対象人物が追跡テーブルに登録された追跡人物であるか否かを判断する(ステップ61)。ステップ61において否定の判断(NO)を行った場合は、後述するステップ71へと進む。
これに対し、ステップ61において肯定の判断(YES)を行った場合、顔登録認証部112は、記憶部105に、対象人物と同じ追跡人物の顔情報が登録されているか否かを判断する(ステップ62)。ステップ62において否定の判断(NO)を行った場合も、後述するステップ71へと進む。
一方、ステップ62において肯定の判断(YES)を行った場合、顔登録認証部112は、ステップ62で追跡テーブルへの登録が確認された対象人物の顔情報を用いて、顔認証を要求する(ステップ63)。続いて、顔登録認証部112は、この対象人物の顔情報と、登録テーブルに登録されているすべての登録人物の顔情報とを照合する(ステップ64)。そして、顔登録認証部112は、認証が成功したか否かを判断する(ステップ65)。ここで、ステップ65では、対象人物の顔情報がすべての登録人物の顔情報のいずれかに一致した場合に肯定の判断(YES)が行われ、対象人物の顔情報がすべての登録人物の顔情報のいずれにも一致しなかった場合に否定の判断(NO)が行われる。
ステップ65で肯定の判断(YES)を行った場合、報知部115は、プロジェクタ17を用いて、対象人物等に対し、認証が成功したことを報知する(ステップ66)。また、表示部104は、認証された対象人物用に設定された対象人物のUI画面(認証後の画面)を表示し(ステップ67)、後述するステップ74へと進む。
一方、ステップ65で否定の判断(NO)を行った場合、人検出部110は、接近検知範囲R4内に対象人物が存在するか否かを判断する(ステップ68)。ステップ68で否定の判断(NO)を行った場合は、ステップ61へと戻って処理を続行する。
これに対し、ステップ68で肯定の判断(YES)を行った場合、報知部115は、プロジェクタ17を用いて、対象人物等に対し、認証が失敗したことを報知する(ステップ69)。また、表示部104は、認証失敗時用に設定された認証失敗のUI画面(認証前の画面)を表示し(ステップ70)、後述するステップ74へと進む。
他方、ステップ61で否定の判断(NO)を行った場合、および、ステップ62で否定の判断(NO)を行った場合、人検出部110は、接近検知範囲R4内に対象人物が存在するか否かを判断する(ステップ71)。ステップ71で否定の判断(NO)を行った場合は、ステップ61へと戻って処理を続行する。
これに対し、ステップ71で肯定の判断(YES)を行った場合、報知部115は、プロジェクタ17を用いて、対象人物等に対し、対象人物の顔画像が取得できていないことを報知する(ステップ72)。また、表示部104は、手動入力による認証処理用に設定された手動入力認証のUI画面(認証前の画面)を表示し(ステップ73)、後述するステップ74へと進む。
そして、顔登録認証部112は、追跡テーブルに登録していたすべての追跡人物の追跡IDおよび顔情報を削除し(ステップ74)、この処理を完了する。
次に、具体的な例を挙げながら、本実施の形態についてさらに詳細に説明を行う。
図10(a)は、使用者が事前に画像形成装置10に登録した登録テーブルの一例を、図10(b)は、ステップ20の顔検出・顔画像取得処理で用いられる追跡テーブルの一例を、それぞれ示す図である。なお、これら登録テーブルおよび追跡テーブルは、記憶部105に記憶されている。
最初に、図10(a)に示す登録テーブルについて説明を行う。
図10(a)に示す登録テーブルは、上述したように、使用者に付与される登録IDと、使用者が設定した登録人物情報と、使用者の顔画像から抽出された顔情報とを対応付けたものとなっている。また、これらのうち、登録人物情報は、使用者が自らに付したユーザ名と、この使用者用のUI画面で用いられるアプリ名と、アプリ名に対応するアプリ機能と、アプリ名に対応するボタンデザインとを含んでいる。
図10(a)に示す登録テーブルには、2人の人物H(登録ID「R001」および「R002」)が、使用者(登録人物)として登録されている。なお、ここでは、2人の人物Hが、使用者として登録される場合を例としているが、1人であってもよいし3人以上であってもかまわない。
これらのうち、登録ID「R001」の使用者については、登録人物情報が次のように登録されている。まず、ユーザ名が「ふじたろう」で登録され、アプリ名として「かんたんコピー」、「スキャンオート」、「かんたんボックス保存」、「ボックス操作」、「ファクス」、「プライベートプリント(一括出力)」が登録されている。そして、各アプリ名に対応するアプリ機能およびボタンデザインも登録されている。さらに、登録ID「R001」の使用者に関する顔情報も登録されている。
また、登録ID「R002」の使用者については、登録人物情報が次のように登録されている。まず、ユーザ名が「富士花子」で登録され、アプリ名として「かんたんコピー」、「スキャンオート」、「かんたんボックス保存」、「プライベートプリント(かんたん確認)」、「いつものコピー3枚」、「節約コピー」、「一発スタートプリント」、「とてもキレイにスキャン」が登録されている。そして、各アプリ名に対応するアプリ機能およびボタンデザインも登録されている。さらに、登録ID「R002」の使用者に関する顔情報も登録されている。
次に、図10(b)に示す追跡テーブルについて説明を行う。
図10(b)に示す追跡テーブルは、上述したように、人検知範囲R1内において追跡中の人物Hである追跡人物に付与される追跡IDと、この追跡人物の顔画像から抽出された顔情報とを対応付けたものとなっている。なお、ステップ20の顔検出・顔画像取得処理で、追跡人物には設定されたがこの追跡人物の顔検出が行えなかった場合においては、追跡テーブルに追跡IDは存在するものの、この追跡IDに対応付けられた顔情報は存在しない、という事態も生じ得る。
では、図7のステップ40に示す、顔認証処理開始指示について説明を行う。
本実施の形態において、指示部113は、第1カメラ15が撮影した第1カメラ画像の解析結果から、人検知範囲R1内に存在する1人以上の人物Hのうち、特定(1人)の人物Hが特定の条件を満たす行動を検出した場合に、ステップ60の顔認証処理を開始させるための指示を出力するようになっている。
[第1の例]
図11は、画像形成装置10の周辺にいる人物Hの位置の時間的変化の第1の例を示した図である。ここで、図11は、人検知範囲R1内に存在するいずれか1人の人物Hが、人検知範囲R1から進入検知範囲R3に進入したことを、ステップ40における顔認証処理開始指示として利用する場合を例示している。
なお、以下で説明する図11(第1の例)および後で説明する図15〜図17(第2の例〜第4の例)は、画像形成装置10の周辺に、人物Hとして、第1の人物H1および第2の人物H2の2人が存在する場合を例示している。また、以下で説明する図11および後で説明する図15〜図17には、プロジェクタ17による画像が投影されるスクリーン18も示している。
図11(a)は、第1の人物H1が人検知範囲R1の外部から人検知範囲R1内に進入し、また、第2の人物H2が人検知範囲R1の外部に位置する状態を示している。このとき、第1の人物H1については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第1の人物H1に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第1の人物H1の顔の探索が行われる。なお、このとき、第2の人物H2は人検知範囲R1の外部に存在しているため、第2の人物H2は処理の対象とはならない。
図11(b)は、第1の人物H1が引き続き人検知範囲R1内に存在し、また、第2の人物H2が人検知範囲R1の外部から人検知範囲R1内に進入してきた状態を示している。このとき、第1の人物H1については、ステップ23で否定の判断(NO)が行われることにより、引き続き、この第1の人物H1の顔の探索が行われる。また、このとき、第2の人物H2については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第2の人物H2に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第2の人物H2の顔の探索が行われる。
図11(c)は、第1の人物H1が引き続き人検知範囲R1内に存在し、また、第2の人物H2が人検知範囲R1から進入検知範囲R3に進入してきた状態を示している。図11に示す第1の例では、特定の人物H(この例では第2の人物H2)が、人検知範囲R1から進入検知範囲R3に進入してきた場合に、指示部113が顔認証処理開始指示を出力することで、ステップ40において肯定の判断(YES)がなされ、ステップ60の顔認証処理が開始される。したがって、この例では、選択部114が、2人の追跡人物(第1の人物H1および第2の人物H2)の中から、第2の人物H2を対象人物として選択することになる。
ここで、第1の例では、特定の人物H(この例では第2の人物H2)が人検知範囲R1から進入検知範囲R3に進入することで対象人物として選択された後、この特定の人物Hが進入検知範囲R3内に滞在し続けている状態で、別の人物H(この例では第1の人物H1)が人検知範囲R1から進入検知範囲R3に進入してきたとしても、対象人物が特定の人物Hから別の人物Hに変更されることはない。
図11(d)は第1の人物H1が引き続き人検知範囲R1内に存在し、また、第2の人物H2が接近検知範囲R4内において顔検知限界Lを突破する前の状態を示している。この例では、進入検知範囲R3に進入した対象人物(ここでは第2の人物H2)が顔検知限界Lを突破する前に、ステップ61〜ステップ65の各処理を完了させるようになっている。また、この例では、進入検知範囲R3に進入した対象人物(ここでは第2の人物H2)が顔検知限界Lを突破する前に、ステップ66、ステップ69またはステップ72の報知を行う。これに伴い、プロジェクタ17は、スクリーン18に伝達事項Mを表示させる。ここで、ステップ61およびステップ62で肯定の判断(YES)を行った後、ステップ65で肯定の判断(YES)を行った場合、プロジェクタ17は、ステップ66において、伝達事項Mとして「認証が成功しました」等の文字画像を表示させる。また、ステップ61およびステップ62で肯定の判断(YES)を行った後、ステップ65で否定の判断(NO)を行った場合、プロジェクタ17は、ステップ69において、伝達事項Mとして、「認証が失敗しました」、「ユーザとして登録されていません」等の文字画像を表示させる。さらに、ステップ61またはステップ62で否定の判断(NO)を行った場合、プロジェクタ17は、ステップ72において、「顔画像が取得できませんでした」等の文字画像を表示させる。
このようにすることで、認証が成功した場合、対象人物である第2の人物H2は、そのまま画像形成装置10に近づいていこうとすることになる。また、認証が失敗した場合および顔画像が取得できなかった場合、対象人物である第2の人物H2は、第1カメラ15を用いた顔画像の取得が困難となる顔検知限界Lを突破する前に、認証が成功しなかったことを知ることになる。
なお、ここでは、ステップ72において、「顔画像が取得できませんでした」という情報を提示する場合について説明を行ったが、これに限られるものではない。例えばステップ72において、人物Hへ自装置(画像形成装置10)に近づかないことを要請する報知、人物Hの顔認証が済んでいないので自装置(画像形成装置10)に近づかないことを要請する報知、人物Hが静止することを要請する報知、人物Hの顔認証が済んでいないので人物Hが静止することを要請する報知、人物Hの顔の一部が第1カメラ15による撮影範囲から外れることを知らしめるための報知、等を行うようにしてもかまわない。
図11(e)は、第1の人物H1が引き続き人検知範囲R1内に存在し、また、第2の人物H2が接近検知範囲R4内において人操作範囲R2に進入する前の状態を示している。この例では、図11(d)に示す状態から図11(e)に示す状態へと移行する間に、プロジェクタ17が、伝達事項Mの報知を終了する。また、この例では、進入検知範囲R3に進入した対象人物(ここでは第2の人物H2)が人操作範囲R2に進入する前に、ステップ67、ステップ70またはステップ73の表示を行う。
このようにすることで、対象人物であるとともに顔認証処理がなされた第2の人物H2が、人操作範囲R2内に進入してユーザインタフェース13の前に立った状態では、既に、タッチパネル130に第2の人物H2に対応したUI画面が表示されていることになる。
ではここで、ステップ67、ステップ70およびステップ73でタッチパネル130に表示されるUI画面について説明を行う。
図12(a)〜(d)は、図9に示す顔認証処理において、ユーザインタフェース13(より具体的にはタッチパネル130)に表示されるUI画面の一例を示す図である。ここで、図12(a)、(b)は、図9に示すステップ67において、タッチパネル130に表示される対象人物のUI画面(認証後の画面)の一例を示している。また、図12(c)は、図9に示すステップ70において、タッチパネル130に表示される認証失敗のUI画面(認証前の画面)の一例を示している。さらに、図12(d)は、図9に示すステップ73において、タッチパネル130に表示される手動入力認証のUI画面(認証前の画面)の一例を示している。
まず、図12(a)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録された登録人物である「ふじたろう」であり、この「ふじたろう」が追跡テーブル(図10(b)参照)に追跡人物として登録されており(ステップ61においてYES)、追跡テーブルに「ふじたろう」の顔情報が登録されている(ステップ62においてYES)ことにより、ステップ65において認証が成功(YES)した場合に、ステップ67で表示される。このUI画面には、図10(a)に示す「ふじたろう」の登録テーブルにしたがって、ユーザ名および各アプリのボタン(この例では6つ)が表示される。そして、タッチパネル130において、これらのうちのいずれかのボタンが押下されることにより、そのボタンに対応付けられたアプリ機能が実行される。
次に、図12(b)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録された別の登録人物である「富士花子」であり、この「富士花子」が追跡テーブル(図10(b)参照)に追跡人物として登録されており(ステップ61においてYES)、追跡テーブルに「富士花子」の顔情報が登録されている(ステップ62においてYES)ことにより、ステップ65において認証が成功(YES)した場合に、ステップ67で表示される。このUI画面には、図10(a)に示す「富士花子」の登録テーブルにしたがって、ユーザ名および各アプリのボタン(この例では8つ)が表示される。そして、タッチパネル130において、これらのうちのいずれかのボタンが押下されることにより、そのボタンに対応付けられたアプリ機能が実行される。
続いて、図12(c)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録されていない未登録人物(例えば「フジジロウ」)であり、この「フジジロウ」が追跡テーブル(図10(b)参照)に追跡人物として登録されており(ステップ61においてYES)、追跡テーブルに「フジジロウ」の顔情報が登録されている(ステップ62においてYES)ことにより、ステップ65において認証が失敗(NO)した場合に、ステップ70で表示される。このUI画面には、例えば「認証に失敗しました」の文言と、「閉じる」ボタンとが表示される。
最後に、図12(d)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録された登録人物(ここでは「ふじたろう」とするが、「富士花子」でもかまわない)であり、この「ふじたろう」が追跡テーブル(図10(b)参照)に追跡人物として登録されていない(ステップ61においてNO)場合に、ステップ73で表示される。また、図12(d)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録された登録人物(ここでは「ふじたろう」とするが、「富士花子」でもかまわない)であり、この「ふじたろう」が追跡テーブル(図10(b)参照)に追跡人物として登録されており(ステップ61においてYES)、追跡テーブルに「ふじたろう」の顔情報が登録されていない(ステップ62においてNO)場合に、ステップ73で表示される。さらに、図12(d)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録されてない未登録人物(例えば「フジジロウ」)であり、この「フジジロウ」が追跡テーブルに追跡人物として登録されていない(ステップ61においてNO)場合に、ステップ73で表示される。さらにまた、図12(d)に示すUI画面は、対象人物が登録テーブル(図10(a)参照)に登録されてない未登録人物(例えば「フジジロウ」)であり、この「フジジロウ」が追跡テーブル(図10(b)参照)に追跡人物として登録されており(ステップ61においてYES)、追跡テーブルに「フジジロウ」の顔情報が登録されていない(ステップ62においてNO)場合に、ステップ73で表示される。このUI画面は、使用者の手動入力による認証要求を受け付けるために表示される。そして、このUI画面には、仮想キーボードと、仮想キーボードを用いた入力内容(ユーザIDやパスワード)を表示する表示領域と、「取り消し」ボタンおよび「確定」ボタンとが表示される。
このように、本実施の形態では、図12(a)、(b)に示す認証後(認証成功時)の画面の内容と、図12(c)に示す認証前(認証失敗時)の画面の内容と、図12(d)に示す手動入力に対応する認証前(認証不能時)の画面の内容とが異なる。また、本実施の形態では、図12(a)、(b)に示したように、登録人物毎に、認証後の画面の内容が異なる。
ここで、追跡人物に関し、顔画像が検出できる場合とできない場合とについて、簡単に説明しておく。
図13は、第1カメラ15によって撮影された第1カメラ画像の一例を示す図である。ここで、図13(a)はマスク等の着用を行っていない人物Hの顔を撮影して得た第1カメラ画像を、図13(b)はマスクを着用した人物Hの顔を撮影して得た第1カメラ画像を、それぞれ示している。
本実施の形態の顔登録認証部112では、顔登録および顔認証において、目・鼻・口など顔の複数の部位(例えば14以上の部位)における特徴点を検出し、顔のサイズ・向きなどを3次元的に補正したのちに顔の特徴量の抽出を行っている。このため、人物Hがマスクやサングラスなど顔の一部を覆い隠すものを着用していると、人物Hの顔を含む画像が第1カメラ画像にあったとしても、第1カメラ画像からこの顔の特徴点の検出および特徴量の抽出を行えなくなる。また、人物Hが第1カメラ15に対して真横を向いたり後ろを向いていたりした場合にも、第1カメラ画像から特徴点の検出および特徴量の抽出を行えなくなる。このような場合、図8に示すステップ26において、否定の判断(NO)が行われることになる。
次に、同じ追跡人物に関し複数の顔情報が取得できた場合に、どのようにして一方の顔情報を選択するのかについて、簡単に説明しておく。
図14は、第1カメラ15によって撮影された第1カメラ画像の一例を示す図である。ここで、図14(a)は、人検知範囲R1内であって顔検知限界Lから相対的に遠い位置に存在する人物Hを撮影して得た第1カメラ画像を、図14(b)は人検知範囲R1内であって顔検知限界Lから相対的に近い位置に存在する人物Hを撮影して得た第1カメラ画像を、それぞれ示している。
図14(a)および図14(b)から明らかなように、図14(b)に示す顔の画像は、第1カメラ15に人物Hが近づいている分、図14(a)に示す顔の画像よりも大きく(画素数が多く)なっており、より特徴量が抽出しやすい状態となっている。このため、例えば図14(a)に示す第1カメラ画像から人物Hの顔情報を取得して追跡テーブルに登録した後、図14(a)に示す第1カメラ画像から人物Hの顔情報を取得した場合は、ステップ29において、後者の顔情報を選択するとともに、前者の顔情報を削除する。
また、これ以外にも、例えば第1カメラ15に対し斜めを向いた人物Hの顔を撮影した第1カメラ画像から顔情報を取得して追跡テーブルに登録した後、第1カメラ15に対し正面を向いた人物Hの顔を撮影した第1カメラ画像から顔情報を取得した場合は、ステップ29において、後者の顔情報を選択するとともに、前者の顔情報を削除するようにしてもよい。
なお、上述した第1の例では、第2の人物H2が第1の人物H1よりも先に進入検知範囲R3内に進入することで、第2の人物H2が対象人物となる場合について説明を行った。ただし、第1の人物H1が第2の人物H2よりも先に進入検知範囲R3内に進入した場合には、第1の人物H1が対象人物となる。
[第2の例]
図15は、画像形成装置10の周辺にいる人物Hの位置の時間的変化の第2の例を示した図である。ここで、図15は、図11に示す第1の例と同じく、人検知範囲R1内に存在するいずれか1人の人物Hが、人検知範囲R1から進入検知範囲R3に進入したことを、ステップ40における顔認証処理開始指示として利用する場合を例示している。
図15(a)は、第1の人物H1が人検知範囲R1の外部から人検知範囲R1内に進入し、また、第2の人物H2が人検知範囲R1の外部に位置する状態を示している。このとき、第1の人物H1については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第1の人物H1に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第1の人物H1の顔の探索が行われる。なお、このとき、第2の人物H2は人検知範囲R1の外部に存在しているため、第2の人物H2は処理の対象とはならない。
図15(b)は、第1の人物H1が人検知範囲R1内で移動し、また、第2の人物H2が人検知範囲R1の外部から人検知範囲R1内に進入してきた状態を示している。このとき、第1の人物H1については、ステップ23で否定の判断(NO)が行われることにより、引き続き、この第1の人物H1の顔の探索が行われる。また、このとき、第2の人物H2については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第2の人物H2に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第2の人物H2の顔の探索が行われる。
図15(c)は、第1の人物H1が人検知範囲R1内から人検知範囲R1の外部に移動し、第2の人物H2が人検知範囲R1内で移動している状態を示している。このとき、第1の人物H1については、ステップ31で否定の判断(NO)が行われることにより、ステップ32でこの第1の人物H1に関する追跡IDおよび顔情報が、追跡テーブルから削除される。また、このとき、第2の人物H2については、ステップ23で否定の判断(NO)が行われることにより、引き続き、この第2の人物H2の顔の探索が行われる。
図15(d)は、第1の人物H1が人検知範囲R1の外部で移動し、また、第2の人物H2が人検知範囲R1内から人検知範囲R1の外部に移動した状態を示している。このとき、第2の人物H2については、ステップ31で否定の判断(NO)が行われることにより、ステップ32でこの第2の人物H2に関する追跡IDおよび顔情報が、追跡テーブルから削除される。なお、このとき、第1の人物H1は人検知範囲R1の外部に存在しているため、第1の人物H1は処理の対象とはならない。
このようにすることで、人検知範囲R1内で追跡されている第1の人物H1または第2の人物H2が進入検知範囲R3内に進入しない限り、対象人物が生じることはなく、その結果、ステップ60の顔認証処理が開始されることもない。
[第3の例]
図16は、画像形成装置10の周辺にいる人物Hの位置の時間的変化の第3の例を示した図である。ここで、図16は、上述した第1の例および第2の例とは異なり、人検知範囲R1内に存在するいずれか1人の人物Hの、人検知範囲R1に進入してからの経過時間(人検知範囲R1内での滞在時間)が、予め決められた規定時間(設定時間の一例)に到達したことを、ステップ40における顔認証処理開始指示として利用する場合を例示している。
図16(a)は、第1の人物H1が人検知範囲R1の外部から人検知範囲R1に進入し、また、第2の人物H2が人検知範囲R1の外部に位置する状態を示している。このとき、第1の人物H1については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第1の人物H1に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第1の人物H1の顔の探索が行われる。また、第1の人物H1が人検知範囲R1の外部から人検知範囲R1内に進入したことをトリガとしてタイマを用いた計時が開始され、第1の人物H1が人検知範囲R1内に滞在する第1滞在時間T1が0にセットされる(T1=0)。なお、このとき、第2の人物H2は人検知範囲R1の外部に存在しているため、第2の人物H2は処理の対象とはならない。
図16(b)は、第1の人物H1が人検知範囲R1内で移動し、また、第2の人物H2が人検知範囲R1の外部から人検知範囲R1に進入してきた状態を示している。このとき、第1の人物H1については、ステップ23で否定の判断(NO)が行われることにより、引き続き、この第1の人物H1の顔の探索が行われる。また、このとき、第2の人物H2については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第2の人物H2に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第2の人物H2の顔の探索が行われる。さらに、第2の人物H2が人検知範囲R1の外部から人検知範囲R1内に進入したことをトリガとしてタイマを用いた計時が開始され、第2の人物H2が人検知範囲R1内に滞在する第2滞在時間T2が0にセットされる(T2=0)。なお、このとき、図16(a)に示す状態からの時間の経過に伴い、第1の人物H1の第1滞在時間T1は、第2の人物H2の第2滞在時間T2よりも長くなっている(T1>T2)。
図16(c)は、第1の人物H1が人検知範囲R1内で移動し、また、第2の人物H2も人検知範囲R1内で移動している状態を示している。このとき、第1の人物H1については、ステップ23で否定の判断(NO)が行われることにより、引き続き、この第1の人物H1の顔の探索が行われる。また、このとき、第2の人物H2についても、ステップ23で否定の判断(NO)が行われることにより、引き続き、この第2の人物H2の顔の探索が行われる。さらに、このとき、第1の人物H1の第1滞在時間T1は、規定時間T0に到達しており(T1=T0)、第2の人物H2の第2滞在時間T2は、第1滞在時間T1すなわち規定時間T0よりも短く(T2<T0)なっている。図16に示す第3の例では、特定の人物H(この例では第1の人物H1)が、人検知範囲R1内に滞在する時間(この例では第1滞在時間T1)が規定時間T0に到達した場合に、指示部113が顔認証処理開始指示を出力することで、ステップ40において肯定の判断(YES)がなされ、ステップ60の顔認証処理が開始される。したがって、この例では、選択部114が、2人の追跡人物(第1の人物H1および第2の人物H2)の中から、第1の人物H1を対象人物として選択することになる。
ここで、第3の例では、特定の人物H(この例では第1の人物H1)の第1滞在時間T1が規定時間T0に到達することで対象人物として選択された後、この特定の人物Hが人検知範囲R1内に滞在し続けている状態で、別の人物(この例では第2の人物H2)の第2滞在時間T2が規定時間T0に到達したとしても、対象事物が特定の人物から別の人物に変更されることはない。
図16(d)は、第1の人物H1が人検知範囲R1から進入検知範囲R3を介して接近検知範囲R4に進入し、また、第2の人物H2が人検知範囲R1内で移動している状態を示している。この例では、進入検知範囲R3に進入した対象人物(ここでは第1の人物H1)が顔検知限界Lを突破する前に、ステップ61〜ステップ65の各処理を完了させるようになっている。また、この例では、進入検知範囲R3に進入した対象人物(ここでは第1の人物H1)が顔検知限界Lを突破する前に、ステップ66、ステップ69またはステップ72の報知を行う。これに伴い、プロジェクタ17は、スクリーン18に伝達事項Mを表示させる。ここで、伝達事項Mの内容については、図11を用いて説明したものと同じである。
このようにすることで、認証が成功した場合、対象人物である第1の人物H1は、そのまま画像形成装置10に近づいていこうとすることになる。また、認証が失敗した場合および顔画像が取得できなかった場合、対象人物である第1の人物H1は、第1カメラ15を用いた顔画像の取得が困難となる顔検知限界Lを突破する前に、認証が成功しなかったことを知ることになる。
図16(e)は、第1の人物H1が接近検知範囲R4内において人操作範囲R2に進入しようとしており、第2の人物H2が引き続き人検知範囲R1内に存在する状態を示している。この例では、図16(d)に示す状態から図16(e)に示す状態へと移行する間に、プロジェクタ17が、伝達事項Mの報知を終了する。また、この例では、進入検知範囲R3に進入した対象人物(ここでは第1の人物H1)が人操作範囲R2に進入する前に、ステップ67、ステップ70またはステップ73の表示を行う。ここで、表示する内容については、図12を用いて説明したものと同じである。
このようにすることで、対象人物であるとともに顔認証処理がなされた第1の人物H1が、人操作範囲R2内に進入してユーザインタフェース13の前に立った状態では、既に、タッチパネル130に第1の人物H1に対応したUI画面が表示されていることになる。
なお、上述した第3の例では、第1の人物H1の第1滞在時間T1が第2の人物H2の第2滞在時間T2よりも先に規定時間T0に到達することで、第1の人物H1が対象人物となる場合について説明を行った。ただし、第2の人物H2の第2滞在時間T2が第1の人物H1の第1滞在時間T1よりも先に規定時間T0に到達した場合には、第2の人物H2が対象人物となる。
また、上述した第3の例では、第1の人物H1および第2の人物H2の両者が、人検知範囲R1内に進入した後に人検知範囲R1内に滞在し続ける場合について説明を行った。ただし、例えば、第1の人物H1の第1滞在時間T1が規定時間T0に到達する前に、第1の人物H1が人検知範囲R1の外部へ退去し、且つ、第2の人物H2の第2滞在時間T2が規定時間T0に到達する前に、第2の人物H2が人検知範囲R1の外部に退去した場合は、上述した第2の例と同じく、対象人物が発生せず、ステップ60の顔認証処理も開始されないことになる。
[第4の例]
図17は、画像形成装置10の周辺にいる人物Hの位置の時間的変化の第4の例を示した図である。ここで、図17は、上述した第1の例〜第3の例とは異なり、人検知範囲R1内に存在するいずれか1人の人物Hが、人検知範囲R1内に進入した後に画像形成装置10に接近してきたことを、ステップ40における顔認証処理開始指示として利用する場合を例示している。
図17(a)は、第1の人物H1が人検知範囲R1の外部から人検知範囲R1内に進入し、また、第2の人物H2が人検知範囲R1の外部に位置する状態を示している。このとき、第1の人物H1については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第1の人物H1に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第1の人物H1の顔の探索が行われる。なお、このとき、第2の人物H2は人検知範囲R1の外部に存在しているため、第2の人物H2は処理の対象とはならない。
図17(b)は、第1の人物H1が人検知範囲R1内で移動し、また、第2の人物H2が人検知範囲R1の外部から人検知範囲R1内に進入してきた状態を示している。このとき、第1の人物H1については、ステップ23で否定の判断(NO)が行われることにより、引き続き、この第1の人物H1の顔の探索が行われる。また、このとき、第2の人物H2については、ステップ22で肯定の判断(YES)が行われるとともにステップ23で否定の判断(NO)が行われることにより、ステップ24でこの第2の人物H2に対して追跡IDが付与されるとともに追跡が開始され、ステップ25でこの第2の人物H2の顔の探索が行われる。
図17(c)は、第1の人物H1が人検知範囲R1内で移動し、また、第2の人物H2も人検知範囲R1内で移動している状態を示している。ただし、このとき、第1の人物H1は画像形成装置10から遠ざかる方向に移動しており、第2の人物H2は画像形成装置10に近づく方向に移動している。図17に示す第4の例では、特定の人物H(この例では第2の人物H2)が、画像形成装置10(第1カメラ15)に向かって近づいてきたことを検出した場合に、指示部113が顔認証処理開始指示を出力することで、ステップ40において肯定の判断(YES)がなされ、ステップ60の顔認証処理が開始される。したがって、この例では、選択部114が、2人の追跡人物(第1の人物H1および第2の人物H2)の中から、第2の人物H2を対象人物として選択することになる。
ここで、第4の例では、特定の人物H(この例では第2の人物H2)が画像形成装置10に接近してくることで対象人物として選択された後、この特定の人物Hが画像形成装置10に接近し続けている状態で、別の人物H(この例では第1の人物H1)が画像形成装置10に接近してきたとしても、対象人物が特定の人物Hから別の人物Hに変更されることはない。
図17(d)は、第1の人物H1が人検知範囲R1内から人検知範囲R1の外部に移動し、また、第2の人物H2が人検知範囲R1から進入検知範囲R3を介して接近検知範囲R4に進入してきた状態を示している。この例では、進入検知範囲R3に進入した対象人物(ここでは第2の人物H2)が顔検知限界Lを突破する前に、ステップ61〜ステップ65の各処理を完了させるようになっている。また、この例では、進入検知範囲R3に進入した対象人物(ここでは第2の人物H2)が顔検知限界Lを突破する前に、ステップ66、ステップ69またはステップ72の報知を行う。これに伴い、プロジェクタ17は、スクリーン18に伝達事項Mを表示させる。ここで、伝達事項Mの内容については、図11を用いて説明したものと同じである。
このようにすることで、認証が成功した場合、対象人物である第2の人物H2は、そのまま画像形成装置10に近づいていこうとすることになる。また、認証が失敗した場合および顔画像が取得できなかった場合、対象人物である第2の人物H2は、第1カメラ15を用いた顔画像の取得が困難となる顔検知限界Lを突破する前に、認証が成功しなかったことを知ることになる。
なお、図17(d)に示す状態において、第1の人物H1については、ステップ31で否定の判断(NO)が行われることにより、ステップ32でこの第1の人物H1に関する追跡IDおよび顔情報が、追跡テーブルから削除される。
図17(e)は、第1の人物H1が人検知範囲R1の外部で移動しており、第2の人物H2が接近検知範囲R4内において人操作範囲R2に進入しようとしている状態を示している。この例では、図17(d)に示す状態から図17(e)に示す状態へと移行する間に、プロジェクタ17が、伝達事項Mの報知を終了する。また、この例では、進入検知範囲R3に進入した対象人物(ここでは第2の人物H2)が人操作範囲R2に進入する前に、ステップ67、ステップ70またはステップ73の表示を行う。ここで、表示する内容については、図12を用いて説明したものと同じである。
このようにすることで、対象人物であるとともに顔認証がなされた第2の人物H2が、人操作範囲R2内に進入してユーザインタフェース13の前に立った状態では、既に、タッチパネル130に第2の人物H2に対応したUI画面が表示されていることになる。
なお、上述した第4の例では、人検知範囲R1内に存在する第2の人物H2が画像形成装置10に接近する一方、同じ人検知範囲R1内に存在する第1の人物H1が画像形成装置10から離隔することで、第2の人物H2が対象人物となる場合について説明を行った。ただし、人検知範囲R1内に存在する第1の人物H1が画像形成装置10に接近する一方、同じ人検知範囲R1内に存在する第2の人物H2が画像形成装置10から離隔する場合には、第1の人物H1が対象人物となる。
また、上述した第4の例では、人検知範囲R1内に存在する第2の人物H2が画像形成装置10に接近する一方、同じ人検知範囲R1内に存在する第1の人物H1が画像形成装置10から離隔する場合について説明を行った。ただし、これら第1の人物H1および第2の人物H2の両者が画像形成装置10から離隔する場合は、上述した第2の例と同じく、対象人物が発生せず、ステップ60の顔認証処理も開始されないことになる。一方、これら第1の人物H1および第2の人物H2の両者が画像形成装置10に接近する場合には、より早く画像形成装置10に近づいた人物Hが対象人物となる。
ここで、上述した第1の例〜第4の例では、2人の人物H(第1の人物H1および第2の人物H2)が画像形成装置10の周辺に存在する場合を例としたが、画像形成装置10の周辺に存在する人物Hが1人となる場合、および、画像形成装置10の周辺に存在する人物が3人以上となる場合もあり得る。
なお、本実施の形態では、図9に示す顔認証処理のステップ62で、対象人物(追跡人物)の顔情報が登録されていない場合(NO)に、ステップ71でタッチパネル130に手動入力認証のUI画面(図12(d))を表示させて、手動入力による認証を受け付けるようにしていたが、これに限られない。例えば、ユーザインタフェース13に設けられた第2カメラ16を用いて、人操作範囲R2内に滞在する人物Hの顔画像を撮影し、得られた第2カメラ画像から顔情報を取得することにより、再度顔認証を行うようにしてもかまわない。この場合には、タッチパネル130に、第2カメラ16を用いた顔画像の撮影を促す指示とともに、第2カメラ画像を表示させるとよい。
また、本実施の形態では、図6に示す画像形成装置10のモード制御において、ステップ6でスリープモードから通常モードに移行した後、ステップ7で人物Hの顔の検出を開始するようにしたが、これに限られない。例えば、ステップ4で人物Hの動きを検出する処理を開始するのに合わせて、人物Hの顔の検出を開始するようにしてもかまわない。この場合は、スリープモードに設定された状態のまま、人物Hの顔の検出を開始することになる。また、スリープモードに設定された状態のまま、人物Hの顔の検出を開始する構成を採用した場合に、例えば、図7に示すステップ40において顔認証処理開始指示があった(ステップ40でYES)ことを契機として、画像形成装置10をスリープモードから通常モードに移行させるようにしてもよい。
さらに、本実施の形態では、報知部115として、画像を表示するプロジェクタ17を用いる場合を例として説明を行ったが、これに限られるものではない。例えば音源から音を発したり、例えば光源(ランプ)から光を発したりする等の手法を用いてもかまわない。ここで、本実施の形態では、取得した顔画像による認証が成功したとき(ステップ66)、取得した顔画像による認証が失敗したとき(ステップ69)および顔画像が取得できないことにより認証が行えなかったとき(ステップ72)に、報知を行っていたが、これに限られない。例えば、(1)第1カメラ画像から顔画像を検出する前、(2)第1カメラ画像から顔画像を検出した後であって顔画像による認証を行う前、(3)認証処理を行った後、の期間ごとに、報知を行うようにしてもかまわない。
10…画像形成装置、11…スキャナ、12…プリンタ、13…ユーザインタフェース(UI)、14…焦電センサ、15…第1カメラ、16…第2カメラ、17…プロジェクタ、18…スクリーン、101…制御部、102…通信部、103…操作部、104…表示部、105…記憶部、106…画像読取部、107…画像形成部、108…検知部、109…撮像部、110…人検出部、111…顔検出部、112…顔登録認証部、113…指示部、114…選択部、115…報知部、130…タッチパネル、131…第1操作ボタン群、132…第2操作ボタン群、133…USBメモリ装着部

Claims (11)

  1. 自装置の周囲の人を撮像する撮像部と、
    前記撮像部が撮像した人の顔画像により、個人の認証を行う認証部と、
    認証の開始を指示する指示部と
    を有し、
    前記認証部は、前記指示部による指示の前に顔画像を取得し、当該指示部による指示の後に認証を行うこと
    を特徴とする認証装置。
  2. 前記撮像部は、第1の領域内に存在する人の画像を撮像し、
    前記指示部は、人が前記第1の領域内であって当該第1の領域よりも狭い第2の領域に存在する場合に、前記認証の開始を指示することを特徴とする請求項1記載の認証装置。
  3. 前記撮像部は、第1の領域内に存在する人の画像を撮像し、
    前記指示部は、前記第1の領域内に存在する人が当該第1の領域に予め設定された設定時間以上滞在する場合に、前記認証の開始を指示することを特徴とする請求項1記載の認証装置。
  4. 前記撮像部は、第1の領域内に存在する人の画像を撮像し、
    前記指示部は、前記第1の領域に存在する人が自装置に接近している場合に、前記認証の開始を指示することを特徴とする請求項1記載の認証装置。
  5. 前記指示部は、人が自装置を使用する意図を推定する条件を満たした場合に、前記認証の開始を指示することを特徴とする請求項1乃至4のいずれか1項記載の認証装置。
  6. 前記撮像部が撮像した顔画像を保持する保持部をさらに有し、
    前記保持部は、前記撮像部が撮像した複数の画像のうち、予め決められた条件を満たす顔画像を抽出して保持することを特徴とする請求項1記載の認証装置。
  7. 前記撮像部が撮像した顔画像を保持する保持部をさらに有し、
    前記保持部は、前記撮像部が複数名の顔画像を撮像した場合には、それぞれの顔画像を保持することを特徴とする請求項1記載の認証装置。
  8. 前記保持部が複数名の顔画像を保持している場合に、どの顔画像により認証を行うかを選択する選択部をさらに有することを特徴とする請求項7記載の認証装置。
  9. 前記保持部は、前記認証部が認証を行った後、認証に用いた人以外の顔画像を削除することを特徴とする請求項6乃至8のいずれか1項記載の認証装置。
  10. 前記認証部による認証可否を報知する報知部をさらに有することを特徴とする請求項1乃至9のいずれか1項記載の認証装置。
  11. 撮像部と、
    前記撮像部が撮像した顔画像により、個人を特定する特定部と、
    特定された個人毎に異なる処理を実行する処理部と、
    人が自装置を使用する意図を推定する条件を満たした場合に、当該人の認証を指示する指示部と
    を有し、
    前記特定部は、前記指示の前に個人の特定を完了させ、
    前記処理部は、前記指示の後に前記特定された個人に対応する処理を開始すること
    を特徴とする処理装置。
JP2015153702A 2015-08-03 2015-08-03 認証装置および処理装置 Pending JP2017034518A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015153702A JP2017034518A (ja) 2015-08-03 2015-08-03 認証装置および処理装置
US14/982,738 US20170039010A1 (en) 2015-08-03 2015-12-29 Authentication apparatus and processing apparatus
EP16153089.4A EP3128454B1 (en) 2015-08-03 2016-01-28 Authentication apparatus and processing apparatus
CN201610089920.4A CN106412357A (zh) 2015-08-03 2016-02-17 认证设备和处理设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015153702A JP2017034518A (ja) 2015-08-03 2015-08-03 認証装置および処理装置

Publications (1)

Publication Number Publication Date
JP2017034518A true JP2017034518A (ja) 2017-02-09

Family

ID=57989478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015153702A Pending JP2017034518A (ja) 2015-08-03 2015-08-03 認証装置および処理装置

Country Status (1)

Country Link
JP (1) JP2017034518A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019018528A (ja) * 2017-07-21 2019-02-07 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP7223833B1 (ja) 2021-12-23 2023-02-16 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004345302A (ja) * 2003-05-26 2004-12-09 Kyocera Mita Corp 画像形成装置,印刷条件復帰方法,印刷条件復帰プログラム及びこれを記憶した記憶媒体
JP2005266421A (ja) * 2004-03-19 2005-09-29 Ricoh Co Ltd 画像形成装置、画像形成システム、プログラムおよび記録媒体
JP2008146449A (ja) * 2006-12-12 2008-06-26 Konica Minolta Holdings Inc 認証システム、認証方法およびプログラム
JP2009104599A (ja) * 2007-10-04 2009-05-14 Toshiba Corp 顔認証装置、顔認証方法、及び顔認証システム
JP2009147452A (ja) * 2007-12-11 2009-07-02 Sharp Corp 制御装置、画像形成装置、画像形成装置の制御方法、プログラムおよび記録媒体
JP2014002506A (ja) * 2012-06-18 2014-01-09 Hitachi Information & Telecommunication Engineering Ltd 認証システム、認証方法
JP2014535090A (ja) * 2011-09-28 2014-12-25 グーグル インコーポレイテッド 顔認識に基づくコンピューティング・デバイスへのログイン

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004345302A (ja) * 2003-05-26 2004-12-09 Kyocera Mita Corp 画像形成装置,印刷条件復帰方法,印刷条件復帰プログラム及びこれを記憶した記憶媒体
JP2005266421A (ja) * 2004-03-19 2005-09-29 Ricoh Co Ltd 画像形成装置、画像形成システム、プログラムおよび記録媒体
JP2008146449A (ja) * 2006-12-12 2008-06-26 Konica Minolta Holdings Inc 認証システム、認証方法およびプログラム
JP2009104599A (ja) * 2007-10-04 2009-05-14 Toshiba Corp 顔認証装置、顔認証方法、及び顔認証システム
JP2009147452A (ja) * 2007-12-11 2009-07-02 Sharp Corp 制御装置、画像形成装置、画像形成装置の制御方法、プログラムおよび記録媒体
JP2014535090A (ja) * 2011-09-28 2014-12-25 グーグル インコーポレイテッド 顔認識に基づくコンピューティング・デバイスへのログイン
JP2014002506A (ja) * 2012-06-18 2014-01-09 Hitachi Information & Telecommunication Engineering Ltd 認証システム、認証方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019018528A (ja) * 2017-07-21 2019-02-07 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP7017034B2 (ja) 2017-07-21 2022-02-08 富士フイルムビジネスイノベーション株式会社 画像処理装置及び画像処理プログラム
JP7223833B1 (ja) 2021-12-23 2023-02-16 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法
JP2023094287A (ja) * 2021-12-23 2023-07-05 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法

Similar Documents

Publication Publication Date Title
JP2017033358A (ja) 認証装置
EP3128454B1 (en) Authentication apparatus and processing apparatus
US10205853B2 (en) Authentication apparatus, image forming apparatus, authentication method, and image forming method
US20150043790A1 (en) Image processing apparatus and non-transitory computer readable medium
US9524129B2 (en) Information processing apparatus, including display of face image, information processing method, and non-transitory computer readable medium
JP6372114B2 (ja) 画像処理装置
JP6112823B2 (ja) 情報処理装置、情報処理方法及びコンピュータにより読み取り可能なプログラム
JP2017033357A (ja) 認証装置
JP7011451B2 (ja) 画像形成装置、制御プログラムおよび制御方法
KR20100075167A (ko) 얼굴인식 기능을 이용한 디지털 영상 촬영 장치 및 방법
JP6974032B2 (ja) 画像表示装置、画像形成装置、制御プログラムおよび制御方法
JP2015041323A (ja) 処理装置
JP2006344100A (ja) 認証装置、画像出力装置
JP2017034518A (ja) 認証装置および処理装置
JP2017069876A (ja) 処理装置
JP6963437B2 (ja) 情報処理装置及びその制御方法とプログラム
JP6569386B2 (ja) 画像処理装置
JP5104517B2 (ja) 撮影装置
JP6635182B2 (ja) 画像処理装置およびプログラム
JP2019209585A (ja) 画像形成装置、画像形成装置の制御方法、プログラム
JP2019142125A (ja) 画像形成装置、その制御方法、およびプログラム
JP2017011399A (ja) 画像処理装置、画像形成装置、記録媒体およびプログラム
JP6878842B2 (ja) 画像処理装置、認証方法および認証プログラム
JP6686280B2 (ja) 登録装置および画像形成装置
JP2006313223A (ja) 撮影装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190327

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190702