JP7279892B2 - FACE POSITION DETECTION DEVICE, FACE POSITION DETECTION METHOD, AND PROGRAM - Google Patents
FACE POSITION DETECTION DEVICE, FACE POSITION DETECTION METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP7279892B2 JP7279892B2 JP2019024017A JP2019024017A JP7279892B2 JP 7279892 B2 JP7279892 B2 JP 7279892B2 JP 2019024017 A JP2019024017 A JP 2019024017A JP 2019024017 A JP2019024017 A JP 2019024017A JP 7279892 B2 JP7279892 B2 JP 7279892B2
- Authority
- JP
- Japan
- Prior art keywords
- plane
- face
- provisional
- orientation detection
- planes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、画像から人の顔の向きを検出するための、顔向き検出装置、及び顔向き検出方法に関し、更には、これらを実現するためのプログラムに関する。 The present invention relates to a face orientation detection device and a face orientation detection method for detecting the orientation of a person's face from an image, and further to a program for realizing these.
近年、映像監視、自動車といった種々の分野において、画像から人の顔を検出する顔検出処理が行われている。特に、映像監視の分野では、侵入者を特定するために、顔検出処理が行われている。また、自動車の分野においては、運転手の状態を監視して、安全運転を支援するために、顔検出処理が行われている。 2. Description of the Related Art In recent years, face detection processing for detecting a person's face from an image has been performed in various fields such as video surveillance and automobiles. In particular, in the field of video surveillance, face detection processing is used to identify intruders. Also, in the field of automobiles, face detection processing is performed to monitor the driver's condition and assist safe driving.
例えば、特許文献1は、顔検出処理を行う装置を開示している。特許文献1に開示された装置は、まず、映像データから人物の領域を検出し、検出した領域の特徴量と、予め登録されている顔の特徴量とを比較することで、顔の領域を特定する。また、特許文献1に開示された装置は、顔の領域に、予め登録されている顔の各部品のテンプレートをマッチングすることで、顔の各部品を特定する。更に、特許文献1に開示された装置は、特定した部品の画面上での位置関係から、実空間における顔の向きを推定する。 For example, Patent Literature 1 discloses an apparatus that performs face detection processing. The apparatus disclosed in Patent Document 1 first detects a person's area from video data, and compares the feature amount of the detected area with a pre-registered face feature amount to detect the face area. Identify. Further, the apparatus disclosed in Patent Document 1 identifies each part of the face by matching templates of each part of the face registered in advance with the region of the face. Furthermore, the device disclosed in Patent Literature 1 estimates the orientation of the face in real space from the positional relationship of the specified parts on the screen.
ところで、特許文献1に開示された装置では、このように顔の部品の画面上での位置関係によって実空間における顔の向きを推定することから、顔の向きを正確に推定するためには、カメラを人の顔の正面に配置する必要がある。 By the way, in the apparatus disclosed in Patent Document 1, since the orientation of the face in the real space is estimated based on the positional relationship of the parts of the face on the screen, in order to accurately estimate the orientation of the face, The camera should be placed in front of the person's face.
しかしながら、実際には、カメラを人の顔の正面に配置することは難しく、特に、自動車の分野では、カメラの位置は車内の形状に制約を受けるため、極めて困難である。このため、特許文献1に開示された装置では、カメラの位置が制約される場合に、顔の向きを正確に推定できないという問題がある。 However, in practice, it is difficult to place a camera in front of a person's face, and in particular in the field of automobiles, the position of the camera is restricted by the shape of the interior of the vehicle, making it extremely difficult. For this reason, the apparatus disclosed in Patent Document 1 has a problem that the orientation of the face cannot be accurately estimated when the position of the camera is restricted.
本発明の目的の一例は、上記問題を解消し、カメラの取り付け位置が制約を受ける場合であっても、顔の向きを検出し得る、顔向き検出装置、顔向き検出方法、及びプログラムを提供することにある。 An example of an object of the present invention is to provide a face orientation detection device, a face orientation detection method, and a program capable of solving the above problem and detecting the orientation of the face even when the mounting position of the camera is restricted. to do.
上記目的を達成するため、本発明の一側面における顔向き検出装置は、
人の顔を含む部分の3次元点群データを取得する、データ取得部と、
取得された前記3次元点群データから、前記顔の部品に対応する領域を特定する、部品特定部と、
特定された前記領域全体から、任意の3つ以上の点を抽出し、抽出する度に、抽出した点を含む仮平面を設定する、仮平面設定部と、
設定された前記仮平面それぞれ毎に、当該仮平面が前記顔の面に相当する可能性を示すスコアを算出し、算出した前記仮平面それぞれの前記スコアの値に基づいて、1つの前記仮平面を選択する、仮平面選択部と、
選択された前記仮平面の法線の方向を前記顔の向きとして検出する、顔向き検出部と、
を備えている、
ことを特徴とする。
In order to achieve the above object, a face orientation detection device according to one aspect of the present invention includes:
a data acquisition unit that acquires three-dimensional point cloud data of a portion that includes a human face;
a parts identification unit that identifies areas corresponding to the parts of the face from the acquired three-dimensional point cloud data;
a provisional plane setting unit that extracts any three or more points from the entire identified region and sets a provisional plane that includes the extracted points each time they are extracted;
For each of the set provisional planes, a score indicating the possibility that the provisional plane corresponds to the surface of the face is calculated, and one provisional plane is determined based on the score value of each of the calculated provisional planes. a temporary plane selection unit for selecting a
a face orientation detection unit that detects the direction of the normal to the selected provisional plane as the orientation of the face;
is equipped with
It is characterized by
また、上記目的を達成するため、本発明の一側面における顔向き検出方法は、
(a)人の顔を含む部分の3次元点群データを取得する、ステップと、
(b)取得された前記3次元点群データから、前記顔の部品に対応する領域を特定する、ステップと、
(c)特定された前記領域全体から、任意の3つ以上の点を抽出し、抽出する度に、抽出した点を含む仮平面を設定する、ステップと、
(d)設定された前記仮平面それぞれ毎に、当該仮平面が前記顔の面に相当する可能性を示すスコアを算出し、算出した前記仮平面それぞれの前記スコアの値に基づいて、1つの前記仮平面を選択する、ステップと、
(e)選択された前記仮平面の法線の方向を前記顔の向きとして検出する、ステップと、を有する、
ことを特徴とする。
Further, in order to achieve the above object, a face orientation detection method according to one aspect of the present invention includes:
(a) acquiring 3D point cloud data of a portion containing a human face;
(b) identifying regions corresponding to the facial parts from the acquired three-dimensional point cloud data;
(c) extracting arbitrary three or more points from the entire identified region, and setting a temporary plane containing the extracted points each time they are extracted;
(d) for each of the set provisional planes, a score indicating the possibility that the provisional plane corresponds to the surface of the face is calculated, and based on the score value of each of the calculated provisional planes, one selecting the virtual plane;
(e) detecting the direction of the normal of the selected virtual plane as the orientation of the face;
It is characterized by
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、
コンピュータに、
(a)人の顔を含む部分の3次元点群データを取得する、ステップと、
(b)取得された前記3次元点群データから、前記顔の部品に対応する領域を特定する、ステップと、
(c)特定された前記領域全体から、任意の3つ以上の点を抽出し、抽出する度に、抽出した点を含む仮平面を設定する、ステップと、
(d)設定された前記仮平面それぞれ毎に、当該仮平面が前記顔の面に相当する可能性を示すスコアを算出し、算出した前記仮平面それぞれの前記スコアの値に基づいて、1つの前記仮平面を選択する、ステップと、
(e)選択された前記仮平面の法線の方向を前記顔の向きとして検出する、ステップと、を実行させる、ことを特徴とする。
Furthermore, in order to achieve the above object, the program in one aspect of the present invention is
to the computer,
(a) acquiring 3D point cloud data of a portion containing a human face;
(b) identifying regions corresponding to the facial parts from the acquired three-dimensional point cloud data;
(c) extracting arbitrary three or more points from the entire identified region, and setting a temporary plane containing the extracted points each time they are extracted;
(d) for each of the set provisional planes, a score indicating the possibility that the provisional plane corresponds to the surface of the face is calculated, and based on the score value of each of the calculated provisional planes, one selecting the virtual plane;
(e) detecting the direction of the normal to the selected provisional plane as the orientation of the face;
以上のように、本発明によれば、カメラの取り付け位置が制約を受ける場合であっても、顔の向きを検出することができる。 As described above, according to the present invention, the orientation of the face can be detected even when the mounting position of the camera is restricted.
(実施の形態)
以下、本発明の実施の形態における、顔向き検出装置、顔向き検出方法、及びプログラムについて、図1~図7を参照しながら説明する。
(Embodiment)
A face orientation detection device, a face orientation detection method, and a program according to embodiments of the present invention will be described below with reference to FIGS. 1 to 7. FIG.
[装置構成]
最初に、図1を用いて、本発明の実施の形態における顔向き検出装置の構成について説明する。図1は、本発明の実施の形態における顔向き検出装置の構成を示すブロック図である。
[Device configuration]
First, with reference to FIG. 1, the configuration of the face orientation detection device according to the embodiment of the present invention will be described. FIG. 1 is a block diagram showing the configuration of a face orientation detection device according to an embodiment of the present invention.
図1に示す本実施の形態における顔向き検出装置10は、人の顔を含む部分の3次元点群データから、顔の向きを検出するための装置である。図1に示すように、本実施の形態における顔向き検出装置10は、データ取得部11と、部品特定部12と、仮平面設定部13と、仮平面選択部14と、顔向き検出部15とを備えている。
A face
データ取得部11は、顔向き検出装置10の外部から、3次元点群データを取得する。部品特定部12は、データ取得部11によって取得された3次元点群データから、顔の部品(目、鼻、口等)に対応する領域を特定する。
The
仮平面設定部13は、部品特定部12によって特定された領域全体から、任意の3つ以上の点を抽出し、抽出する度に、抽出した点を含む仮平面を設定する。
The provisional
仮平面選択部14は、まず、仮平面設定部13によって設定された仮平面それぞれ毎に、各仮平面が顔の面に相当する可能性を示すスコアを算出する。続いて、仮平面選択部14は、算出した仮平面それぞれのスコアの値に基づいて、1つの仮平面を選択する。なお、本明細書では、選択された1つの仮平面を「顔平面」と表記する。
The provisional
顔向き検出部15は、仮平面選択部14によって選択された仮平面の法線の方向を顔の向きとして検出する。
The face
このように、本実施の形態では、顔の部品の位置関係ではなく、顔の正面に相当する面から顔の向きを検出することができる。このため、本実施の形態によれば、カメラの取り付け位置が制約を受ける場合であっても、顔の向きを検出することができる。 As described above, in the present embodiment, the orientation of the face can be detected from the plane corresponding to the front of the face rather than from the positional relationship of the parts of the face. Therefore, according to the present embodiment, it is possible to detect the orientation of the face even when the mounting position of the camera is restricted.
続いて、図2~図5を用いて、本実施の形態における顔向き検出装置10の構成及び機能についてより具体的に説明する。図2は、本発明の実施の形態における顔向き検出装置を用いたシステムの一例を示す図である。
Next, the configuration and functions of the face
図2の例では、顔向き検出装置10は、車両21に搭載される安全運転支援システム20の一部を構成している。安全運転支援システム20は、顔向き検出装置10によって検出された運転手の顔の向きに基づいて、運転手の状態を監視して、安全運転を支援するシステムである。例えば、安全運転支援システム20は、運転手の顔の向きが下向きであり、その状態が一定時間続くと、運転手が居眠りをしていると判定し、運転手を覚醒させるための処理を行う。
In the example of FIG. 2 , the face
また、顔向き検出装置10は、本実施の形態では、撮像装置30に接続されている。撮像装置30は、被写体までの距離を画素毎に測定可能な装置である。撮像装置30の具体例としては、TOF(Time-of-Flight)カメラが挙げられる。TOFカメラは、被写体に向けて、近赤外光等の光を照射し、照射した光が被写体で反射されて戻ってくるまでの時間を計測して、画素毎に、被写体までの距離を測定し、測定した画素毎の距離を特定するデータを出力する。本実施の形態では、この出力されたデータが、3次元点群データとな
る。
Moreover, the face
データ取得部11は、本実施の形態では、撮像装置(TOFカメラ)30が出力したデータを、3次元点群データとして取得する。図3は、本発明の実施の形態において利用される3次元点群データの一例を示す図である。図3の例では、被写体は運転手であり、撮像装置30は車内に取り付けられている。また、図3の例では、3次元点群データは、運転手の斜め上方から撮影することによって得られている。
In this embodiment, the
部品特定部12は、本実施の形態では、図3に示すように、3次元点群データにおいて、顔の目に対応する領域、鼻に対応する領域、及び口に対応する領域、それぞれを特定する。図3において、目に対応する領域は○印で示され、鼻に対応する領域は△印で示され、口に対応する領域は□印で示されている。なお、図3において、各領域を示す印は、説明の便宜上付与したものであり、各領域の形状は任意である。
In this embodiment, as shown in FIG. 3, the
なお、3次元点群データに、目、鼻、及び口の全てが存在していない場合もある。このため、部品特定部12は、目に対応する領域、鼻に対応する領域、及び口に対応する領域のうちの少なくとも1つを特定できれば良い。
Note that the 3D point cloud data may not include all of the eyes, nose, and mouth. Therefore, it is sufficient for the
具体的には、部品特定部12は、例えば、Viola & Jones法に沿って、予め登録されている「目」、「鼻」、「口」の特徴量を用いたラスタスキャンによって、目、鼻、口の特徴量を持った点群が存在しているボクセル群を特定する。ボクセルは、被写体である運転手が存在する空間を複数個に区切ることで得られる立方体である。よって、上記のボクセル群の特定により、目に対応する領域、鼻に対応する領域、及び口に対応する領域、それぞれが特定される。なお、Viola & Jones法は、下記の参照文献に開示されている。
Specifically, the
参照文献:
Viola, P and Jones, M,"Rapid object detection using a boosted cascade of simple features", CVPR,vol.1,pp.511-518
References:
Viola, P and Jones, M, "Rapid object detection using a boosted cascade of simple features", CVPR, vol.1, pp.511-518
仮平面設定部13は、本実施の形態では、これらの特定された3つの領域を合わせた領域から、任意の3点を抽出し、この3点を抽出する度に、抽出した3点を含む仮平面を設定する。即ち、仮平面設定部13は、特定された3つの領域を合わせた領域から、一度に一組の点群として3点を抽出し、抽出した点群毎に仮平面を設定する。なお、任意の3点は、目に対応する領域、鼻に対応する領域、口に対応する領域それぞれから1点ずつ抽出されている必要はない。
In the present embodiment, the provisional
仮平面選択部14は、本実施の形態では、仮平面毎に、仮平面とそれに含まれない点との距離に基づいて、この仮平面に含まれない点それぞれに、距離が小さい程、値が小さくなるようにスコアを付加し、各点のスコアを合計して、この仮平面の合計スコアを算出する。このスコアが小さい程、その仮平面が、顔の正面に近似していることになる。そして、仮平面選択部14は、算出した各仮平面の合計スコアの値が最も小さい1つの仮平面(顔平面)を選択する。
In the present embodiment, the provisional
図4は、本発明の実施の形態において選択された仮平面の一例を3次元点群データと共に示す図である。図4に示すように、選択された仮平面(顔平面)Aは、顔の正面を最も近似した面となっている。なお、図4の例では、3次元点群データは、図3の例と異なり、運転手の上方から撮影して得られている。 FIG. 4 is a diagram showing an example of a temporary plane selected in the embodiment of the present invention together with three-dimensional point cloud data. As shown in FIG. 4, the selected temporary plane (face plane) A is the plane that most approximates the front of the face. Note that in the example of FIG. 4, unlike the example of FIG. 3, the three-dimensional point cloud data is obtained by photographing from above the driver.
また、顔向き検出部15は、本実施の形態では、図4に示すように、仮平面選択部14によって選択された仮平面(顔平面)Aの法線の方向を顔の向きとして検出する。
Further, in the present embodiment, as shown in FIG. 4, the face
ここで、部品特定部12、仮平面設定部13、仮平面選択部14、及び顔向き検出部15による処理について、図5を用いて説明する。図5(a)~(c)は、本実施の形態における顔向き検出装置が行う処理を説明する図であり、それぞれ一連の処理を示している。なお、仮平面は、実際は、3次元空間において設定されるが、図5(a)~(c)においては、説明のため、2次元座標上で示されている。
Here, processing by the
図5(a)に示すように、部品特定部12は、3次元点群データ40において、目に対応する領域41、鼻に対応する領域42、及び口に対応する領域(図4においては図示せず)を特定する。
As shown in FIG. 5( a ), the
そして、図5(a)に示すように、仮平面設定部13は、各領域を合わせた領域から、任意の3点を抽出する。また、図5(b)に示すように、仮平面設定部13は、抽出した点を含む仮平面43を設定する。図5(a)~(c)では、抽出された点は○で示され、抽出されなかった点は●で示されている。
Then, as shown in FIG. 5(a), the temporary
続いて、図5(c)に示すように、仮平面選択部14は、仮平面毎に、それに含まれる3点以外の点群について、平面との距離、即ち、平面との誤差を算出し、各点についての誤差の合計値を求め、これを、その仮平面のスコアとする。
Subsequently, as shown in FIG. 5(c), the temporary
また、仮平面選択部14は、スコアの算出において、算出した距離(誤差)に応じて、Biweight推定法による重みを適用することによって、外れ値の影響を小さくすることができる。具体的には、この場合、仮平面から遠距離にある点を外れ値と仮定し、誤差0mmの点の重みを1.0、許容誤差より誤差の大きな点の重みを0.0とする。つまり、誤差が小さい点の重みを強く、誤差が大きい点の重みを弱くする。仮平面選択部14は、下記の数1及び数2に基づいて、スコアを算出する。
In calculating the score, the temporary
下記の数1及び数2において、「ei」は、i番目の点の誤差[mm]を示し、「w(ei)」は、誤差eiでの重みを示している。また、「aE」は、許容誤差[mm]である。 In Equations 1 and 2 below, "e i " indicates the error [mm] of the i-th point, and "w(e i )" indicates the weight at the error e i . Also, "aE" is the allowable error [mm].
[装置動作]
次に、本発明の実施の形態における顔向き検出装置10の動作について図6を用いて説明する。図6は、本発明の実施の形態における顔向き検出装置の動作を示すフロー図である。以下の説明においては、適宜図1~図5を参照する。また、本実施の形態では、顔向き検出装置10を動作させることによって、顔向き検出方法が実施される。よって、本実
施の形態における顔向き検出方法の説明は、以下の顔向き検出装置の動作説明に代える。
[Device operation]
Next, the operation of face
図6に示すように、最初に、データ取得部11は、本実施の形態では、撮像装置(TOFカメラ)30が出力したデータを、3次元点群データとして取得する(ステップA1)。
As shown in FIG. 6, first, in the present embodiment, the
次に、部品特定部12は、3次元点群データにおいて、顔の目に対応する領域、鼻に対応する領域、及び口に対応する領域、それぞれを特定する(ステップA2)。
Next, the
次に、仮平面設定部13は、ステップA2で特定された3つの領域を合わせた領域から、ランダムに3点を抽出し、抽出した3点を含む仮平面を設定する(ステップA3)。
Next, the provisional
次に、仮平面設定部13は、設定した仮平面の数が設定値に到達したかどうかを判定する(ステップA4)。ステップA4の判定の結果、仮平面の数が設定値に到達していない場合は、仮平面設定部13は、再度ステップA3を実行する。
Next, the provisional
一方、ステップA4の判定の結果、仮平面の数が設定値に到達している場合は、仮平面設定部13は、仮平面の設定を終了する。これにより、ステップA5が実行される。
On the other hand, if the number of provisional planes has reached the set value as a result of the determination in step A4, the provisional
ステップA5では、仮平面選択部14が、ステップA3で設定された仮平面毎に、この仮平面とそれに含まれない点との距離に基づいて、この仮平面に含まれない点それぞれに、スコアを付加し、各点のスコアを合計して、この仮平面の合計スコアを算出する。
In step A5, the provisional
次に、仮平面選択部14は、ステップA5で算出した各仮平面の合計スコアの値が最も小さい1つの仮平面(顔平面)を選択する(ステップA6)。
Next, the provisional
次に、顔向き検出部15は、仮平面選択部14によって選択された仮平面(顔平面)Aの法線の方向を検出し、検出した法線の方向を顔の向きとする(ステップA7)。
Next, the face
その後、顔向き検出部15は、検出した顔の向きを特定する情報を、安全運転支援システム20に出力する。これにより、安全運転支援システム20は、検出された運転手の顔の向きに基づいて、運転手の状態を監視して、安全運転を支援する。
After that, the face
[実施の形態における効果]
このように、本実施の形態では、顔の部品の位置関係ではなく、顔の正面に相当する面から顔の向きを検出することができるので、カメラの取り付け位置が制約を受ける場合であっても、顔の向きを検出することができる。
[Effects of Embodiment]
As described above, in this embodiment, the orientation of the face can be detected from the plane corresponding to the front of the face rather than from the positional relationship of the parts of the face. can also detect the orientation of the face.
また、本実施の形態では、顔の正面に相当する面は、目、鼻、口の領域に存在する点群との距離が最も近くなるように選ばれる。更に、面の選択においては、点群データのノイズが除去されるように、点と面との距離に応じた重みも設定される。このため、選択された面と顔の正面との一致性は高く、本実施の形態によれば、精度良く顔の向きを検出できる。 Also, in this embodiment, the plane corresponding to the front of the face is selected so that it is closest to the point cloud existing in the eye, nose, and mouth regions. Furthermore, when selecting a surface, a weight is set according to the distance between the point and the surface so as to eliminate noise in the point cloud data. Therefore, the selected plane and the front of the face are highly matched, and according to the present embodiment, the orientation of the face can be detected with high accuracy.
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図6に示すステップA1~A7を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における顔向き検出装置10と顔向き検出方法とを実現することができる。この場合、コンピュータのプロセッサは、データ取得部11、部品特定部12、仮平面設定部13、仮平面選択部14、及び顔向き検出部15として機
能し、処理を行なう。また、コンピュータは、汎用のコンピュータであっても良いし、車両に搭載されたコンピュータであっても良い。
[program]
The program in this embodiment may be any program that causes a computer to execute steps A1 to A7 shown in FIG. By installing this program in a computer and executing it, the face
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、データ取得部11、部品特定部12、仮平面設定部13、仮平面選択部14、及び顔向き検出部15のいずれかとして機能しても良い。
Also, the program in this embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as one of the
ここで、本実施の形態におけるプログラムを実行することによって、顔向き検出装置10を実現するコンピュータについて図7を用いて説明する。図7は、本発明の実施の形態における顔向き検出装置を実現するコンピュータの一例を示すブロック図である。
Here, a computer that implements the face
図7に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。また、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。
As shown in FIG. 7, a
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
The
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
Further, as a specific example of the
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
Data reader/
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
Specific examples of the
なお、本実施の形態における顔向き検出装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、顔向き検出装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
The face
上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記15)によ
って表現することができるが、以下の記載に限定されるものではない。
Some or all of the above-described embodiments can be expressed by (Appendix 1) to (Appendix 15) described below, but are not limited to the following descriptions.
(付記1)
人の顔を含む部分の3次元点群データを取得する、データ取得部と、
取得された前記3次元点群データから、前記顔の部品に対応する領域を特定する、部品特定部と、
特定された前記領域全体から、任意の3つ以上の点を抽出し、抽出する度に、抽出した点を含む仮平面を設定する、仮平面設定部と、
設定された前記仮平面それぞれ毎に、当該仮平面が前記顔の面に相当する可能性を示すスコアを算出し、算出した前記仮平面それぞれの前記スコアの値に基づいて、1つの前記仮平面を選択する、仮平面選択部と、
選択された前記仮平面の法線の方向を前記顔の向きとして検出する、顔向き検出部と、を備えている、
ことを特徴とする顔向き検出装置。
(Appendix 1)
a data acquisition unit that acquires three-dimensional point cloud data of a portion that includes a human face;
a parts identification unit that identifies areas corresponding to the parts of the face from the acquired three-dimensional point cloud data;
a provisional plane setting unit that extracts any three or more points from the entire identified region and sets a provisional plane that includes the extracted points each time they are extracted;
For each of the set provisional planes, a score indicating the possibility that the provisional plane corresponds to the surface of the face is calculated, and one provisional plane is determined based on the score value of each of the calculated provisional planes. a temporary plane selection unit for selecting a
a face orientation detection unit that detects the direction of the normal to the selected provisional plane as the orientation of the face;
A face orientation detection device characterized by:
(付記2)
付記1に記載の顔向き検出装置であって、
前記仮平面選択部が、前記仮平面それぞれ毎に、当該仮平面とそれに含まれない点との距離に基づいて、当該仮平面に含まれない点それぞれに、前記距離が小さい程、値が小さくなるようにスコアを付加し、更に、当該仮平面に含まれない点それぞれのスコアを合計して、当該仮平面の合計スコアを算出し、算出した前記合計スコアの値に基づいて、1つの前記仮平面を選択する、
ことを特徴とする顔向き検出装置。
(Appendix 2)
The face orientation detection device according to appendix 1,
The provisional plane selection unit selects each point not included in the provisional plane based on the distance between the provisional plane and a point not included in the provisional plane for each provisional plane. Add scores so that the select a virtual plane,
A face orientation detection device characterized by:
(付記3)
付記2に記載の顔向き検出装置であって、
前記仮平面選択部が、前記仮平面それぞれ毎に、当該仮平面に含まれない点それぞれに、スコアを付加する際に、前記距離に応じた重みを適用する、
ことを特徴とする顔向き検出装置。
(Appendix 3)
The face orientation detection device according to appendix 2,
The temporary plane selection unit applies a weight according to the distance when adding a score to each point not included in the temporary plane for each of the temporary planes.
A face orientation detection device characterized by:
(付記4)
付記1から3のいずれかに記載の顔向き検出装置であって、
前記部品特定部が、前記顔の目に対応する領域、鼻に対応する領域、及び口に対応する領域のうちの少なくとも1つを特定し、
前記仮平面設定部が、特定された、各領域を合わせた領域から、任意の3点を抽出して、前記仮平面を設定する、
ことを特徴とする顔向き検出装置。
(Appendix 4)
The face direction detection device according to any one of Appendices 1 to 3,
the part identifying unit identifies at least one of a region corresponding to the eyes, a region corresponding to the nose, and a region corresponding to the mouth of the face;
The provisional plane setting unit extracts arbitrary three points from the specified region where each region is combined, and sets the provisional plane.
A face orientation detection device characterized by:
(付記5)
付記1から4のいずれかに記載の顔向き検出装置であって、
前記3次元点群データが、被写体までの距離を画素毎に測定可能な撮像装置を用いて得られたデータである、
ことを特徴とする顔向き検出装置。
(Appendix 5)
The face orientation detection device according to any one of appendices 1 to 4,
The three-dimensional point cloud data is data obtained using an imaging device capable of measuring the distance to the subject for each pixel,
A face orientation detection device characterized by:
(付記6)
(a)人の顔を含む部分の3次元点群データを取得する、ステップと、
(b)取得された前記3次元点群データから、前記顔の部品に対応する領域を特定する、ステップと、
(c)特定された前記領域全体から、任意の3つ以上の点を抽出し、抽出する度に、抽出した点を含む仮平面を設定する、ステップと、
(d)設定された前記仮平面それぞれ毎に、当該仮平面が前記顔の面に相当する可能性を示すスコアを算出し、算出した前記仮平面それぞれの前記スコアの値に基づいて、1つの前記仮平面を選択する、ステップと、
(e)選択された前記仮平面の法線の方向を前記顔の向きとして検出する、ステップと、を有する、
ことを特徴とする顔向き検出方法。
(Appendix 6)
(a) acquiring 3D point cloud data of a portion containing a human face;
(b) identifying regions corresponding to the facial parts from the acquired three-dimensional point cloud data;
(c) extracting arbitrary three or more points from the entire identified region, and setting a temporary plane containing the extracted points each time they are extracted;
(d) for each of the set provisional planes, a score indicating the possibility that the provisional plane corresponds to the surface of the face is calculated, and based on the score value of each of the calculated provisional planes, one selecting the virtual plane;
(e) detecting the direction of the normal of the selected virtual plane as the orientation of the face;
A face orientation detection method characterized by:
(付記7)
付記6に記載の顔向き検出方法であって、
前記(d)のステップにおいて、前記仮平面それぞれ毎に、当該仮平面とそれに含まれない点との距離に基づいて、当該仮平面に含まれない点それぞれに、前記距離が小さい程、値が小さくなるようにスコアを付加し、更に、当該仮平面に含まれない点それぞれのスコアを合計して、当該仮平面の合計スコアを算出し、算出した前記合計スコアの値に基づいて、1つの前記仮平面を選択する、
ことを特徴とする顔向き検出方法。
(Appendix 7)
The face orientation detection method according to appendix 6,
In the step (d), for each of the virtual planes, based on the distance between the virtual plane and a point not included in the virtual plane, each point not included in the virtual plane has a value that increases as the distance decreases. A score is added so as to be smaller, and the scores of each point not included in the provisional plane are totaled to calculate the total score of the provisional plane, and based on the calculated total score value, one selecting the virtual plane;
A face orientation detection method characterized by:
(付記8)
付記7に記載の顔向き検出方法であって、
前記(d)のステップにおいて、前記仮平面それぞれ毎に、当該仮平面に含まれない点それぞれに、スコアを付加する際に、前記距離に応じた重みを適用する、
ことを特徴とする顔向き検出方法。
(Appendix 8)
The face orientation detection method according to appendix 7,
In the step (d), for each of the virtual planes, when adding a score to each point not included in the virtual plane, a weight according to the distance is applied.
A face orientation detection method characterized by:
(付記9)
付記6から8のいずれかに記載の顔向き検出方法であって、
前記(b)のステップにおいて、前記顔の目に対応する領域、鼻に対応する領域、及び口に対応する領域のうちの少なくとも1つを特定し、
前記(c)のステップにおいて、特定された、各領域を合わせた領域から、任意の3点を抽出して、前記仮平面を設定する、
ことを特徴とする顔向き検出方法。
(Appendix 9)
The face orientation detection method according to any one of appendices 6 to 8,
In step (b), identifying at least one of a region corresponding to the eyes, a region corresponding to the nose, and a region corresponding to the mouth of the face;
In step (c) above, extracting any three points from the specified area combined with each area to set the temporary plane;
A face orientation detection method characterized by:
(付記10)
付記6から9のいずれかに記載の顔向き検出方法であって、
前記3次元点群データが、被写体までの距離を画素毎に測定可能な撮像装置を用いて得られたデータである、
ことを特徴とする顔向き検出方法。
(Appendix 10)
The face orientation detection method according to any one of Appendixes 6 to 9,
The three-dimensional point cloud data is data obtained using an imaging device capable of measuring the distance to the subject for each pixel,
A face orientation detection method characterized by:
(付記11)
コンピュータに、
(a)人の顔を含む部分の3次元点群データを取得する、ステップと、
(b)取得された前記3次元点群データから、前記顔の部品に対応する領域を特定する、ステップと、
(c)特定された前記領域全体から、任意の3つ以上の点を抽出し、抽出する度に、抽出した点を含む仮平面を設定する、ステップと、
(d)設定された前記仮平面それぞれ毎に、当該仮平面が前記顔の面に相当する可能性を示すスコアを算出し、算出した前記仮平面それぞれの前記スコアの値に基づいて、1つの前記仮平面を選択する、ステップと、
(e)選択された前記仮平面の法線の方向を前記顔の向きとして検出する、ステップと、を実行させる、プログラム。
(Appendix 11)
to the computer,
(a) acquiring 3D point cloud data of a portion containing a human face;
(b) identifying regions corresponding to the facial parts from the acquired three-dimensional point cloud data;
(c) extracting arbitrary three or more points from the entire identified region, and setting a temporary plane containing the extracted points each time they are extracted;
(d) for each of the set provisional planes, a score indicating the possibility that the provisional plane corresponds to the surface of the face is calculated, and based on the score value of each of the calculated provisional planes, one selecting the virtual plane;
(e) detecting the direction of the normal to the selected virtual plane as the orientation of the face.
(付記12)
付記11に記載のプログラムであって、
前記(d)のステップにおいて、前記仮平面それぞれ毎に、当該仮平面とそれに含まれない点との距離に基づいて、当該仮平面に含まれない点それぞれに、前記距離が小さい程、値が小さくなるようにスコアを付加し、更に、当該仮平面に含まれない点それぞれのスコアを合計して、当該仮平面の合計スコアを算出し、算出した前記合計スコアの値に基づいて、1つの前記仮平面を選択する、
ことを特徴とするプログラム。
(Appendix 12)
The program according to
In the step (d), for each of the virtual planes, based on the distance between the virtual plane and a point not included in the virtual plane, each point not included in the virtual plane has a value that increases as the distance decreases. A score is added so as to be smaller, and the scores of each point not included in the provisional plane are totaled to calculate the total score of the provisional plane, and based on the calculated total score value, one selecting the virtual plane;
A program characterized by
(付記13)
付記12に記載のプログラムであって、
前記(d)のステップにおいて、前記仮平面それぞれ毎に、当該仮平面に含まれない点それぞれに、スコアを付加する際に、前記距離に応じた重みを適用する、
ことを特徴とするプログラム。
(Appendix 13)
The program according to
In the step (d), for each of the virtual planes, when adding a score to each point not included in the virtual plane, a weight according to the distance is applied.
A program characterized by
(付記14)
付記11から13のいずれかに記載のプログラムであって、
前記(b)のステップにおいて、前記顔の目に対応する領域、鼻に対応する領域、及び口に対応する領域のうちの少なくとも1つを特定し、
前記(c)のステップにおいて、特定された、各領域を合わせた領域から、任意の3点を抽出して、前記仮平面を設定する、
ことを特徴とするプログラム。
(Appendix 14)
The program according to any one of
In step (b), identifying at least one of a region corresponding to the eyes, a region corresponding to the nose, and a region corresponding to the mouth of the face;
In step (c) above, extracting any three points from the specified area combined with each area to set the temporary plane;
A program characterized by
(付記15)
付記11から14のいずれかに記載のプログラムであって、
前記3次元点群データが、被写体までの距離を画素毎に測定可能な撮像装置を用いて得られたデータである、
ことを特徴とするプログラム。
(Appendix 15)
15. The program according to any one of
The three-dimensional point cloud data is data obtained using an imaging device capable of measuring the distance to the subject for each pixel,
A program characterized by
以上のように、本発明によれば、カメラの取り付け位置が制約を受ける場合であっても、顔の向きを検出することができる。本発明は、顔の向きの検出が求められる、映像監視システム、車両用のシステム等に有用である。 As described above, according to the present invention, the orientation of the face can be detected even when the mounting position of the camera is restricted. INDUSTRIAL APPLICABILITY The present invention is useful for image monitoring systems, vehicle systems, and the like, which require face direction detection.
10 顔向き検出装置
11 データ取得部
12 部品特定部
13 仮平面設定部
14 仮平面選択部
15 顔向き検出部
20 安全運転支援システム
30 撮像装置
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
REFERENCE SIGNS
112
Claims (12)
取得された前記3次元点群データから、前記顔の部品に対応する領域を特定する、部品特定部と、
特定された前記領域全体から、任意の3つ以上の点を抽出し、抽出する度に、抽出した点を含む仮平面を設定する、仮平面設定部と、
設定された前記仮平面それぞれ毎に、当該仮平面が前記顔の面に相当する可能性を示すスコアを算出し、算出した前記仮平面それぞれの前記スコアの値に基づいて、1つの前記仮平面を選択する、仮平面選択部と、
選択された前記仮平面の法線の方向を前記顔の向きとして検出する、顔向き検出部と、を備え、
前記仮平面選択部が、前記仮平面それぞれ毎に、当該仮平面とそれに含まれない点との距離に基づいて、当該仮平面に含まれない点それぞれに、前記距離が小さい程、値が小さくなるようにスコアを付加し、更に、当該仮平面に含まれない点それぞれのスコアを合計して、当該仮平面の合計スコアを算出し、算出した前記合計スコアの値に基づいて、1つの前記仮平面を選択する、
ことを特徴とする顔向き検出装置。 a data acquisition unit that acquires three-dimensional point cloud data of a portion that includes a human face;
a parts identification unit that identifies areas corresponding to the parts of the face from the acquired three-dimensional point cloud data;
a provisional plane setting unit that extracts any three or more points from the entire identified region and sets a provisional plane that includes the extracted points each time they are extracted;
For each of the set provisional planes, a score indicating the possibility that the provisional plane corresponds to the surface of the face is calculated, and one provisional plane is determined based on the score value of each of the calculated provisional planes. a temporary plane selection unit for selecting a
a face orientation detection unit that detects the direction of the normal to the selected provisional plane as the orientation of the face ,
The provisional plane selection unit selects each point not included in the provisional plane based on the distance between the provisional plane and a point not included in the provisional plane for each provisional plane. Add scores so that the select a virtual plane,
A face orientation detection device characterized by:
前記仮平面選択部が、前記仮平面それぞれ毎に、当該仮平面に含まれない点それぞれに、スコアを付加する際に、前記距離に応じた重みを適用する、
ことを特徴とする顔向き検出装置。 The face direction detection device according to claim 1 ,
The temporary plane selection unit applies a weight according to the distance when adding a score to each point not included in the temporary plane for each of the temporary planes.
A face orientation detection device characterized by:
前記部品特定部が、前記顔の目に対応する領域、鼻に対応する領域、及び口に対応する領域のうちの少なくとも1つを特定し、
前記仮平面設定部が、特定された、各領域を合わせた領域から、任意の3点を抽出して、前記仮平面を設定する、
ことを特徴とする顔向き検出装置。 The face direction detection device according to claim 1 ,
the part identifying unit identifies at least one of a region corresponding to the eyes, a region corresponding to the nose, and a region corresponding to the mouth of the face;
The provisional plane setting unit extracts arbitrary three points from the specified region where each region is combined, and sets the provisional plane.
A face orientation detection device characterized by:
前記3次元点群データが、被写体までの距離を画素毎に測定可能な撮像装置を用いて得られたデータである、
ことを特徴とする顔向き検出装置。 The face direction detection device according to claim 1 ,
The three-dimensional point cloud data is data obtained using an imaging device capable of measuring the distance to the subject for each pixel,
A face orientation detection device characterized by:
(b)取得された前記3次元点群データから、前記顔の部品に対応する領域を特定する、ステップと、
(c)特定された前記領域全体から、任意の3つ以上の点を抽出し、抽出する度に、抽出した点を含む仮平面を設定する、ステップと、
(d)設定された前記仮平面それぞれ毎に、当該仮平面が前記顔の面に相当する可能性を示すスコアを算出し、算出した前記仮平面それぞれの前記スコアの値に基づいて、1つの前記仮平面を選択する、ステップと、
(e)選択された前記仮平面の法線の方向を前記顔の向きとして検出する、ステップと、を有し、
前記(d)のステップにおいて、前記仮平面それぞれ毎に、当該仮平面とそれに含まれない点との距離に基づいて、当該仮平面に含まれない点それぞれに、前記距離が小さい程、値が小さくなるようにスコアを付加し、更に、当該仮平面に含まれない点それぞれのスコアを合計して、当該仮平面の合計スコアを算出し、算出した前記合計スコアの値に基づいて、1つの前記仮平面を選択する、
ことを特徴とする顔向き検出方法。 (a) acquiring 3D point cloud data of a portion containing a human face;
(b) identifying regions corresponding to the facial parts from the acquired three-dimensional point cloud data;
(c) extracting arbitrary three or more points from the entire identified region, and setting a temporary plane containing the extracted points each time they are extracted;
(d) for each of the set provisional planes, a score indicating the possibility that the provisional plane corresponds to the surface of the face is calculated, and based on the score value of each of the calculated provisional planes, one selecting the virtual plane;
(e) detecting the direction of the normal of the selected virtual plane as the orientation of the face ;
In the step (d), for each of the virtual planes, based on the distance between the virtual plane and a point not included in the virtual plane, each point not included in the virtual plane has a value that increases as the distance decreases. A score is added so as to be smaller, and the scores of each point not included in the provisional plane are totaled to calculate the total score of the provisional plane, and based on the calculated total score value, one selecting the virtual plane;
A face orientation detection method characterized by:
前記(d)のステップにおいて、前記仮平面それぞれ毎に、当該仮平面に含まれない点それぞれに、スコアを付加する際に、前記距離に応じた重みを適用する、
ことを特徴とする顔向き検出方法。 The face orientation detection method according to claim 5 ,
In the step (d), for each of the virtual planes, when adding a score to each point not included in the virtual plane, a weight according to the distance is applied.
A face orientation detection method characterized by:
前記(b)のステップにおいて、前記顔の目に対応する領域、鼻に対応する領域、及び口に対応する領域のうちの少なくとも1つを特定し、
前記(c)のステップにおいて、特定された、各領域を合わせた領域から、任意の3点を抽出して、前記仮平面を設定する、
ことを特徴とする顔向き検出方法。 The face orientation detection method according to claim 5 ,
In step (b), identifying at least one of a region corresponding to the eyes, a region corresponding to the nose, and a region corresponding to the mouth of the face;
In step (c) above, extracting any three points from the specified area combined with each area to set the temporary plane;
A face orientation detection method characterized by:
前記3次元点群データが、被写体までの距離を画素毎に測定可能な撮像装置を用いて得られたデータである、
ことを特徴とする顔向き検出方法。 The face orientation detection method according to claim 5 ,
The three-dimensional point cloud data is data obtained using an imaging device capable of measuring the distance to the subject for each pixel,
A face orientation detection method characterized by:
(a)人の顔を含む部分の3次元点群データを取得する、ステップと、
(b)取得された前記3次元点群データから、前記顔の部品に対応する領域を特定する、ステップと、
(c)特定された前記領域全体から、任意の3つ以上の点を抽出し、抽出する度に、抽出した点を含む仮平面を設定する、ステップと、
(d)設定された前記仮平面それぞれ毎に、当該仮平面が前記顔の面に相当する可能性を示すスコアを算出し、算出した前記仮平面それぞれの前記スコアの値に基づいて、1つの前記仮平面を選択する、ステップと、
(e)選択された前記仮平面の法線の方向を前記顔の向きとして検出する、ステップと、を実行させ、
前記(d)のステップにおいて、前記仮平面それぞれ毎に、当該仮平面とそれに含まれない点との距離に基づいて、当該仮平面に含まれない点それぞれに、前記距離が小さい程、値が小さくなるようにスコアを付加し、更に、当該仮平面に含まれない点それぞれのスコアを合計して、当該仮平面の合計スコアを算出し、算出した前記合計スコアの値に基づいて、1つの前記仮平面を選択する、
プログラム。 to the computer,
(a) acquiring 3D point cloud data of a portion containing a human face;
(b) identifying regions corresponding to the facial parts from the acquired three-dimensional point cloud data;
(c) extracting arbitrary three or more points from the entire identified region, and setting a temporary plane containing the extracted points each time they are extracted;
(d) for each of the set provisional planes, a score indicating the possibility that the provisional plane corresponds to the surface of the face is calculated, and based on the score value of each of the calculated provisional planes, one selecting the virtual plane;
(e) detecting the direction of the normal to the selected virtual plane as the orientation of the face ;
In the step (d), for each of the provisional planes, based on the distance between the provisional plane and a point not included in the provisional plane, each point not included in the provisional plane has a value as the distance is smaller. A score is added so as to be smaller, and the scores of each point not included in the provisional plane are totaled to calculate the total score of the provisional plane, and based on the calculated total score value, one selecting the virtual plane;
program.
前記(d)のステップにおいて、前記仮平面それぞれ毎に、当該仮平面に含まれない点それぞれに、スコアを付加する際に、前記距離に応じた重みを適用する、
ことを特徴とするプログラム。 The program according to claim 9 ,
In the step (d), for each of the virtual planes, when adding a score to each point not included in the virtual plane, a weight according to the distance is applied.
A program characterized by
前記(b)のステップにおいて、前記顔の目に対応する領域、鼻に対応する領域、及び口に対応する領域のうちの少なくとも1つを特定し、
前記(c)のステップにおいて、特定された、各領域を合わせた領域から、任意の3点を抽出して、前記仮平面を設定する、
ことを特徴とするプログラム。 The program according to claim 9 ,
In step (b), identifying at least one of a region corresponding to the eyes, a region corresponding to the nose, and a region corresponding to the mouth of the face;
In step (c) above, extracting any three points from the specified area combined with each area to set the temporary plane;
A program characterized by
前記3次元点群データが、被写体までの距離を画素毎に測定可能な撮像装置を用いて得られたデータである、
ことを特徴とするプログラム。
The program according to claim 9 ,
The three-dimensional point cloud data is data obtained using an imaging device capable of measuring the distance to the subject for each pixel,
A program characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019024017A JP7279892B2 (en) | 2019-02-13 | 2019-02-13 | FACE POSITION DETECTION DEVICE, FACE POSITION DETECTION METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019024017A JP7279892B2 (en) | 2019-02-13 | 2019-02-13 | FACE POSITION DETECTION DEVICE, FACE POSITION DETECTION METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020135076A JP2020135076A (en) | 2020-08-31 |
JP7279892B2 true JP7279892B2 (en) | 2023-05-23 |
Family
ID=72278761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019024017A Active JP7279892B2 (en) | 2019-02-13 | 2019-02-13 | FACE POSITION DETECTION DEVICE, FACE POSITION DETECTION METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7279892B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112802208B (en) * | 2021-03-30 | 2021-06-22 | 中国民用航空总局第二研究所 | Three-dimensional visualization method and device in terminal building |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001101429A (en) | 1999-09-28 | 2001-04-13 | Omron Corp | Method and device for observing face, and recording medium for face observing processing |
JP2017091063A (en) | 2015-11-05 | 2017-05-25 | キヤノン株式会社 | Object detector, information processor, and method of the processor |
-
2019
- 2019-02-13 JP JP2019024017A patent/JP7279892B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001101429A (en) | 1999-09-28 | 2001-04-13 | Omron Corp | Method and device for observing face, and recording medium for face observing processing |
JP2017091063A (en) | 2015-11-05 | 2017-05-25 | キヤノン株式会社 | Object detector, information processor, and method of the processor |
Non-Patent Citations (1)
Title |
---|
塗壁悠治,海老澤嘉伸,瞳孔と鼻孔の三次元位置による顔の方向検出,2005年映像情報メディア学会年次大会,2005年 |
Also Published As
Publication number | Publication date |
---|---|
JP2020135076A (en) | 2020-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3016071B1 (en) | Estimating device and estimation method | |
US9460337B2 (en) | Information processor and information processing method | |
RU2607774C2 (en) | Control method in image capture system, control apparatus and computer-readable storage medium | |
KR101984496B1 (en) | Apparatus for and method of processing image based on object region | |
US11600008B2 (en) | Human-tracking methods, systems, and storage media | |
US9373174B2 (en) | Cloud based video detection and tracking system | |
JP5836095B2 (en) | Image processing apparatus and image processing method | |
US9990710B2 (en) | Apparatus and method for supporting computer aided diagnosis | |
KR20140019765A (en) | Depth camera based on structured light and stereo vision | |
US20180075611A1 (en) | Model-based three-dimensional head pose estimation | |
JP6217635B2 (en) | Fall detection device, fall detection method, fall detection camera, and computer program | |
KR20160093523A (en) | Apparatus and method for determining position of eyes | |
US9613272B2 (en) | Image analyzing device, image analyzing method, and recording medium storing image analyzing program | |
CN111801706A (en) | Video object detection | |
US11816854B2 (en) | Image processing apparatus and image processing method | |
JP2017199278A (en) | Detection device, detection method, and program | |
JP7279892B2 (en) | FACE POSITION DETECTION DEVICE, FACE POSITION DETECTION METHOD, AND PROGRAM | |
KR102415507B1 (en) | Image processing method and image processing apparatus | |
JP2009182624A (en) | Target tracking device | |
US11647152B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2009301242A (en) | Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program | |
JP2021144359A (en) | Learning apparatus, estimation apparatus, learning method, and program | |
JPWO2018179119A1 (en) | Video analysis device, video analysis method, and program | |
JP7279893B2 (en) | Face detection device, face detection method, and program | |
JP7040627B2 (en) | Calculator, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190214 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7279892 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |