JP7119907B2 - 顔認識モデルの訓練方法及び訓練装置 - Google Patents
顔認識モデルの訓練方法及び訓練装置 Download PDFInfo
- Publication number
- JP7119907B2 JP7119907B2 JP2018203648A JP2018203648A JP7119907B2 JP 7119907 B2 JP7119907 B2 JP 7119907B2 JP 2018203648 A JP2018203648 A JP 2018203648A JP 2018203648 A JP2018203648 A JP 2018203648A JP 7119907 B2 JP7119907 B2 JP 7119907B2
- Authority
- JP
- Japan
- Prior art keywords
- training data
- data
- glasses
- training
- spectacles
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
(付記1)
実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得するステップと、
第2実際シーンデータにおける眼鏡着用の割合の統計を取るステップと、
顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分するステップであって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、ステップと、
眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成するステップと、
第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成するステップと、
第4訓練データに基づいて、顔認識モデルを訓練するステップと、を含む、顔認識モデルの訓練方法。
(付記2)
前記元の訓練データを第1訓練データと第2訓練データとに区分するステップは、
元の訓練データにおける顔の位置を検出するステップと、
元の訓練データにおける顔を標準の顔に合わせるステップと、
深層畳み込みニューラルネットワーク又は分類器を用いて、合わせられた元の訓練データにおける顔が眼鏡を着用しているか否かを判断し、元の訓練データを第1訓練データと第2訓練データとに区分するステップと、を含む、付記1に記載の顔認識モデルの訓練方法。
(付記3)
眼鏡データは、各タイプの眼鏡の特徴点情報、眼鏡画像、レンズ情報を含み、
特徴点情報は、眼鏡の形状構造を示すものであり、
レンズ情報は、レンズとフレームとの境界を示すものである、付記1に記載の顔認識モデルの訓練方法。
(付記4)
前記眼鏡データ及び第2訓練データに基づいて眼鏡着用の第3訓練データを生成するステップは、
既存の眼鏡タイプから眼鏡タイプをランダムに選択するステップと、
選択された眼鏡タイプに対応する眼鏡画像をランダムに変更するステップと、
第2訓練データにおける目の近傍の特徴点情報を認識するステップと、
ランダムに変更された眼鏡画像に対応する特徴点情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、第2訓練データにおける顔を含む画像とランダムに変更された眼鏡画像とを結合し、第3訓練データを取得するステップと、を含む、付記3に記載の顔認識モデルの訓練方法。
(付記5)
前記選択された眼鏡タイプに対応する眼鏡画像をランダムに変更するステップは、
既存のタイプの眼鏡フレームをランダムに選択し、眼鏡画像における眼鏡フレームを置き換えること、
眼鏡フレームの太さをランダムに変更すること、
眼鏡フレームの形状をランダムに変更すること、及び
眼鏡レンズの色をランダムに変更することのうち少なくとも1つを含む、付記4に記載の顔認識モデルの訓練方法。
(付記6)
前記選択された眼鏡タイプが近視眼鏡である場合、前記第2訓練データにおける顔を含む画像とランダムに変更された眼鏡画像とを結合するステップは、
ランダムに変更された眼鏡画像に対応する特徴点情報、レンズ情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、認識された目の周辺の結合領域及びレンズ領域を決定するステップと、
第2訓練データにおける顔を含む画像における目の周辺の、レンズ領域よりも大きい領域を画像から抽出し、レンズ領域と同一のサイズに拡大/縮小し、拡大/縮小の結果とランダムに変更された眼鏡画像とを重ね合わせ、貼り付けデータを取得するステップと、
結合領域における元のデータを貼り付けデータに置き換えるステップと、を含む、付記4に記載の顔認識モデルの訓練方法。
(付記7)
元の訓練データはインターネットから取得され、或いは人間により手動で取得される、付記1に記載の顔認識モデルの訓練方法。
(付記8)
実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得する除去手段と、
第2実際シーンデータにおける眼鏡着用の割合の統計を取る統計手段と、
顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分する区分手段であって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、区分手段と、
眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成する眼鏡付加手段と、
第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成する割合調整手段と、
第4訓練データに基づいて、顔認識モデルを訓練するモデル訓練手段と、を含む、顔認識モデルの訓練装置。
(付記9)
前記区分手段は、
元の訓練データにおける顔の位置を検出する検出手段と、
元の訓練データにおける顔を標準の顔に合わせる合わせ手段と、
合わせられた元の訓練データにおける顔が眼鏡を着用しているか否かを判断し、元の訓練データを第1訓練データと第2訓練データとに区分する深層畳み込みニューラルネットワーク又は分類器と、を含む、付記8に記載の顔認識モデルの訓練装置。
(付記10)
眼鏡データは、各タイプの眼鏡の特徴点情報、眼鏡画像、レンズ情報を含み、
特徴点情報は、眼鏡の形状構造を示すものであり、
レンズ情報は、レンズとフレームとの境界を示すものである、付記8に記載の顔認識モデルの訓練装置。
(付記11)
前記眼鏡付加手段は、
既存の眼鏡タイプから眼鏡タイプをランダムに選択するタイプ選択手段と、
選択された眼鏡タイプに対応する眼鏡画像をランダムに変更する画像変更手段と、
第2訓練データにおける目の近傍の特徴点情報を認識する認識手段と、
ランダムに変更された眼鏡画像に対応する特徴点情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、第2訓練データにおける顔を含む画像とランダムに変更された眼鏡画像とを結合し、第3訓練データを取得する結合手段と、を含む、付記10に記載の顔認識モデルの訓練装置。
(付記12)
前記画像変更手段は、
既存のタイプの眼鏡フレームをランダムに選択し、眼鏡画像における眼鏡フレームを置き換えること、
眼鏡フレームの太さをランダムに変更すること、
眼鏡フレームの形状をランダムに変更すること、及び
眼鏡レンズの色をランダムに変更することのうち少なくとも1つを行う、付記11に記載の顔認識モデルの訓練装置。
(付記13)
前記選択された眼鏡タイプが近視眼鏡である場合、前記結合手段は、
ランダムに変更された眼鏡画像に対応する特徴点情報、レンズ情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、認識された目の周辺の結合領域及びレンズ領域を決定し、
第2訓練データにおける顔を含む画像における目の周辺の、レンズ領域よりも大きい領域を画像から抽出し、レンズ領域と同一のサイズに拡大/縮小し、拡大/縮小の結果とランダムに変更された眼鏡画像とを重ね合わせ、貼り付けデータを取得し、
結合領域における元のデータを貼り付けデータに置き換える、付記11に記載の顔認識モデルの訓練装置。
(付記14)
元の訓練データはインターネットから取得され、或いは人間により手動で取得される、付記8に記載の顔認識モデルの訓練装置。
(付記15)
プログラムを記憶したコンピュータ読み取り可能な記憶媒体であって、前記プログラムが情報処理装置により実行された場合、前記情報処理装置に、
実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得するステップと、
第2実際シーンデータにおける眼鏡着用の割合の統計を取るステップと、
顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分するステップであって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、ステップと、
眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成するステップと、
第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成するステップと、
第4訓練データに基づいて、顔認識モデルを訓練するステップと、を実行させる、コンピュータ読み取り可能な記憶媒体。
Claims (10)
- 実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得するステップと、
第2実際シーンデータにおける眼鏡着用の割合の統計を取るステップと、
顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分するステップであって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、ステップと、
眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成するステップと、
第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成するステップと、
第4訓練データに基づいて、顔認識モデルを訓練するステップと、を含む、顔認識モデルの訓練方法。 - 前記元の訓練データを第1訓練データと第2訓練データとに区分するステップは、
元の訓練データにおける顔の位置を検出するステップと、
元の訓練データにおける顔を標準の顔に合わせるステップと、
深層畳み込みニューラルネットワーク又は分類器を用いて、合わせられた元の訓練データにおける顔が眼鏡を着用しているか否かを判断し、元の訓練データを第1訓練データと第2訓練データとに区分するステップと、を含む、請求項1に記載の顔認識モデルの訓練方法。 - 眼鏡データは、各タイプの眼鏡の特徴点情報、眼鏡画像、レンズ情報を含み、
特徴点情報は、眼鏡の形状構造を示すものであり、
レンズ情報は、レンズとフレームとの境界を示すものである、請求項1に記載の顔認識モデルの訓練方法。 - 前記眼鏡データ及び第2訓練データに基づいて眼鏡着用の第3訓練データを生成するステップは、
既存の眼鏡タイプから眼鏡タイプをランダムに選択するステップと、
選択された眼鏡タイプに対応する眼鏡画像をランダムに変更するステップと、
第2訓練データにおける目の近傍の特徴点情報を認識するステップと、
ランダムに変更された眼鏡画像に対応する特徴点情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、第2訓練データにおける顔を含む画像とランダムに変更された眼鏡画像とを結合し、第3訓練データを取得するステップと、を含む、請求項3に記載の顔認識モデルの訓練方法。 - 前記選択された眼鏡タイプに対応する眼鏡画像をランダムに変更するステップは、
既存のタイプの眼鏡フレームをランダムに選択し、眼鏡画像における眼鏡フレームを置き換えること、
眼鏡フレームの太さをランダムに変更すること、
眼鏡フレームの形状をランダムに変更すること、及び
眼鏡レンズの色をランダムに変更することのうち少なくとも1つを含む、請求項4に記載の顔認識モデルの訓練方法。 - 前記選択された眼鏡タイプが近視眼鏡である場合、前記第2訓練データにおける顔を含む画像とランダムに変更された眼鏡画像とを結合するステップは、
ランダムに変更された眼鏡画像に対応する特徴点情報、レンズ情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、認識された目の周辺の結合領域及びレンズ領域を決定するステップと、
第2訓練データにおける顔を含む画像における目の周辺の、レンズ領域よりも大きい領域を画像から抽出し、レンズ領域と同一のサイズに拡大/縮小し、拡大/縮小の結果とランダムに変更された眼鏡画像とを重ね合わせ、貼り付けデータを取得するステップと、
結合領域における元のデータを貼り付けデータに置き換えるステップと、を含む、請求項4に記載の顔認識モデルの訓練方法。 - 元の訓練データはインターネットから取得され、或いは人間により手動で取得される、請求項1に記載の顔認識モデルの訓練方法。
- 実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得する除去手段と、
第2実際シーンデータにおける眼鏡着用の割合の統計を取る統計手段と、
顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分する区分手段であって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、区分手段と、
眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成する眼鏡付加手段と、
第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成する割合調整手段と、
第4訓練データに基づいて、顔認識モデルを訓練するモデル訓練手段と、を含む、顔認識モデルの訓練装置。 - 前記区分手段は、
元の訓練データにおける顔の位置を検出する検出手段と、
元の訓練データにおける顔を標準の顔に合わせる合わせ手段と、
合わせられた元の訓練データにおける顔が眼鏡を着用しているか否かを判断し、元の訓練データを第1訓練データと第2訓練データとに区分する深層畳み込みニューラルネットワーク又は分類器と、を含む、請求項8に記載の顔認識モデルの訓練装置。 - プログラムを記憶したコンピュータ読み取り可能な記憶媒体であって、前記プログラムが情報処理装置により実行された場合、前記情報処理装置に、
実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得するステップと、
第2実際シーンデータにおける眼鏡着用の割合の統計を取るステップと、
顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分するステップであって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、ステップと、
眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成するステップと、
第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成するステップと、
第4訓練データに基づいて、顔認識モデルを訓練するステップと、を実行させる、コンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711070481.3A CN109753850B (zh) | 2017-11-03 | 2017-11-03 | 面部识别模型的训练方法和训练设备 |
CN201711070481.3 | 2017-11-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019087242A JP2019087242A (ja) | 2019-06-06 |
JP7119907B2 true JP7119907B2 (ja) | 2022-08-17 |
Family
ID=66178992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018203648A Active JP7119907B2 (ja) | 2017-11-03 | 2018-10-30 | 顔認識モデルの訓練方法及び訓練装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10769499B2 (ja) |
JP (1) | JP7119907B2 (ja) |
CN (1) | CN109753850B (ja) |
DE (1) | DE102018218767A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106407912B (zh) * | 2016-08-31 | 2019-04-02 | 腾讯科技(深圳)有限公司 | 一种人脸验证的方法及装置 |
CN110909654A (zh) * | 2019-11-18 | 2020-03-24 | 深圳市商汤科技有限公司 | 训练图像的生成方法及装置、电子设备和存储介质 |
CN110991325A (zh) * | 2019-11-29 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 一种模型训练的方法、图像识别的方法以及相关装置 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
CN113435226B (zh) * | 2020-03-23 | 2022-09-16 | 北京百度网讯科技有限公司 | 信息处理方法和装置 |
CN111488843A (zh) * | 2020-04-16 | 2020-08-04 | 贵州安防工程技术研究中心有限公司 | 基于漏报与误报率分步骤抑制的人脸墨镜判别方法 |
CN111582068B (zh) * | 2020-04-22 | 2023-07-07 | 北京交通大学 | 人员口罩佩戴状态检测方法 |
CN111582141B (zh) * | 2020-04-30 | 2023-05-09 | 京东方科技集团股份有限公司 | 人脸识别模型训练方法、人脸识别方法及装置 |
WO2024113242A1 (zh) * | 2022-11-30 | 2024-06-06 | 京东方科技集团股份有限公司 | 着装规范判别方法、行人重识别模型训练方法及装置 |
CN116993929B (zh) * | 2023-09-27 | 2024-01-16 | 北京大学深圳研究生院 | 基于人眼动态变化的三维人脸重建方法、装置及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000123053A (ja) | 1998-10-12 | 2000-04-28 | Hoya Corp | 眼鏡装用シミュレーション方法 |
JP2009237669A (ja) | 2008-03-26 | 2009-10-15 | Ayonix Inc | 顔認識装置 |
JP2009294955A (ja) | 2008-06-05 | 2009-12-17 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理装置、画像処理方法、画像処理プログラムおよび同プログラムを記録した記録媒体。 |
JP2015088095A (ja) | 2013-11-01 | 2015-05-07 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置および情報処理方法 |
JP2017004512A (ja) | 2015-06-11 | 2017-01-05 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7236615B2 (en) * | 2004-04-21 | 2007-06-26 | Nec Laboratories America, Inc. | Synergistic face detection and pose estimation with energy-based models |
EP1977374A4 (en) * | 2005-11-30 | 2012-09-05 | Seeing Machines Pty Ltd | VISUAL TRACKING OF GLASSES IN VISUAL HEAD AND EYE TRACKING SYSTEMS |
US7657086B2 (en) * | 2006-01-31 | 2010-02-02 | Fujifilm Corporation | Method and apparatus for automatic eyeglasses detection using a nose ridge mask |
CN101162502A (zh) * | 2006-10-13 | 2008-04-16 | 上海银晨智能识别科技有限公司 | 一种人脸识别中的眼镜消除的方法 |
US8194938B2 (en) * | 2009-06-02 | 2012-06-05 | George Mason Intellectual Properties, Inc. | Face authentication using recognition-by-parts, boosting, and transduction |
US8472120B2 (en) * | 2010-02-28 | 2013-06-25 | Osterhout Group, Inc. | See-through near-eye display glasses with a small scale image source |
US8903198B2 (en) * | 2011-06-03 | 2014-12-02 | International Business Machines Corporation | Image ranking based on attribute correlation |
US8885893B1 (en) * | 2011-11-22 | 2014-11-11 | The United States Of America As Represented By The Secretary Of The Navy | System and method for adaptive face recognition |
WO2013079766A1 (en) * | 2011-11-29 | 2013-06-06 | Nokia Corporation | Methods, apparatuses and computer program products for generating a new subspace representation for faces that improves discriminant analysis |
US20170262472A1 (en) * | 2014-11-24 | 2017-09-14 | Isityou Ltd. | Systems and methods for recognition of faces e.g. from mobile-device-generated images of faces |
CN105184253B (zh) * | 2015-09-01 | 2020-04-24 | 北京旷视科技有限公司 | 一种人脸识别方法和人脸识别*** |
CN106570447B (zh) * | 2015-12-16 | 2019-07-12 | 黄开竹 | 基于灰度直方图匹配的人脸照片太阳镜自动去除方法 |
CN106909870A (zh) * | 2015-12-22 | 2017-06-30 | 中兴通讯股份有限公司 | 人脸图像的检索方法及装置 |
CN106407912B (zh) * | 2016-08-31 | 2019-04-02 | 腾讯科技(深圳)有限公司 | 一种人脸验证的方法及装置 |
CN106778681B (zh) * | 2017-01-11 | 2019-12-17 | 厦门中控智慧信息技术有限公司 | 一种人脸识别方法及人脸识别设备 |
CN107609481B (zh) * | 2017-08-14 | 2020-11-20 | 百度在线网络技术(北京)有限公司 | 为人脸识别生成训练数据的方法、装置和计算机存储介质 |
CN107845062B (zh) * | 2017-11-14 | 2021-08-17 | 北京小米移动软件有限公司 | 图像生成方法及装置 |
-
2017
- 2017-11-03 CN CN201711070481.3A patent/CN109753850B/zh active Active
-
2018
- 2018-10-30 JP JP2018203648A patent/JP7119907B2/ja active Active
- 2018-11-02 US US16/179,292 patent/US10769499B2/en active Active
- 2018-11-02 DE DE102018218767.3A patent/DE102018218767A1/de active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000123053A (ja) | 1998-10-12 | 2000-04-28 | Hoya Corp | 眼鏡装用シミュレーション方法 |
JP2009237669A (ja) | 2008-03-26 | 2009-10-15 | Ayonix Inc | 顔認識装置 |
JP2009294955A (ja) | 2008-06-05 | 2009-12-17 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理装置、画像処理方法、画像処理プログラムおよび同プログラムを記録した記録媒体。 |
JP2015088095A (ja) | 2013-11-01 | 2015-05-07 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置および情報処理方法 |
JP2017004512A (ja) | 2015-06-11 | 2017-01-05 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN109753850B (zh) | 2022-10-25 |
JP2019087242A (ja) | 2019-06-06 |
US20190138854A1 (en) | 2019-05-09 |
US10769499B2 (en) | 2020-09-08 |
DE102018218767A1 (de) | 2019-05-09 |
CN109753850A (zh) | 2019-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7119907B2 (ja) | 顔認識モデルの訓練方法及び訓練装置 | |
US11775056B2 (en) | System and method using machine learning for iris tracking, measurement, and simulation | |
US11250241B2 (en) | Face image processing methods and apparatuses, and electronic devices | |
CN105184253B (zh) | 一种人脸识别方法和人脸识别*** | |
US9547908B1 (en) | Feature mask determination for images | |
CN103839223B (zh) | 图像处理方法及装置 | |
WO2021174819A1 (zh) | 人脸遮挡检测方法及*** | |
US20130243274A1 (en) | Person Image Processing Apparatus and Person Image Processing Method | |
US20240037852A1 (en) | Method and device for reconstructing three-dimensional faces and storage medium | |
Zhang et al. | Robust non-local TV-$ L^{1} $ optical flow estimation with occlusion detection | |
MX2012010602A (es) | Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara. | |
CN109711268B (zh) | 一种人脸图像筛选方法及设备 | |
CN108171173A (zh) | 一种虹膜图像美瞳生成与去除方法 | |
CN104794693A (zh) | 一种人脸关键区域自动检测蒙版的人像优化方法 | |
Martinikorena et al. | Fast and robust ellipse detection algorithm for head-mounted eye tracking systems | |
US20210390667A1 (en) | Model generation | |
Han et al. | Two-stream neural networks for tampered face detection | |
JP2009294955A (ja) | 画像処理装置、画像処理方法、画像処理プログラムおよび同プログラムを記録した記録媒体。 | |
Chen et al. | Eyes localization algorithm based on prior MTCNN face detection | |
Devadethan et al. | Face detection and facial feature extraction based on a fusion of knowledge based method and morphological image processing | |
CN114359030A (zh) | 一种人脸逆光图片的合成方法 | |
CN109165551B (zh) | 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法 | |
CN111061914B (zh) | 一种基于人脸识别技术选取特定人脸视频片段的方法 | |
JP6244885B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN105760848A (zh) | 一种基于环形模板卷积的瞳孔定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7119907 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |