JP7212207B1 - 画像処理システム、画像処理方法、及びプログラム - Google Patents
画像処理システム、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP7212207B1 JP7212207B1 JP2022529392A JP2022529392A JP7212207B1 JP 7212207 B1 JP7212207 B1 JP 7212207B1 JP 2022529392 A JP2022529392 A JP 2022529392A JP 2022529392 A JP2022529392 A JP 2022529392A JP 7212207 B1 JP7212207 B1 JP 7212207B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- matching
- license
- driver
- scores
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 225
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000004458 analytical method Methods 0.000 claims abstract description 47
- 238000013459 approach Methods 0.000 claims description 8
- 238000012795 verification Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 66
- 238000001514 detection method Methods 0.000 description 52
- 230000008569 process Effects 0.000 description 50
- 238000013500 data storage Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 13
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- 238000000540 analysis of variance Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 235000006481 Colocasia esculenta Nutrition 0.000 description 1
- 240000004270 Colocasia esculenta var. antiquorum Species 0.000 description 1
- 240000001973 Ficus microcarpa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/19007—Matching; Proximity measures
- G06V30/19013—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/1801—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
- G06V30/18019—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/42—Document-oriented image-based pattern recognition based on the type of document
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20061—Hough transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30176—Document
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/247—Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/414—Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
以下、本開示に係る画像処理システムの実施形態の例を説明する。図1は、画像処理システムの全体構成の一例を示す図である。画像処理システムSは、ユーザ端末10及びサーバ20を含む。ユーザ端末10及びサーバ20は、インターネット又はLAN等のネットワークNに接続可能である。画像処理システムSは、少なくとも1つのコンピュータを含めばよく、図1の例に限られない。
本実施形態では、eKYC(electronic Know Your Customer)に画像処理システムSを適用する場合を例に挙げる。eKYCは、オンラインで行われる本人確認である。eKYCは、任意のサービスで利用可能である。例えば、通信サービス、金融サービス、電子決済サービス、電子決済サービス、保険サービス、又は行政サービスで、eKYCを利用可能である。eKYCが行われるタイミングも、任意のタイミングであってよく、例えば、サービスの申込時又は申込後のタイミングで、eKYCが行われる。
図2は、画像処理システムSで実現される機能の一例を示す機能ブロック図である。
データ記憶部100は、記憶部12を主として実現される。ユーザ端末10の他の機能は、制御部11を主として実現される。データ記憶部100及び送信部111は、第1の構成及び第2の構成の両方に係る機能である。画像取得部101、線分検出部102、情報取得部103、角判定部104、及び加工部105は、主に第1の構成に係る機能である。画像取得部101、マッチング実行部106、最大スコア判定部107、距離判定部108、分析部109、及びぼやけ判定部110は、主に第2の構成に係る機能である。
データ記憶部100は、画像処理に必要なデータを記憶する。例えば、データ記憶部100は、先述したサービスを利用するためのアプリを記憶する。本実施形態では、このアプリの処理として、画像処理が実行される場合を説明するが、画像処理は、任意のプログラムの処理として実行されてよい。例えば、ブラウザから実行されるスクリプト又は他のプログラムの処理として、画像処理が実行されてもよい。データ記憶部100は、後述のテンプレート画像及び撮影画像を記憶してもよい。
画像取得部101は、運転免許証を含む撮影画像を取得する。運転免許証は、対象物の一例である。運転免許証は、ユーザの本人確認書類の一例なので、ユーザの本人確認書類は、対象物の一例ということもできる。このため、運転免許証又は本人確認書類と記載した箇所は、対象物と読み替えることができる。撮影画像は、対象物画像の一例である。このため、撮影画像と記載した箇所は、対象物画像と読み替えることができる。
線分検出部102は、所定の線分検出処理に基づいて、撮影画像I1から複数の線分を検出する。線分検出処理は、画像内の線分を検出する処理である。線分は、運転免許証D1自体の輪郭、運転免許証D1に含まれる個々の要素(定型部分及び被定型部分)の輪郭、又はこれらの一部分を示す。線分検出処理は、直線検出処理又はエッジ検出処理と呼ばれることもある。線分検出処理自体は、公知の種々のアルゴリズムを利用可能であり、例えば、Hough変換又はLSD(Line Segment Detector)を利用可能である。本実施形態では、連続的に撮影画像I1が取得されるので、線分検出部102は、撮影画像I1ごとに、複数の線分を検出する。即ち、線分検出部102は、個々の撮影画像I1に対し、下記に説明する処理を実行して、複数の線分を検出する。
情報取得部103は、複数の線分L1~L4に基づいて、撮影画像I1における運転免許証D1の輪郭に関する情報を取得する。輪郭に関する情報は、運転免許証D1の輪郭の少なくとも一部の位置に関する情報である。例えば、運転免許証D1の輪郭上の少なくとも1つの位置、又は、その付近の位置(輪郭から所定距離以内の位置)を示す情報は、輪郭に関する情報に相当する。撮影画像I1上の位置は、任意の方法で表現可能であり、例えば、左上を原点とするスクリーン座標系の座標で表現される。
角判定部104は、角情報に基づいて推定された運転免許証D1の少なくとも1つの角Cが関心領域RoIの外にあるか否かを判定する。撮影画像I1における関心領域RoIの位置を識別可能なデータは、データ記憶部100に記憶されているものとする。例えば、このデータは、関心領域RoIの四隅の座標である。角判定部104は、角Cごとに、撮影画像I1における当該角Cの位置が関心領域RoIの外であるか否かを判定する。図7の例であれば、角判定部104は、4つの角C1~C4の全てが関心領域RoIの中にあると判定する。
加工部105は、情報取得部103により取得された角情報に基づいて、撮影画像I1における運転免許証D1の輪郭が所定の輪郭に近づくように、撮影画像I1の少なくとも一部を加工する。本実施形態では、連続的に撮影画像I1が取得されるので、加工部105は、撮影画像I1ごとに、加工を行う。
以上説明した機能が第1の構成の主な機能である。以降説明する機能は、主に第2の構成の機能である。マッチング実行部106は、運転免許証D1に関する特徴を含むテンプレート画像に基づいて、撮影画像I3に対するマッチングを実行する。運転免許証D1に関する特徴とは、運転免許証D1の全部又は一部の視覚的な特徴である。例えば、運転免許証D1に関する特徴は、運転免許証D1に形成された画像(例えば、背景、文字、数字、記号、図形、表、写真、模様、ホログラム等)の特徴である。画像の特徴とは、輪郭、色、輝度、又はこれらの組み合わせである。
最大スコア判定部107は、複数のスコアのうちの最大スコアが閾値未満であるか否かを判定する。最大スコアは、マッチング実行部106により計算されたスコアの中で、最も類似することを示すスコアである。図11のように運転免許証D1が鮮明であれば最大スコアは高くなり、図12のように運転免許証D1がぼやけていれば最大スコアは低くなる。輪郭は運転免許証D1と似ているが、運転免許証D1以外のものが撮影されている場合にも、最大スコアは低くなる。他にも例えば、運転免許証D1ではあるが、裏面が撮影されている場合にも最大スコアは低くなる。
距離判定部108は、複数のスコアのうちの最大スコアが取得された位置と、テンプレート画像iに示された特徴があるべき位置と、の距離が閾値未満であるか否かを判定する。テンプレート画像iに示された特徴があるべき位置を識別可能な情報は、データ記憶部100に予め記憶されているものとする。本実施形態では、テンプレート画像iに示された特徴があるべき位置は、個々の領域Rの中心点(図13の例であれば、100ピクセル×100ピクセルの中の中心点)である場合を説明するが、この位置は、マッチングの対象となる領域R内の任意の位置であってよい。閾値は、全ての領域Rで共通であってもよいし、領域Rごとに定められていてもよい。
分析部109は、マッチングで取得された複数のスコアを分析する。本実施形態では、連続的に生成された撮影画像I1が加工され、連続的に撮影画像I3が取得されるので、分析部109は、撮影画像I3ごとに、複数のスコアを分析する。スコアの分析自体は、任意の方法により行われてよいが、本実施形態では、分散分析が利用される場合を説明する。分散分析では、複数のスコアの分散具合(偏り具合)が分析される。即ち、個々のスコア間の差の大きさが分析される。分散分析のアルゴリズム自体は、公知のアルゴリズムを利用可能であり、例えば、js-STAR又はAIST-ANOVAと呼ばれるアルゴリズムが利用されてもよい。
ぼやけ判定部110は、分析部109による分析の実行結果に基づいて、撮影画像I3における運転免許証D1がぼやけているか否かを判定する。本実施形態では、連続的に生成された撮影画像I1が加工され、連続的に撮影画像I3が取得されるので、ぼやけ判定部110は、撮影画像I3ごとに、撮影画像I3における運転免許証D1がぼやけているか否かを判定する。ぼやけ判定部110は、数式3に基づいて、分析部109により計算された指標(数式3の左辺)が閾値Thratio未満であるか否かを判定する。この指標が閾値Thratio未満であることは、運転免許証D1がぼやけていることを意味する。この指標が閾値Thratio以上であることは、運転免許証D1がぼやけていないことを意味する。数式3を満たす撮影画像I3はフィルタリングされ、サーバ20に送信されない。数式3を満たさない撮影画像I3がサーバ20に送信される。
送信部111は、サーバ20に、少なくとも一部が加工された撮影画像I3を送信する。例えば、送信部111は、サーバ20に、ぼやけていないと判定された撮影画像I3を送信する。本実施形態では、最大スコア判定部107及び距離判定部108の判定も実行されるので、送信部111は、最大スコア判定部107の判定結果、距離判定部108の判定結果、及びぼやけ判定部110の判定結果に基づいて、撮影画像I3を送信する。本実施形態では、数式1~3によってフィルタリングが実行されるので、送信部111は、数式1~3の何れにも該当しない撮影画像I3を送信する。
データ記憶部200は、記憶部22を主として実現される。サーバ20の他の機能は、制御部21を主として実現される。
データ記憶部200は、画像処理に必要なデータを記憶する。例えば、データ記憶部200は、ユーザデータベースと、テンプレート画像データベースと、を記憶する。ユーザデータベースは、ユーザに関する情報が格納されたデータベースである。例えば、ユーザデータベースには、ユーザID、名前、撮影画像I3、及び本人確認結果が格納される。テンプレート画像データベースは、テンプレート画像iに関する情報が格納されたデータベースである。例えば、テンプレート画像データベースには、見本画像I2、本人確認書類の種類、及びテンプレート画像iが格納される。eKYCでは、任意の本人確認書類を利用可能なので、ユーザが選択した本人確認書類に応じたテンプレート画像iがユーザ端末10に送信される。
受信部201は、ユーザ端末10から、少なくとも一部が加工された撮影画像I3を受信する。例えば、ユーザ端末10から、ぼやけていないと判定された撮影画像I3を受信する。本実施形態では、数式1~3によってフィルタリングが実行されるので、受信部201は、数式1~3の何れにも該当しない撮影画像I3を受信する。受信部201は、受信した撮影画像I3をユーザデータベースに格納する。
運転免許証判定部202は、少なくとも一部が加工された撮影画像I3に基づいて、撮影画像I3に示された対象物が所定の運転免許証D1であるか否かを判定する。運転免許証判定部202は、ぼやけていないと判定された撮影画像I3に基づいて、撮影画像I3に示された対象物が所定の運転免許証D1であるか否かを判定する。例えば、運転免許証判定部202は、ユーザ端末10が利用したテンプレート画像iよりも多いテンプレート画像を利用して、撮影画像I3に対するマッチングを実行してもよい。例えば運転免許証判定部202は、機械学習手法によって種々の運転免許証のパターンを学習させた学習モデルを利用して、撮影画像I3に運転免許証D1が含まれているか否かを判定してもよい。例えば、運転免許証判定部202は、撮影画像I3に対して光学文字認識を実行し、撮影画像I3からユーザの氏名等の文字列を抽出してもよい。
要求部203は、所定の運転免許証D1ではないと判定された場合に、ユーザ端末10に、撮影画像I3を再び取得するように要求する。この要求は、何らかのメッセージを表示可能なものであればよく、例えば、アプリ上の通知、プッシュ通知、電子メール、SMS、又はSNSであってもよい。この要求は、ユーザに視認可能なものでなくてもよい。ユーザ端末10は、この要求を受信した場合に、再び撮影画像I1の取得を行う。
図15は、画像処理システムSで実行される処理の一例を示すフロー図である。図15のように、ユーザ端末10は、撮影部16による撮影結果に基づいて、運転免許証D1を含む撮影画像I1を取得する(S1)。ユーザ端末10は、線分検出処理に基づいて、撮影画像I1から、相対的に外側にある線分Lを検出する(S2)。ユーザ端末10は、相対的に外側にある線分Lに基づいて、角Cの位置を示す角情報を取得する(S3)。ユーザ端末10は、角情報に基づいて、少なくとも1つの角Cが関心領域RoIの外にあるか否かを判定する(S4)。
画像処理システムSの第1の構成によれば、相対的に外側にある複数の線分L1~L4(即ち、運転免許証D1の確率が高い線分L)に基づいて、撮影画像I1における運転免許証D1の輪郭に関する情報を取得する。第1の構成では、この情報に基づいて、この輪郭が所定の輪郭になる又は近づくように、撮影画像I1の少なくとも一部を加工する。これにより、特徴点群を抽出するといった計算量の多い画像処理を実行する必要がなくなるので、ユーザ端末10の処理負荷を軽減できる。即ち、特徴点群ではなく線分Lを検出するといった比較的計算量の少ない画像処理を実行すれば済むので、ユーザ端末10の処理負荷を軽減できる。ユーザ端末10の処理負荷を軽減することによって、撮影画像I1に対する画像処理を高速化できる。このため、加工された撮影画像I3を短い時間で取得できる。例えば、スマートフォンのように、パーソナルコンピュータに比べて処理能力が低いユーザ端末10だったとしても、加工された撮影画像I3を短い時間で取得できる。
画像処理システムSの第2の構成によれば、撮影画像I3に対するマッチングで取得された複数のスコアに関する分析の実行結果に基づいて、撮影画像I3における運転免許証D1がぼやけているか否かを判定する。これにより、特徴点群を抽出するといった計算量の多い画像処理を実行する必要がなくなるので、ユーザ端末10の処理負荷を軽減できる。即ち、特徴点群ではなくマッチングといった比較的計算量の少ない画像処理を実行すれば済むので、ユーザ端末10の処理負荷を軽減できる。ユーザ端末10の処理負荷を軽減することによって、撮影画像I3に対する画像処理を高速化できる。このため、撮影画像I3における運転免許証D1がぼやけているか否かを短い時間で判定できる。例えば、スマートフォンのように、パーソナルコンピュータに比べて処理能力が低いユーザ端末10だったとしても、撮影画像I3における運転免許証D1がぼやけているか否かを短い時間で判定できる。
なお、本開示は、以上に説明した実施形態に限定されるものではない。本開示の趣旨を逸脱しない範囲で、適宜変更可能である。
図16は、第1の構成に関する変形例における機能ブロック図である。第1の構成に関する変形例の画像処理システムSは、少なくとも1つの角Cが関心領域RoIの外にあると判定された場合に、当該少なくとも1つの角C及び関心領域RoIの位置関係に基づいて、運転免許証D1及び撮影部16の少なくとも一方の位置、姿勢、及び向きの少なくとも1つの変更方法を通知する通知部112を更に含む。
実施形態では、ぼやけ判定部110の判定結果に基づいて実行される所定の処理として、サーバ20に撮影画像I3を送信する処理を説明したが、所定の処理は、任意の処理であってよく、サーバ20に撮影画像I3を送信する処理に限られない。例えば、所定の処理は、ユーザ端末10に撮影画像I3を記録する処理であってもよい。他にも例えば、所定の処理は、サーバ20以外のコンピュータに対し、撮影画像I3を送信する処理であってもよい。所定の処理は、撮影画像I3に対して光学文字認識を実行し、ユーザの名前等を抽出する処理であってもよい。
例えば、運転免許証D1がぼやけていないと判定された場合に、関心領域RoIの枠線の色が変化してもよい。ユーザ端末10は、連続的に生成された全ての撮影画像I1に対して画像処理をする必要はなく、一部の撮影画像I1に対してのみ画像処理を実行してもよい。例えば、画像処理システムSは、eKYC以外の任意の場面に適用可能である。例えば、車両又は航空機の自動運転において障害物を認識する場面にも画像処理システムSを適用可能である。例えば、マークシート形式の試験問題の採点が行われる場面にも画像処理システムSを適用可能である。画像処理システムSは、認識したい対象物を含む対象物画像に対する画像処理が実行される任意の場面に適用可能である。
Claims (16)
- 対象物を含む対象物画像を取得する画像取得手段と、
前記対象物を含まない画像であって、前記対象物に関する特徴を含むテンプレート画像に基づいて、前記対象物画像に対するマッチングを実行するマッチング実行手段と、
前記マッチングで取得された複数のスコアを分析する分析手段と、
前記複数のスコアの分析結果に基づいて、前記対象物画像における前記対象物がぼやけているか否かを判定するぼやけ判定手段と、
を含む画像処理システム。 - 定型部分を含む対象物を含む対象物画像を取得する画像取得手段と、
前記定型部分を含むテンプレート画像に基づいて、前記対象物画像に対するマッチングを実行するマッチング実行手段と、
前記マッチングで取得された、前記テンプレート画像に含まれる前記定型部分との類似度を示す複数のスコアを分析する分析手段と、
前記複数のスコアの分析結果に基づいて、前記対象物画像における前記対象物がぼやけているか否かを判定するぼやけ判定手段と、
を含む画像処理システム。 - 前記対象物は、複数の前記定型部分を含み、
前記テンプレート画像は、前記定型部分ごとに用意されており、
前記マッチング実行手段は、前記テンプレート画像ごとに、前記マッチングを実行し、
前記分析手段は、前記テンプレート画像ごとに取得された前記複数のスコアを分析する、
請求項2に記載の画像処理システム。 - 前記分析手段は、前記テンプレート画像ごとに取得された前記複数のスコアに基づいて1の指標を計算することによって、当該複数のスコアを分析する、
請求項3に記載の画像処理システム。 - 前記定型部分は、前記対象物の角付近に配置され、
前記マッチング実行手段は、前記対象物画像における前記対象物の角付近の領域に対し、前記マッチングを実行する、
請求項2~4の何れかに記載の画像処理システム。 - 対象物を含む対象物画像を取得する画像取得手段と、
前記対象物画像に対して、前記対象物に関する特徴を含むテンプレート画像を移動させながらマッチングを実行するマッチング実行手段と、
前記マッチングで取得された複数のスコアを分析する分析手段と、
前記複数のスコアの分析結果に基づいて、前記対象物画像における前記対象物がぼやけているか否かを判定するぼやけ判定手段と、
を含む画像処理システム。 - 前記分析手段は、前記複数のスコアのうちの最大スコアと、前記複数のスコアに基づいて計算された平均スコアと、に基づいて、前記複数のスコアを分析する、
請求項1~6の何れかに記載の画像処理システム。 - 前記分析手段は、前記最大スコアを前記平均スコアで割った値に基づいて、前記複数のスコアを分析する、
請求項7に記載の画像処理システム。 - 前記画像処理システムは、前記複数のスコアのうちの最大スコアが閾値未満であるか否かを判定する最大スコア判定手段を更に含み、
前記最大スコア判定手段の判定結果と、前記ぼやけ判定手段の判定結果と、に基づいて所定の処理が実行される、
請求項1~8の何れかに記載の画像処理システム。 - 対象物を含む対象物画像を取得する画像取得手段と、
前記対象物に関する特徴を含むテンプレート画像に基づいて、前記対象物画像に対するマッチングを実行するマッチング実行手段と、
前記マッチングで取得された複数のスコアを分析する分析手段と、
前記複数のスコアの分析結果に基づいて、前記対象物画像における前記対象物がぼやけているか否かを判定するぼやけ判定手段と、
前記複数のスコアのうちの最大スコアが取得された位置と、前記特徴があるべき位置と、の距離が閾値未満であるか否かを判定する距離判定手段と、
を含み、
前記距離判定手段の判定結果と、前記ぼやけ判定手段の判定結果と、に基づいて所定の処理が実行される、
画像処理システム。 - 前記画像処理システムは、前記対象物画像における前記対象物の輪郭が所定の輪郭に近づくように、前記対象物画像の少なくとも一部を加工する加工手段を更に含み、
前記マッチング実行手段は、少なくとも一部が加工された前記対象物画像に対する前記マッチングを実行する、
請求項1~10の何れかに記載の画像処理システム。 - 前記画像処理システムは、ぼやけていないと判定された前記対象物画像に基づいて、前記対象物が所定の対象物であるか否かを判定する対象物判定手段を更に含む、
請求項1~11の何れかに記載の画像処理システム。 - 前記画像処理システムは、ユーザ端末及びサーバを含み、
前記ユーザ端末は、
前記画像取得手段、前記マッチング実行手段、前記分析手段、及び前記ぼやけ判定手段と、
前記サーバに、ぼやけていないと判定された前記対象物画像を送信する送信手段と、
を含み、
前記サーバは、
前記ユーザ端末から、ぼやけていないと判定された前記対象物画像を受信する受信手段と、
前記対象物判定手段と、
前記所定の対象物ではないと判定された場合に、前記ユーザ端末に、前記対象物画像を再び取得するように要求する要求手段と、
を含む請求項12に記載の画像処理システム。 - 前記対象物は、ユーザの本人確認書類であり、
前記対象物画像は、前記本人確認書類が撮影手段により連続的に撮影されることによって生成された画像であり、
前記画像取得手段は、連続的に生成された前記対象物画像を取得し、
前記マッチング実行手段は、前記対象物画像ごとに、前記マッチングを実行し、
前記分析手段は、前記対象物画像ごとに、前記複数のスコアを分析し、
前記ぼやけ判定手段は、前記対象物画像ごとに、前記対象物画像における前記本人確認書類がぼやけているか否かを判定する、
請求項1~13の何れかに記載の画像処理システム。 - 対象物を含む対象物画像を取得する画像取得ステップと、
前記対象物を含まない画像であって、前記対象物に関する特徴を含むテンプレート画像に基づいて、前記対象物画像に対するマッチングを実行するマッチング実行ステップと、
前記マッチングで取得された複数のスコアを分析する分析ステップと、
前記複数のスコアの分析結果に基づいて、前記対象物画像における前記対象物がぼやけているか否かを判定するぼやけ判定ステップと、
を含む画像処理方法。 - 対象物を含む対象物画像を取得する画像取得手段、
前記対象物を含まない画像であって、前記対象物に関する特徴を含むテンプレート画像に基づいて、前記対象物画像に対するマッチングを実行するマッチング実行手段、
前記マッチングで取得された複数のスコアを分析する分析手段、
前記複数のスコアの分析結果に基づいて、前記対象物画像における前記対象物がぼやけているか否かを判定するぼやけ判定手段、
としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/027961 WO2023007631A1 (ja) | 2021-07-28 | 2021-07-28 | 画像処理システム、画像処理方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP7212207B1 true JP7212207B1 (ja) | 2023-01-24 |
JPWO2023007631A1 JPWO2023007631A1 (ja) | 2023-02-02 |
JPWO2023007631A5 JPWO2023007631A5 (ja) | 2023-07-04 |
Family
ID=84982677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022529392A Active JP7212207B1 (ja) | 2021-07-28 | 2021-07-28 | 画像処理システム、画像処理方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240193974A1 (ja) |
EP (1) | EP4156095A4 (ja) |
JP (1) | JP7212207B1 (ja) |
WO (1) | WO2023007631A1 (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004318423A (ja) * | 2003-04-15 | 2004-11-11 | Konica Minolta Photo Imaging Inc | 画像処理方法、画像処理装置及び画像処理プログラム |
JP2013026936A (ja) * | 2011-07-23 | 2013-02-04 | Canon Inc | 画像処理装置、画像処理方法、およびプログラム |
JP2014164574A (ja) * | 2013-02-26 | 2014-09-08 | Konica Minolta Inc | 画像処理装置、画像処理方法および画像処理プログラム |
JP2017156920A (ja) * | 2016-03-01 | 2017-09-07 | 株式会社日立情報通信エンジニアリング | 画像処理装置及び画像処理プログラム |
WO2018225133A1 (ja) * | 2017-06-05 | 2018-12-13 | 楽天株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
JP2019519844A (ja) * | 2016-05-24 | 2019-07-11 | モルフォトラスト・ユーエスエー・リミテッド ライアビリティ カンパニーMorphotrust Usa,Llc | 書類の画質評価 |
WO2021049234A1 (ja) * | 2019-09-12 | 2021-03-18 | 日本電気株式会社 | 画像解析装置、制御方法、プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9298979B2 (en) * | 2008-01-18 | 2016-03-29 | Mitek Systems, Inc. | Systems and methods for mobile image capture and content processing of driver's licenses |
EP3786844A4 (en) * | 2018-07-06 | 2021-05-05 | Rakuten, Inc. | IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD AND PROGRAM |
JP7322485B2 (ja) * | 2019-04-16 | 2023-08-08 | 大日本印刷株式会社 | 真贋判定装置およびプログラム |
-
2021
- 2021-07-28 US US17/800,891 patent/US20240193974A1/en active Pending
- 2021-07-28 EP EP21925104.8A patent/EP4156095A4/en active Pending
- 2021-07-28 WO PCT/JP2021/027961 patent/WO2023007631A1/ja active Application Filing
- 2021-07-28 JP JP2022529392A patent/JP7212207B1/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004318423A (ja) * | 2003-04-15 | 2004-11-11 | Konica Minolta Photo Imaging Inc | 画像処理方法、画像処理装置及び画像処理プログラム |
JP2013026936A (ja) * | 2011-07-23 | 2013-02-04 | Canon Inc | 画像処理装置、画像処理方法、およびプログラム |
JP2014164574A (ja) * | 2013-02-26 | 2014-09-08 | Konica Minolta Inc | 画像処理装置、画像処理方法および画像処理プログラム |
JP2017156920A (ja) * | 2016-03-01 | 2017-09-07 | 株式会社日立情報通信エンジニアリング | 画像処理装置及び画像処理プログラム |
JP2019519844A (ja) * | 2016-05-24 | 2019-07-11 | モルフォトラスト・ユーエスエー・リミテッド ライアビリティ カンパニーMorphotrust Usa,Llc | 書類の画質評価 |
WO2018225133A1 (ja) * | 2017-06-05 | 2018-12-13 | 楽天株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
WO2021049234A1 (ja) * | 2019-09-12 | 2021-03-18 | 日本電気株式会社 | 画像解析装置、制御方法、プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20240193974A1 (en) | 2024-06-13 |
EP4156095A1 (en) | 2023-03-29 |
WO2023007631A1 (ja) | 2023-02-02 |
JPWO2023007631A1 (ja) | 2023-02-02 |
EP4156095A4 (en) | 2024-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10657600B2 (en) | Systems and methods for mobile image capture and processing | |
JP5049798B2 (ja) | グラウンドトルース・データからの合成画像及びビデオの生成 | |
WO2019061658A1 (zh) | 眼镜定位方法、装置及存储介质 | |
US11682231B2 (en) | Living body detection method and device | |
US11881043B2 (en) | Image processing system, image processing method, and program | |
US10692230B2 (en) | Document imaging using depth sensing camera | |
JP6574920B1 (ja) | 画像処理システム、画像処理方法、及びプログラム | |
TWI820433B (zh) | 對照系統、對照方法及資訊記錄媒體 | |
US20150112853A1 (en) | Online loan application using image capture at a client device | |
JP7212207B1 (ja) | 画像処理システム、画像処理方法、及びプログラム | |
JP7137171B1 (ja) | 画像処理システム、画像処理方法、及びプログラム | |
US20210281742A1 (en) | Document detections from video images | |
US20060010582A1 (en) | Chin detecting method, chin detecting system and chin detecting program for a chin of a human face | |
US11557108B2 (en) | Polygon detection device, polygon detection method, and polygon detection program | |
TWI395469B (zh) | 影像擷取方法與應用該方法之影像擷取裝置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220519 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220519 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7212207 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |