JP6937782B2 - 画像処理方法及びデバイス - Google Patents

画像処理方法及びデバイス Download PDF

Info

Publication number
JP6937782B2
JP6937782B2 JP2018557180A JP2018557180A JP6937782B2 JP 6937782 B2 JP6937782 B2 JP 6937782B2 JP 2018557180 A JP2018557180 A JP 2018557180A JP 2018557180 A JP2018557180 A JP 2018557180A JP 6937782 B2 JP6937782 B2 JP 6937782B2
Authority
JP
Japan
Prior art keywords
image
sample
sub
images
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018557180A
Other languages
English (en)
Other versions
JP2019504430A (ja
JP2019504430A5 (ja
Inventor
リン,トン
Original Assignee
アドバンスド ニュー テクノロジーズ カンパニー リミテッド
アドバンスド ニュー テクノロジーズ カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アドバンスド ニュー テクノロジーズ カンパニー リミテッド, アドバンスド ニュー テクノロジーズ カンパニー リミテッド filed Critical アドバンスド ニュー テクノロジーズ カンパニー リミテッド
Publication of JP2019504430A publication Critical patent/JP2019504430A/ja
Publication of JP2019504430A5 publication Critical patent/JP2019504430A5/ja
Application granted granted Critical
Publication of JP6937782B2 publication Critical patent/JP6937782B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Description

本願は、画像処理技術の分野に関し、特に、画像処理方法及びデバイスに関する。
インターネット技術の急速な発展により、顔認識及び認証画像認識等の画像認識がより一層ネットワークサービスにおいて用いられている。しかし、多くの画像には網目模様や透かしが付されている。その結果、画像認識効率が低下し、画像認識の困難は増す。
本願の主な目的は、画像処理方法及びデバイスを提供することにある。
本願は、以下の技術的解決策によって実施される。
画像処理方法が提供される。前記方法は:複数のサンプル画像を得るために、複数の方法を用いて原画像から干渉因子を除去するステップと;所定のセグメント化規則に基づいて各サンプル画像を複数のサンプル副画像にセグメント化(分割)するステップと;同じ属性を有するサンプル副画像からターゲット副画像を特定するステップと;異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせるステップと;を含む。
好ましくは、同じ属性を有するサンプル副画像からターゲット副画像を特定する前記ステップは:各サンプル副画像の数学的パラメータを特定するステップと;クラスタリングアルゴリズムを用いて、前記数学的パラメータに基づいて同じ属性を有する前記サンプル副画像を、複数の画像セットに分割するステップであって、各画像セットは1つ以上のサンプル副画像を含む、分割するステップと;サンプル副画像の最大数を含む画像セットから前記ターゲット副画像を特定するステップと;を含む。
好ましくは、各サンプル副画像の数学的パラメータを特定する前記ステップは:前記サンプル副画像の前記数学的パラメータとしてRGBベクトルを用い、前記サンプル副画像内の各ピクセルのRGB情報に基づいて前記サンプル副画像のための前記RGBベクトルを生成するステップを含む。
好ましくは、サンプル副画像の最大数を含む画像セットから前記ターゲット副画像を特定する前記ステップは:サンプル副画像の最大数を含む前記画像セットからの前記ターゲット副画像として、クラスタリング後に取得された前記画像セット内の、中心点に対応するサンプル副画像を特定するステップを含む。
好ましくは、異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせるステップは:前記ターゲット副画像内の各ピクセルの位置座標に基づいて、異なる属性を有する前記複数のターゲット副画像を前記ターゲット画像に組み合わせるステップを含む。
画像処理デバイスが提供され、前記デバイスは:複数のサンプル画像を取得するために、複数の方法を用いて原画像から干渉因子を除去するように構成された干渉除去ユニットと;所定のセグメント化規則に基づいて各サンプル画像を複数のサンプル副画像にセグメント化するように構成された画像セグメント化ユニットと;同じ属性を有するサンプル副画像からターゲット副画像を特定するように構成されたターゲット特定ユニットと;異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせるように構成されたターゲット組み合わせユニットと;を含む。
好ましくは、前記ターゲット特定ユニットは:各サンプル副画像の数学的パラメータを特定するように構成されたパラメータ特定サブユニットと;クラスタリングアルゴリズムを用いて、前記数学的パラメータに基づいて同じ属性を有する前記サンプル副画像を複数の画像セットに分割するように構成され、各画像セットが1つ以上のサンプル副画像を含む、セット分割サブユニットと;サンプル副画像の最大数を含む画像セットから前記ターゲット副画像を特定するように構成されたターゲット特定サブユニットと;を含む。
好ましくは、前記パラメータ特定サブユニットは、前記サンプル副画像の前記数学的パラメータとしてRGBベクトルを用い、前記サンプル副画像内の各ピクセルのRGB情報に基づいて前記サンプル副画像のための前記RGBベクトルを生成するよう構成される。
好ましくは、前記ターゲット特定サブユニットは、サンプル副画像の最大数を含む前記画像セットからの前記ターゲット副画像として、クラスタリング後に取得された前記画像セット内の、中心点に対応するサンプル副画像を特定するように構成される。
好ましくは、前記ターゲット組み合わせユニットは、前記ターゲット副画像内の各ピクセルの位置座標に基づいて、異なる属性を有する前記複数のターゲット副画像を前記ターゲット画像に組み合わせるように構成される。
本願において、原画像内の干渉因子は、複数の方法を用いて最初に除去され、複数のサンプル画像が得られることが分かる。次に、複数のサンプル画像のそれぞれは、所定のセグメント化規則に基づいて複数のサンプル副画像にセグメント化することができる。次に、ターゲット副画像は、同じ属性を有するサンプル副画像から特定できるので、実像に最も類似するターゲット副画像を、同じ属性を有する複数のサンプル副画像から特定できる。次に、異なる属性を有する複数のターゲット副画像を、ターゲット画像に組み合わせることができる。このため、得られたターゲット画像は高い精度で実像を復元し、後続の画像認識の精度を向上できる。
図1は、本願の実施の例による画像処理方法を示す概略フロー図である。
図2は、本願の実施の例によるサンプル画像のセグメント化を示す概略図である。
図3は、本願の実施の例による、同じ属性を有するサンプル副画像からターゲット副画像を特定するための手順を示す概略図である。
図4は、本願の実施の例による画像処理デバイスを示す概略構造図である。
図5は、本願の実施の例による画像処理デバイスを示す概略構造図である。
実施の例はここで詳細に説明され、実施の例は添付の図面に示されている。以下の説明が添付の図面を参照するとき、他に指定されない限り、異なる添付の図面における同じ番号は、同一又は類似の要素を表す。以下の実施の例で説明される実施は、本願と一致する全ての実施を表すものではない。それどころか、それらは、添付の特許請求の範囲に詳細に記載され、本願のいくつかの態様と一致するデバイス及び方法の例にすぎない。
本願で使用される用語は、単に実施を説明するために使用されており、本願を限定するものではない。本願及び添付の特許請求の範囲で使用される単数形の「1つの(a)」、「前記(said)」及び「前記(the)」という用語は、文脈で別段の指定がない限り、複数形も含むことが意図される。また、ここで使用される「及び/又は」という用語は、1つ又は複数の関連するアイテムの任意の又は全ての可能な組み合わせを示し、含むことを理解されたい。
「第1」、「第2」、「第3」などの用語は、様々なタイプの情報を説明するために本願で使用することができるが、情報は用語によって限定されないことを理解されたい。これらの用語は、単に同じタイプの情報を区別するために使用される。例えば、本願の範囲から逸脱することなく、第1の情報を第2の情報と呼び、同様に第2の情報を第1の情報と呼んでもよい。文脈に応じて、例えば、ここで使用される「もし(if)」という単語は、「〜の間(while)」、「〜とき(when)」、又は「特定に応答して(in response to determining)」と説明することができる。
関連技術においては、フォトショップ(登録商標)等、何らかの画像処理アルゴリズム又は画像処理ツールを用いて原画像内の網目模様又は透かしを除去できる。しかし、このような場合、網目模様又は透かしを除去して得られる像は、原画像の実像を復元できないのが普通である。その結果、画像認識精度は悪影響を受けるだろう。
図1は、本願の実施の例による画像処理方法を示す概略フロー図である。
図1を参照すると、この画像処理方法は端末デバイスに適用できる。端末デバイスとして、スマートフォン、タブレットコンピュータ、携帯情報端末(PDA)、及びPC等のインテリジェントデバイスを挙げることができる。この画像処理方法は、サーバにも適用でき、本願において限定されない。この画像処理方法は以下のステップを含むことができる。
ステップ101:複数のサンプル画像を取得するために、複数の方法を用いて原画像から干渉因子を除去する。
本実施において、原画像は、通常、認識対象画像である。原画像は1つ以上の干渉因子を含むことができる。干渉因子は、通常、実像に加えられる網目模様や透かし等の干渉パタ−ンである。
本実施において、複数のサンプル画像を取得するために、関連技術で提供される異なる干渉因子除去方法を用いて原画像内の干渉因子を除去できる。例えば、原画像内の干渉因子は、フォトショップ(登録商標)等の画像処理ソフトウェアを用いて除去できる。
ステップ102:所定のセグメント化規則に基づいて各サンプル画像を複数のサンプル副画像にセグメント化する。
ステップ101に基づいて複数のサンプル画像が得られた後、各サンプル画像は所定のセグメント化規則に基づいて複数の副画像にセグメント化することができる。説明を簡単にするために、セグメント化後に得られる副画像を、サンプル副画像と称する。
本実施において、所定のセグメント化規則は開発者によって設定できる。所定のセグメント化規則において、セグメント化で用いられる単位は、サンプル副画像のサイズであってもサンプル副画像の数であってもよく、本願では限定しない。例えば、所定のセグメント化規則により、サンプル画像を25個のサンプル副画像にセグメント化、例を挙げるなら、5×5規則に基づいてサンプル画像を25個のサンプル副画像にセグメント化、であってもよい。
本実施において、原画像内の干渉因子がステップ101におけるN個の異なる方法を用いて除去された場合に、N個のサンプル画像が取得できる。更に、各サンプル画像がM個のサンプル副画像にセグメント化された場合に、合計N×M個のサンプル副画像を取得できる。M及びNは1よりも大きい自然数である。
ステップ103:同じ属性を有するサンプル副画像からターゲット副画像を特定する。
本実施において、各サンプル副画像は対応する属性を有する。この属性を用いて、サンプル副画像を含むサンプル画像内のサンプル副画像の位置情報を示すことができる。図2を参照すると、画像Aは、原画像内の干渉を除去することによって得られたサンプル画像であると仮定する。サンプル画像は、所定のセグメント化規則に基づいて3×3個のサンプル副画像にセグメント化することができる。9個のサンプル副画像の属性は、それぞれ、A11、A12、A13、A21、・・・、及びA33である。
本実施において、図2に示すセグメント化規則を一例として用いる。N個のサンプル画像を得るために、原画像内の干渉因子がN個の異なる方法を用いて除去された場合に、合計N×9個のサンプル副画像を取得できる。A11乃至A33のうちの1つの属性を有するサンプル副画像がN個存在する。このステップにおいて、属性A11を有するターゲット副画像は、属性A11を有するN個のサンプル副画像から特定でき、属性A12を有するターゲット副画像は属性A12を有するN個のサンプル副画像から特定でき、属性A11乃至A33を有する9個のターゲット副画像は同様に特定できる。
ステップ104:異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせる。
ステップ103に基づいて、ターゲット副画像が、同じ属性を有するサンプル副画像から特定された場合、異なる属性を有する複数のターゲット副画像はターゲット画像に組み合わせることができる。例えば、複数のターゲット副画像は各ターゲット副画像の属性に基づいてターゲット画像に組み合わせることができる、又は、複数のターゲット副画像は各ターゲット副画像内の各ピクセルの位置座標に基づいてターゲット画像に組み合わせることができ、本願においては限定しない。
例えば、図2に示すセグメント化規則は一例として用いられる。本ステップにおいて、属性A11乃至A33を有する9個のターゲット副画像を1つのターゲット画像に組み合わせることができる。
先の説明から分かることは、原画像内の干渉因子は複数の方法を用いることによって最初に除去されて複数のサンプル画像を取得できるという点である。次に、複数のサンプル画像のそれぞれは、所定のセグメント化規則に基づいて複数のサンプル副画像にセグメント化することができる。次に、ターゲット副画像は、同じ属性を有するサンプル副画像から特定でき、その結果、実像に最も類似するターゲット副画像を、同じ属性を有する複数のサンプル副画像から特定できる。次に、異なる属性を有する複数のターゲット副画像を、ターゲット画像に組み合わせることができる。このため、取得されたターゲット画像は高い精度で実像を復元して、後続の画像認識の精度を向上させる。
任意ではあるが、本願の実施例において、図3を参照すると、同じ属性を有するサンプル副画像からターゲット副画像を特定する工程は、以下のステップを含むことができる。
ステップ301:各サンプル副画像の数学的パラメータを特定する。
本実施において、サンプル画像が複数のサンプル副画像にセグメント化された後、各サンプル副画像の数学的パラメータを、後続の計算のために特定できる。
任意ではあるが、本願の実施例において、サンプル副画像の数学的パラメータとしてRGBベクトルを用い、サンプル副画像内の各ピクセルのRGB情報に基づいてサンプル副画像のためのRGBベクトルを生成できる。例えば、最初に、サンプル副画像内の各ピクセルのRGB値等のRGB情報を取得できる。次に、RGBベクトルを各ピクセルのRGB情報に基づいて生成できる。サンプル副画像のRGBベクトルは、サンプル副画像がK個のピクセルを含む場合、{R,R,・・・,R}であってもよく、ここでi番目のピクセルのRGB値はRであり、iの値は1乃至Kである。
ステップ302:クラスタリングアルゴリズムを用いることによって、数学的パラメータに基づいて同じ属性を有するサンプル副画像を複数の画像セットに分割するが、ここで各画像セットは1つ以上のサンプル副画像を含む。
本実施において、同じ属性を有する複数のサンプル副画像を、クラスタリングアルゴリズムを用い、サンプル副画像の数学的パラメータに基づいて複数の画像セットに分割できる。クラスタリングアルゴリズムとして、DBSCAN(Density-Based Spatial Clustering of Applications with Noise)クラスタリングアルゴリズム、K平均法クラスタリングアルゴリズム等を挙げることができ、本願において限定しない。
例えば、DBSCANクラスタリングアルゴリズムが用いられている場合、走査半径(eps)と点の最小数(minPts)は、予め特定できる。各サンプル副画像はクラスタリング工程における1点に対応する。点の最小数は、分割後に得られる画像セットに含まれ得るサンプル副画像の最小数である。クラスタリング工程において、関連する計算は、サンプル副画像の数学的パラメータに基づいて行うことができる。例えば、2つのサンプル副画像のRGBベクトル間の距離は2つのサンプル副画像間の距離として用いることができる。
ステップ303:サンプル副画像の最大数を含む画像セットからターゲット副画像を特定する。
ステップ302に基づいて、同じ属性を有するサンプル副画像が複数の画像セットに分割された後、各画像セットに含まれるサンプル副画像の数が特定され、次に、ターゲット副画像が、サンプル副画像の最大数を含む画像セットから特定されることができる。
任意ではあるが、本願の実施例において、クラスタリング後に取得された画像セット内の、中心点に対応するサンプル副画像は、サンプル副画像の最大数を含む画像セットからターゲット副画像として特定できる。
本実施において、クラスタリングアルゴリズムは同じ属性を有するサンプル副画像からターゲット副画像を特定するために用いられて、特定されたターゲット副画像が実像に、より類似することを確保できる。
画像処理方法の実施に対応して、本願は、更に、画像処理デバイスの実施を提供する。
本願における画像処理デバイスの実施は端末デバイス又はサーバに適用できる。このデバイスの実施は、ソフトウェア、ハードウェア、又はその両方を用いて実施できる。ソフトウェアによる実施を実施例として用いる。論理装置として、本デバイスは、不揮発性メモリ内の対応するコンピュータプログラム命令を、本デバイスが配置される端末デバイス又はサーバのプロセッサによってメモリ内に読み取ることによって、形成される。図4に示すようなハードウェアの見地からすると、図4は、本願における画像処理デバイスが配置される端末デバイス又はサーバのハードウェアを示す構造図である。図4に示すプロセッサ、メモリ、ネットワークインターフェース、及び不揮発性メモリに加えて、本実施におけるデバイスが配置される端末デバイス又はサーバは、通常、端末デバイス又はサーバの実際の機能に基づく他のハードウェアを含むことができる。詳細はここでは繰り返さない。
図5は、本願の実施の例による画像処理デバイスを示す概略構造図である。
図5を参照すると、画像処理デバイス400は、図4に示す端末デバイス又はサーバに適用でき、干渉除去ユニット401、画像セグメント化ユニット402、ターゲット特定ユニット403、及びターゲット組み合わせユニット404を含む。ターゲット特定ユニット403は、更に、パラメータ特定サブユニット4031、セット分割サブユニット4032、及びターゲット特定サブユニット4033を含むことができる。
干渉除去ユニット401は、複数のサンプル画像を取得するために、複数の方法を用いて原画像から干渉因子を除去するように構成される。
画像セグメント化ユニット402は、所定のセグメント化規則に基づいて各サンプル画像を複数のサンプル副画像にセグメント化するように構成される。
ターゲット特定ユニット403は、同じ属性を有するサンプル副画像からターゲット副画像を特定するように構成される。
ターゲット組み合わせユニット404は、異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせるように構成される。
パラメータ特定サブユニット4031は、各サンプル副画像の数学的パラメータを特定するよう構成される。
セット分割サブユニット4032は、クラスタリングアルゴリズムを用いて、数学的パラメータに基づいて同じ属性を有するサンプル副画像を複数の画像セットに分割するように構成される。各画像セットは1つ以上のサンプル副画像を含む。
ターゲット特定サブユニット4033は、サンプル副画像の最大数を含む画像セットからターゲット副画像を特定するように構成される。
任意ではあるが、パラメータ特定サブユニット4031は、サンプル副画像の数学的パラメータとしてRGBベクトルを用い、サンプル副画像内の各ピクセルのRGB情報に基づいてサンプル副画像のためのRGBベクトルを生成するように構成される。
任意ではあるが、ターゲット特定サブユニット4033は、サンプル副画像の最大数を含む画像セットからのターゲット副画像として、クラスタリング後に取得された画像セット内の、中心点に対応するサンプル副画像を特定するように構成される。
任意ではあるが、ターゲット組み合わせユニット404は、ターゲット副画像内の各ピクセルの位置座標に基づいて、異なる属性を有する複数のターゲット副画像をターゲット画像に組み合わせるように構成される。
デバイス内のユニットの機能及び役割の実施工程については、対応するステップの実施工程を参照できる。詳細はここでは説明しない。
デバイスの実施は、概して、方法の実施に対応している。このため、関連する説明のために、方法の実施の説明を参照できる。説明したデバイスの実施は単なる実施例である。別部品として説明したユニットは物理的に分離していてもいなくてもよく、また、ユニットとして説明した部品は物理的なユニットであってもなくてもよい。それらは一箇所に位置していてもよく、複数のネットワークユニット上に分散していてもよい。モジュールのうちの一部又は全ては、本願の解決策の目的を達成するために、実際のニーズに従って選択できる。当業者は、創意工夫をすることなく、本発明の実施を理解し、実施できる。
前述の説明は、本願の実施の単なる例である。それらは、本願を限定するものではない。本願の精神及び原理から逸脱することなくなされた任意の修正、均等物の置換、又は改良は、本願の保護範囲内に入るものとする。

Claims (20)

  1. コンピュータ実装方法であって、
    処理されるべき第1の画像を特定するステップであって、前記第1の画像が1つまたは複数の干渉因子を含む、ステップと、
    1つまたは複数のサンプル画像を取得するために、前記第1の画像から前記1つまたは複数の干渉因子を除去するステップと、
    セグメント化規則に基づいて前記1つまたは複数のサンプル画像の各サンプル画像を複数のサンプル副画像にセグメント化するステップであって、各サンプル副画像が属性に関連付けられ、前記属性は前記サンプル画像内の前記サンプル副画像の位置情報を含む、ステップと、
    前記複数のサンプル副画像から1つまたは複数のターゲット副画像を決定するステップであって、各ターゲット副画像が、共通の属性に関連付けられたサンプル副画像の組み合わせを備え、各ターゲット副画像が、異なる属性に関連付けられる、ステップと、
    前記1つまたは複数のターゲット副画像に関連付けられた前記異なる属性に基づき、前記1つまたは複数のターゲット副画像を組み合わせることで、前記第1の画像の実像を復元するターゲット画像を生成するステップと、
    を備える、コンピュータ実装方法。
  2. 前記1つまたは複数のターゲット副画像を決定するステップが、前記1つまたは複数のサンプル画像の各サンプル画像を前記複数のサンプル副画像にセグメント化した後に、
    前記複数のサンプル副画像のうちの各サンプル副画像の数学的パラメータを決定するステップと、
    前記決定された数学的パラメータに基づいて、前記共通の属性に関連付けられた前記サンプル副画像を1つまたは複数の画像セットに分割するステップであって、各画像セットは1つまたは複数のサンプル副画像を含む、ステップと、
    最大の数のサンプル副画像を含む画像セットからターゲット副画像を決定するステップと
    を備える、請求項1に記載のコンピュータ実装方法。
  3. 前記1つまたは複数のサンプル副画像のうちの各サンプル副画像の前記数学的パラメータを決定するステップが、各サンプル副画像について、
    前記サンプル副画像内の各ピクセルのRGB情報に基づいて前記サンプル副画像のためのRGBベクトルを生成するステップと、
    前記サンプル副画像の前記数学的パラメータとして、前記RGBベクトルを特定するステップと
    を備える、請求項2に記載のコンピュータ実装方法。
  4. 前記共通の属性に関連付けられた前記サンプル副画像が、クラスタリングアルゴリズムを使用して前記決定された数学的パラメータに基づいて1つまたは複数の画像セットに分割される、請求項2に記載のコンピュータ実装方法。
  5. 前記最大の数のサンプル副画像を含む画像セットから前記ターゲット副画像を前記決定するステップが、前記最大の数のサンプル副画像を備える前記画像セットから前記ターゲット副画像として、クラスタリング後に取得された前記画像セット内の、中心点に対応するサンプル副画像を決定するステップを備える、請求項4に記載のコンピュータ実装方法。
  6. 前記1つまたは複数の干渉因子が、前記第1の画像に含まれる網目模様または透かしのうちの少なくとも1つを含む、請求項1に記載のコンピュータ実装方法。
  7. 前記第1の画像から前記1つまたは複数の干渉因子を除去するステップが、前記1つまたは複数のサンプル画像を取得するために複数の干渉因子除去方法を使用するステップであって、前記1つまたは複数のサンプル画像のそれぞれが、前記複数の干渉因子除去方法のうちの対応する干渉因子除去方法に基づいて取得される、ステップを備え、
    前記複数の干渉因子除去方法のうちの少なくとも1つが、画像処理ソフトウェアアプリケーションを使用した前記1つまたは複数の干渉因子の除去を含む、
    請求項1に記載のコンピュータ実装方法。
  8. 特定のサンプル副画像に関連付けられた前記属性が、前記サンプル画像に関連付けられた前記サンプル画像内の位置を表し、前記ターゲット画像を生成するステップが、前記ターゲット副画像内の各ピクセルの位置座標に基づいて、前記異なる属性に関連付けられた前記1つまたは複数のターゲット副画像を前記ターゲット画像に組み合わせるステップを備える、請求項1に記載のコンピュータ実装方法。
  9. コンピュータ可読記憶媒体であって、
    処理されるべき第1の画像を特定することであって、前記第1の画像が1つまたは複数の干渉因子を含む、特定することと、
    複数のサンプル画像を取得するために、前記第1の画像から前記1つまたは複数の干渉因子を除去することと、
    セグメント化規則に基づいて前記複数のサンプル画像の各サンプル画像を複数のサンプル副画像にセグメント化することであって、各サンプル副画像が属性に関連付けられ、前記属性は前記サンプル画像内の前記サンプル副画像の位置情報を含む、セグメント化することと、
    前記複数のサンプル副画像から複数のターゲット副画像を決定することであって、各ターゲット副画像が、共通の属性に関連付けられたサンプル副画像の組み合わせを備え、各ターゲット副画像が、異なる属性に関連付けられる、決定することと、
    前記1つまたは複数のターゲット副画像に関連付けられた前記異なる属性に基づき、前記1つまたは複数のターゲット副画像を組み合わせて、前記第1の画像の実像を復元するターゲット画像を生成すること
    を備える動作を実行するためにコンピュータシステムによって実行可能な1つまたは複数の命令を記憶する、コンピュータ可読記憶媒体。
  10. 前記複数のターゲット副画像を決定することが、前記複数のサンプル画像の各サンプル画像を前記複数のサンプル副画像にセグメント化した後に、
    前記複数のサンプル副画像のうちの各サンプル副画像の数学的パラメータを決定することと、
    前記決定された数学的パラメータに基づいて、共通の属性に関連付けられた前記サンプル副画像を複数の画像セットに分割することであって、各画像セットは1つまたは複数のサンプル副画像を含む、分割することと、
    最大の数のサンプル副画像を含む画像セットからターゲット副画像を決定することとを備える、請求項9に記載のコンピュータ可読記憶媒体。
  11. 前記複数のサンプル副画像のうちの各サンプル副画像の前記数学的パラメータを決定することが、各サンプル副画像について、
    前記サンプル副画像内の各ピクセルのRGB情報に基づいて前記サンプル副画像のためのRGBベクトルを生成することと、
    前記サンプル副画像の前記数学的パラメータとして、前記RGBベクトルを特定することと
    を備える、請求項10に記載のコンピュータ可読記憶媒体。
  12. 共通の属性に関連付けられた前記サンプル副画像が、クラスタリングアルゴリズムを使用して前記決定された数学的パラメータに基づいて1つまたは複数の画像セットに分割される、請求項10に記載のコンピュータ可読記憶媒体。
  13. 画像セットから前記ターゲット副画像を前記決定することが、前記最大の数のサンプル副画像を備える前記画像セットから前記ターゲット副画像として、クラスタリング後に取得された前記画像セット内の中心点に対応するサンプル副画像を決定することを備える、
    請求項12に記載のコンピュータ可読記憶媒体。
  14. 前記1つまたは複数の干渉因子が、前記第1の画像に含まれる網目模様または透かしのうちの少なくとも1つを含む、請求項9に記載のコンピュータ可読記憶媒体。
  15. 前記第1の画像から前記1つまたは複数の干渉因子を除去することが、前記1つまたは複数のサンプル画像を取得するために1つまたは複数の干渉因子除去方法を使用することであって、前記複数の干渉因子除去方法のうちの少なくとも1つが、特定の画像処理ソフトウェアアプリケーションを使用することを含む、除去することを備える、請求項9に記載のコンピュータ可読記憶媒体。
  16. 特定のサンプル副画像に関連付けられた前記属性が、前記サンプル画像に関連付けられた前記サンプル画像内の位置を表し、前記ターゲット画像を生成することが、前記ターゲット副画像内の各ピクセルの位置座標に基づいて、前記異なる属性に関連付けられた前記複数のターゲット副画像を前記ターゲット画像に組み合わせることを備える、請求項9に記載のコンピュータ可読記憶媒体。
  17. コンピュータ実装システムであって、
    1つまたは複数のコンピュータと、
    前記1つまたは複数のコンピュータに相互動作可能に結合される1つまたは複数のコンピュータメモリデバイスであって、1つまたは複数の命令を記憶する有形の機械可読記憶媒体を有し、前記1つまたは複数のコンピュータによって実施されたとき、
    処理されるべき第1の画像を特定することであって、前記第1の画像が1つまたは複数の干渉因子を含む、特定することと、
    複数のサンプル画像を取得するために、前記第1の画像から前記1つまたは複数の干渉因子を除去することと、
    セグメント化規則に基づいて前記複数のサンプル画像の各サンプル画像を複数のサンプル副画像にセグメント化することであって、各サンプル副画像が属性に関連付けられ、前記属性は前記サンプル画像内の前記サンプル副画像の位置情報を含む、セグメント化することと、
    前記複数のサンプル副画像から1つまたは複数のターゲット副画像を決定することであって、各ターゲット副画像が、共通の属性に関連付けられたサンプル副画像の組み合わせを備え、各ターゲット副画像が、異なる属性に関連付けられる、決定することと、
    前記1つまたは複数のターゲット副画像に関連付けられた前記異なる属性に基づき、前記1つまたは複数のターゲット副画像を組み合わせて、前記第1の画像の実像を復元するターゲット画像を生成すること
    を備える1つまたは複数の動作を実行する、コンピュータ実装システム。
  18. 前記1つまたは複数のターゲット副画像を決定することが、前記複数のサンプル画像の各サンプル画像を前記複数のサンプル副画像にセグメント化した後に、
    前記複数のサンプル副画像のうちの各サンプル副画像の数学的パラメータを決定することと、
    前記決定された数学的パラメータに基づいて、共通の属性に関連付けられた前記サンプル副画像を複数の画像セットに分割することであって、各画像セットは1つまたは複数のサンプル副画像を含む、分割することと、
    最大の数のサンプル副画像を含む画像セットからターゲット副画像を決定することとを備える、請求項17に記載のコンピュータ実装システム。
  19. 前記複数のサンプル副画像のうちの各サンプル副画像の前記数学的パラメータを決定することが、各サンプル副画像について、
    前記サンプル副画像内の各ピクセルのRGB情報に基づいて前記サンプル副画像のためのRGBベクトルを生成することと、
    前記サンプル副画像の前記数学的パラメータとして、前記RGBベクトルを特定することと
    を備える、請求項18に記載のコンピュータ実装システム。
  20. 共通の属性に関連付けられた前記サンプル副画像が、クラスタリングアルゴリズムを使用して前記決定された数学的パラメータに基づいて1つまたは複数の画像セットに分割される、請求項18に記載のコンピュータ実装システム。
JP2018557180A 2016-01-25 2017-01-16 画像処理方法及びデバイス Active JP6937782B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610049672.0 2016-01-25
CN201610049672.0A CN106997580B (zh) 2016-01-25 2016-01-25 图片处理方法和装置
PCT/CN2017/071256 WO2017128977A1 (zh) 2016-01-25 2017-01-16 图片处理方法和装置

Publications (3)

Publication Number Publication Date
JP2019504430A JP2019504430A (ja) 2019-02-14
JP2019504430A5 JP2019504430A5 (ja) 2020-08-13
JP6937782B2 true JP6937782B2 (ja) 2021-09-22

Family

ID=59397393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018557180A Active JP6937782B2 (ja) 2016-01-25 2017-01-16 画像処理方法及びデバイス

Country Status (10)

Country Link
US (2) US10706555B2 (ja)
EP (1) EP3410389A4 (ja)
JP (1) JP6937782B2 (ja)
KR (1) KR102239588B1 (ja)
CN (1) CN106997580B (ja)
MY (1) MY192394A (ja)
PH (1) PH12018501579A1 (ja)
SG (1) SG11201806345QA (ja)
TW (1) TWI711004B (ja)
WO (1) WO2017128977A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106997580B (zh) * 2016-01-25 2020-09-01 阿里巴巴集团控股有限公司 图片处理方法和装置
CN113516328B (zh) * 2020-07-13 2022-09-02 阿里巴巴集团控股有限公司 数据处理方法、服务提供方法、装置、设备和存储介质
KR102473506B1 (ko) * 2022-06-16 2022-12-05 김태진 뉴럴 네트워크를 이용하여 워터마크가 삽입된 데이터를 제공하는 방법 및 장치

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6075875A (en) * 1996-09-30 2000-06-13 Microsoft Corporation Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
JPH1196297A (ja) * 1997-09-17 1999-04-09 Hitachi Ltd 帳票画像処理方法及び帳票画像処理装置
JP4077094B2 (ja) * 1998-12-11 2008-04-16 富士通株式会社 カラー文書画像認識装置
JP2002190945A (ja) * 2000-10-12 2002-07-05 Canon Inc 情報処理装置及びその制御方法及び記憶媒体
AU2003903728A0 (en) * 2003-07-21 2003-07-31 Hao Hang Zheng Method and system for performing combined image classification storage and rapid retrieval on a computer database
US8014590B2 (en) * 2005-12-07 2011-09-06 Drvision Technologies Llc Method of directed pattern enhancement for flexible recognition
US7586646B2 (en) * 2006-04-12 2009-09-08 Xerox Corporation System for processing and classifying image data using halftone noise energy distribution
TW201002048A (en) * 2008-06-30 2010-01-01 Avermedia Information Inc Document camera and image processing method thereof
WO2012037414A1 (en) * 2010-09-15 2012-03-22 The Charles Stark Draper Laboratory, Inc. Systems and methods for multilayer imaging and retinal injury analysis
CN102436589B (zh) * 2010-09-29 2015-05-06 中国科学院电子学研究所 一种基于多类基元自主学习的复杂目标自动识别方法
KR20130021616A (ko) * 2011-08-23 2013-03-06 삼성전자주식회사 다중 측위를 이용한 단말의 측위 장치 및 방법
JP5830338B2 (ja) * 2011-10-07 2015-12-09 株式会社日立情報通信エンジニアリング 帳票認識方法および帳票認識装置
CN103839275B (zh) * 2014-03-27 2016-11-16 中国科学院遥感与数字地球研究所 高光谱图像的道路提取方法及装置
CN105450411B (zh) * 2014-08-14 2019-01-08 阿里巴巴集团控股有限公司 利用卡片特征进行身份验证的方法、装置及***
CN106997580B (zh) 2016-01-25 2020-09-01 阿里巴巴集团控股有限公司 图片处理方法和装置

Also Published As

Publication number Publication date
EP3410389A4 (en) 2019-08-21
CN106997580B (zh) 2020-09-01
CN106997580A (zh) 2017-08-01
US20200126238A1 (en) 2020-04-23
US10769795B2 (en) 2020-09-08
KR20180105210A (ko) 2018-09-27
US10706555B2 (en) 2020-07-07
EP3410389A1 (en) 2018-12-05
TW201732733A (zh) 2017-09-16
JP2019504430A (ja) 2019-02-14
MY192394A (en) 2022-08-18
PH12018501579A1 (en) 2019-04-08
KR102239588B1 (ko) 2021-04-15
TWI711004B (zh) 2020-11-21
SG11201806345QA (en) 2018-08-30
US20190005651A1 (en) 2019-01-03
WO2017128977A1 (zh) 2017-08-03

Similar Documents

Publication Publication Date Title
US10936911B2 (en) Logo detection
CN109816012B (zh) 一种融合上下文信息的多尺度目标检测方法
CN107633526B (zh) 一种图像跟踪点获取方法及设备、存储介质
US8306366B2 (en) Method and apparatus for extracting feature points from digital image
WO2016054779A1 (en) Spatial pyramid pooling networks for image processing
EP2591460A1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
JP6937782B2 (ja) 画像処理方法及びデバイス
CN110147708B (zh) 一种图像数据处理方法和相关装置
EP2954457A1 (en) System and method for identifying similarities in different images
US20150213644A1 (en) Multi-primitive fitting device and operation method thereof
CN110246095B (zh) 一种图像修复方法、装置、存储介质及终端设备
US20200005078A1 (en) Content aware forensic detection of image manipulations
CN112651953A (zh) 图片相似度计算方法、装置、计算机设备及存储介质
CN111141208B (zh) 一种平行线检测方法及装置
CN110827301A (zh) 用于处理图像的方法和装置
CN114758145A (zh) 一种图像脱敏方法、装置、电子设备及存储介质
CN111027551B (zh) 图像处理方法、设备和介质
JP6989153B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN113255700B (zh) 图像的特征图的处理方法及装置、存储介质、终端
JP2020003879A (ja) 情報処理装置、情報処理方法、透かし検出装置、透かし検出方法、及びプログラム
CN112200730B (zh) 图像滤波处理方法、装置、设备及存储介质
JP6962450B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2022064506A (ja) 画像処理装置、画像処理方法、及びプログラム
KR101627974B1 (ko) 영상 블러에 강인한 영상 특징 기술자 생성 방법 및 장치
WO2023275941A1 (en) Image processing apparatus, feature map generating apparatus, learning model generation apparatus, image processing method, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191224

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200629

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201023

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20201228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210831

R150 Certificate of patent or registration of utility model

Ref document number: 6937782

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150