JP6334735B2 - エッジベクトルを利用した画像特徴検出 - Google Patents

エッジベクトルを利用した画像特徴検出 Download PDF

Info

Publication number
JP6334735B2
JP6334735B2 JP2016565695A JP2016565695A JP6334735B2 JP 6334735 B2 JP6334735 B2 JP 6334735B2 JP 2016565695 A JP2016565695 A JP 2016565695A JP 2016565695 A JP2016565695 A JP 2016565695A JP 6334735 B2 JP6334735 B2 JP 6334735B2
Authority
JP
Japan
Prior art keywords
edge
anchor point
analysis grid
image
normal vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016565695A
Other languages
English (en)
Other versions
JP2017519277A (ja
Inventor
ビン ソン
ビン ソン
ニコラス ウィッチー
ニコラス ウィッチー
Original Assignee
ナント・ホールデイングス・アイ・ピー・エル・エル・シー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ナント・ホールデイングス・アイ・ピー・エル・エル・シー filed Critical ナント・ホールデイングス・アイ・ピー・エル・エル・シー
Publication of JP2017519277A publication Critical patent/JP2017519277A/ja
Application granted granted Critical
Publication of JP6334735B2 publication Critical patent/JP6334735B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Description

関連出願の相互参照
本願は、2014年5月6日に出願された米国仮出願第61/989,445号の優先権を主張し、その全体は本明細書に参照により援用される。
本開示は概して画像物体認識に関し、より具体的には画像物体認識において特徴を特定する技術に関する。
画像物体認識用に様々な特徴検出アルゴリズムが利用されている。最も基本的なレベルでは、特徴検出アルゴリズムは画像物体認識、検索のため、画像の代表的な特徴(例えば形状、物体等)を特徴付け、要約し、参照可能とする手段としての記述子を生成する。画像物体認識用の特徴検出アルゴリズムの一例としては、Loweによる米国特許第6,711,293号に記載されるようなScale Invariant Feature Transform(SIFT)特徴検出アルゴリズムが挙げられる。例えば、SIFT特徴検出アルゴリズムは画像内の多数の特徴に対して記述子を生成するように、画像に適用できる。
機械物体認識は通常、2つの独立したステップを含む。具体的にはまず、既知の物体の訓練画像を、特徴検出アルゴリズム(例えばSIFT特徴検出アルゴリズム)で分析することで、画像データ中の特徴に対応した記述子が生成される。多くの異なる物体に対応する記述子は、認識装置(例えばスマートフォン)上に展開されるよう、認識ライブラリ又はデータベースとしてパッケージ化されてもよい。次に、認識装置は、物体の新たな「クエリ」画像を取得する。装置は同様の画像検出アルゴリズムをクエリ画像に適用し、クエリ画像記述子を生成する。その後、装置は、クエリ画像記述子を認識ライブラリ中の訓練画像記述子と比較する。十分な一致、特に再近隣一致があった場合、クエリ画像は少なくとも1つの既知物体の表示を含むと考えられる。
通常、各種特徴検出アルゴリズムはそれぞれ根底を流れる概念が異なる。そのため、特定の記述子が特定の物体認識状況に特に有効な場合がある。例えば、ある記述子(例えばFASTコーナー記述子)は、概してビデオデータのフレーム間を追う特徴を表すのに高効率となり、別の記述子は概して各種物体の幾何学的配置を表すのに高効率となるのである。幅広い目的の画像物体認識に有用な記述子が理想であろう。
多くの画像認識技術は、単一画像内で、高テクスチャ物体(例えば、アクションフィギュア玩具又はレンガ壁)と、低テクスチャ物体(例えば、単一色ロゴ、金属板、ガラス板)との区別に困難が伴う。例えば、エッジ特徴勾配は例えばビデオフレーム間で大きく変化し得る。したがって、絶対的情報(例えば、エッジ上の単一の点で得られた情報)では、例えばエッジの一部と他部との関係に関する相対的情報に対応できない場合がある。物体認識に対して複数種の記述子が求められるよりも、単一種類の記述子で高テクスチャ、低テクスチャ画像の両方に対して効率的な画像物体認識性能を実現できれば有利であろう。
デジタル画像に対してエッジ特徴記述子を生成する方法、システム、及び製造物が本稿に記載される。各種実施形態では、低テクスチャ画像と同様に高テクスチャ画像に対しても有効な画像物体認識性能が実現できる。一実施形態では、デジタル画像内で複数のエッジが検出される。デジタル画像は、ビデオストリームのビデオフレームと描画画像のいずれかであってもよい。前記複数のエッジは、テンソル投票とCannyエッジ検出アルゴリズムのいずれかに基づいて検出されてもよい。前記複数のエッジの内のあるエッジ上に位置するアンカーポイントが選択される。前記アンカーポイントは、scale−invariant feature transform(SIFT)、Fast Retina Keypoint(FREAK)、Histograms of Oriented Gradient(HOG)、Speeded Up Robust Features(SURF)、DAISY、Binary Robust Invariant Scalable Keypoints(BRISK)、FAST、Binary Robust Independent Elementary Features(BRIEF)、Harris Corners、Edges、Gradient Location and Orientation Histogram(GLOH)、Energy of Image Gradient(EOG)、Transform Invariant Low−rank Textures(TILT)特徴の内の少なくとも1つに対応する特徴であってもよい。前記アンカーポイントに対応する、複数のセルを含む分析グリッドが生成される。前記アンカーポイントに対応する分析グリッドは、前記アンカーポイントに幾何学的中心を有してもよく、円形グリッド、放射状円形グリッド、直線状グリッドのいずれかを含んでもよい。前記アンカーポイントにおける前記エッジの法線ベクトルを含むアンカーポイント法線ベクトルが算出される。前記アンカーポイント法線ベクトルは、Harris行列固有ベクトル、又は前記アンカーポイントの画素座標における前記エッジに垂直な幾何学的法線ベクトルのいずれかであってもよい。前記分析グリッドの前記セル内の前記エッジ上の1箇所以上における、前記エッジの法線ベクトルを含む1つ以上のエッジ画素法線ベクトルが算出される。前記エッジ画素法線ベクトルは、Harris行列固有ベクトル、又は画素座標における前記エッジに垂直な幾何学的法線ベクトルのいずれかであってもよい。セル内の前記エッジ画素法線ベクトルのそれぞれと、前記アンカーポイント法線ベクトルとの間の類似度測定に基づく類似度ヒストグラムが、前記分析グリッドの1つ以上のセルそれぞれに対して生成され、前記類似度ヒストグラムに基づいて前記分析グリッドの記述子が生成される。前記記述子を生成することは、前記分析グリッドの前記セルの1つ以上に対する前記類似度ヒストグラムからのデータを連結することを含んでもよい。前記分析グリッドに対する前記記述子を使用して、画像物体認識検索を向上してもよい。
いくつかの実施形態では、前記複数のエッジから、少なくとも1つの不良エッジを除去してもよい。
いくつかの実施形態では、前記デジタル画像をある倍率で拡縮してもよく、前記拡縮デジタル画像内で前記複数のエッジを検出してもよい。いくつかの実施形態では、前記倍率は少なくとも1.5であってもよい。いくつかの実施形態では、前記倍率は少なくとも2.0であってもよい。
いくつかの実施形態では、前記アンカーポイントは、前記エッジの検出コーナーを含んでもよい。
いくつかの実施形態では、前記分析グリッドは、前記アンカーポイント法線ベクトルに基づいて配向されてもよい。
いくつかの実施形態では、前記分析グリッドは少なくとも5つのセルを含んでもよい。いくつかの実施形態では、前記分析グリッドは少なくとも9つのセルを含んでもよい。
いくつかの実施形態では、前記類似度測定は、セル内の前記エッジ画素法線ベクトルのそれぞれと、前記アンカーポイント法線ベクトルとの相対的角度又は点乗積のいずれかに基づいてもよい。
いくつかの実施形態では、前記類似度測定は、セル内の前記エッジ画素法線ベクトルのそれぞれの大きさと、前記アンカーポイント法線ベクトルの大きさとの比較に基づいてもよい。セル内の前記エッジ画素法線ベクトルのそれぞれの前記大きさと、前記アンカーポイント法線ベクトルの前記大きさは、配向に基づかない測定に基づいてもよい。
いくつかの実施形態では、前記類似度測定は、1つ以上の重み係数に基づいてもよい。前記1つ以上の重み係数は、ユークリッド距離及びガウス重みのいずれかに基づいてもよい。
いくつかの実施形態では、各類似度ヒストグラムは、複数のビンを含んでもよい。いくつかの実施形態では、各類似度ヒストグラムは、少なくとも4つのビン又は少なくとも16個のビンを含んでもよい。前記複数のビンのビン値が、最大ビン値に基づいて正規化されてもよく、0から255の範囲にあってもよい。
いくつかの実施形態では、前記類似度ヒストグラムからの前記データの連結順序を決定してもよい。前記連結順序は、前記アンカーポイント法線ベクトルに対する前記分析グリッドの前記セルの配向に基づいてもよい。
いくつかの実施形態では、前記記述子は、次元の数が前記分析グリッド内のセルの数に基づく、多次元ベクトルであってもよい。いくつかの実施形態では、前記記述子は、次元の数が前記分析グリッドに対する前記類似度ヒストグラム内のビンの総数に基づく、多次元ベクトルであってもよい。
いくつかの実施形態では、前記エッジ上に、互いに等間隔で配置された複数のアンカーポイントを選択してもよい。いくつかの実施形態では、前記エッジ上に位置する複数のアンカーポイントは、決定された前記エッジ上の分析グリッドの分布、決定された単位面積ごとの分析グリッドの量、決定された単位体積ごとの分析グリッドの量、選択された物体モデル、前記デジタル画像に関連した被写界深度情報の内の少なくとも1つに応じて、選択されてもよい。
本発明の主題についての各種目的、特徴、態様、効果は、以下の明細書の記載でより明らかになる。添付の図面が参照されるが、同様の参照符号は同様の構成要素を指す。
図1は、一実施形態における、デジタル画像の例を示す。
図2は、一実施形態における、デジタル画像内で検出される複数のエッジの例を示す。
図3Aは、一実施形態における、選択されたアンカーポイントの例を示す。
図3Bは、一実施形態における、アンカーポイントに関連して生成した分析グリッドの例を示す。
図4は、一実施形態における、分析グリッドのセル内で算出されるエッジ画素法線ベクトルの例を示す。
図5は、一実施形態における、分析グリッドのセルに対して生成される類似度ヒストグラムの例を示す。
図6は、一実施形態における、類似度ヒストグラムに基づいて、分析グリッドについて生成される記述子の例を示す。
図7は、一実施形態における、デジタル画像に対してエッジ特徴記述子を生成するシステムのブロック図を示す。
図8は、一実施形態における、デジタル画像に対してエッジ特徴記述子を生成する例示的動作のフローチャートを示す。
図9は、一実施形態における、低テクスチャ物体画像に対するエッジ特徴記述子を生成する例を示す。
図10は、一実施形態における、低テクスチャ物体画像に対する画像物体認識の例を示す。
図11は、一実施形態における、高テクスチャ物体画像に対する画像物体認識の例を示す。
図12は、一実施形態における、低テクスチャ3次元物体画像に対する画像物体認識の例を示す。
図13は、各種実施形態の1つ以上の態様を実現するために使用可能な分散型コンピュータシステムのブロック図を示す。
本発明は上記図面を参照に説明されるが、図面は例示的であるものとする。その他実施形態は、本発明の精神に沿って、本発明の範囲内のものであるとする。
以下に、添付の図面を参照にして、各種実施形態をより包括的に説明する。当該図面は、本稿の一部となるものであって、実施形態の実現の具体例を例示的に示す。ただし、本明細書の内容は様々な異なる形態で実施されてもよく、本稿記載の実施形態に限定されると解されるべきではない。当該実施形態は本明細書の内容が一貫性を有して完成し、発明の範囲が当業者に完全に伝わるよう提供されるものである。特に、本明細書の内容は方法や装置として実施されてもよい。したがって、本稿記載の各種実施形態の内の任意のものが、完全にハードウェアの実施形態、完全にソフトウェアの実施形態、又はソフトウェア及びハードウェア要素の組合せの実施形態であってもよい。このように、以下の明細書は限定的に解釈されるべきではない。
明細書、請求項全体において、別途明確に規定されない限り、以下の用語は本稿にて以下の対応する意味を有する。
本稿において使用される「一実施形態において」という表現は、同一の実施形態に関するものとは限らないが、関するものである場合もある。したがって、以下に記載する通り、本発明の各種実施形態は、本発明の範囲又は精神から逸脱することなく、容易に組合せ可能である。
本稿で使用される「又は」という語は、包括的な「or」演算子であり、別途明確に規定されない限り、「及び/又は」と同等の意味で用いられる。
「基づく」という語は排他的ではなく、別途明確に規定されない限り、記載されていない追加の要素に基づくこともできる。
本稿で使用される「と接続される」という語は、別途明確に規定されない限り、直接接続(2つの要素が互いに接して接続される)及び間接接続(少なくとも1つの追加の要素が当該2つの要素間に配置されている)の両方を含むことを意図している。したがって、「と接続される」も「に接続される」も同義として使用される。2つ以上の構成要素又は装置がデータをやり取りできるネットワーク環境において、「と接続される」及び「に接続される」は、「通信可能に接続される」ことをも意味しており、1つ以上の中間装置を介してもよい。
更に、本明細書を通じて、単数の記載は複数のものを含み、「の中に」は「の中に」及び「の上に」を含む。
本稿に示すいくつかの各種実施形態は発明の要素のある組合せからなるが、発明の主題は、開示されている要素のあらゆる組合せを含むと考えられることが理解されよう。したがって、一実施形態が要素A、B、Cを含み、別の実施形態が要素B、Dを含む場合、発明の主題は、本稿に明示的に述べられていない場合でも、A、B、C、又はDの他の組合せも含むと考えられる。
本稿の明細書及び後続の請求項において使用される場合、システム、エンジン、サーバ、装置、モジュール、又はその他のコンピューティング要素は、メモリ中のデータに対して機能を実施又は実行するよう構成されるものとして記載される。ここで、「よう構成される」又は「ようプログラムされる」は、コンピューティング要素の1つ以上のプロセッサ又はコアが、コンピューティング要素のメモリに記憶されたソフトウェア命令群によりプログラムされて、メモリに記憶されたターゲットデータ又はデータ物体に対して機能群を実行することを意味する。
コンピュータに指示されるあらゆる言語は、サーバ、インターフェース、システム、データベース、エージェント、ピア、エンジン、コントローラ、モジュール、個別に又はまとめて動作するその他の種類の演算装置構造を含む、演算装置のあらゆる適切な組合せを含むよう読み込まれることに留意されたい。演算装置は、有形、非一時的コンピュータ読取可能記憶媒体(例えばハードディスク、FPGA、PLA、ソリッドステートドライブ、RAM、フラッシュ、ROM等)に記憶されるソフトウェア命令を実行するよう構成されるプロセッサを含むことが理解されよう。ソフトウェア命令は、開示されている装置について以下に記載する役割、責任、又はその他の機能を提供するように演算装置を構成又はプログラムする。また、開示されている技術は、プロセッサに対してコンピュータベースのアルゴリズム、プロセス、方法、又はその他の命令を実行することに関する開示されているステップを実行させるソフトウェア命令を記憶する非一時的コンピュータ読取可能媒体を含むコンピュータプログラムプロダクトとして実施することもできる。いくつかの実施形態では、各種サーバ、システム、データベース又はインターフェースは、HTTP、HTTPS、AES、公開秘密鍵の交換、ウェブサービスAPI、公知の金融取引プロトコル、又はその他の電子情報交換方法に基づき得る、標準化されたプロトコル又はアルゴリズムを用いてデータをやり取りする。装置間のデータのやり取りは、パケット交換ネットワーク、インターネット、LAN、WAN、VPN、又はその他の種類のパケット交換ネットワーク、回路交換ネットワーク、セル交換ネットワーク、又はその他の種類のネットワークを介して行われてもよい。
開示される発明の主題は、人間の処理能力を上回る量のデジタルデータを処理する演算装置を構成、設定することに向けられている。いくつかの実施形態ではデジタルデータは物体画像とされるが、デジタルデータは必ずしも物体そのものではなく、物体を表示するものであることが理解されよう。演算装置のメモリ内に当該デジタルモデル又はデジタル画像を実現することで、演算装置は、そのユーザが当該装置を利用しなかった場合には得られないような利便性が得られるよう、デジタルデータ又はモデルを管理できる。したがって、開示の装置は、開示の技術に従って、そのようなデジタルデータをより効率的に処理できる。
開示の技術は、デジタル画像物体認識及び検索技術の範囲、精度、コンパクトさ、効率、速度の向上を含む、多くの有利な技術的効果をもたらすことが理解できよう。以下の明細書の内容は、大規模な全体像を示す意図はないため、明確、簡潔にするため、概念の簡略化が可能であることも理解されよう。
各種実施形態によると、本稿では画像検索の文脈で説明される物体インスタンス検索、画像認識及び/又は画像物体認識は、所定のクエリ画像に応じた画像データセット(本稿ではそれぞれ「画像」又は「デジタル画像」と称する)の特徴検出を行うシステム及び方法により実現される。画像認証は、画像の代表的な特徴を特徴付け、要約し、参照可能とする記述子を利用して可能となる。大規模画像認識では、多数のサーバが並行動作し、それぞれ一千万以上の画像よりなる画像データセットを処理する場合すらある(中規模画像認識で処理されるのは、サーバ1台当たり百万以上の画像よりなる画像データセットとなる)。但し、莫大な画像データセットに対応する記述子の記憶要件により、画像記述子のメモリフットプリントと、例えばmean average precision(mAP)で測定される画像検索性能とのいずれかを優先して、いずれかを犠牲にするような状況も少なくない。したがって、大規模な画像認識を実行するならば、画像を特徴付けるため使用される画像記述子を少なくすることが望ましい。
図1は、一実施形態における、デジタル画像の例を示す。図1において、デジタル画像100は、1つ以上の物体の画像又はデジタル表示を示す。デジタル画像100は、1つ以上の物体の赤外線フィルタ画像、X線画像、360度視画像、合成画像、機械視画像、ビデオデータのフレーム、グラフィック表示、三次元物体斜視像の内のいずれか又はその他種類のデジタル画像であってもよい。デジタル画像100は、ある倍率で拡縮、例えば拡大、縮小されたデジタル画像を表してもよい。デジタル画像100内の1つ以上の物体は、例えば医療情報、人物、動物、植物、玩具、建築物、製品、バーコード、印刷物、又はその他種類の物体を含む高テクスチャ、中テクスチャ、低テクスチャ物体の任意の組合せを含んでもよい。
いくつかの実施形態では、デジタル画像100は画像の一部、又はより巨大な画像構造の一部であってもよい(例えば画像の切り抜き、ソーシャルメディアウェブサイトにアップされた群衆写真から抽出された人物の顔画像、又はビデオシーケンスのフレーム)。例えば、デジタル画像100は撮像装置により撮影された、又は配信された(例えばテレビ、映画等)ビデオストリームからビデオフレームを取得することによって得られてもよい。
記述子は、画像の1つ以上の目立つ特徴(例えば形状、物体等)に対応するベクトルであってもよい。画像特徴の検出、記述子生成には様々な方法を利用可能である。例えば、scale−invariant feature transform(SIFT)は、現在広く使用されている画像認識アルゴリズムで、画像の特徴を検出、表現するため使用される。SIFT記述子は128次元であり、非常に目立ち(即ち、マッチングのため区別しやすい)、照明、3次元(3D)視点等に対して少なくともある程度ロバストである。例えば、SIFT記述子の生成に関しては、D.Loweによる"Distinctive Image Features from Scale−Invariant Keypoints"、International Journal of Computer Vision 60 (2)、91から110ページ(2004)を参照されたい。SIFT記述子以外の記述子も利用可能である。当該記述子としてはFast Retina Keypoint(FREAK)記述子、Histograms of Oriented Gradient(HOG)記述子、Speeded Up Robust Features(SURF)記述子、DAISY記述子、Binary Robust Invariant Scalable Keypoints(BRISK)記述子、FAST記述子、Binary Robust Independent Elementary Features(BRIEF)記述子、Harris Corners記述子、Edges記述子、Gradient Location and Orientation Histogram(GLOH)記述子、Energy of Image Gradient(EOG)記述子、Transform Invariant Low−rank Textures(TILT)記述子が挙げられる。通常、画像データセットの各画像は、記述子によって表される何百、何千もの特徴を含む。したがって、有効なシステム制約条件としては、画像データセットを表すため必要な記述子の量の圧縮、及び記述子内の情報を記憶するために必要なメモリサイズの低減の両方を達成する方法が求められることが多い。
エッジ特徴記述子は、様々な(例えば高テクスチャ、低テクスチャ)デジタル画像に対する効率的な画像物体認識性能を提供するにあたって有効となり得る。例えば、エッジ検出アルゴリズムを適用してデジタル画像100のようなデジタル画像内の複数のエッジを検出してもよい。前記複数のエッジの内の1つのエッジ上に存在するアンカーポイントを選択して、当該アンカーポイントに対応する、複数のセルを含む分析グリッドを生成してもよい。アンカーポイントにおけるエッジ情報間の類似度ヒストグラムと、アンカーポイントに関連した分析グリッドのセル内のエッジ情報に基づいて分析グリッド用のエッジ特徴記述子を決定してもよい。このようにして、デジタル画像100のエッジ特徴記述子のライブラリを、既知の物体(例えば、人物、建物、車両、バーコード、印刷媒体等)に対応付けて画像物体認識検索を向上してもよい。
図2は、開示される主題の一実施形態における、デジタル画像内で検出される複数のエッジの例を示す。図2に示すように、デジタル画像200は、例えばエッジ202のような複数のエッジを含んでもよい。当該複数のエッジ202は、各種エッジ検出技術によってデジタル画像200内で検出できる。通常、エッジ検出の目的は、画像の重要と判定される不連続箇所を特定することである。
例示的実施形態では、前記複数のエッジ202は、テンソル投票の概念をデジタル画像200に適用して、例えばエッジ画素(エッジル(edgels)とも称される)をエッジにグルーピングすることで検出できる。テンソル投票は、デジタル画像内等に存在する点群から構造を抽出、グルーピングする技術である。通常、テンソル投票はある点(例えば画像画素)が表面、曲線、接合点に存在する、又はその点にノイズが多いかの尤度の顕著性測定を推定することを含む。それは、テンソルにより符号化された最も尤度の高い法線(複数可)の拡散、凝集に基づく。第1段階として、法線の第1推定により、または、所定の情報が利用不能である場合には球形のテンソルにより、テンソルが群中の全ての点で初期化される。次に、全テンソルが棒、板、球の3つの要素に分解される。各要素により投票が行われる。即ち、当該要素の投票で符号化される情報を考慮して、隣接する点における法線の尤度が最も高い方向(複数可)を符号化するテンソルである。その後、投票は集められ、全点における表面、曲線、接合点測定を推定するよう解析される。顕著性の低い点はノイズが多いとみなされる。
別の例示的実施形態では、Cannyエッジ検出アルゴリズムをデジタル画像200に適用して、複数のエッジ202を検出してもよい。通常、Cannyエッジ検出アルゴリズムは、ガウシアンフィルタの適用により画像を平滑化してノイズを除去することと、画像の輝度勾配を判定することと、non−maximum suppression(例えばエッジシニング技術)を適用してエッジ検出のスプリアスレスポンスを除去することと、二重閾値を適用して潜在的エッジを判定することと、例えば強いエッジに接続されていない弱いエッジを除去することを通じてヒステリシスによりエッジを追跡してエッジ検出を完成させることとを含む。このように、各種実施形態では、Cannyエッジ検出アルゴリズムを利用してエッジ画素を検出し、テンソル投票の概念を利用してエッジ画素をエッジにグルーピングしてもよい。
いくつかの実施形態では、1つ以上のエッジレットを接続してエッジを形成することで、デジタル画像200内で複数のエッジを検出してもよい。例えば、エッジレットは、曲率半径を持つ円弧形状により表されてもよく、各エッジレットはエッジに沿って存在すると判定され得るエッジ画素(例えば画像内の画素)を含んでもよい。
いくつかの実施形態では、エッジ検出はスケール不変性を実現する技術を含んでもよい。例えば、デジタル画像200はある倍率で拡縮されて、それぞれの拡縮画像にてエッジ群を抽出してもよい。したがって、デジタル画像200は実質的な下限に達するまで、複数回(例えば2倍ずつ)縮小してもよい。例えば、倍率は1.5、1.75、2.25、2.5倍等を含む。一実施形態では、倍率は好ましくは1.5以上、又は2.0以上である。これにより、一般的に十分なスケール不変性が得られ、その他倍率の場合と比較してより演算効率が高くなる。
当業者であれば、本稿記載のエッジ検出技術は例示的であって、デジタル画像内で複数のエッジを判定するためにその他様々なエッジ検出技術を適用できることが理解されよう。例えば、エッジ検出用の例示的システム及び方法が、参照により本稿に組み込まれる出願日2015年2月16日、名称「エッジ型認識、システム及び方法」の米国特許出願第14/623341号に記載されている。当業者であれば、デジタル画像200内の特定のエッジ、例えば不良エッジ208を複数のエッジから除去して、ノイズ除去を行ってもよいことが理解されよう。例えば、近傍に別のエッジが存在しないような単量子線(例えば曲率が非常に低く、半径の大きい円弧)は、複数のエッジから除去してもよい。例えば画像物体認識検索に十分な分解能とならないためである。
図3Aは、一実施形態において、選択されたアンカーポイントの例を示す。図3Aにおいて、エッジ302上のアンカーポイント300がデジタル画像(例えばデジタル画像200)内で選択される。例えば、エッジ302は上述したようなエッジ検出技術により検出された複数のエッジの1つであってもよい。アンカーポイント300はエッジ302上の任意の位置(例えば画素位置)で選択されてもよい。一実施形態では、アンカーポイント300は特徴検出アルゴリズムを利用して選択してもよい。例えば、いくつかの実施形態では、アンカーポイント300はscale−invariant feature transform(SIFT)、Fast Retina Keypoint(FREAK)、Histograms of Oriented Gradient(HOG)、Speeded Up Robust Features(SURF)、DAISY、Binary Robust Invariant Scalable Keypoints(BRISK)、FAST、Binary Robust Independent Elementary Feature(BRIEF)、Harris Corners、Edges、Gradient Location and Orientation Histogram(GLOH)、Energy of Image Gradient(EOG)、Transform Invariant Low−rank Textures(TILT)特徴の内の少なくとも1つに対応する特徴であってもよい。更に、いくつかの実施形態では、アンカーポイント300はエッジ302上の所定の関心点で選択されてもよい。例えば、アンカーポイント300はエッジ302上の検出コーナー、又はエッジ302上の別の種類の検出された特徴(例えば変曲点、エッジの閾値を超える曲率変化が生じた点等)に位置してもよい。いくつかの実施形態では、検出コーナーのような特徴が所定の関心点であってもよい。この場合、ビデオストリーミングデータのリアルタイム又はフレーム単位分析中に追跡可能である。エッジの検出コーナーに位置している特徴は、画像データに関連したテクスチャ情報を含んでもよい。このように、当業者には、アンカーポイントが実質的に検出エッジ上に位置する任意の点と選択される、又は検出エッジから閾値距離内であることが理解されよう。
図3Aにはアンカーポイントが1つのみ示されているが、エッジ302上の複数のアンカーポイントを選択して、例えば画像に対して複数の記述子を生成するようにしてもよいことが理解されよう。いくつかの実施形態では、決定されたエッジ上の分析グリッドの分布、決定された単位面積ごとの分析グリッドの量、決定された単位体積ごとの分析グリッドの量(後述)、選択された物体モデル、デジタル画像に関連した被写界深度情報の内の少なくとも1つに応じて、エッジ上に位置する複数のアンカーポイントを選択してもよい。例えば、エッジ302上に位置する複数のアンカーポイントは、エッジ上で互いに等間隔のものとして選択されてもよい。
一実施形態では、アンカーポイントでのエッジの法線ベクトルを含むアンカーポイント法線ベクトル304を算出してもよい。例えば、アンカーポイント法線ベクトル304は、アンカーポイント300でのエッジ302に対応した情報を含む単位法線ベクトルのような法線ベクトルを示す。一実施形態では、アンカーポイント法線ベクトル304は、Harris行列固有ベクトル、アンカーポイントの画素座標でのエッジに垂直な幾何学的法線ベクトルのいずれかであってもよい。例えば、アンカーポイント法線ベクトル304は、高輝度から低輝度を示すHarris行列固有ベクトルに対応してもよい。Harris行列は、平均ウィンドウサイズが例えば9画素(即ち、アンカーポイントとその近傍の8画素の画素座標)と決定されるようにしてもよい。これにより、演算効率を損なうことなくノイズが低減できる。別の例では、アンカーポイント法線ベクトル304はアンカーポイント300における(例えば、アンカーポイント300に関連した画素座標における)エッジ302に対して実質的に垂直な幾何学的法線ベクトルであってもよい。例えば、アンカーポイント300における幾何学的法線ベクトルは、取得可能であればエッジ302に対応した曲率半径情報に基づいて、又はエッジ302のエッジレット又はエッジ画素に対応した曲率半径情報に基づいて計算されてもよい。
図3Bは、一実施形態においてアンカーポイントに対して生成された分析グリッドの例を示す。通常、分析グリッドはアンカーポイントに関連した領域の曲線を分析するために使用されうる模式的構造を表す。例えば、図3Bにおいて分析グリッド310はアンカーポイント300に対応し、分析グリッド340はアンカーポイント330に対応する。各種実施形態では、分析グリッドは円形グリッド、放射状円形グリッド、直線状グリッドのいずれかであってもよい。例えば、分析グリッド310、分析グリッド340は円形グリッド又は放射状円形グリッドである。いくつかの実施形態では、エッジ上で特定される特徴の数によっては、分析グリッドがエッジ上の多数のアンカーポイントの少なくとも一部に均等に分布されてもよい。例えば、複数のアンカーポイントが、エッジ上で互いに等間隔に分布してもよい。前記複数のアンカーポイントに対応する分析グリッドは、重ねられたり、重ならないように生成(図示)されたりしてもよい。更に、アンカーポイントと対応する分析グリッドとは、デジタル画像内の単位面積ごとの所望の分析グリッド数、3次元空間内(例えば3次元物体モデルの斜視像内)の単位体積ごとの所望の分析グリッド数、所定の(即ち既存の)物体モデル、又は画像データから得られた被写界深度情報に基づいて均等に分布してもよい。
一実施形態では、分析グリッドは複数のセル(即ち区間)を含んでもよい。例えば、例示的分析グリッド310は5つのセルを有する(即ち中心セル312が、円弧状セル314、316、318、320に取り囲まれる)。これも例示的だが、分析グリッド340は9つのセルを有する(即ち中心セル342と、内側シェルの円弧状セル344、346、348、350と、外側シェルの円弧状セル352、354、356、358)。分析グリッドが任意の数のセル又は区間を有してもよいことが理解されよう。このように、少なくとも5つのセル又は少なくとも9つのセルを有してもよい分析グリッドはあくまで例示であり、様々な配置、構成、セル数が考えられる。
いくつかの実施形態では、複数のセルを含む分析グリッドは、対応するアンカーポイントの1つ以上の特徴に基づいて拡縮されてもよい。例えば、分析グリッドは対応するアンカーポイントの決定されたサイズに基づいて拡縮されてもよい。対応するアンカーポイントのサイズは、当該アンカーポイントに対応する特徴(例えばSIFT特徴)の1つ以上の特性に対応してもよい。したがって、分析グリッドは対応するアンカーポイント(また、別分析グリッド)に比例して拡縮されてもよい。これにより、デジタル画像内の分析グリッドが、例えばデジタル画像の異なる倍率の拡縮に対してもスケール不変性を有するようになる。
一実施形態では、分析グリッドはアンカーポイント法線ベクトルに基づいて配向されてもよい。例えば、分析グリッド310及び分析グリッド340は、それぞれアンカーポイント300及びアンカーポイント330のアンカーポイント法線ベクトルに基づいて配向される。その結果、分析グリッド310及び分析グリッド340はそれぞれアンカーポイント300及びアンカーポイント330のアンカーポイント法線に対して回転不変性を有してもよい。同様に、分析グリッドはアンカーポイントにその幾何学的中心が配置されてもよい(例えば、アンカーポイントに対応する画素座標に幾何学的中心が配置)。
図4は、一実施形態において、分析グリッドのセル内で算出されたエッジ画素法線ベクトルの一例を示す。図4は、図3Bの分析グリッド310と概して同様の放射状円形分析グリッド400の一部の拡大図である。例えば、分析グリッド400はアンカーポイント法線ベクトル402に応じて配向されるため、配向不変性を有する。例えば、このような配置を選択すれば、様々な特徴に対して、分析グリッドの表示を一定とし、本稿の実施形態に基づく記述子の計算方法を一定とできる。分析グリッド400は、中心セル404と、円弧状セル406から410とを有する。分析グリッド400のその他の円弧状セルは見やすさのために図示省略した。更に、中心セル404(即ち、周辺のアンカーポイント法線ベクトル402)と、外側シェルでアンカーポイント法線ベクトル402に対して0から90度の角度の円弧として並ぶ円弧状セル406、408、410を含む分析グリッド400となっているが、このセルの配列は、分析グリッド内のセル配列の候補の一例である。また、セルのサイズ(例えば画素の半径距離)は調整可能である。したがって、各種実施形態では、あらゆる現実的なセルのサイズ、構成、配向、配列が採用されうる。
エッジ420及び430が分析グリッド400を通過する。具体的には、エッジ420は円弧状セル406及び中心セル404を通過し、エッジ430は円弧状セル408と中心セル404とを通過する。なお、2つ以上のセルを通過するエッジにより、本稿の実施形態に基づいて生成される特徴記述子の分解能が増す。さらに、分析グリッド400内で、例えばエッジ検出技術により判定できるエッジ420及びエッジ430の経路は、複数の画素440及び450をそれぞれ含む。見やすさのため、図内では少数の画素を示している。
一実施形態では、エッジ情報(例えばエッジレット又はHarris行列からの曲率情報)を使用して、例えば分析グリッド400のような分析グリッドのセル内のエッジ上に位置する各画素に対してエッジ画素法線ベクトルを計算してもよい。例えば、エッジ画素法線ベクトル460を、エッジ420上の各エッジ画素450について算出できる。各エッジ画素法線ベクトル460は、画素座標におけるエッジ420に垂直なHarris行列固有ベクトル、幾何学的法線ベクトルのいずれかであってもよい。
図5は、一実施形態における、分析グリッドのセルに対して生成された類似度ヒストグラムの例を示す。類似度ヒストグラム500は、分析グリッドの1つ以上のセルそれぞれに対して生成されてもよい。例えば、図3Bの5セル分析グリッド310から、5セル分の類似度ヒストグラム(又はより少ない数のセルに対する類似度ヒストグラム)が生成され、9セル分析グリッド340から、9セル分の類似度ヒストグラム(又はより少ない数のセルに対する類似度ヒストグラム)が生成され得る。
一実施形態では、類似度ヒストグラム500は、セル内の各エッジ画素法線ベクトルと、アンカーポイント法線ベクトルとの間の類似度測定に基づいてもよい。例えば、類似度測定は、アンカーポイント法線ベクトル502と、例えばエッジ画素法線ベクトル504のような各エッジ画素法線ベクトルとの間の相対的角度θ(図示された)に基づいてもよい。即ち、類似度測定は、0から360度(即ち、孤度0から2π)の範囲の相対的角度に基づく。別の例では、類似度測定はアンカーポイント法線ベクトルと、各エッジ画素法線ベクトルとの間のコサイン(θ)又は点乗積に基づいてもよい。即ち、類似度測定は、−1から1の範囲の点乗積値であってもよい。好適な実施形態では、類似度測定により、類似度ヒストグラム内での値が均一に分布し、どの程度アンカーポイント法線ベクトルと、各エッジ画素法線ベクトルが互いに類似しているかを示すことが可能となる。このように、好適な実施形態では、類似度ヒストグラムは絶対的情報(例えば画素座標における)ではなく、アンカーポイント法線ベクトルと、各エッジ画素法線ベクトルとの相対的類似度についての情報を示す。
いくつかの実施形態では、類似度測定は、セル内の各エッジ画素法線ベクトルの大きさと、アンカーポイント法線ベクトルの大きさとの比較のような更なるベクトル情報に基づいてもよい。例えば、セル内の各エッジ画素法線ベクトルの大きさと、アンカーポイント法線ベクトルの大きさとは、配向に基づかない測定に基づいてもよい。このように、セル内の各エッジ画素法線ベクトルの大きさと、アンカーポイント法線ベクトルの大きさとは1つの正規化された大きさではなく、例えば画素位置での、エッジ曲率情報、色(例えば相対的RGB強度)情報等を含むエッジの各種性質に基づく大きさを有してもよい。したがって、類似度測定は、例えばベクトルの大きさの比の対数値のような、大きさの相対的比較を示してもよい。例えば、0という対数値(即ちlog(1))は、同一の大きさのベクトルを示し、正負の値となる場合、ベクトルの大きさの相対的な差を示すものであってもよい。
いくつかの実施形態では、類似度測定は1つ以上の重み係数に基づいてもよい。例えば、類似度測定はアンカーポイントと各エッジ画素との間のユークリッド距離(d)に基づいて調整されてもよい。別の例では、類似度測定は、1/ユークリッド距離(d)又はガウス重みという因数を含み得る重み係数に基づいて調整されてもよい。当業者であれば、様々な類似度測定が利用可能であることが理解できよう。したがって、本稿記載の類似度測定の例は、あくまで例示であって、各種実施形態を限定に解するべきではない。
類似度ヒストグラムは、ある角度範囲で等間隔に並べられた複数のビンを含んでもよい。一実施形態では、類似度ヒストグラムは好ましくは少なくとも4つのビンを含み、より好ましくは少なくとも16個のビンを含む。但し、類似度ヒストグラムは現実的なあらゆる数のビンを含んでもよいことが理解されよう。例えば、類似度ヒストグラム500は等間隔の16個のビン(例えば22.5度間隔)を含んで、0から360度の間の角度を網羅する。なお、類似度ヒストグラム内のビンの量と間隔は、画像物体認識検索の分解能、画像物体認識検索時間等の様々な要素を考慮して調整できる。
一実施形態では、類似度ヒストグラムビン値は、所定の最大値を超えないよう正規化できる。例えば、ビン値はコンピュータメモリで容易に示されるよう、0から255の値の範囲であってもよい。0から255の間のビン値は、1バイトで表されてもよいため、16ビン類似度ヒストグラムは16バイトで表されてもよい。
図6は、一実施形態の、類似度ヒストグラムに基づいて、分析グリッドについて生成された記述子の例を示す。例えば、5セル分析グリッド(例えば図3Bの分析グリッド310)に対するグリッド記述子600は、5つのセルそれぞれからの類似度ヒストグラム情報に基づいてもよい。各類似度ヒストグラムが16個のビンを含む場合、グリッド記述子600は80次元となる(即ち5×16)。同様に、9セル分析グリッド(例えば図3Bの分析グリッド340)については、各セルの類似度ヒストグラムは16個のビンを有し、グリッド記述子は144次元となる(即ち16×9)。
一実施形態では、グリッド記述子600は、分析グリッドの1つ以上のセルの類似度ヒストグラムからのデータを連結することで生成され得る。そのため、グリッド記述子を生成することは、類似度ヒストグラムからのデータの連結順序を決定することを含む。いくつかの実施形態では、連結順序はアンカーポイント法線ベクトルに対する分析グリッドのセルの配向に基づいてもよい。例えば、分析グリッド310に対応する類似度ヒストグラムからのデータの連結は、アンカーポイント法線ベクトルに対するセルの相対的向きに基づいて順序が決定されてもよい。これにより、記述子は、中心セル312から始まり、セル314、セル316、セル318、セル320に並ぶという順序のデータを含む。類似度ヒストグラムからのデータは、例えば所定のデータの優先順位を上げる又は下げる等、任意の様々な方法で連結されるよう配列されてもよいことが理解されよう(例えば、主成分分析(PCA)又はその他次元縮小方法による)。例えば、データの内の所定のもの(例えば、分析グリッド310内のセル320に対応する類似度ヒストグラムデータ)が、記述子の先頭周辺に存在するように記述子は配列されてもよい。例えば、これにより画像物体認識検索に対する各種類似度ヒストグラム内のデータの分解能を最大化できる。更に/或いは関連するデジタル画像のアフィン変換に対して、データがロバストになる。
図7は、一実施形態の、デジタル画像のエッジ特徴記述子を生成するシステムのブロック図を示す。ブロック図700において、エッジ特徴記述子を生成する要素は、特徴検出部710、撮像装置720、持続ストレージ装置730、メインメモリ装置740を含む。但し、図7の要素、当該要素それぞれによる各種機能は例示的であって、単に理解を簡単にするためのみを目的として説明されるものである。当業者であれば、各種要素による1つ以上の機能は、その他要素の1つ、及び/又は当該各種機能の組合せを実現するように構成された要素(図示しない)により実現されてもよいことが理解されよう。
一実施形態では、特徴検出部710はデジタル画像750の1つ以上のエッジ特徴記述子を生成するように構成される。いくつかの実施形態では、デジタル画像750は、通常の写真、画像、又はビデオフレームのような、物体702の2次元(2D)表現である。或いは、デジタル画像750は特殊なフィルタ又はレンズ(例えば魚眼レンズ)を利用して生成された歪み画像であってもよい。さらに、デジタル画像750は赤外線(IR)画像フィルタ、X線、360度斜視像等の1つ以上に基づく、物体の機械又はロボット視であってもよい。このように、デジタル画像750は、歪みのない画像、赤外線フィルタ画像、X線画像、360度視画像、機械視画像、ビデオデータのフレーム、グラフィック表示、三次元物体の斜視像のいずれかであってもよく、撮像装置720のような撮像装置でビデオストリームのビデオフレームを撮影することで取得されてもよい。
いくつかの実施形態において、撮像装置720は特徴検出部710の外部(図示)又は内部に設けられ、物体702の画像を生成するか、その他方法で取得する装置であってもよい。例えば、撮像装置720は、通信ネットワークを介して特徴検出部710に接続された遠隔サーバ(例えばPlatform−as−a−Service(PaaS)サーバ、Infrastructure−as−a−Service(IaaS)サーバ、Software−as−a−Service(SaaS)サーバ、又はクラウド型サーバ)又は遠隔画像データベースを含んでもよい。別の例では、撮像装置720は画像及び/又はビデオデータのフレームを取得するように構成されたデジタルスチルカメラ又はビデオカメラ(例えばCCD、CMOS,又は超音波光学センサ)を含んでもよい。また別の例では、撮像装置720はグラフィック描画/モデリングエンジン(例えばゲーミングシステム、画像描画ソフトウェア等)を有してもよく、デジタル画像が撮像画像ではなく物体の生成画像であってもよい。
一実施形態において、特徴検出部710はデジタル画像内の複数のエッジを検出752するよう構成されてもよい。例えば、特徴検出部710はテンソル投票やCannyエッジ検出アルゴリズムに基づいて複数のエッジを検出してもよい。別の例では、特徴検出部710は参照により本稿に組み込まれる出願日2015年2月16日、名称「エッジ型認識、システム及び方法」の米国特許出願第14/623341号に記載されている方法のような1つ以上のエッジ検出方法を適用してもよい。いくつかの実施形態では、特徴検出部710は複数のエッジから少なくとも1つの不良エッジを除去してもよい。更に、いくつかの実施形態では、特徴検出部710はデジタル画像をある倍率で拡縮し、複数のエッジはその拡縮デジタル画像から検出されてもよい。例えば、倍率は少なくとも1.5、又は少なくとも2.0であってもよい。
特徴検出部710はさらに、複数のエッジの内のあるエッジ上のアンカーポイントを選択754するように構成される。例えば、特徴検出部710は特徴検出アルゴリズムを適用してデジタル画像内の複数の特徴を検出し、複数の特徴から複数のエッジの内のあるエッジ上にあると判定されるアンカーポイントを選択してもよい。そのため、いくつかの実施形態では、アンカーポイントはscale−invariant feature transform(SIFT)、Fast Retina Keypoint(FREAK)、Histograms of Oriented Gradient(HOG)、Speeded Up Robust Features(SURF)、DAISY、Binary Robust Invariant Scalable Keypoints(BRISK)、FAST、Binary Robust Independent Elementary Features(BRIEF)、Harris Corners、Edges、Gradient Location and Orientation Histogram(GLOH)、Energy of image Gradient(EOG)、Transform Invariant Low−rank Textures(TILT)特徴の内の少なくとも1つに対応する特徴であってもよい。いくつかの実施形態では、アンカーポイントはさらにエッジの検出コーナー、又はエッジ上のその他検出変曲点を含んでもよい。
いくつかの実施形態では、特徴検出部710はさらに、エッジ上の複数のアンカーポイントを選択するよう構成されてもよい。このアンカーポイントはエッジ上で互いに等間隔となる。いくつかの実施形態では、エッジ上の複数のアンカーポイントは、決定されたエッジ上の分析グリッドの分布、決定された単位面積ごとの分析グリッドの量、決定された単位体積ごとの分析グリッドの量、選択された物体モデル、デジタル画像に関連した被写界深度情報の内の少なくとも1つに応じて選択されてもよい。
特徴検出部710はさらに、アンカーポイントに対応付けられ、複数のセルを含む分析グリッドを生成756するように構成されてもよい。例えば、分析グリッドは、アンカーポイントに幾何学的中心があってもよく、円形グリッド、放射状円形グリッド、直線状グリッドのいずれかであってもよい。いくつかの実施形態では、例えば配向不変性が得られるよう、特徴検出部710はさらにアンカーポイント法線ベクトルに基づいて分析グリッドを配向するように構成されてもよい。
特徴検出部710はさらに、アンカーポイントにおけるエッジの法線ベクトルを含むアンカーポイント法線ベクトルを算出758するように構成される。例えば、アンカーポイント法線ベクトルは、Harris行列固有ベクトル又はアンカーポイントにおける画素座標のエッジに対して垂直な幾何学的法線ベクトルの内のいずれかであってもよい。
同様に、特徴検出部710はさらに、分析グリッドのセル内のエッジ上の1箇所以上におけるエッジの法線ベクトルを含む1つ以上のエッジ画素法線ベクトルを算出760するように構成されてもよい。エッジ画素法線ベクトルはさらに、Harris行列固有ベクトル又は画素座標におけるエッジに垂直な幾何学的法線ベクトルであってもよい。
特徴検出部710はさらに、分析グリッドの1つ以上のセルそれぞれに対して類似度ヒストグラムを生成762するように構成されてもよい。各類似度ヒストグラムは、セル内の各エッジ画素法線ベクトルとアンカーポイント法線ベクトルとの間の類似度測定に基づく。いくつかの実施形態では、類似度測定はセル内の各エッジ画素法線ベクトルとアンカーポイント法線ベクトルとの間の相対的角度又は点乗積に基づいてもよい。いくつかの実施形態では、類似度測定はセル内の各エッジ画素法線ベクトルの大きさと、アンカーポイント法線ベクトルの大きさとの比較に基づいてもよい。例えば、セル内の各エッジ画素法線ベクトルの大きさと、アンカーポイント法線ベクトルの大きさは、配向に基づかない測定に基づいてもよい。類似度測定はさらに、1つ以上の重み係数に基づいてもよい。例えば、1つ以上の重み係数はユークリッド距離と、ガウス重みのいずれかに基づいてもよい。いくつかの実施形態では、各類似度ヒストグラムは複数のビンを含んでもよく、例えば少なくとも4つのビン又は少なくとも16個のビンを含んでもよい。更に、特徴検出部710はさらに当該複数のビンのビン値を正規化するよう構成されてもよい。正規化は、例えば最大ビン値に基づいてもよい(例えば、ビン値は0から255の範囲内となるよう正規化されてもよい)。
特徴検出部710は類似度ヒストグラムに基づいて分析グリッドの記述子を生成764するように構成される。記述子を生成することは、分析グリッドの1つ以上のセルに対する類似度ヒストグラムからのデータを連結することを含む。いくつかの実施形態では、特徴検出部710はさらに類似度ヒストグラムからのデータの連結順序を判定するよう構成されてもよい。例えば、連結順序はアンカーポイント法線ベクトルに対する分析グリッドのセルの配向に基づいてもよい。いくつかの実施形態では、特徴検出部710は持続ストレージ装置730及び/又はメインメモリ装置740に記述子を記憶するように構成されてもよく、例えばこれにより画像物体認識検索を向上してもよい。
図8は、一実施形態の、デジタル画像に対するエッジ特徴記述子を生成する動作の例を示すフローチャートである。なお、方法800は、特徴検出部710のような特徴検出部の開示の役割や機能を有するように構成又はプログラムされた1つ以上の演算装置により実行されてもよいことが理解されよう。例えば、特徴検出部は、各サーバが例えばSIFT型画像分析パッケージで構成されるようなコンピュータサーバファームを含んでもよい。この場合、いくつかの実施形態では、特徴検出部は方法800の処理のため、数百万ものデジタルデータを取り込み得る。更に、特徴検出部は、方法800に応じてビデオデータの画像フレームを、リアルタイム等で撮影するよう設けられた撮像装置(例えばビデオカメラやゲーム筐体)を含んでもよい。
ステップ802では、デジタル画像内の複数のエッジが検出される。例えば、デジタル画像はビデオストリームのビデオフレームと描画画像のいずれかであってもよい。前記複数のエッジは、テンソル投票又はCannyエッジ検出アルゴリズムにより検出されてもよい。
ステップ804では、前記複数のエッジの内のあるエッジ上に位置するアンカーポイントが選択される。アンカーポイントは、scale−invariant feature transform(SIFT)、Fast Retina Keypoint(FREAK)、Histograms of Oriented Gradient(HOG)、Speeded Up Robust Features(SURF)、DAISY、Binary Robust Invariant Scalable Keypoints(BRISK)、FAST、Binary Robust Independent Elementary Features(BRIEF)、Harris Corners、Edges、Gradient Location and Orientation Histogram(GLOH)、Energy of image Gradient(EOG)、Transform Invariant Low−rank Textures(TILT)特徴の内の少なくとも1つに対応する特徴であってもよい。
ステップ806では、アンカーポイントに関連する、複数のセルを含む分析グリッドが生成される。分析グリッドはアンカーポイント上に幾何学的中心を有してもよく、円形グリッド、放射状円形グリッド、直線状グリッドのいずれかを含む。
ステップ808では、アンカーポイントにおけるエッジの法線ベクトルを含むアンカーポイント法線ベクトルが算出される。アンカーポイント法線ベクトルはHarris行列固有ベクトル、アンカーポイントの画素座標におけるエッジに垂直な幾何学的法線ベクトルのいずれかであってもよい。
ステップ810では、分析グリッドのセル内のエッジ上の1箇所以上のエッジの法線ベクトルを含む1つ以上のエッジ画素法線ベクトルが算出される。エッジ画素法線ベクトルは、Harris行列固有ベクトル、画素座標におけるエッジに垂直な幾何学的法線ベクトルのいずれかであってもよい。
ステップ812では、分析グリッドの1つ以上のセルのそれぞれに対して類似度ヒストグラムが生成される。各類似度ヒストグラムはセル内の各エッジ画素法線ベクトルとアンカーポイント法線ベクトルとの間の類似度測定に基づく。ステップ814において、類似度ヒストグラムに基づいて分析グリッドについて記述子が生成される。記述子を生成することは、分析グリッドの1つ以上のセルに対する類似度ヒストグラムからのデータを連結することを含む。ステップ816では、記述子が記憶される。これにより、例えば画像物体認識検索が向上する。
図9から12は、一実施形態のエッジ特徴記述子を生成するために使用されるデジタル画像の例を示す。特に、図9から12は、本稿の実施形態が、低テクスチャ及び高テクスチャ両方の場合に対する物体認識検索に有用なエッジ特徴記述子の生成に利用可能であることを示している。
図9は、一実施形態の、低テクスチャ物体画像のエッジ特徴記述子を生成する例を示す。図9において、デジタル画像900は低テクスチャ物体(具体的には数字の2)の画像である。画像910は、本稿の各種実施形態をデジタル画像900に適用した場合を示す。デジタル画像910において、複数のアンカーポイント(例えばアンカーポイント902)が選択されており、各アンカーポイントに対して対応するアンカーポイント法線ベクトル(例えば法線ベクトル904)が算出されてもよい。例えば、法線ベクトル904はHarris固有ベクトル又は単位法線ベクトルであってもよい。例えば分析グリッド906のような、アンカーポイントに対応付けられた1つ以上の分析グリッドが生成されてもよい。例えば、分析グリッド906は放射状円形分析グリッドであって、アンカーポイント908の法線ベクトルに基づいて配向された複数のセルを含む。例えば、複数のアンカーポイント、即ち複数の分析グリッドは、デジタル画像910のエッジ上に実質的に等間隔で分布される。
デジタル画像920及び930は、元のデジタル画像900から様々な倍率に拡縮された画像で選択されたアンカーポイントを示す。例えば、デジタル画像900はある倍率で拡縮されてもよく、拡縮デジタル画像920及び930から複数のエッジが検出されてもよい。拡縮デジタル画像920において、複数のアンカーポイント(例えばアンカーポイント912)が選択されており、対応するアンカーポイント法線ベクトル(例えば法線ベクトル914)が各アンカーポイントに対して算出されてもよい。拡縮デジタル画像930において、複数のアンカーポイント(例えばアンカーポイント922)が選択されており、対応するアンカーポイント法線ベクトル(例えば法線ベクトル924)が各アンカーポイントに対して算出されてもよい。このように、一実施形態では、複数倍率で拡縮されたデジタル画像900に対してエッジ特徴記述子を生成して、例えば画像物体認識検索を向上してもよい。例えば、拡縮デジタル画像930のエッジ上に等間隔で分布した分析グリッドに基づくエッジ特徴記述子は、例えば(拡縮されていない)デジタル画像910のエッジ上に等間隔で分布した分析グリッドに基づく特徴記述子群と比較して、画像900についてより小規模な特徴記述子群を提供し得る。したがって、拡縮デジタル画像に対してエッジ特徴記述子を生成することで、例えば携帯装置の記憶部に対して実用的な、より小規模な画像認識ライブラリを実現できる。
図10は、一実施形態の、低テクスチャ物体画像に対する画像物体認識の例を示す。図10において、物体の低テクスチャ画像1000に対してエッジ特徴記述子(例えば記述子1002)が生成されており、対応する法線ベクトル1004が算出されている。例えば、画像1000は、例えばスマートフォン又はタブレットコンピュータのような特徴検出装置のスクリーンショットであってもよい。図示のように、低テクスチャ画像1000は、特徴検出装置が例えばエッジ1008及び1010のような複数のエッジを検出したことを示している。バウンディングボックス1006で示すように、数字の2という物体が低テクスチャ画像1000内で認識されている。例えば、記述子1002のようなエッジ特徴記述子を、デジタル画像900から生成され記憶されたエッジ特徴記述子と比較してもよい。図示のように、低テクスチャ画像1000に対して生成されたエッジ特徴記述子は、画像の1つ以上の検出エッジ上に実質的に等間隔に分布してもよい。更に、例えば法線ベクトル1004のようなアンカーポイントの法線ベクトルに基づいて配向された放射状円形分析グリッドに基づいて生成されたエッジ特徴記述子により、デジタル画像900から画像の配向が変化しても、低テクスチャ画像1000内の数字の2という物体が正しく認識されている。更に、画像1000の不良エッジ(例えばエッジ1010)は、特徴検出のため無視されている。
図11は、一実施形態の、高テクスチャ物体画像に対する画像物体認識の例を示す。図11は、本稿の実施形態に基づいて生成されたエッジ特徴検出部に基づいて認識され得る高テクスチャ物体1100の例を示す。例えば、高テクスチャ物体1100は複数の特徴とテクスチャを含むため複数のエッジが存在し得る印刷広告であってもよい。例えば、記述子1102のようなエッジ特徴記述子は、バウンディングボックス1104で示すように、1つ以上のデジタル画像から生成され記憶されたエッジ特徴記述子に基づいて認識されてもよい。したがって、図10及び11は、本稿開示のエッジ特徴記述子が、様々な周辺環境で、低テクスチャ物体及び高テクスチャ物体を分解するため利用可能であることを示している。
図12は、一実施形態の、低テクスチャ3次元物体画像に対する画像物体認識の例を示す。様々な実施形態は、完全3D物体に対して利用してもよい。例えば、3D物体(例えばアクションフィギュア玩具、車両等)は見る方向によって異なる特徴を有し得る。3D物体のビデオを様々な方向から撮影できる。ビデオのフレームをデジタル画像として扱ってもよい。図12において、本稿記載のエッジ特徴記述子の相対的エッジ情報を利用して、(図10及び図11に示すような2D物体に加えて)低テクスチャ3D物体の認識を実行してもよい。図12は、低テクスチャな3Dマスク玩具の例を示す。特徴1202のように観察された特徴は比較的少ない。しかし、マスク周辺に構築した3Dバウンディングボックス1204に示すように、これら特徴に基づいて3D物体は認識可能である。更に、いくつかの実施形態では、認識された3D物体の寸法を算出するため、1つ以上の検出エッジ特徴と、物体の3D構造との間の関係を判断してもよい(例えば物体取り込み中等に判断され得る)。
したがって、本稿の実施形態は画像物体認識に伴う各種効率、メモリフットプリント、精度の問題の対処に利用できる。
いくつかの実施形態では、エッジ特徴記述子は自動的に生成されてもよい。例えば、特徴検出部710及び/又は撮像装置720は、例えば人物、ソーシャルメディアプロフィール等の画像を取り込むため、画像を求めてウェブサイト中を調べ回るウェブボットとして動作してもよい。更に、当該ボットは、都市景観、街並み、又は建物内の画像(例えばグーグル(登録商標)ストリートビューの画像)又は地図で動作して、対応する建物や場所、地図の特徴(例えば道路グリッドパターン又は地形的特徴)のエッジ特徴記述子を生成してもよい。いくつかの実施形態では、特徴検出部710及び/又は撮像装置720は、ウェブボットによる画像や動画の取得中にリアルタイムでエッジ特徴記述子を生成するよう構成されたり、その他種類の自動システムであったりしてもよい。
更に、メインメモリ、持続ストレージ装置、サーバ、ユーザーデバイスを含む大規模画像認識システムのインフラ全体は、各種実施形態により、画像認識クエリをより効率的に処理するようにできる。
本稿記載のシステム、装置、方法は、デジタル回路、又は公知のコンピュータプロセッサ、メモリユニット、記憶装置、コンピュータソフトウェア、及びその他構成要素を利用した1つ以上のコンピュータにより実現されてもよい。通常、コンピュータは、指示を実行するプロセッサと、指示やデータを記憶する1つ以上のメモリを有する。コンピュータは更に、磁気ディスク、内蔵ハードディスク、リムーバブルディスク、光磁気ディスク、光ディスク等の内の1つ以上のような、大容量記憶装置を1つ以上有するか、それに接続されてもよい。
本稿記載のシステム、装置、方法は、例えば非一時的機械読取可能記憶装置のような情報媒体で実現され、プログラム可能プロセッサにより実行されるコンピュータプログラムプロダクトを使用して実現されてもよい。図8のステップを1つ以上含む本稿記載の方法ステップは、当該プロセッサにより実行可能な1つ以上のコンピュータプログラムを使用して実現されてもよい。コンピュータプログラムは、直接的、間接的にコンピュータ内で利用され所定の動作を実行したり、所定の結果を得たりしたりするために使用されるコンピュータプログラム指示群である。コンピュータプログラムは、コンパイラ言語、インタプリタ言語を含む、任意の形態のプログラム言語で記載されてもよく、任意の形態で展開されてもよい。即ち、スタンドアロンプログラム、モジュール、コンポーネント、サブルーチン、又は演算環境での使用に適したその他ユニットとして展開可能である。
図13は、本稿記載のシステム、装置、方法を実現するため使用され得る例示的装置の上位ブロック図を示す。装置1300は、持続ストレージ装置1320とメインメモリ装置1330とに動作可能に接続されたプロセッサ1310を有する。プロセッサ1310は、装置1300の動作全体を、当該動作を定義するコンピュータプログラム指示を実行して制御する。コンピュータプログラム指示は、持続ストレージ装置1320又はその他コンピュータ可読媒体に記憶されて、その実行が求められた際に、メインメモリ装置1330に展開されてもよい。例えば、特徴検出部710及び撮像装置720は、コンピュータ1300のコンポーネントを1つ以上含んでもよい。したがって、図8の方法ステップは、メインメモリ装置1330及び/又は持続ストレージ装置1320に記憶されたコンピュータプログラム指示によって定義され、コンピュータプログラム指示を実行するプロセッサ1310により制御される。例えば、コンピュータプログラム指示は、図8の方法ステップに定義されるアルゴリズムを実行するよう当業者にプログラム可能なコンピュータにより実行可能なコードとして実現できる。したがって、コンピュータプログラム指示を実行することで、プロセッサ1310は図8の方法ステップに定義されるアルゴリズムを実行する。装置1300は更に、その他装置とネットワークを介して通信するための1つ以上のネットワークインターフェース1380を有する。装置1300は更に、ユーザに装置1300との相互作用を可能とする1つ以上のI/O装置1390(例えばディスプレイ、キーボード、マウス、スピーカ、ボタン等)を有してもよい。
プロセッサ1310は汎用及び特殊マイクロプロセッサの両方を有してもよく、装置1300の単一のプロセッサ又は複数のプロセッサの1つであってもよい。例えばプロセッサ1310は、1つ以上の中央処理装置(CPU)を有してもよい。プロセッサ1310、持続ストレージ装置1320、及び/又はメインメモリ装置1330は1つ以上の特定用途向け集積回路(ASIC)及び/又は1つ以上のフィールドプログラマブルゲートアレイ(FPGA)を含んでも、それにより補助されても、又はそれに内蔵されてもよい。
持続ストレージ装置1320及びメインメモリ装置1330はそれぞれ、有形非一時的コンピュータ読取可能記憶媒体を含んでもよい。持続ストレージ装置1320及びメインメモリ装置1330はそれぞれ、ダイナミックランダムアクセスメモリ(DRAM)、スタティックランダムアクセスメモリ(SRAM)、ダブルデータレートシンクロナスダイナミックランダムアクセスメモリ(DDR RAM)、又はその他ランダムアクセスソリッドステートメモリ装置のような高速ランダムアクセスメモリを含んでもよい。持続ストレージ装置1320及びメインメモリ装置1330は、内蔵ハードディスク又はリムーバブルディスクのような磁気ディスク記憶装置、光磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリ装置、消去可能プログラマブルリードオンリーメモリ(EPROM)、電気的消去可能プログラマブルROM(EEPROM)のような半導体メモリ装置、コンパクトディスクROM(CD−ROM)、デジタル多目的ディスクROM(DVD―ROM)ディスク、又はその他不揮発性ソリッドステート記憶装置の内の1つのような、不揮発性メモリを含んでもよい。
I/O装置1390は、プリンタ、スキャナ、ディスプレイ画面等の周辺機器を含んでもよい。例えば、I/O装置1390は、ユーザに情報(例えば選択用の複数の画像変換)を提供するためのブラウン管(CRT)やプラズマ又は液晶表示(LCD)モニタのような表示装置や、ユーザが装置1300に入力できるようにするキーボードや、マウス又はトラックボールのようなポインティングデバイスを含んでもよい。
特徴検出部710及び撮像装置720を含む、本稿記載の一部又は全てのシステム及び装置は、装置1300のような装置により実行されたり、更に/或いは当該装置に内蔵されたりしてもよい。
当業者であれば、実際のコンピュータ又はコンピュータシステムは、更にその他構造を有したり、その他構成要素を含んで実現されたりしてもよく、図13は当該コンピュータのいくつかの構成要素を例示的に示す上位表現であることが理解されよう。
上述の明細書は、あらゆる面で説明用且つ例示的あり、限定的でなく、本稿開示の発明の範囲は、明細書の内容によって決定されるものではないことが理解されよう。当該範囲は、請求項により、特許法で許される最大限の範囲で解釈されるものである。本稿にて図示、説明した実施形態は、本発明の原理を説明するために供されるのみであり、当業者により本発明の範囲、精神から逸脱することなく、様々な変形が可能であることが理解されよう。当業者であれば、本発明の範囲、精神から逸脱することなく、その他の特徴の組合せを実現することができる。

Claims (36)

  1. 特徴検出装置によって、デジタル画像に対してエッジ特徴記述子を生成する方法であって、
    前記特徴検出装置によって、前記デジタル画像内の複数のエッジを検出することと、
    前記特徴検出装置によって、前記複数のエッジの内のあるエッジ上に位置するアンカーポイントを選択することと、
    前記特徴検出装置によって、前記アンカーポイントに対応する、複数のセルを含む分析グリッドを生成することと、
    前記特徴検出装置によって、前記アンカーポイントにおける前記エッジの法線ベクトルであるアンカーポイント法線ベクトルを算出することと、
    前記特徴検出装置によって、前記分析グリッドの前記セル内の前記エッジ上の1箇所以上における、前記エッジの法線ベクトルである1つ以上のエッジ画素法線ベクトルを算出することと、
    前記特徴検出装置によって、セル内の前記エッジ画素法線ベクトルのそれぞれと前記アンカーポイント法線ベクトルとの間の類似度測定に基づく類似度ヒストグラムを、前記分析グリッドの1つ以上のセルのそれぞれに対して生成することと、
    前記特徴検出装置によって、前記類似度ヒストグラムに基づいて前記分析グリッドの記述子を生成することと
    を備える方法。
  2. 前記デジタル画像は、ビデオストリームのビデオフレームと描画画像のいずれかである
    請求項1記載の方法。
  3. 前記複数のエッジは、テンソル投票とCannyエッジ検出アルゴリズムのいずれかに基づいて検出される
    請求項1記載の方法。
  4. 前記複数のエッジから少なくとも1つの不良エッジを除去すること
    をさらに備える請求項1記載の方法。
  5. 前記デジタル画像をある倍率で拡縮することと、
    前記拡縮デジタル画像内で前記複数のエッジを検出することと
    をさらに備える請求項1記載の方法。
  6. 前記倍率は少なくとも1.5である
    請求項5記載の方法。
  7. 前記倍率は少なくとも2.0である
    請求項5記載の方法。
  8. 前記アンカーポイントは、scale−invariant feature transform(SIFT)、Fast Retina Keypoint(FREAK)、Histograms of Oriented Gradient(HOG)、Speeded Up Robust Features(SURF)、DAISY、Binary Robust Invariant Scalable Keypoints(BRISK)、FAST、Binary Robust Independent Elementary Features(BRIEF)、Harris Corners、Edges、Gradient Location and Orientation Histogram(GLOH)、Energy of image Gradient(EOG)、Transform Invariant Low−rank Textures(TILT)特徴の内の少なくとも1つに対応する特徴である
    請求項1記載の方法。
  9. 前記アンカーポイントは、前記エッジの検出コーナーを含む
    請求項1記載の方法。
  10. 前記分析グリッドは、前記アンカーポイントに幾何学的中心を有する
    請求項1記載の方法。
  11. 前記分析グリッドは、円形グリッド、放射状円形グリッド、直線状グリッドのいずれかを含む
    請求項1記載の方法。
  12. 前記分析グリッドは、前記アンカーポイント法線ベクトルに基づいて配向される
    請求項11記載の方法。
  13. 前記分析グリッドは少なくとも5つのセルを含む
    請求項1記載の方法。
  14. 前記分析グリッドは少なくとも9つのセルを含む
    請求項1記載の方法。
  15. 前記アンカーポイント法線ベクトルは、Harris行列固有ベクトル、又は前記アンカーポイントの画素座標における前記エッジに垂直な幾何学的法線ベクトルのいずれかである
    請求項1記載の方法。
  16. 前記エッジ画素法線ベクトルはそれぞれ、Harris行列固有ベクトル、又は画素座標における前記エッジに垂直な幾何学的法線ベクトルのいずれかである
    請求項1記載の方法。
  17. 前記類似度測定は、セル内の前記エッジ画素法線ベクトルのそれぞれと前記アンカーポイント法線ベクトルとの間の相対的角度又は点乗積のいずれかに基づく
    請求項1記載の方法。
  18. 前記類似度測定は、セル内の前記エッジ画素法線ベクトルのそれぞれの大きさと前記アンカーポイント法線ベクトルの大きさとの間の比較に基づく
    請求項1記載の方法。
  19. セル内の前記エッジ画素法線ベクトルのそれぞれの前記大きさと、前記アンカーポイント法線ベクトルの前記大きさとは、配向に基づかない測定に基づく
    請求項18記載の方法。
  20. 前記類似度測定は、1つ以上の重み係数に基づく
    請求項1記載の方法。
  21. 前記1つ以上の重み係数は、ユークリッド距離およびガウス重みのいずれかに基づく
    請求項20記載の方法。
  22. 前記類似度ヒストグラムの各々は、複数のビンを含む
    請求項1記載の方法。
  23. 前記類似度ヒストグラムの各々は、少なくとも4つのビンを含む
    請求項22記載の方法。
  24. 前記類似度ヒストグラムの各々は、少なくとも16個のビンを含む
    請求項22記載の方法。
  25. 前記複数のビンのビン値は、最大ビン値に基づいて正規化される
    請求項22記載の方法。
  26. 前記複数のビンのビン値は、0から255の範囲にある
    請求項25記載の方法。
  27. 前記記述子を生成することは、前記分析グリッドの前記セルの1つ以上に対する前記類似度ヒストグラムからのデータを連結することを含む
    請求項1記載の方法。
  28. 前記類似度ヒストグラムからの前記データの連結順序を決定すること
    をさらに備える請求項27記載の方法。
  29. 前記連結順序は、前記アンカーポイント法線ベクトルに対する前記分析グリッドの前記セルの配向に基づく
    請求項28記載の方法。
  30. 前記記述子は、次元の数が前記分析グリッド内のセルの数に基づく多次元ベクトルである
    請求項1記載の方法。
  31. 前記記述子は、次元の数が前記分析グリッドに対する前記類似度ヒストグラム内のビンの総数に基づく多次元ベクトルである
    請求項1記載の方法。
  32. 前記エッジ上に、互いに等間隔で配置された複数のアンカーポイントを選択すること
    をさらに備える請求項1記載の方法。
  33. 決定された前記エッジ上の分析グリッドの分布、決定された単位面積ごとの分析グリッドの量、決定された単位体積ごとの分析グリッドの量、選択された物体モデル、前記デジタル画像に関連した被写界深度情報の内の少なくとも1つに応じて、前記エッジ上に位置する複数のアンカーポイントを選択すること
    をさらに備える請求項1記載の方法。
  34. 前記分析グリッドに対する前記記述子を使用して画像物体認識検索を向上すること
    をさらに備える請求項1記載の方法。
  35. デジタル画像に対してエッジ特徴記述子を生成するシステムであって、
    プロセッサと、
    メモリ装置と、
    前記メモリ装置に記憶されたソフトウェア命令に従って前記プロセッサ上で実行可能な特徴検出部と
    を備え、
    前記特徴検出部は、
    前記デジタル画像内の複数のエッジを検出し、
    前記複数のエッジの内のあるエッジ上に位置するアンカーポイントを選択し、
    前記アンカーポイントに対応する、複数のセルを含む分析グリッドを生成し、
    前記アンカーポイントにおける前記エッジの法線ベクトルであるアンカーポイント法線ベクトルを算出し、
    前記分析グリッドの前記セル内の前記エッジ上の1箇所以上における、前記エッジの法線ベクトルである1つ以上のエッジ画素法線ベクトルを算出し、
    セル内の前記エッジ画素法線ベクトルのそれぞれと前記アンカーポイント法線ベクトルとの間の類似度測定に基づく類似度ヒストグラムを、前記分析グリッドの1つ以上のセルのそれぞれに対して生成し、
    前記類似度ヒストグラムに基づいて前記分析グリッドの記述子を生成するように構成されている
    システム。
  36. デジタル画像に対してエッジ特徴記述子を生成するようコンピュータプロセッサによって実行可能な命令を含む非一時的コンピュータ読取可能媒体に組み込まれたコンピュータプログラムであって、前記命令はコンピュータプロセッサによって実行可能であり、これにより、
    前記デジタル画像内の複数のエッジを検出することと、
    前記複数のエッジの内のあるエッジ上に位置するアンカーポイントを選択することと、
    前記アンカーポイントに対応する、複数のセルを含む分析グリッドを生成することと、
    前記アンカーポイントにおける前記エッジの法線ベクトルであるアンカーポイント法線ベクトルを算出することと、
    前記分析グリッドの前記セル内の前記エッジ上の1箇所以上における、前記エッジの法線ベクトルである1つ以上のエッジ画素法線ベクトルを算出することと、
    セル内の前記エッジ画素法線ベクトルのそれぞれと前記アンカーポイント法線ベクトルとの間の類似度測定に基づく類似度ヒストグラムを、前記分析グリッドの1つ以上のセルそれぞれに対して生成することと、
    前記類似度ヒストグラムに基づいて前記分析グリッドの記述子を生成することと
    を備える処理を実行するコンピュータプログラム
JP2016565695A 2014-05-06 2015-05-06 エッジベクトルを利用した画像特徴検出 Active JP6334735B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461989445P 2014-05-06 2014-05-06
US61/989,445 2014-05-06
PCT/US2015/029538 WO2015171815A1 (en) 2014-05-06 2015-05-06 Image-based feature detection using edge vectors

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018084612A Division JP6616862B2 (ja) 2014-05-06 2018-04-26 エッジベクトルを利用した画像特徴検出

Publications (2)

Publication Number Publication Date
JP2017519277A JP2017519277A (ja) 2017-07-13
JP6334735B2 true JP6334735B2 (ja) 2018-05-30

Family

ID=54368294

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016565695A Active JP6334735B2 (ja) 2014-05-06 2015-05-06 エッジベクトルを利用した画像特徴検出
JP2018084612A Active JP6616862B2 (ja) 2014-05-06 2018-04-26 エッジベクトルを利用した画像特徴検出

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018084612A Active JP6616862B2 (ja) 2014-05-06 2018-04-26 エッジベクトルを利用した画像特徴検出

Country Status (4)

Country Link
US (6) US9412176B2 (ja)
JP (2) JP6334735B2 (ja)
CN (1) CN106716450B (ja)
WO (1) WO2015171815A1 (ja)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9355123B2 (en) 2013-07-19 2016-05-31 Nant Holdings Ip, Llc Fast recognition algorithm processing, systems and methods
WO2015123647A1 (en) 2014-02-14 2015-08-20 Nant Holdings Ip, Llc Object ingestion through canonical shapes, systems and methods
CN106462772B (zh) 2014-02-19 2019-12-13 河谷控股Ip有限责任公司 对象识别特征的基于不变量的维数缩减、***和方法
JP6334735B2 (ja) 2014-05-06 2018-05-30 ナント・ホールデイングス・アイ・ピー・エル・エル・シー エッジベクトルを利用した画像特徴検出
US9235775B2 (en) 2014-06-08 2016-01-12 Uber Technologies, Inc. Entrance detection from street-level imagery
CA2948226C (en) * 2014-06-30 2023-09-05 Ventana Medical Systems, Inc. Detecting edges of a nucleus using image analysis
WO2016014020A1 (en) 2014-07-21 2016-01-28 Hewlett-Packard Development Company, L.P. Radial histogram matching
US10426372B2 (en) * 2014-07-23 2019-10-01 Sony Corporation Image registration system with non-rigid registration and method of operation thereof
AU2016261487B2 (en) 2015-05-11 2020-11-05 Magic Leap, Inc. Devices, methods and systems for biometric user recognition utilizing neural networks
US9785817B2 (en) * 2015-05-29 2017-10-10 Datalogic Usa, Inc. Region of interest location and selective image compression
US10019848B2 (en) * 2015-07-31 2018-07-10 Adobe Systems Incorporated Edge preserving color smoothing of 3D models
WO2017131744A1 (en) * 2016-01-29 2017-08-03 Hewlett Packard Enterprise Development Lp Radial histogram verification
WO2017156547A1 (en) 2016-03-11 2017-09-14 Magic Leap, Inc. Structure learning in convolutional neural networks
RU2632272C1 (ru) * 2016-04-04 2017-10-03 Общество С Ограниченной Ответственностью "Яндекс" Способ создания синтетического изображения
CN106248058B (zh) * 2016-07-29 2018-12-21 感知控股集团有限公司 一种对于仓储运输工具的定位方法、装置及***
CA3036691A1 (en) 2016-09-14 2018-03-22 Vbc Holdings Llc Systems, apparatus and methods for controlling a movement of a cell culture to optimize cell growth
US10395408B1 (en) * 2016-10-14 2019-08-27 Gopro, Inc. Systems and methods for rendering vector shapes
US10977797B2 (en) * 2016-12-14 2021-04-13 Eyes Ltd. System and methods for fully automated data analysis, reporting and quantification for medical and general diagnosis, and for edge detection in digitized images
CN107730521B (zh) * 2017-04-29 2020-11-03 安徽慧视金瞳科技有限公司 一种图像中屋脊型边缘的快速检测方法
CN107330966B (zh) * 2017-06-21 2021-02-02 杭州群核信息技术有限公司 一种高维空间特征回归的快速渲染方法、装置和设备
CN107292900A (zh) * 2017-07-05 2017-10-24 黄河科技学院 一种基于Canny算法的图像边缘检测方法和装置
CN107370909A (zh) * 2017-07-11 2017-11-21 中国重型机械研究院股份公司 一种基于机器视觉技术的钢板矫直机自动控制方法
US10434451B2 (en) 2017-07-26 2019-10-08 Nant Holdings Ip, Llc Apparatus and method of harvesting airborne moisture
JP6889865B2 (ja) * 2017-09-22 2021-06-18 オムロン株式会社 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム
US10460446B2 (en) 2017-10-16 2019-10-29 Nant Holdings Ip, Llc Image-based circular plot recognition and interpretation
US10918441B2 (en) 2017-11-22 2021-02-16 Canon U.S.A., Inc. Devices, systems, and methods for ablation-zone simulation and visualization
US10751128B2 (en) 2017-11-22 2020-08-25 Canon U.S.A., Inc. Devices, systems, and methods for ablation-zone simulation and visualization
CN109934216B (zh) * 2017-12-19 2021-05-11 华为技术有限公司 图像处理的方法、装置、计算机可读存储介质
CN108171771A (zh) * 2017-12-25 2018-06-15 天津科技大学 一种结合外部边缘信息和内部聚合笔道的线描画生成算法
WO2019183277A1 (en) * 2018-03-20 2019-09-26 Nant Holdings Ip, Llc Volumetric descriptors
CN108447023B (zh) * 2018-03-20 2021-08-24 北京奇虎科技有限公司 图像处理方法、装置及电子设备
CN108399599B (zh) * 2018-03-20 2021-11-26 北京奇虎科技有限公司 图像处理方法、装置及电子设备
CN108389155B (zh) * 2018-03-20 2021-10-01 北京奇虎科技有限公司 图像处理方法、装置及电子设备
CN108416880B (zh) * 2018-03-26 2021-09-14 成都信达智胜科技有限公司 一种基于视频的识别方法
CN109508727B (zh) * 2018-04-23 2021-07-16 北京航空航天大学 一种基于加权欧氏距离的度量功能间相似性的方法
CN108564591B (zh) * 2018-05-18 2021-07-27 电子科技大学 一种保留局部边缘方向的图像边缘提取方法
CN108957438B (zh) * 2018-06-23 2022-08-26 西安电子科技大学 一种基于随机距离的滞后航迹关联融合方法及***和应用
CN109389031B (zh) * 2018-08-27 2021-12-03 浙江大丰实业股份有限公司 演出人员自动定位机构
US10846552B1 (en) * 2018-09-06 2020-11-24 A9.Com, Inc. Universal object recognition
US10878299B2 (en) 2018-09-12 2020-12-29 Cognex Corporation Methods and apparatus for testing multiple fields for machine vision
US10825199B2 (en) 2018-09-12 2020-11-03 Cognex Corporation Methods and apparatus for processing image data for machine vision
US10846563B2 (en) * 2018-09-12 2020-11-24 Cognex Corporation Methods and apparatus for generating a dense field of three dimensional data for machine vision
CN110956603B (zh) * 2018-09-25 2023-04-21 Oppo广东移动通信有限公司 深度图像边缘飞点的检测方法、装置及电子设备
CN109272050B (zh) * 2018-09-30 2019-11-22 北京字节跳动网络技术有限公司 图像处理方法和装置
KR102528453B1 (ko) * 2018-10-18 2023-05-02 삼성전자주식회사 영상 내의 특징 추출 방법, 이를 이용하는 영상 매칭 방법 및 영상 처리 방법
CN109636822B (zh) * 2018-12-13 2021-03-16 大连理工大学 一种基于新构建隶属度函数的改进Canny自适应边缘提取方法
CN109657717A (zh) * 2018-12-17 2019-04-19 罗世彬 一种基于多尺度密集结构特征提取的异源图像匹配方法
CN109520678B (zh) * 2018-12-26 2021-01-19 浙江工业大学 一种用于压力容器气密性试验的保压检测方法
CN111626082A (zh) * 2019-02-28 2020-09-04 佳能株式会社 检测装置和方法及图像处理装置和***
CN109949252B (zh) * 2019-04-15 2020-12-25 北京理工大学 一种基于补偿系数拟合的红外图像光斑去除方法
WO2020236993A1 (en) 2019-05-21 2020-11-26 Magic Leap, Inc. Hand pose estimation
CN110287161B (zh) * 2019-07-02 2022-09-23 北京字节跳动网络技术有限公司 图像处理方法和装置
US20200020090A1 (en) * 2019-07-31 2020-01-16 Intel Corporation 3D Moving Object Point Cloud Refinement Using Temporal Inconsistencies
KR20220049036A (ko) 2019-08-22 2022-04-20 난트지 모바일 엘엘씨 가상 및 현실 세계 컨텐츠 제작, 장치, 시스템 및 방법
US11120280B2 (en) 2019-11-15 2021-09-14 Argo AI, LLC Geometry-aware instance segmentation in stereo image capture processes
TWI753332B (zh) * 2019-12-12 2022-01-21 萬里雲互聯網路有限公司 圖片處理方法
CN111127498B (zh) * 2019-12-12 2023-07-25 重庆邮电大学 一种基于边缘自生长的Canny边缘检测方法
JP7451384B2 (ja) 2020-01-10 2024-03-18 東レエンジニアリング先端半導体Miテクノロジー株式会社 パターンエッジ検出方法、パターンエッジ検出装置、パターンエッジ検出をコンピュータに実行させるためのプログラムが記録された記録媒体
US20230005157A1 (en) * 2020-01-10 2023-01-05 Tasmit, Inc. Pattern-edge detection method, pattern-edge detection apparatus, and storage medium storing program for causing a computer to perform pattern-edge detection
CN113311006A (zh) * 2020-02-26 2021-08-27 乐达创意科技股份有限公司 自动光学检测***及其检测隐形眼镜边缘瑕疵的方法
CN111524165B (zh) * 2020-04-22 2023-08-25 北京百度网讯科技有限公司 目标跟踪方法和装置
WO2022093255A1 (en) * 2020-10-30 2022-05-05 Hewlett-Packard Development Company, L.P. Filterings of regions of object images
CN112348837B (zh) * 2020-11-10 2023-06-09 中国兵器装备集团自动化研究所 一种点线检测融合的物体边缘检测方法及***
CN112406706B (zh) * 2020-11-20 2022-07-22 上海华兴数字科技有限公司 车辆景象的显示方法、装置、可读存储介质及电子设备
CN112506972B (zh) * 2020-12-15 2023-06-13 中国联合网络通信集团有限公司 用户常驻区域定位方法、装置、电子设备以及存储介质
CN112560818B (zh) * 2021-02-22 2021-07-27 深圳阜时科技有限公司 应用于窄条形指纹传感器的指纹识别方法及存储介质
CN112862802B (zh) * 2021-02-26 2024-05-14 中国人民解放军93114部队 基于边缘外观序列匹配的地点识别方法
WO2022249217A1 (en) * 2021-05-23 2022-12-01 Jordan University Of Science And Technology A system and method for detecting varicocele using ultrasound images in supine position
US11948687B2 (en) 2021-05-24 2024-04-02 Nantcell, Inc. Deep learning models for region-of-interest determination
CN117529747A (zh) 2021-06-17 2024-02-06 Vbc控股有限责任公司 用于汇合评估的基于分割的图像处理
CN117751374A (zh) 2021-08-05 2024-03-22 南特工作室有限责任公司 多位置摄影棚环境中的分布式命令执行
CN113487633A (zh) * 2021-08-17 2021-10-08 熵智科技(深圳)有限公司 一种点云轮廓提取方法、装置、计算机设备及存储介质
US20230055013A1 (en) * 2021-08-23 2023-02-23 Apple Inc. Accessory Detection and Determination for Avatar Enrollment
CN113989313B (zh) * 2021-12-23 2022-03-22 武汉智博通科技有限公司 基于图像多维分析的边缘检测方法及***
US20230386007A1 (en) * 2022-05-31 2023-11-30 Lawrence Livermore National Security, Llc Manufacturing process monitoring and inspection based on coregistration of diverse sensor data
CN114743008B (zh) * 2022-06-09 2022-09-23 西南交通大学 一种单株植被点云数据分割方法、装置及计算机设备
CN116681721B (zh) * 2023-06-07 2023-12-29 东南大学 一种基于视觉的直线轨迹检测与跟踪方法
CN116452589B (zh) * 2023-06-16 2023-10-20 山东伟国板业科技有限公司 基于图像处理的人造板表面缺陷智能检测方法
CN116664613B (zh) * 2023-07-24 2023-10-31 合肥埃科光电科技股份有限公司 一种基于fpga的像素边缘位置检测方法、***及存储介质

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
KR100413679B1 (ko) * 2000-10-21 2003-12-31 삼성전자주식회사 형상 기술자 추출방법
US7949186B2 (en) * 2006-03-15 2011-05-24 Massachusetts Institute Of Technology Pyramid match kernel and related techniques
WO2008060580A2 (en) * 2006-11-15 2008-05-22 24Eight Llc Image-based searching apparatus and method
US7672531B2 (en) * 2007-04-26 2010-03-02 Geostudio Consultants Limited System and method for determining edges of objects in an image
US8212812B2 (en) * 2007-05-21 2012-07-03 Siemens Corporation Active shape model for vehicle modeling and re-identification
WO2009071106A1 (en) * 2007-12-05 2009-06-11 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Image analysis method, image analysis system and uses thereof
JP5075646B2 (ja) * 2008-01-09 2012-11-21 株式会社日立ハイテクノロジーズ 半導体欠陥検査装置ならびにその方法
US8189866B1 (en) * 2008-08-26 2012-05-29 Adobe Systems Incorporated Human-action recognition in images and videos
JP4883226B2 (ja) * 2009-01-23 2012-02-22 日本電気株式会社 映像記述子生成装置
KR101420549B1 (ko) * 2009-12-02 2014-07-16 퀄컴 인코포레이티드 쿼리 및 모델 이미지들에서 검출된 키포인트들을 클러스터링함에 따른 특징 매칭 방법, 디바이스 그리고 프로세서 판독가능 매체
KR101350335B1 (ko) 2009-12-21 2014-01-16 한국전자통신연구원 내용기반 영상검색 장치 및 방법
US8422782B1 (en) * 2010-09-30 2013-04-16 A9.Com, Inc. Contour detection and image classification
JP5289412B2 (ja) * 2010-11-05 2013-09-11 株式会社デンソーアイティーラボラトリ 局所特徴量算出装置及び方法、並びに対応点探索装置及び方法
US8842916B2 (en) * 2011-02-22 2014-09-23 Hewlett-Packard Development Company, L.P. Method and system for model-based signature profile extraction
US9036925B2 (en) * 2011-04-14 2015-05-19 Qualcomm Incorporated Robust feature matching for visual search
WO2013138846A1 (en) * 2012-03-22 2013-09-26 Silverbrook Research Pty Ltd Method and system of interacting with content disposed on substrates
JP5930806B2 (ja) * 2012-03-30 2016-06-08 富士通テン株式会社 検知装置、及び検知方法
WO2013158750A2 (en) * 2012-04-17 2013-10-24 Wittich David System and method for providing recursive feedback during an assembly operation
US9053551B2 (en) * 2012-05-23 2015-06-09 International Business Machines Corporation Vessel identification using shape and motion mapping for coronary angiogram sequences
CN104520878A (zh) * 2012-08-07 2015-04-15 Metaio有限公司 提供用于描述对象表示的至少一个特征的特征描述符的方法
US9424461B1 (en) * 2013-06-27 2016-08-23 Amazon Technologies, Inc. Object recognition for three-dimensional bodies
US9704059B2 (en) * 2014-02-12 2017-07-11 International Business Machines Corporation Anomaly detection in medical imagery
WO2015123646A1 (en) 2014-02-14 2015-08-20 Nant Holdings Ip, Llc Edge-based recognition, systems and methods
JP6334735B2 (ja) 2014-05-06 2018-05-30 ナント・ホールデイングス・アイ・ピー・エル・エル・シー エッジベクトルを利用した画像特徴検出
US9418283B1 (en) * 2014-08-20 2016-08-16 Amazon Technologies, Inc. Image processing using multiple aspect ratios

Also Published As

Publication number Publication date
US9858497B2 (en) 2018-01-02
US10679093B2 (en) 2020-06-09
US9542593B2 (en) 2017-01-10
US20180107894A1 (en) 2018-04-19
US20170076174A1 (en) 2017-03-16
US9412176B2 (en) 2016-08-09
JP2017519277A (ja) 2017-07-13
CN106716450B (zh) 2020-05-19
US20190272441A1 (en) 2019-09-05
US11210550B2 (en) 2021-12-28
US20160314339A1 (en) 2016-10-27
US20150324998A1 (en) 2015-11-12
US10229342B2 (en) 2019-03-12
JP2018113080A (ja) 2018-07-19
WO2015171815A1 (en) 2015-11-12
US20200293812A1 (en) 2020-09-17
JP6616862B2 (ja) 2019-12-04
CN106716450A (zh) 2017-05-24

Similar Documents

Publication Publication Date Title
JP6616862B2 (ja) エッジベクトルを利用した画像特徴検出
US10719731B2 (en) Robust feature identification for image-based object recognition
Lin et al. Fpconv: Learning local flattening for point convolution
US11551329B2 (en) Image feature combination for image-based object recognition
Salti et al. A performance evaluation of 3d keypoint detectors
JP5261501B2 (ja) 不変の視覚場面及び物体の認識
Kim et al. Influence of colour and feature geometry on multi-modal 3d point clouds data registration
US9953247B2 (en) Method and apparatus for determining eye position information
Kiforenko et al. A performance evaluation of point pair features
Proenca et al. SHREC’15 Track: Retrieval of Oobjects captured with kinect one camera
Tashiro et al. Super-vector coding features extracted from both depth buffer and view-normal-angle images for part-based 3D shape retrieval
Nie et al. Image matching for space objects based on grid-based motion statistics
Shekar et al. 3D Face Recognition Using Orientation Maps

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180426

R150 Certificate of patent or registration of utility model

Ref document number: 6334735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250