JP2018055199A - 画像処理プログラム、画像処理装置、及び画像処理方法 - Google Patents

画像処理プログラム、画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
JP2018055199A
JP2018055199A JP2016187515A JP2016187515A JP2018055199A JP 2018055199 A JP2018055199 A JP 2018055199A JP 2016187515 A JP2016187515 A JP 2016187515A JP 2016187515 A JP2016187515 A JP 2016187515A JP 2018055199 A JP2018055199 A JP 2018055199A
Authority
JP
Japan
Prior art keywords
lines
image processing
image
candidate
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016187515A
Other languages
English (en)
Other versions
JP6880618B2 (ja
Inventor
山口 伸康
Nobuyasu Yamaguchi
伸康 山口
陽次郎 沼田
Yojiro Numata
陽次郎 沼田
博 桑原
Hiroshi Kuwabara
博 桑原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016187515A priority Critical patent/JP6880618B2/ja
Priority to US15/681,095 priority patent/US10311576B2/en
Priority to EP17187032.2A priority patent/EP3300025B1/en
Publication of JP2018055199A publication Critical patent/JP2018055199A/ja
Application granted granted Critical
Publication of JP6880618B2 publication Critical patent/JP6880618B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/02Non-photorealistic rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20116Active contour; Active surface; Snakes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】物体の画像と物体の形状を表す形状情報とを対応付けるための計算量を削減する。
【解決手段】コンピュータは、物体の形状情報に含まれる複数の候補線のうち、物体の画像を撮影した撮像装置の位置から観察される複数の候補線を抽出する(ステップ701)。次に、コンピュータは、観察される複数の候補線のうち所定数の候補線それぞれと、画像から検出した複数の特徴線のうち所定数の特徴線それぞれとを対応付けた、所定数の組み合わせを表す対応付け情報を複数個生成する(ステップ702)。そして、コンピュータは、複数個の対応付け情報それぞれの誤差に基づいて対応付け結果を決定する(ステップ703)。
【選択図】図7

Description

本発明は、画像処理プログラム、画像処理装置、及び画像処理方法に関する。
近年、拡張現実(Augmented Reality, AR)技術を用いて画像を表示するシステムが普及してきている(例えば、特許文献1を参照)。AR技術の一例では、パーソナルコンピュータ(PC)、携帯端末装置等に搭載したカメラを用いて物体が撮影され、物体の画像から3次元空間内におけるカメラの位置及び姿勢が推定される。そして、決定されたカメラの位置及び姿勢を基準にして、画像中の任意の位置にコンテンツ情報が重畳表示される。
図1は、撮影した画像に含まれる特徴点を用いてカメラの位置及び姿勢を求める方法の例を示している。この方法では、物体上におけるマップ点211の3次元座標の集合を表す3次元マップ201が、予め生成される。
次に、画像202が撮影されたとき、3次元座標系203をカメラ座標系204へ変換する変換行列Mを用いて、マップ点211を画像202上に投影することで、投影点212が求められる。そして、投影点212と画像202から検出された特徴点213とを対応付けることで、3次元座標系203におけるカメラの位置及び姿勢が推定される。例えば、カメラの位置は、3次元座標系203に対するカメラ座標系204の相対位置によって表され、カメラの姿勢は、3次元座標系203に対するカメラ座標系204の相対角度によって表される。
マップ点pの3次元座標Sp、マップ点pに対応する投影点の2次元座標xp’、及びマップ点pに対応する特徴点の2次元座標xpは、次式のように記述することができる。
Sp=(x,y,z) (1)
xp’=(u’,v’) (2)
xp=(u,v) (3)
この場合、画像上における投影点と特徴点との距離の二乗和Eは、次式により表される。
式(4)の二乗和Eが最小となるような変換行列Mを求めることで、カメラの位置及び姿勢が決定される。
図2は、3次元マップ201の生成方法の例を示している。この生成方法では、ステレオ撮影及びステレオ計測が用いられる。撮影位置311及び撮影位置312からそれぞれ撮影した画像301及び画像302がキーフレームとして用いられ、画像301内の特徴点313と画像302内の特徴点314とを対応付けることで、3次元空間内のマップ点315が復元される。2枚の画像内の複数の特徴点同士を対応付けることで、複数のマップ点が復元され、それらのマップ点の集合を表す3次元マップ201が生成される。
コンピュータ・ビジョンのための多面体表現、構造体の視覚追跡、立体の機械知覚等の技術も知られている(例えば、非特許文献1〜非特許文献3を参照)。
特開2015−118641号公報
Bruce G. Baumgart,"A polyhedron representation for computer vision", Proceedings of the May 19-22, 1975, national computer conference and exposition, pp.589-596, 1975 Tom Drummond, Roberto Cipolla,"Real-Time Visual Tracking of Complex Structures", IEEE Trans. Pattern Analysis and Machine Intelligence, pp.932-946, 2002 L. G. Robert,"Machine perception of three-dimensional solids", MIT Lincoln Lab. Rep., TR3315, pp.1-82, May 1963
カメラにより撮影した物体の画像と、その物体の3次元形状を表すComputer-Aided Design(CAD)データとを対応付けることで、カメラの位置及び姿勢を推定する場合、対応付けのための計算量が大きくなる。
なお、かかる問題は、物体の画像とCADデータとを対応付ける場合に限らず、物体の画像と他の形状情報とを対応付ける場合においても生ずるものである。
1つの側面において、本発明は、物体の画像と物体の形状を表す形状情報とを対応付けるための計算量を削減することを目的とする。
1つの案では、画像処理プログラムは、以下の処理をコンピュータに実行させる。
(1)コンピュータは、物体の形状情報に含まれる複数の候補線のうち、物体の画像を撮影した撮像装置の位置から観察される複数の候補線を抽出する。
(2)コンピュータは、観察される複数の候補線のうち所定数の候補線それぞれと、画像から検出した複数の特徴線のうち所定数の特徴線それぞれとを対応付けた、所定数の組み合わせを表す対応付け情報を複数個生成する。
(3)コンピュータは、複数個の対応付け情報それぞれの誤差に基づいて対応付け結果を決定する。
実施形態によれば、物体の画像と物体の形状を表す形状情報とを対応付けるための計算量を削減することができる。
カメラの位置及び姿勢を求める方法を示す図である。 3次元マップの生成方法を示す図である。 物体の画像を示す図である。 CADデータを示す図である。 エッジ線と輪郭線との対応付けを示す図である。 画像処理装置の機能的構成図である。 画像処理のフローチャートである。 画像処理装置の具体例を示す機能的構成図である。 画像処理の具体例を示すフローチャートである。 矩形の指定領域を示す図である。 円形の指定領域を示す図である。 基準線を示す図である。 候補線を示す図である。 残りの候補線を示す図である。 物体の外形エッジを表す候補線を示す図である。 物体の外周を表す候補線を示す図である。 対応ペアを示す図である。 領域の面積に基づく計算方法を示す図である。 距離に基づく計算方法を示す図である。 180度回転した線分を示す図である。 パラメータの計算に適していない候補線を示す図である。 情報処理装置の構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
カメラの位置及び姿勢を求める際に、物体のCADデータを図1の3次元マップ201として使用する場合、CADデータと物体との間で、模様又は色合いといった“見た目”の特徴が異なる場合が多い。この“見た目”の特徴が一致することを前提とした場合、画像内の特徴点とCADデータが表すマップ点との対応付けを、画像処理によって自動的に行うことが難しい。このため、PCの画面上でのマウス操作によって、特徴点とマップ点との対応付けが手作業で行われることがある。この場合、以下のような問題が発生すると考えられる。
(A)画像中から特徴点を精度よく検出することが難しい。
(B)マップ点を画像上に投影した投影点及び特徴点をマウス等で選択する操作が難しい。
(C)投影点及び特徴点を選択する操作が難しいことと、手作業の手間のため、選択する投影点と特徴点との組み合わせ(対応ペア)の個数が限られる。
(D)対応ペアの個数が少ないため、カメラの位置及び姿勢の計算精度が低下する。
そこで、特許文献1又は先願である特願2015−218318号に記載されているように、画像から検出されたエッジ線と、CADデータが表す輪郭線とを対応付ける方法も考えられる。
図3は、物体の画像の例を示しており、図4は、図3の物体の形状を表すCADデータの例を示している。図5は、図3の画像から検出されたエッジ線と、図4のCADデータが表す輪郭線との対応付けの例を示している。
まず、携帯端末装置等の画像処理装置は、図5(a)に示すように、エッジ検出処理を行って、画像からエッジ線を検出する。次に、図5(b)に示すように、画像処理装置は、CADデータが表す輪郭線と検出したエッジ線とを画像中に表示し、ユーザは、エッジ線及び輪郭線をマウス等で選択することで、それらの線同士を対応付ける。カメラの位置及び姿勢を求めるためには、最低限4個の対応ペアを用いることが望ましい。
次に、画像処理装置は、対応付けられたエッジ線及び輪郭線の組み合わせを用いて、カメラの位置及び姿勢を計算する。そして、図5(c)に示すように、画像処理装置は、計算したカメラの位置及び姿勢に合わせて、CADデータが表す輪郭線を物体の画像に重畳表示する。
このような対応付け方法によれば、エッジ線を精度よく検出することができ、エッジ線及び輪郭線を容易に選択することができるため、上記(A)及び(B)の問題が解決されるが、以下のような問題が発生すると考えられる。
(E)手作業の手間のため、選択する輪郭線とエッジ線との組み合わせ(対応ペア)の個数が限られる。
(F)対応ペアの個数が少ないため、カメラの位置及び姿勢の計算精度が低下する。
そこで、別の先願である特願2016−66086号に記載されているように、対応ペアを自動的に追加してカメラの位置及び姿勢を再計算する方法も考えられる。対応ペアの個数を増加させることで、計算精度が向上する。しかしながら、この方法においても、所定数の初期対応ペアがユーザによって選択されており、初期対応ペアを自動的に選択する具体的な方法は記載されていない。
熟練者ではないユーザが目視による手作業で対応ペアを選択する場合、作業に時間がかかるとともに、選択ミスが発生する可能性がある。
一方、画像から検出されたエッジ線とCADデータが表す輪郭線とのすべての組み合わせを用いて、総当たり計算を行う方法も考えられる。例えば、m本のエッジ線から4本のエッジ線を選択し、n本の輪郭線から4本の輪郭線を選択して、4個の対応ペアを生成する場合、組み合わせの総数は×個になる。このため、エッジ線の数及び輪郭線の数が増加すると、組み合わせの総数が膨大になり、対応ペアを生成するための計算量が増加する。
図6は、実施形態の画像処理装置の機能的構成例を示している。図6の画像処理装置601は、記憶部611、生成部612、及び決定部613を含む。記憶部611は、物体の形状情報621を記憶する。
図7は、図6の画像処理装置601が行う画像処理の例を示すフローチャートである。まず、生成部612は、物体の形状情報に含まれる複数の候補線のうち、物体の画像を撮影した撮像装置の位置から観察される複数の候補線を抽出する(ステップ701)。次に、生成部612は、観察される複数の候補線のうち所定数の候補線それぞれと、画像から検出した複数の特徴線のうち所定数の特徴線それぞれとを対応付けた、所定数の組み合わせを表す対応付け情報を複数個生成する(ステップ702)。そして、決定部613は、複数個の対応付け情報それぞれの誤差に基づいて対応付け結果を決定する(ステップ703)。
このような画像処理装置601によれば、物体の画像と物体の形状を表す形状情報とを対応付けるための計算量を削減することができる。
図8は、図6の画像処理装置601の具体例を示している。図8の画像処理装置601は、記憶部611、生成部612、決定部613、画像取得部811、特徴検出部812、候補検出部813、位置計算部814、誤差計算部815、及び出力部816を含む。
画像処理装置601は、タブレット、ノート型PC、スマートデバイス等の携帯端末装置であってもよく、デスクトップ型PC等の情報処理装置であってもよい。
撮像装置801は、例えば、カメラであり、物体の画像821を撮影し、画像取得部811は、撮像装置801から画像821を取得して、記憶部611に格納する。記憶部611は、画像821、CADデータ822、及びパラメータ823を記憶する。
CADデータ822は、図6の形状情報621に対応し、物体の3次元形状を表す複数の頂点の頂点情報と、複数の線分の線分情報とを含む。頂点情報は、物体の各頂点の3次元座標を含み、線分情報は、各線分の両端の頂点を示す識別情報を含む。
パラメータ823は、3次元空間内において予め指定された撮像装置801の位置及び姿勢を表す。パラメータ823が表す位置及び姿勢は、仮の位置及び姿勢であり、画像821を撮影したときの撮像装置801の位置及び姿勢と必ずしも一致しているとは限らない。
特徴検出部812は、エッジ検出処理を行って、画像821から複数のエッジ線を検出し、検出したエッジ線を特徴線824として記憶部611に格納する。候補検出部813は、CADデータ822に含まれる複数の線分を検出し、検出した複数の線分を複数の候補線825として記憶部611に格納する。
生成部612は、画像821から検出された特徴線824のうち、所定の条件を満たす複数の特徴線を抽出する。所定の条件としては、例えば、特徴線の少なくとも一部分が画像821内の指定領域に含まれること、特徴線が画像821内の基準位置から所定距離の範囲内に存在すること等が用いられる。また、生成部612は、CADデータ822から検出された候補線825のうち、パラメータ823が表す位置及び姿勢から観察される複数の候補線を抽出する。
次に、生成部612は、抽出した候補線のうちN本(Nは2以上の整数)の候補線それぞれと、抽出した特徴線のうちN本の特徴線それぞれとを対応付けた、N個の組み合わせを生成する。そして、生成部612は、生成したN個の組み合わせをN個の対応ペア826として記憶部611に格納する。対応ペア826は、対応付け情報に対応する。
位置計算部814は、N個の対応ペア826を用いて、画像821を撮影したときの撮像装置801の位置及び姿勢を計算し、計算した位置及び姿勢をパラメータ827として記憶部611に格納する。
このとき、位置計算部814は、撮像装置801の位置及び姿勢を表す変数を所定値ずつ変更しながら、各対応ペアに含まれる候補線を画像821上に投影することで、投影線を生成する。誤差計算部815は、位置計算部814が生成した投影線の位置と、その対応ペアに含まれる特徴線の位置との間のずれを表す誤差を計算する。そして、位置計算部814は、誤差計算部815が計算した誤差の総和が最小となる変数の値を、パラメータ827として求める。
位置計算部814は、N個の対応ペアの選択を変更しながら、パラメータ827を計算する処理を複数回繰り返す。決定部613は、パラメータ827が計算される度に、そのパラメータ827が表す撮像装置801の位置及び姿勢を用いて、位置計算部814が選択したN個の対応ペアに含まれる候補線を画像821上に投影することで、N本の投影線を生成する。そして、決定部613は、誤差計算部815と同様にして、N本の投影線の位置とN本の特徴線の位置との間の誤差の総和を計算し、計算した誤差の総和を指標828として記憶部611に格納する。
次に、決定部613は、それぞれのパラメータ827を用いて計算した指標828に基づいて、誤差の総和が最小となるN個の対応ペアを決定する。これらのN個の対応ペアは、対応付け結果に対応する。そして、決定部613は、決定したN個の対応ペアを用いて、3次元空間内における撮像装置801の位置及び姿勢を計算し、計算した位置及び姿勢をパラメータ829として記憶部611に格納する。出力部816は、パラメータ829を処理結果として出力する。
このような画像処理装置601によれば、ユーザが選択操作を行うことなく、CADデータ822から検出された候補線と画像821から検出された特徴線との対応ペアを自動的に生成することができる。このとき、生成部612によって、対応ペアの生成に用いる候補線及び特徴線が絞り込まれるため、総当たり計算を行う場合と比較して、N個の対応ペアを決定するための計算量が大幅に削減される。
図9は、図8の画像処理装置601が行う画像処理の具体例を示すフローチャートである。まず、画像取得部811は、撮像装置801から画像821を取得し(ステップ901)、特徴検出部812は、画像821から複数の特徴線824を検出する(ステップ902)。また、候補検出部813は、CADデータ822から複数の候補線825を検出する(ステップ903)。
次に、生成部612は、複数の特徴線824の中から、所定の条件を満たす複数の特徴線を抽出する(ステップ904)。所定の条件としては、例えば、以下のような条件が用いられる。
(C1)特徴線の少なくとも一部分が画像821内の指定領域に含まれる。
(C2)特徴線が画像821内の基準位置から所定距離の範囲内に存在する。
条件(C1)を用いた場合、ユーザは簡単な操作で物体が写っている領域を指定するだけで、対応ペアの生成に用いる特徴線を絞り込むことができる。一方、条件(C2)を用いた場合、ユーザが領域を指定することなく、予め設定された基準点、基準線等の基準位置に基づいて、対応ペアの生成に用いる特徴線を絞り込むことができる。ユーザが物体を撮影する場合、物体が画像821の中心位置近くに写っていることが多いため、画像821の中心位置を基準位置として用いることが効果的である。
図10は、画像821内の矩形の指定領域の例を示している。画像821内においてユーザにより矩形領域1001が指定された場合、生成部612は、矩形領域1001内に一部分又は全体が含まれる特徴線を抽出する。この場合、画像821から検出された18本の特徴線の中から9本の特徴線が抽出される。
図11は、画像821内の円形の指定領域の例を示している。画像821内においてユーザにより円形領域1101が指定された場合、生成部612は、円形領域1101内に一部分又は全体が含まれる特徴線を抽出する。この場合も、画像821から検出された18本の特徴線の中から9本の特徴線が抽出される。
図12は、画像821内の基準線の例を示している。生成部612は、画像821の中心位置を通る直線1201から所定距離の範囲内に存在する特徴線を抽出する。直線1201から特徴線までの距離としては、特徴線のいずれかの端点から直線1201上へ下ろした垂線の長さを用いてもよく、特徴線の中点から直線1201上へ下ろした垂線の長さを用いてもよい。
次に、生成部612は、複数の候補線825の中から、パラメータ823が表す位置及び姿勢から観察される複数の候補線を抽出する(ステップ905)。例えば、生成部612は、パラメータ823が表す位置及び姿勢を撮像装置801の位置及び姿勢として用いて、非特許文献3に記載された方法により複数の候補線825から隠れ線を除去し、残りの候補線を抽出することができる。
隠れ線は撮像装置801からは観察されないため、隠れ線に対応する特徴線は画像821から検出されないことが多い。そこで、候補線825から隠れ線を除去することで、対応ペアの生成に用いる候補線を効果的に絞り込むことができる。
図13は、図10〜図12に示した画像821に写っている物体のCADデータ822から検出された候補線825の例を示している。この例では、25本の候補線825が検出されている。
図14は、図13に示した候補線825から隠れ線を除去した後の残りの候補線の例を示している。25本の候補線825のうち11本の隠れ線を除去することによって、14本の候補線が抽出されている。
生成部612は、残りの候補線のうち物体の外形エッジを表す候補線を抽出してもよく、さらに、外形エッジを表す候補線のうち物体の外周を表す候補線を抽出してもよい。物体の外周を表す候補線は、物体の輪郭線を表しており、コンピュータグラフィックス(CG)における境界表現(Boundary Representations)の技術を用いることで、検出することが可能である。
例えば、非特許文献1に開示されているように、境界表現の1つであるウィングドエッジ(Winged-Egde)構造のデータには、輪郭線とそれを形成する頂点及び面を表す情報と、他の輪郭線との接続関係を表す情報とが含まれている。これらの情報に基づいて、CADデータから検出された各候補線が外周に対応するか否かを判定することができる。
画像821から検出される特徴線824が輪郭線である場合、物体と背景との境界線が特徴線824として検出される。物体と背景は物理的に離れているため、太陽、照明等の光の当たり方が異なっていたり、材質又は色が異なっていたりすることが多い。このため、より明瞭な特徴線が検出されやすく、特徴線の位置の精度も高くなる。また、輪郭線を表す対応ペアを多数生成することで、画像821内における対応ペアの分布範囲が広くなり、パラメータ829の計算精度の向上に寄与すると考えられる。
図15は、物体の外形エッジを表す候補線の例を示している。図14に示した14本の候補線のうち、太線で示す11本の候補線が外形エッジを表す候補線として抽出される。
図16は、物体の外周を表す候補線の例を示している。図15に示した11本の候補線のうち、太線で示す8本の候補線が外周を表す候補線として抽出される。
生成部612は、図14〜図16に示した候補線の中から、画像821上に投影した際に所定長よりも長いものを選択して使用してもよい。投影線が長い場合、物体の形状を表す輪郭線自体が長いため、より長い特徴線と対応付けられる可能性が高い。また、長い特徴線ほど、その信頼性も高いと考えられる。さらに、撮像装置801の位置及び姿勢の計算において、投影線と特徴線がともに長いほど、投影線と特徴線との間の誤差の計算精度が向上するため、パラメータ829の計算精度も向上する。
次に、生成部612は、N本の候補線とN本の特徴線とを対応付けたN個の対応ペア826を生成し(ステップ906)、位置計算部814は、それらの対応ペア826を用いてパラメータ827を計算する(ステップ907)。
図17は、対応ペアの例を示している。この例では、候補線1711〜候補線1714が特徴線1701〜特徴線1704とそれぞれ対応付けられて、4個の対応ペアが生成されている。
ステップ907において、位置計算部814は、例えば、最小二乗法を用いてパラメータ827を計算することができる。この場合、位置計算部814は、撮像装置801の位置及び姿勢を表す変数を所定値ずつ変更しながら、各対応ペアに含まれる候補線を画像821上に投影することで、投影線を生成する。誤差計算部815は、投影線の位置と、その対応ペアに含まれる特徴線の位置との誤差Ei(i=1〜N)を評価し、N個の対応ペアに対する二乗誤差の総和Eが最小となる変数の値を、パラメータ827として求める。二乗誤差の総和Eは、次式により計算される。
誤差計算部815は、例えば、図18又は図19に示すような方法で、誤差Eiを計算することができる。図18は、投影線と特徴線との間の領域の面積に基づく計算方法の例を示している。i番目の対応ペアに含まれる投影線が線分1801であり、特徴線が線分1802である場合、線分1801の両端と線分1802の両端とをそれぞれ結ぶ線分1803及び線分1804を定義することができる。この場合、線分1801〜線分1804によって囲まれた領域の面積Aiを、誤差Eiとして用いることができる。
Ei=Ai (12)
面積Aiが小さいほど、誤差Eiは小さくなり、線分1801が線分1802に重なっている場合、誤差Eiは0になる。
図19は、投影線と特徴線との間の距離に基づく計算方法の例を示している。線分1802の両端から線分1801上へ下ろした垂線1901及び垂線1902の長さを、それぞれ、Li1及びLi2とする。この場合、Li1及びLi2の和を、誤差Eiとして用いることができる。
Ei=Li1+Li2 (13)
Li1及びLi2が短いほど、誤差Eiは小さくなり、線分1801が線分1802に重なっている場合、誤差Eiは0になる。
次に、決定部613は、パラメータ827が表す撮像装置801の位置及び姿勢を用いて、N個の対応ペアに含まれる候補線を画像821上に投影することで、N本の投影線を生成する(ステップ908)。
次に、決定部613は、N本の投影線の位置とN本の特徴線の位置との間の誤差の総和を表す指標828を計算し(ステップ909)、指標828の計算を所定回数行ったか否かをチェックする(ステップ910)。指標828の計算を所定回数行っていない場合(ステップ910,No)、位置計算部814は、N個の対応ペアの選択を変更し(ステップ906)、画像処理装置601は、ステップ907以降の処理を繰り返す。
指標828の計算を所定回数行った場合(ステップ910,Yes)、決定部613は、誤差の総和が最小となるN個の対応ペアを選択し(ステップ911)、それらの対応ペアに基づいてパラメータ829を計算する(ステップ912)。そして、出力部816は、選択されたN個の対応ペア及びパラメータ829を出力する(ステップ913)。
図9の画像処理によれば、N個の対応ペアの選択を自動的に変更しながら指標828の計算を繰り返すことで、誤差の総和が最小となるN個の対応ペアを求めることができる。これにより、ユーザによる選択操作の作業時間が削減され、処理時間が短縮されるとともに、撮像装置801の位置及び姿勢の推定精度が向上する。
また、ヒューマンエラーに起因する選択ミスがなくなるため、選択のやり直しによる処理時間の増加が発生しない。熟練者でなくても最適なN個の対応ペアを求めることができるため、対応付け結果を適用する作業の種類及び対象者を拡大することが可能になる。
なお、図9のステップ910において、画像処理装置601は、指標828の計算を所定回数行った場合に繰り返し処理を打ち切る代わりに、指標828が表す誤差が所定値よりも小さくなった場合に繰り返し処理を打ち切ってもよい。
また、ステップ907及びステップ909において、画像処理装置601は、投影線の位置と特徴線の位置との間の誤差の代わりに、投影線と特徴線との間の類似度を評価してもよい。投影線と特徴線との間の類似度としては、例えば、特許文献1に記載された2本の線分の類似度を用いることができる。この場合、ステップ907において、類似度の総和が最大となるパラメータ827が求められ、ステップ911において、類似度の総和が最大となるN個の対応ペアが選択される。
ところで、ステップ911において選択されたN個の対応ペアの誤差の総和が最小であったとしても、各投影線が各特徴線を180度回転させた線分を表していることがある。
図20は、180度回転した線分の例を示している。図20の投影線及び特徴線のうち、投影線2012は、特徴線2002と重なっている。一方、投影線2011、投影線2013、及び投影線2014は、投影線2012を軸として、特徴線2002、特徴線2003、及び特徴線2004をそれぞれ180度回転させた線分に対応する。この場合、式(12)の面積Aiはほぼ0になるため、誤差の総和が最小になる可能性がある。
そこで、このような対応付けを禁止するために、決定部613は、次のような条件を満たすN個の対応ペアの中から、誤差の総和が最小となるN個の対応ペアを選択してもよい。
(C11)N本の投影線のうち、所定の割合の投影線が画像821内に含まれている。
(C12)N本の投影線のうち、所定の割合の投影線が画像821内の所定位置の近傍に存在する。
(C13)画像821の面積に対するN本の投影線の分布範囲の割合が所定値以上である。
図21は、パラメータ827の計算に適していない候補線の例を示している。図21(a)は、互いに平行な4本の候補線を示している。4本の候補線が平行である場合、矢印2101の方向に候補線を並行移動させても誤差が変化せず、候補線の位置を固定することが困難になることがある。
図21(b)は、同一直線上に存在する2本の候補線を示している。2本の候補線が同一直線上に存在する場合、矢印2102の方向に候補線を拡大又は縮小させても誤差が変化せず、スケールを固定することが困難になることがある。
そこで、図9のステップ906において、生成部612は、次のような条件を満たすN本の候補線を選択して、N個の対応ペアを生成してもよい。
(C21)N本の候補線のうち少なくとも2本の候補線は平行ではない。
(C22)N本の候補線のうちいずれの2本の候補線も同一直線上に存在しない。
同様の理由から、生成部612は、次のような条件を満たすN本の特徴線を選択して、N個の対応ペアを生成してもよい。
(C31)N本の特徴線のうち少なくとも2本の特徴線は平行ではない。
(C32)N本の特徴線のうちいずれの2本の特徴線も同一直線上に存在しない。
図6及び図8の画像処理装置601の構成は一例に過ぎず、画像処理装置601の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、画像821から特徴線824を検出する処理が画像処理装置601の外部の装置によって行われる場合は、図8の特徴検出部812を省略することができる。
CADデータ822から候補線825を抽出する処理が外部の装置によって行われる場合は、候補検出部813を省略することができる。CADデータ822の代わりに、物体の形状を表す他の形状情報を用いてもよい。
図7及び図9のフローチャートは一例に過ぎず、画像処理装置601の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、画像821から特徴線824を検出する処理が画像処理装置601の外部の装置によって行われる場合は、図9のステップ901及びステップ902の処理を省略することができる。CADデータ822から候補線825を検出する処理が外部の装置によって行われる場合は、図9のステップ903の処理を省略することができる。
撮像装置801の姿勢が予め決められている場合、図9のステップ907及びステップ912において、撮像装置801の位置のみをパラメータとして求めてもよい。
図1の3次元マップ及び画像は一例に過ぎず、3次元マップ及び画像は、撮影対象の物体に応じて変化する。図2の3次元マップの生成方法は一例に過ぎず、画像処理装置601の構成又は条件に応じて、別の方法により3次元マップを生成してもよい。
図3の画像、図4のCADデータ、図5のエッジ線及び輪郭線は一例に過ぎず、画像、CADデータ、エッジ線及び輪郭線は、撮影対象の物体、画像処理装置601の構成又は条件に応じて変化する。
図10及び図11の指定領域、図12の基準線は一例に過ぎず、画像処理装置601の構成又は条件に応じて、別の形状の指定領域及び別の基準線を用いてもよい。
図13〜図16及び図21の候補線、図17の特徴線及び候補線、図20の特徴線及び投影線は一例に過ぎず、候補線、特徴線、及び投影線は、撮影対象の物体、画像処理装置601の構成又は条件に応じて変化する。
図18及び図19の誤差の計算方法は一例に過ぎず、画像処理装置601の構成又は条件に応じて別の計算方法を用いてもよい。式(1)〜式(13)の計算式は一例に過ぎず、画像処理装置601の構成又は条件に応じて別の計算式を用いてもよい。
図22は、図6及び図8の画像処理装置601として用いられる情報処理装置(コンピュータ)の構成例を示している。図22の情報処理装置は、Central Processing Unit(CPU)2201、メモリ2202、入力装置2203、出力装置2204、補助記憶装置2205、媒体駆動装置2206、及びネットワーク接続装置2207を含む。これらの構成要素はバス2208により互いに接続されている。図8の撮像装置801は、バス2208に接続されていてもよい。
メモリ2202は、例えば、Read Only Memory(ROM)、Random Access Memory(RAM)、フラッシュメモリ等の半導体メモリであり、画像処理に用いられるプログラム及びデータを格納する。メモリ2202は、図6及び図8の記憶部611として用いることができる。
CPU2201(プロセッサ)は、例えば、メモリ2202を利用してプログラムを実行することにより、図6及び図8の生成部612及び決定部613として動作する。CPU2201は、図8の特徴検出部812、候補検出部813、位置計算部814、及び誤差計算部815としても動作する。
入力装置2203は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置2204は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。処理結果は、決定部613が決定したN個の対応ペアであってもよい。出力装置2204は、図8の出力部816として用いることができる。
補助記憶装置2205は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置2205は、ハードディスクドライブであってもよい。情報処理装置は、補助記憶装置2205にプログラム及びデータを格納しておき、それらをメモリ2202にロードして使用することができる。補助記憶装置2205は、図6及び図8の記憶部611として用いることができる。
媒体駆動装置2206は、可搬型記録媒体2209を駆動し、その記録内容にアクセスする。可搬型記録媒体2209は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体2209は、Compact Disk Read Only Memory(CD−ROM)、Digital Versatile Disk(DVD)、Universal Serial Bus(USB)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体2209にプログラム及びデータを格納しておき、それらをメモリ2202にロードして使用することができる。
このように、画像処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ2202、補助記憶装置2205、又は可搬型記録媒体2209のような、物理的な(非一時的な)記録媒体である。
ネットワーク接続装置2207は、Local Area Network、Wide Area Network等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェースである。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置2207を介して受信し、それらをメモリ2202にロードして使用することができる。ネットワーク接続装置2207は、図8の出力部816として用いることができる。
なお、情報処理装置が図22のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、可搬型記録媒体2209又は通信ネットワークを使用しない場合は、媒体駆動装置2206又はネットワーク接続装置2207を省略してもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図3乃至図22を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
物体の形状情報に含まれる複数の候補線のうち、前記物体の画像を撮影した撮像装置の位置から観察される複数の候補線を抽出し、
前記観察される複数の候補線のうち所定数の候補線それぞれと、前記画像から検出した複数の特徴線のうち所定数の特徴線それぞれとを対応付けた、前記所定数の組み合わせを表す対応付け情報を複数個生成し、
前記複数個の対応付け情報それぞれの誤差に基づいて対応付け結果を決定する、
処理をコンピュータに実行させる画像処理プログラム。
(付記2)
前記コンピュータは、空間内の所定位置を前記撮像装置の位置として用いて、前記形状情報に含まれる複数の候補線のうち隠れ線を除去し、残りの候補線を前記観察される複数の候補線として抽出することを特徴とする付記1記載の画像処理プログラム。
(付記3)
前記コンピュータは、前記残りの候補線のうち前記物体の外形エッジを表す候補線を、前記観察される複数の候補線として抽出することを特徴とする付記2記載の画像処理プログラム。
(付記4)
前記コンピュータは、前記外形エッジを表す候補線のうち前記物体の外周を表す候補線を、前記観察される複数の候補線として抽出することを特徴とする付記3記載の画像処理プログラム。
(付記5)
前記所定数の候補線のうち2本の候補線は平行ではないことを特徴とする付記1乃至4のいずれか1項に記載の画像処理プログラム。
(付記6)
前記所定数の候補線のうちいずれの2本の候補線も同一直線上に存在しないことを特徴とする付記1乃至5のいずれか1項に記載の画像処理プログラム。
(付記7)
前記コンピュータは、前記複数の特徴線のうち、前記画像内の指定領域に含まれる部分を有する複数の特徴線を抽出し、抽出した前記複数の特徴線から前記所定数の特徴線を選択することを特徴とする付記1乃至6のいずれか1項に記載の画像処理プログラム。
(付記8)
前記コンピュータは、前記複数の特徴線のうち、前記画像内の基準位置から所定距離の範囲内に存在する複数の特徴線を抽出し、抽出した前記複数の特徴線から前記所定数の特徴線を選択することを特徴とする付記1乃至6のいずれか1項に記載の画像処理プログラム。
(付記9)
前記所定数の特徴線のうち2本の特徴線は平行ではないことを特徴とする付記1乃至8のいずれか1項に記載の画像処理プログラム。
(付記10)
前記所定数の特徴線のうちいずれの2本の特徴線も同一直線上に存在しないことを特徴とする付記1乃至9のいずれか1項に記載の画像処理プログラム。
(付記11)
物体の形状情報を記憶する記憶部と、
前記形状情報に含まれる複数の候補線のうち、前記物体の画像を撮影した撮像装置の位置から観察される複数の候補線を抽出し、前記観察される複数の候補線のうち所定数の候補線それぞれと、前記画像から検出した複数の特徴線のうち所定数の特徴線それぞれとを対応付けた、前記所定数の組み合わせを表す対応付け情報を複数個生成する生成部と、
前記複数個の対応付け情報それぞれの誤差に基づいて対応付け結果を決定する決定部と、
を備えることを特徴とする画像処理装置。
(付記12)
前記生成部は、空間内の所定位置を前記撮像装置の位置として用いて、前記形状情報に含まれる複数の候補線のうち隠れ線を除去し、残りの候補線を前記観察される複数の候補線として抽出することを特徴とする付記11記載の画像処理装置。
(付記13)
コンピュータが、
物体の形状情報に含まれる複数の候補線のうち、前記物体の画像を撮影した撮像装置の位置から観察される複数の候補線を抽出し、
前記観察される複数の候補線のうち所定数の候補線それぞれと、前記画像から検出した複数の特徴線のうち所定数の特徴線それぞれとを対応付けた、前記所定数の組み合わせを表す対応付け情報を複数個生成し、
前記複数個の対応付け情報それぞれの誤差に基づいて対応付け結果を決定する、
ことを特徴とする画像処理方法。
(付記14)
前記コンピュータは、空間内の所定位置を前記撮像装置の位置として用いて、前記形状情報に含まれる複数の候補線のうち隠れ線を除去し、残りの候補線を前記観察される複数の候補線として抽出することを特徴とする付記13記載の画像処理方法。
201 3次元マップ
202、301、302、821 画像
203 3次元座標系
204 カメラ座標系
211 マップ点
212 投影点
213、313、314 特徴点
311、312 撮影位置
601 画像処理装置
611 記憶部
612 生成部
613 決定部
621 形状情報
801 撮像装置
811 画像取得部
812 特徴検出部
813 候補検出部
814 位置計算部
815 誤差計算部
816 出力部
822 CADデータ
823、827、829 パラメータ
824、1701〜1704、2001〜2004 特徴線
825、1711〜1714 候補線
826 対応ペア
828 指標
1001 矩形領域
1101 円形領域
1201 直線
1801〜1804 線分
1901、1902 垂線
2011〜2014 投影線
2201 CPU
2202 メモリ
2203 入力装置
2204 出力装置
2205 補助記憶装置
2206 媒体駆動装置
2207 ネットワーク接続装置
2208 バス
2209 可搬型記録媒体
図7は、図6の画像処理装置601が行う画像処理の例を示すフローチャートである。まず、生成部612は、物体の形状情報621に含まれる複数の候補線のうち、物体の画像を撮影した撮像装置の位置から観察される複数の候補線を抽出する(ステップ701)。次に、生成部612は、観察される複数の候補線のうち所定数の候補線それぞれと、画像から検出した複数の特徴線のうち所定数の特徴線それぞれとを対応付けた、所定数の組み合わせを表す対応付け情報を複数個生成する(ステップ702)。そして、決定部613は、複数個の対応付け情報それぞれの誤差に基づいて対応付け結果を決定する(ステップ703)。

Claims (12)

  1. 物体の形状情報に含まれる複数の候補線のうち、前記物体の画像を撮影した撮像装置の位置から観察される複数の候補線を抽出し、
    前記観察される複数の候補線のうち所定数の候補線それぞれと、前記画像から検出した複数の特徴線のうち所定数の特徴線それぞれとを対応付けた、前記所定数の組み合わせを表す対応付け情報を複数個生成し、
    前記複数個の対応付け情報それぞれの誤差に基づいて対応付け結果を決定する、
    処理をコンピュータに実行させる画像処理プログラム。
  2. 前記コンピュータは、空間内の所定位置を前記撮像装置の位置として用いて、前記形状情報に含まれる複数の候補線のうち隠れ線を除去し、残りの候補線を前記観察される複数の候補線として抽出することを特徴とする請求項1記載の画像処理プログラム。
  3. 前記コンピュータは、前記残りの候補線のうち前記物体の外形エッジを表す候補線を、前記観察される複数の候補線として抽出することを特徴とする請求項2記載の画像処理プログラム。
  4. 前記コンピュータは、前記外形エッジを表す候補線のうち前記物体の外周を表す候補線を、前記観察される複数の候補線として抽出することを特徴とする請求項3記載の画像処理プログラム。
  5. 前記所定数の候補線のうち2本の候補線は平行ではないことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理プログラム。
  6. 前記所定数の候補線のうちいずれの2本の候補線も同一直線上に存在しないことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理プログラム。
  7. 前記コンピュータは、前記複数の特徴線のうち、前記画像内の指定領域に含まれる部分を有する複数の特徴線を抽出し、抽出した前記複数の特徴線から前記所定数の特徴線を選択することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理プログラム。
  8. 前記コンピュータは、前記複数の特徴線のうち、前記画像内の基準位置から所定距離の範囲内に存在する複数の特徴線を抽出し、抽出した前記複数の特徴線から前記所定数の特徴線を選択することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理プログラム。
  9. 前記所定数の特徴線のうち2本の特徴線は平行ではないことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理プログラム。
  10. 前記所定数の特徴線のうちいずれの2本の特徴線も同一直線上に存在しないことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理プログラム。
  11. 物体の形状情報を記憶する記憶部と、
    前記形状情報に含まれる複数の候補線のうち、前記物体の画像を撮影した撮像装置の位置から観察される複数の候補線を抽出し、前記観察される複数の候補線のうち所定数の候補線それぞれと、前記画像から検出した複数の特徴線のうち所定数の特徴線それぞれとを対応付けた、前記所定数の組み合わせを表す対応付け情報を複数個生成する生成部と、
    前記複数個の対応付け情報それぞれの誤差に基づいて対応付け結果を決定する決定部と、
    を備えることを特徴とする画像処理装置。
  12. コンピュータが、
    物体の形状情報に含まれる複数の候補線のうち、前記物体の画像を撮影した撮像装置の位置から観察される複数の候補線を抽出し、
    前記観察される複数の候補線のうち所定数の候補線それぞれと、前記画像から検出した複数の特徴線のうち所定数の特徴線それぞれとを対応付けた、前記所定数の組み合わせを表す対応付け情報を複数個生成し、
    前記複数個の対応付け情報それぞれの誤差に基づいて対応付け結果を決定する、
    ことを特徴とする画像処理方法。
JP2016187515A 2016-09-26 2016-09-26 画像処理プログラム、画像処理装置、及び画像処理方法 Active JP6880618B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016187515A JP6880618B2 (ja) 2016-09-26 2016-09-26 画像処理プログラム、画像処理装置、及び画像処理方法
US15/681,095 US10311576B2 (en) 2016-09-26 2017-08-18 Image processing device and image processing method
EP17187032.2A EP3300025B1 (en) 2016-09-26 2017-08-21 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016187515A JP6880618B2 (ja) 2016-09-26 2016-09-26 画像処理プログラム、画像処理装置、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2018055199A true JP2018055199A (ja) 2018-04-05
JP6880618B2 JP6880618B2 (ja) 2021-06-02

Family

ID=59686781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016187515A Active JP6880618B2 (ja) 2016-09-26 2016-09-26 画像処理プログラム、画像処理装置、及び画像処理方法

Country Status (3)

Country Link
US (1) US10311576B2 (ja)
EP (1) EP3300025B1 (ja)
JP (1) JP6880618B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185475A (ja) * 2018-04-12 2019-10-24 富士通株式会社 特定プログラム、特定方法及び情報処理装置
JP2020098575A (ja) * 2018-12-13 2020-06-25 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2020135446A (ja) * 2019-02-20 2020-08-31 富士通株式会社 画像処理装置及び画像処理方法
US11132806B2 (en) 2019-03-13 2021-09-28 Fujitsu Limited Image processing apparatus and image processing method
US11145048B2 (en) 2019-07-24 2021-10-12 Fujitsu Limited Image processing apparatus, image processing method, and non-transitory computer-readable storage medium for storing program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109313799B (zh) * 2016-12-21 2021-02-26 华为技术有限公司 图像处理方法及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002203243A (ja) * 2000-10-31 2002-07-19 Toshiba Corp 画像処理方法及び装置、画像特徴点検出方法及びプログラム、並びに位置指定支援方法及びプログラム
JP2007333679A (ja) * 2006-06-19 2007-12-27 Mitsubishi Electric Corp 3次元位置補正装置
JP2011118724A (ja) * 2009-12-04 2011-06-16 Nippon Hoso Kyokai <Nhk> カメラ姿勢推定装置およびカメラ姿勢推定プログラム
JP2014170368A (ja) * 2013-03-04 2014-09-18 Univ Of Tokyo 画像処理装置、方法及びプログラム並びに移動体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5058686B2 (ja) 2007-06-14 2012-10-24 キヤノン株式会社 情報処理方法及び情報処理装置
JP6244886B2 (ja) 2013-12-19 2017-12-13 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2015218318A (ja) 2014-05-21 2015-12-07 テーザ・ソシエタス・ヨーロピア シンタクチックフォーム型のポリマー組成物、好ましくは感圧接着性組成物を製造する方法、その方法を実施するための装置、押出し物、および自己接着テープ
JP2016066086A (ja) 2015-11-24 2016-04-28 セイコーエプソン株式会社 照明装置及びプロジェクター

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002203243A (ja) * 2000-10-31 2002-07-19 Toshiba Corp 画像処理方法及び装置、画像特徴点検出方法及びプログラム、並びに位置指定支援方法及びプログラム
JP2007333679A (ja) * 2006-06-19 2007-12-27 Mitsubishi Electric Corp 3次元位置補正装置
JP2011118724A (ja) * 2009-12-04 2011-06-16 Nippon Hoso Kyokai <Nhk> カメラ姿勢推定装置およびカメラ姿勢推定プログラム
JP2014170368A (ja) * 2013-03-04 2014-09-18 Univ Of Tokyo 画像処理装置、方法及びプログラム並びに移動体

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185475A (ja) * 2018-04-12 2019-10-24 富士通株式会社 特定プログラム、特定方法及び情報処理装置
JP2020098575A (ja) * 2018-12-13 2020-06-25 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2020135446A (ja) * 2019-02-20 2020-08-31 富士通株式会社 画像処理装置及び画像処理方法
JP7232663B2 (ja) 2019-02-20 2023-03-03 富士通株式会社 画像処理装置及び画像処理方法
US11132806B2 (en) 2019-03-13 2021-09-28 Fujitsu Limited Image processing apparatus and image processing method
US11145048B2 (en) 2019-07-24 2021-10-12 Fujitsu Limited Image processing apparatus, image processing method, and non-transitory computer-readable storage medium for storing program

Also Published As

Publication number Publication date
US10311576B2 (en) 2019-06-04
JP6880618B2 (ja) 2021-06-02
EP3300025A1 (en) 2018-03-28
US20180089836A1 (en) 2018-03-29
EP3300025B1 (en) 2022-06-01

Similar Documents

Publication Publication Date Title
JP6716996B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP6880618B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
US10776936B2 (en) Point cloud matching method
US9633281B2 (en) Point cloud matching method
JP7188201B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
Lei et al. A CNN-based 3D patch registration approach for integrating sequential models in support of progress monitoring
EP3093822B1 (en) Displaying a target object imaged in a moving picture
US20210350115A1 (en) Methods and apparatus for identifying surface features in three-dimensional images
TW201616450A (zh) 點雲畫筆選取系統及方法
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
Ozbay et al. A hybrid method for skeleton extraction on Kinect sensor data: Combination of L1-Median and Laplacian shrinking algorithms
JP2019158628A (ja) 検査装置、検査方法、及び検査プログラム
JP7003617B2 (ja) 推定装置、推定方法、及び推定プログラム
US11145048B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium for storing program
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
KR101673144B1 (ko) 부분 선형화 기반의 3차원 영상 정합 방법
JP2019159470A (ja) 推定装置、推定方法、及び推定プログラム
JP2019105992A (ja) 画像処理装置、画像処理プログラム及び画像処理方法
Altuntas Pair-wise automatic registration of three-dimensional laser scanning data from historical building by created two-dimensional images
JP5814714B2 (ja) 画像類似度判定装置、画像類似度判定方法及び画像類似度判定プログラム
JP2019070898A (ja) 推定プログラム、推定装置、及び推定方法
JP6586852B2 (ja) 画像処理装置
US20210035318A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
WO2022185462A1 (ja) 基本行列生成装置、制御方法、及びコンピュータ可読媒体
Thisse et al. 3D Dense & Scaled Reconstruction Pipeline with Smartphone Acquisition

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170821

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20201015

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20201015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6880618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150