WO2017061148A1 - 線分検出方法 - Google Patents

線分検出方法 Download PDF

Info

Publication number
WO2017061148A1
WO2017061148A1 PCT/JP2016/068976 JP2016068976W WO2017061148A1 WO 2017061148 A1 WO2017061148 A1 WO 2017061148A1 JP 2016068976 W JP2016068976 W JP 2016068976W WO 2017061148 A1 WO2017061148 A1 WO 2017061148A1
Authority
WO
WIPO (PCT)
Prior art keywords
line segment
function model
end point
detection method
image
Prior art date
Application number
PCT/JP2016/068976
Other languages
English (en)
French (fr)
Inventor
信一郎 園田
肇 坂野
健太郎 溝内
Original Assignee
株式会社Ihi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Ihi filed Critical 株式会社Ihi
Priority to JP2017544387A priority Critical patent/JP6477907B2/ja
Priority to EP16853303.2A priority patent/EP3309752B1/en
Priority to RU2018104244A priority patent/RU2681703C1/ru
Publication of WO2017061148A1 publication Critical patent/WO2017061148A1/ja
Priority to US15/846,502 priority patent/US10748026B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Definitions

  • the present disclosure relates to a line segment detection method, and more particularly, to a line segment detection method for accurately detecting a start point and an end point of a line segment to be detected in an image.
  • artificial satellites for various purposes such as military satellites, communication satellites, scientific satellites, observation satellites, and navigation satellites orbit around the orbit. When these satellites break down and stop functioning or when they reach their end of their service life, they are often left in orbit and become debris (also called space debris or space debris). . Also, debris such as rockets used for launching artificial satellites are left in orbit as debris.
  • Hough transform Hough transform
  • the present disclosure has been made in view of the above-described problems, and an object thereof is to provide a line segment detection method capable of efficiently and accurately detecting the end points of a line segment to be detected in an image. To do.
  • One aspect of the present disclosure is a line segment detection method for detecting the line segment from an image including a line segment to be detected, the line extraction step extracting a straight line including the line segment from the image;
  • a luminance distribution acquisition step of acquiring a luminance distribution of the image, a virtual function model generation step of generating a virtual function model representing a foreground and background distribution of the image using the luminance distribution, and the virtual function model
  • an endpoint estimation step of estimating whether the luminance value in the vicinity of the endpoint of the line segment belongs to the foreground or the background stochastically and estimating the endpoint on the virtual function model.
  • the virtual function model is, for example, a likelihood function model, a ramp function model, or a sigmoid function model.
  • FIG. 1 is a flowchart illustrating a line segment detection method according to an embodiment.
  • 2A and 2B are explanatory diagrams of the line segment detection method shown in FIG. 1, in which FIG. 2A shows an image acquisition step and FIG. 2B shows a straight line extraction step.
  • 3A to 3C are explanatory diagrams of the line segment detection method shown in FIG. 1, in which FIG. 3A is a luminance distribution acquisition step and FIG. 3B is a virtual function model generation step.
  • FIG. 3C shows an end point estimation step.
  • 4 (a) and 4 (b) are explanatory diagrams of the erroneous detection determination step, FIG. 4 (a) is a luminance distribution including only the background, FIG. 4 (b) is a luminance distribution including two stars, Is shown.
  • the present embodiment is a line segment detection method for detecting a line segment P from an image 1 including the line segment P to be detected.
  • This method includes an image acquisition step (Step 1) for acquiring the image 1, a straight line extraction step (Step 2) for extracting a straight line L including the line segment P from the image 1, and a luminance distribution for acquiring the luminance distribution 2 on the straight line L.
  • Step 6 an erroneous detection determination step (Step 7) for determining whether or not there is a false detection using the estimated values of the start point s ′ and the end point t ′ obtained in the end point estimation step (Step 5) Yes.
  • the image acquisition step (Step 1) is a step of inputting the image 1 including the debris movement trajectory into an image processing means such as a computer.
  • the image 1 is acquired by, for example, an imaging device in which a CCD camera or the like is connected to an astronomical telescope.
  • the image 1 is acquired, for example, by imaging a predetermined astronomical region with an exposure time that can be imaged as a line segment P having a certain length with a low-orbit (LEO) debris movement trajectory to be detected.
  • LEO low-orbit
  • the portion Q indicates a portion having a high luminance value (for example, a star). Since such a portion Q can cause erroneous detection, it may be previously removed from the image 1 using a general image processing method. As a method for removing the portion Q, for example, the method described in Patent Document 1 can be used. Moreover, it is preferable that the image 1 is binarized before moving to the straight line extraction step (Step 2).
  • the luminance value (intensity) on the straight line L extracted in the straight line extraction step (Step 2) is extracted along the straight line L to obtain the luminance distribution. 2 is obtained.
  • the horizontal axis indicates pixels on the straight line L
  • the vertical axis indicates the luminance value.
  • the luminance value is data that can be easily acquired at the time of imaging with a general imaging device.
  • a general method such as a bilinear method, a nearest neighbor method, or a bicubic method can be used.
  • the start point s and the end point t are straight lines so that the foreground distribution in the likelihood function model (virtual function model Lm) matches the luminance distribution 2.
  • the more likely start point s 'and end point t' are estimated.
  • the start point s ′ and the end point t ′ belong to the foreground or the background of the luminance values in the vicinity of the start point s and the end point t of the line segment P represented by the virtual function model Lm stochastically (or statistically) It is estimated by repeating the process of determining.
  • the likelihood of the luminance on the straight line L is calculated using Equation 1 while changing the start point s and end point t of the likelihood function model.
  • the logarithm of Formula 1 is taken for calculation.
  • s and t at the highest likelihood are estimated as the final start point s ′ and end point t ′.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

線分検出方法は、画像(1)を取得し(Step1)、画像(1)から線分(P)を含む直線(L)を抽出し(Step2)、直線(L)上の輝度分布(2)を取得し(Step3)、輝度分布(2)を用いて画像(1)の前景及び背景の分布を表す仮想関数モデル(Lm)を生成し(Step4)、仮想関数モデル(Lm)により表された線分(P)の端点(始点(s)及び終点(t))近傍の輝度値が確率的に前景又は背景の何れに属するかを決定して仮想関数モデル(Lm)上の端点(始点(s')及び終点(t'))を推定する(Step5)こと、を含む。

Description

線分検出方法
 本開示は、線分検出方法に関し、特に、画像中における検出対象の線分の始点及び終点を精度よく検出するための線分検出方法に関する。
 現在、軌道上には、軍事衛星、通信衛星、科学衛星、観測衛星、航行衛星等、種々の目的の人工衛星が周回している。これらの人工衛星は、故障して機能しなくなったり、役目を終えて寿命に達したりした場合には、そのまま軌道上に放置され、デブリ(宇宙ごみ、スペースデブリとも言う。)となることが多い。また、人工衛星等の打ち上げに使用したロケット等の残骸もデブリとして軌道上に放置されている。
 現在、軌道上を周回しているデブリは、数千個以上にも及び、自然衝突により個数が増加する自己増殖の段階に突入している。このデブリは、現在使用中の人工衛星の軌道周回中や人工衛星等の打ち上げ時に衝突する可能性があることから、高精度な検出方法が求められている。
 例えば、低軌道のデブリは移動速度が速く、画像には線形状の軌跡となって映し出される。かかるデブリの位置や姿勢を把握するためには、画像に映し出された線形状の端点(例えば、始点及び終点)を高精度に求める必要がある。一般に、画像から線形状の物体を検出する手法としてハフ変換(Hough変換)を用いる方法が知られている(特許文献1参照)。
特開2014-197378号公報
 しかしながら、特許文献1に記載されたようなハフ変換を用いた手法では、画像に映し出された直線しか求めることができず、線形状の端点(例えば、始点及び終点)を検出することができないという問題があった。
 本開示は、上述した問題点に鑑みて創案されたものであり、画像中における検出対象の線分の端点を効率よく正確に検出することができる、線分検出方法を提供することを目的とする。
 本開示の一態様は、検出対象の線分を含む画像から前記線分を検出する線分検出方法であって、前記画像から前記線分を含む直線を抽出する直線抽出ステップと、前記直線上の輝度分布を取得する輝度分布取得ステップと、前記輝度分布を用いて前記画像の前景及び背景の分布を表す仮想関数モデルを生成する仮想関数モデル生成ステップと、前記仮想関数モデルにより表された前記線分の端点近傍の輝度値が確率的に前記前景又は前記背景の何れに属するかを決定して前記仮想関数モデル上の端点を推定する端点推定ステップと、を含む。
 前記線分検出方法は、前記端点推定ステップにより得られた前記端点の推定値を用いて前記仮想関数モデルを再生成する繰り返しステップを含んでいてもよい。
 また、前記線分検出方法は、前記端点推定ステップにより得られた前記端点の推定値を用いて誤検出であるか否か判定する誤検出判定ステップを含んでいてもよい。
 前記仮想関数モデルは、例えば、尤度関数モデル、ランプ関数モデル又はシグモイド関数モデルのいずれかである。
 また、前記端点推定ステップは、最尤法を用いて前記端点を推定するステップであってもよい。
 また、前記画像は、例えば、地球軌道上を移動するデブリを含み、前記線分は、例えば、前記デブリの移動軌跡である。
 本開示に係る線分検出方法によれば、検出対象の線分を含む画像から該線分を含む直線の輝度分布を取得し、前景及び背景の分布を表す仮想関数モデルを生成し、該仮想関数モデル上の端点近傍の輝度値が確率的に前記前景又は前記背景の何れに属するかを決定して前記仮想関数モデル上の端点を推定し、該端点を修正することにより、前記線分の端点(例えば、始点及び終点)を効率よく正確に検出することができる。
図1は、一実施形態に係る線分検出方法を示すフロー図である。 図2(a)及び図2(b)は、図1に示した線分検出方法の説明図であり、図2(a)は画像取得ステップ、図2(b)は直線抽出ステップ、を示している。 図3(a)~図3(c)は、図1に示した線分検出方法の説明図であり、図3(a)は輝度分布取得ステップ、図3(b)は仮想関数モデル生成ステップ、図3(c)は端点推定ステップ、を示している。 図4(a)及び図4(b)は、誤検出判定ステップの説明図であり、図4(a)は背景のみを含む輝度分布、図4(b)は二つの恒星を含む輝度分布、を示している。
 以下、本開示の実施形態について図1~図4(b)を用いて説明する。ここで、図1は、一実施形態に係る線分検出方法を示すフロー図である。図2(a)及び図2(b)は、図1に示した線分検出方法の説明図であり、図2(a)は画像取得ステップ、図2(b)は直線抽出ステップ、を示している。図3(a)~図3(c)は、図1に示した線分検出方法の説明図であり、図3(a)は輝度分布取得ステップ、図3(b)は仮想関数モデル生成ステップ、図3(c)は端点推定ステップ、を示している。図4(a)及び図4(b)は、誤検出判定ステップの説明図であり、図4(a)は背景のみを含む輝度分布、図4(b)は二つの恒星を含む輝度分布、を示している。
 図1~図4(b)に示したように、本実施形態は、検出対象の線分Pを含む画像1から線分Pを検出する線分検出方法である。この方法は、画像1を取得する画像取得ステップ(Step1)と、画像1から線分Pを含む直線Lを抽出する直線抽出ステップ(Step2)と、直線L上の輝度分布2を取得する輝度分布取得ステップ(Step3)と、輝度分布2を用いて画像1の前景及び背景の分布を表す仮想関数モデルLmを生成する仮想関数モデル生成ステップ(Step4)と、仮想関数モデルLmにより表された線分Pの端点(始点s及び終点t)近傍の輝度値が確率的に前景又は背景の何れに属するかを決定して仮想関数モデルLm上の端点(始点s′及び終点t′)を推定する端点推定ステップ(Step5)と、端点推定ステップ(Step5)により得られた始点s′及び終点t′の推定値を用いて仮想関数モデルLmを再生成する繰り返しステップ(Step6)と、端点推定ステップ(Step5)により得られた始点s′及び終点t′の推定値を用いて誤検出であるか否か判定する誤検出判定ステップ(Step7)と、を有している。
 画像取得ステップ(Step1)は、デブリの移動軌跡を含む画像1を、コンピュータ等の画像処理手段に入力するステップである。画像1は、例えば、天体望遠鏡にCCDカメラ等を接続した撮像機器により取得される。また、画像1は、例えば、検出対象である低軌道(LEO)のデブリの移動軌跡を、一定長さを有する線分Pとして撮像可能な露出時間で所定の天体領域を撮像することにより取得される。
 図2(a)に示した画像1において、部分Qは輝度値の高い部分(例えば恒星)を示している。このような部分Qは誤検出の原因となり得るため、一般的な画像処理手法を用いて画像1から予め除去してもよい。部分Qの除去手法としては、例えば、特許文献1に記載された方法等を使用することができる。また、画像1は、直線抽出ステップ(Step2)に移行する前に二値化しておくことが好ましい。
 図2(b)に示したように、直線抽出ステップ(Step2)は、例えば、ハフ変換(Hough変換)を用いて線分Pを含む直線Lを抽出するステップである。ハフ変換では、概念的に以下の処理を行う。まず、画像1に一つの基点が設定し、その基点から角度の異なる多数の直線を引く。この処理を、基点を画像1のX座標軸方向及びY座標軸方向に移動させながら繰り返し、画像1上に無数の直線を定義する。そして、線分P上のピクセルが最も多く重なる直線を直線Lとして抽出する。なお、ハフ変換以外の他の方法により、直線Lを抽出してもよい。
 図3(a)に示したように、輝度分布取得ステップ(Step3)は、直線抽出ステップ(Step2)により抽出された直線L上の輝度値(強度)を直線Lに沿って抽出し、輝度分布2を取得するステップである。図3(a)において、横軸は直線L上のピクセルを示し、縦軸は輝度値を示している。輝度値は、一般的な撮像機器であれば撮像時に容易に取得することができるデータである。なお、輝度分布を取得するには、例えば、バイリニア法、ニアレストネイバー法、バイキュービック法等の一般的な手法を使用することができる。
 図3(b)に示したように、仮想関数モデル生成ステップ(Step4)は、前景及び背景の分布を表す尤度関数モデル(仮想関数モデルLm)を生成するステップである。仮想関数モデル生成ステップは、始点s及び終点tを任意の位置に仮想的に設定し、始点s及び終点tに含まれる範囲を前景(デブリを含む部分)と仮定し、それ以外の部分を背景(デブリを含まない部分)と仮定し、数式1に示したような尤度関数モデル(仮想関数モデルLm)を生成する。なお、説明の便宜上、始点sよりも左側の部分を左背景と称し、終点tよりも右側の部分を右背景と称する。
Figure JPOXMLDOC01-appb-M000001
・・・(数式1)
ここで、I(1≦i≦n)は直線L上の各ピクセルの輝度値、nは直線L上のピクセル数、μfg (数式上はμの上にマクロン(バー))は前景の輝度平均値(推定値)、σfg (数式上はσの上にマクロン(バー))は前景の標準偏差(推定値)、μbgは背景の輝度平均値(推定値)、σbgは背景の標準偏差(推定値)、sは始点、tは終点である。
 数式1に示した尤度関数モデル(仮想関数モデルLm)の右辺において、一行目の項は左背景、二行目の項は前景、三行目の項は右背景を示している。かかる尤度関数モデル(仮想関数モデルLm)は、ステップ関数とガウシアンノイズとを組み合わせることにより、当業者であれば容易に設計することができる。尤度関数モデル(仮想関数モデルLm)の生成に際し、前景の輝度平均値及び標準偏差、背景の輝度平均値及び標準偏差を用いる。
 このとき、前景の始点s及び終点tは仮想端点であることから、前景の輝度平均値及び標準偏差は推定値となる。また、背景の輝度平均値及び標準偏差は、輝度分布2から算出してもよいし、元の画像1から算出してもよい。
 なお、数式1に示した尤度関数モデルは、仮想関数モデルLmの単なる一例に過ぎない。仮想関数モデルLmは、ランプ関数やシグモイド関数又はこれらとガウシアンノイズとの組み合わせ等を用いて設計されてもよい。
 図3(c)に示したように、端点推定ステップ(Step5)は、尤度関数モデル(仮想関数モデルLm)における前景の分布が輝度分布2と一致するように、始点s及び終点tを直線上で(図の左右方向に)移動させて、より尤もらしい始点s′及び終点t′を推定する。始点s′及び終点t′は、仮想関数モデルLmにより表された線分Pの始点s及び終点tの近傍の輝度値が、確率的(又は統計的)に前景に属するか又は背景に属するかを決定する処理を繰り返すことで推定される。
 かかる処理は、一般に最尤法と呼ばれており、最尤法を用いることでより正確な線分Pの端点(始点及び終点)を検出することができる。なお、始点s及び終点tを直線上で(図3(b)の左右方向に)移動させる際は、いずれか一方の位置を固定し、いずれか他方の位置を移動させるようにすればよい。
 具体的には、尤度関数モデルの始点s及び終点tを変化させながら、数式1を用いて直線L上の輝度の尤度計算を行う。実際には、数式1の対数をとって計算する。そして、最も尤度が高い時のs,tを最終的な始点s′,終点t′と推定する。二次元空間(s,t)において尤度の最高値を与えるパラメータを提案する方法は各種ある。本実施形態のアルゴリズムでは、始点s′及び終点t′を片方ずつ推定している。これは、ハフ変換によって得られた直線Lはデブリを含んでおり、始点s及び終点tを同時に変化させて全ての空間を探索する必要がないこと、また仮想関数モデルLmにおいて、始点s及び終点tのうちの一方の点を変化させた場合、始点s及び終点tのうちの他方の点の変化は大きく影響しないこと(即ち始点s及び終点tの互いの独立性が高いこと)によるものである。
 繰り返しステップ(Step6)は、端点推定ステップ(Step5)により得られた始点s′及び終点t′を用いて仮想関数モデル(仮想関数モデルLm)を再生成するステップである。このように、尤度関数モデル(仮想関数モデルLm)を再生成して始点及び終点の推定を繰り返すことにより、線分Pの端点(始点及び終点)の位置をより正確に検出することができる。なお、繰り返しステップ(Step6)の繰り返し回数は任意であり、必要に応じて省略することもできる。
 誤検出判定ステップ(Step7)は、外乱による誤検出を抑制するためのステップである。図4(a)は、直線L上にデブリを含まない背景のみを示す輝度分布の一例を示している。図4(b)は、直線L上に二つの恒星を含む輝度分布の一例を示している。誤検出は、S/N比(信号Signalと雑音Noiseの比)の大きさにより判定してもよいし、輝度のばらつき具合をχスクエア(χ)値により判定してもよい。
 例えば、図4(a)に示したように、背景の一部(即ち前景として推定された部分)を、デブリを含むものとして誤って検出した場合には、S/N比(すなわち、前景と背景の輝度値の離れ具合)が小さくなる。そこで、S/N比に閾値を設定することにより、S/N比が所定の閾値よりも小さい場合には誤検出と判定し、S/N比が所定の閾値よりも大きい場合にはデブリを検出していると判定することができる。
 また、例えば、図4(b)に示したように、二つの恒星を含む部分を、デブリを含むものとして誤って検出した場合には、推定された前景内の輝度値のばらつきが大きくなる。そこで、χスクエア値に閾値を設定することにより、χスクエア値が所定の閾値よりも大きい場合には誤検出と判定し、χスクエア値が所定の閾値よりも小さい場合にはデブリを検出していると判定することができる。
 本実施形態に係る線分検出方法によれば、撮像された画像1から線分Pの端点(始点及び終点)を効率よく正確に検出することができる。したがって、本実施形態に係る線分検出方法を使用することにより、画像1からデブリの正確な位置や速度を容易に把握することができ、デブリの正確な軌道を短時間に精度よく求めることができる。
 なお、上述した説明では、画像1からデブリを検出する場合について説明したが、これに限定されるものではなく、輝度分布を取得可能な線分を含む画像から線分を検出するものであれば他の分野(例えば、道路の白線の抽出等)においても容易に適用することができる。
 本開示は上述した実施形態に限定されず、本開示の趣旨を逸脱しない範囲で種々変更が可能であることは勿論である。

Claims (6)

  1.  検出対象の線分を含む画像から前記線分を検出する線分検出方法において、
     前記画像から前記線分を含む直線を抽出する直線抽出ステップと、
     前記直線上の輝度分布を取得する輝度分布取得ステップと、
     前記輝度分布を用いて前記画像の前景及び背景の分布を表す仮想関数モデルを生成する仮想関数モデル生成ステップと、
     前記仮想関数モデルにより表された前記線分の端点近傍の輝度値が確率的に前記前景又は前記背景の何れに属するかを決定して前記仮想関数モデル上の端点を推定する端点推定ステップと、
    を含むことを特徴とする線分検出方法。
  2.  前記端点推定ステップにより得られた前記端点の推定値を用いて前記仮想関数モデルを再生成する繰り返しステップを含む、ことを特徴とする請求項1に記載の線分検出方法。
  3.  前記端点推定ステップにより得られた前記端点の推定値を用いて誤検出であるか否か判定する誤検出判定ステップを含む、ことを特徴とする請求項1に記載の線分検出方法。
  4.  前記仮想関数モデルは、尤度関数モデル、ランプ関数モデル又はシグモイド関数モデルである、ことを特徴とする請求項1に記載の線分検出方法。
  5.  前記端点推定ステップは、最尤法を用いて前記端点を推定する、ことを特徴とする請求項1に記載の線分検出方法。
  6.  前記画像は地球軌道上を移動するデブリを含み、前記線分は前記デブリの移動軌跡である、ことを特徴とする請求項1に記載の線分検出方法。
PCT/JP2016/068976 2015-10-09 2016-06-27 線分検出方法 WO2017061148A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017544387A JP6477907B2 (ja) 2015-10-09 2016-06-27 線分検出方法
EP16853303.2A EP3309752B1 (en) 2015-10-09 2016-06-27 Line segment detection method
RU2018104244A RU2681703C1 (ru) 2015-10-09 2016-06-27 Способ обнаружения отрезка прямой
US15/846,502 US10748026B2 (en) 2015-10-09 2017-12-19 Line segment detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015201252 2015-10-09
JP2015-201252 2015-10-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/846,502 Continuation US10748026B2 (en) 2015-10-09 2017-12-19 Line segment detection method

Publications (1)

Publication Number Publication Date
WO2017061148A1 true WO2017061148A1 (ja) 2017-04-13

Family

ID=58487497

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/068976 WO2017061148A1 (ja) 2015-10-09 2016-06-27 線分検出方法

Country Status (5)

Country Link
US (1) US10748026B2 (ja)
EP (1) EP3309752B1 (ja)
JP (1) JP6477907B2 (ja)
RU (1) RU2681703C1 (ja)
WO (1) WO2017061148A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132357A (ja) * 2001-10-25 2003-05-09 National Aerospace Laboratory Of Japan 平面画像における線像検出方法
JP2014085719A (ja) * 2012-10-19 2014-05-12 Canon Inc 移動天体検出装置およびその制御方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3344791B2 (ja) 1993-10-29 2002-11-18 株式会社リコー 線分抽出方法
DE69635101T2 (de) * 1995-11-01 2006-06-01 Canon K.K. Verfahren zur Extraktion von Gegenständen und dieses Verfahren verwendendes Bildaufnahmegerät
US6453069B1 (en) * 1996-11-20 2002-09-17 Canon Kabushiki Kaisha Method of extracting image from input image using reference image
US6731799B1 (en) * 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
AU2003225228A1 (en) * 2002-05-03 2003-11-17 Donnelly Corporation Object detection system for vehicle
US7606417B2 (en) * 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
US7680342B2 (en) * 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
JP4107587B2 (ja) * 2003-12-17 2008-06-25 三菱電機株式会社 車線認識画像処理装置
JP4575031B2 (ja) 2004-05-31 2010-11-04 三菱電機株式会社 車載用路面標示検出装置
US7292263B2 (en) * 2005-03-16 2007-11-06 The Regents Of The University Of California Robotic CCD microscope for enhanced crystal recognition
JP5028154B2 (ja) * 2007-06-20 2012-09-19 キヤノン株式会社 撮像装置及びその制御方法
JP4697480B2 (ja) * 2008-01-11 2011-06-08 日本電気株式会社 車線認識装置、車線認識方法および車線認識プログラム
JP5271031B2 (ja) * 2008-08-09 2013-08-21 株式会社キーエンス 画像のデータ圧縮方法、画像処理におけるパターンモデルの位置決め方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
US8422777B2 (en) * 2008-10-14 2013-04-16 Joshua Victor Aller Target and method of detecting, identifying, and determining 3-D pose of the target
US8798965B2 (en) * 2009-02-06 2014-08-05 The Hong Kong University Of Science And Technology Generating three-dimensional models from images
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
JP5649425B2 (ja) * 2010-12-06 2015-01-07 株式会社東芝 映像検索装置
JP5645079B2 (ja) * 2011-03-31 2014-12-24 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
US9070012B1 (en) * 2012-01-11 2015-06-30 Sr2 Group, Llc System and method for uncued discrimination of bated features in image
WO2013138975A1 (en) * 2012-03-19 2013-09-26 Honeywell International Inc. Floor plan space detection
US9251426B2 (en) * 2012-07-27 2016-02-02 Nissan Motor Co., Ltd. Three-dimensional object detection device, three-dimensional object detection method
RU2523944C2 (ru) * 2012-10-15 2014-07-27 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Юго-Западный государственный университет" (ЮЗГУ) Способ выделения протяженных линейных объектов на аэрокосмических изображениях
JP6080487B2 (ja) 2012-10-19 2017-02-15 キヤノン株式会社 移動天体検出装置およびその制御方法
US9642592B2 (en) * 2013-01-03 2017-05-09 Siemens Medical Solutions Usa, Inc. Needle enhancement in diagnostic ultrasound imaging
JP6344638B2 (ja) 2013-03-06 2018-06-20 株式会社リコー 物体検出装置、移動体機器制御システム及び物体検出用プログラム
US9038959B2 (en) * 2013-10-28 2015-05-26 Fukashi Andoh Space debris remover
JP2017525064A (ja) * 2014-05-30 2017-08-31 プレイスメーター インコーポレイテッドPlacemeter Inc. ビデオデータを用いた活動モニタリングのためのシステム及び方法
US9996752B2 (en) * 2016-08-30 2018-06-12 Canon Kabushiki Kaisha Method, system and apparatus for processing an image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132357A (ja) * 2001-10-25 2003-05-09 National Aerospace Laboratory Of Japan 平面画像における線像検出方法
JP2014085719A (ja) * 2012-10-19 2014-05-12 Canon Inc 移動天体検出装置およびその制御方法

Also Published As

Publication number Publication date
JPWO2017061148A1 (ja) 2018-04-05
EP3309752B1 (en) 2021-01-27
US10748026B2 (en) 2020-08-18
RU2681703C1 (ru) 2019-03-12
US20180121749A1 (en) 2018-05-03
EP3309752A1 (en) 2018-04-18
EP3309752A4 (en) 2019-02-27
JP6477907B2 (ja) 2019-03-06

Similar Documents

Publication Publication Date Title
RU2748763C1 (ru) Способ обнаружения и автосопровождения объектов целеуказания оптико-электронной системой беспилотного летательного аппарата
JP2017208606A5 (ja)
JP5743935B2 (ja) 対象物検出装置および対象物検出方法
WO2015198592A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
CN107958202B (zh) 人体检测设备、人体检测设备的控制方法和存储介质
JP6165513B2 (ja) ハンドジェスチャトラッキングシステム
JP6184447B2 (ja) 推定装置及び推定プログラム
RU2737193C1 (ru) Способ наблюдения за движущимся телом
JP6477907B2 (ja) 線分検出方法
KR20160024419A (ko) Dibr 방식의 입체영상 카메라 판별 방법 및 장치
WO2014199824A1 (ja) 画像処理方法、画像処理装置および画像処理プログラム
Russo et al. Blurring prediction in monocular slam
JP2018147241A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6080487B2 (ja) 移動天体検出装置およびその制御方法
KR101900903B1 (ko) 분할된 이미지의 무게중심에 기반한 이미지 오리엔테이션 추정방법 및 이를 이용한 문자 인식 장치와 문자 인식 방법
JP6431811B2 (ja) 回転速度計測装置
JP2019211332A (ja) 情報処理装置、情報処理方法及びプログラム
JP6319709B2 (ja) デブリ検出方法
CN111144312B (zh) 图像处理方法、装置、设备和介质
JP2014085721A (ja) 移動天体検出装置およびその制御方法
JP4096932B2 (ja) 車両用衝突時間推定装置及び車両用衝突時間推定方法
JP6627450B2 (ja) 特徴点追跡装置、特徴点追跡方法及びプログラム
JP2016122309A (ja) 画像処理装置
Jachowicz et al. PATTERN RECOGNITION ALGORITHMS FOR THE NAVIGATION OF MOBILE PLATFORM
JP2014085719A (ja) 移動天体検出装置およびその制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16853303

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017544387

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2016853303

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE