JPH06259553A - Device for determining object extracting threshold - Google Patents

Device for determining object extracting threshold

Info

Publication number
JPH06259553A
JPH06259553A JP5048876A JP4887693A JPH06259553A JP H06259553 A JPH06259553 A JP H06259553A JP 5048876 A JP5048876 A JP 5048876A JP 4887693 A JP4887693 A JP 4887693A JP H06259553 A JPH06259553 A JP H06259553A
Authority
JP
Japan
Prior art keywords
image
threshold value
edge
slit
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5048876A
Other languages
Japanese (ja)
Inventor
Atsushi Sato
敦 佐藤
Akira Tomono
明 伴野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP5048876A priority Critical patent/JPH06259553A/en
Publication of JPH06259553A publication Critical patent/JPH06259553A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To accurately and automatically set up an optimum threshold corresponding to a set environment in respect of a device for setting up a threshold for extracting a target object from an input picture. CONSTITUTION:An edge extracting part 2 finds out the edge of a target object from an input picture. An object area extracting part 3 (binarizing processing) extracts an object area by using a certain threshold as a parameter. A matching processing part 5 detects whether an edge along the outline of an object area image exists or not and an optimum threshold determining part 6 determines a threshold of making a total edge length exisiting on the outline maximum.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は物体抽出しきい値の決定
装置であって,入力画像から対象物体を抽出するための
しきい値自動決定に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object extraction threshold value determination device, and more particularly to automatic threshold value determination for extracting a target object from an input image.

【0002】画像上の基準線を通過する移動物体(例え
ば,人や車両,コンベアーベルト上の物体)の物体数や
形状,色情報などの属性を認識する場合には,入力画像
から対象物体を抽出する必要があり,物体を抽出すると
きに用いるしきい値を適切に決める必要がある。
When recognizing attributes such as the number of objects, shapes, color information, etc. of moving objects (eg, people, vehicles, objects on a conveyor belt) passing through a reference line on an image, the target object is determined from the input image. It is necessary to extract, and it is necessary to appropriately determine the threshold value used when extracting an object.

【0003】[0003]

【従来の技術】画像から対象となる動物体の物体数や形
状,色情報などの属性を認識する方法として,時系列な
画像中から動物体を抽出し,その属性別にデータを統計
処理する方法が試みられている。具体的には,例えば歩
行者数を求める場合,歩道を歩く歩行者を撮影した画像
から,スリット状時空間画像を生成し,背景像との差分
により歩行者である動物体領域を抽出し,その領域面積
を基準値で除算し,歩行者数を判定している。このよう
な計数においては,動物体である歩行者を正確に抽出す
ることが要求される。動物体の抽出のためのパラメータ
値,特に背景差分の2値化しきい値は,従来,人間が2
値化処理の状況を見ながら最適値を設定しており,設置
環境や通行状況に応じた最適な2値化パラメータの設定
は困難であった。
2. Description of the Related Art As a method for recognizing attributes such as the number of objects, the shape, and color information of a target moving object from an image, a method of extracting the moving object from a time-series image and statistically processing data according to the attribute Is being attempted. Specifically, for example, when obtaining the number of pedestrians, a slit-shaped spatiotemporal image is generated from an image of a pedestrian walking on a sidewalk, and a moving object region that is a pedestrian is extracted by a difference from a background image, The area of the area is divided by the reference value to determine the number of pedestrians. In such counting, it is required to accurately extract pedestrians, which are moving bodies. Conventionally, humans have used the parameter value for extracting the moving object, especially the binarization threshold value of the background difference.
The optimum value was set while checking the status of the binarization process, and it was difficult to set the optimum binarization parameter according to the installation environment and traffic conditions.

【0004】[0004]

【発明が解決しようとする課題】本発明が解決しようと
する課題は,入力画像と背景像との差分による2値化処
理のしきい値設定において,人間の判断によらずに設置
環境や通行状況に応じて自動的に初期値設定と更新を行
うことである。
The problem to be solved by the present invention is to set the threshold value of the binarization processing based on the difference between the input image and the background image, without depending on human judgment, the installation environment and traffic. It is to set and update the initial value automatically according to the situation.

【0005】すなわち,本発明は,入力画像中の対象物
体領域を精度よくかつ自動的に抽出することを目的とし
ており,具体的には2値化処理におけるしきい値を最適
に自動決定するものである。さらに,2値化画像処理
は,入力画像と予め求めておいた差分処理画像に対して
行い,スリット画像を時間方向に蓄積して得られる時空
間画像を入力画像とし,その画像中に現れるスリットを
横切る動物体領域を精度よくかつ自動的に抽出すること
を目的とする。
That is, the object of the present invention is to accurately and automatically extract a target object region in an input image, and specifically, to automatically and optimally determine a threshold value in binarization processing. Is. Further, the binarized image processing is performed on the input image and the difference-processed image obtained in advance, and the spatio-temporal image obtained by accumulating the slit images in the time direction is used as the input image, and the slits appearing in the image. The object of the present invention is to accurately and automatically extract a moving body region that traverses.

【0006】[0006]

【課題を解決するための手段】本発明の物体抽出しきい
値の決定装置は,上記課題を解決するため,入力画像か
ら対象物体のエッジを求めるエッジ抽出部と,該入力画
像からしきい値をパラメータとして物体領域を抽出する
物体領域抽出部と,抽出した物体領域像に対して求めた
輪郭に沿った前記エッジの有無を検出するマッチング処
理部と,該輪郭上に存在するエッジ総長が最大となるよ
うに前記しきい値を決定する最適しきい値決定部とを持
つ。
In order to solve the above-mentioned problems, an object extraction threshold value determining apparatus of the present invention includes an edge extraction unit for obtaining an edge of a target object from an input image, and a threshold value from the input image. The object area extraction unit that extracts the object area using the parameter as a parameter, the matching processing unit that detects the presence or absence of the edge along the contour obtained for the extracted object area image, and the total edge length present on the contour is maximum. And an optimum threshold value determining unit that determines the threshold value.

【0007】特に,請求項2記載の発明の場合,入力画
像は2次元画像のスリット状の画像を切り出して時間方
向に並べたスリット時空間画像であり,前記物体領域抽
出部はスリット上を通過する動物体領域を抽出する。
Particularly, in the case of the invention described in claim 2, the input image is a slit spatio-temporal image obtained by cutting out slit-like images of a two-dimensional image and arranging them in the time direction, and the object area extracting unit passes over the slits. The moving body region to be extracted is extracted.

【0008】請求項3記載の発明の場合,前記物体領域
抽出部は,物体領域の抽出を前記入力画像と予め求めて
おいた背景画像との差分をしきい値処理して行う。
In the third aspect of the present invention, the object area extraction unit extracts the object area by thresholding the difference between the input image and the background image obtained in advance.

【0009】[0009]

【作用】通常,人間が最適な2値化しきい値を決定する
際には,「しきい値が適切であればスリット時空間画像
中の対象物体の形状と抽出された運動領域像の形状が一
致する。」という基準で2値化しきい値を設定してい
る。
In general, when a person decides an optimum binarization threshold, "when the threshold is appropriate, the shape of the target object in the slit spatiotemporal image and the shape of the extracted motion region image are The binarization threshold value is set on the basis of "match."

【0010】本発明は,前記の人間の判定基準と同様
に,入力画像のエッジ形状と2値化後の輪郭形状に対し
て一致度を判定しているので,人間が決定するのと同等
な最適しきい値を決定することが可能となる。すなわ
ち,人間により設定された値と同等な最適2値化しきい
値を,設置環境や通行状況に応じてフレキシブルにかつ
自動的に設定できる。
According to the present invention, the degree of coincidence is determined with respect to the edge shape of the input image and the contour shape after binarization, as in the case of the above-mentioned human judgment criteria. It is possible to determine the optimum threshold. That is, it is possible to flexibly and automatically set the optimum binarization threshold value equivalent to the value set by a human in accordance with the installation environment and the traffic situation.

【0011】また,請求項2記載の発明では,入力画像
として2次元のスリット時空間画像を用いることによ
り,3次元的な大きさを持つ動画像を使用する場合に比
べて,対象となる動物体抽出のための処理量の軽減が可
能となる。
According to the second aspect of the present invention, by using the two-dimensional slit spatiotemporal image as the input image, the target animal can be compared with the case of using the moving image having a three-dimensional size. The amount of processing for body extraction can be reduced.

【0012】さらに,請求項3記載の発明のように動物
体領域の抽出を行うことにより,相関演算などを用いる
処理に比べて簡単に計算でき,また,基準となる背景像
を持つことにより,フレーム間差分による動物体抽出処
理に比べて,より精度の高い運動領域の抽出が可能にな
る。
Further, by extracting the moving body region as in the invention described in claim 3, the calculation can be performed more easily than the process using the correlation calculation, and by having the background image as a reference, This makes it possible to extract motion regions with higher accuracy than the moving object extraction process using frame differences.

【0013】[0013]

【実施例】図1は本発明の構成例を示す。本発明の一実
施例として,スリット時空間画像を用いた背景差分によ
る2値化処理の最適しきい値の決定について,歩道上を
歩く人物領域の抽出を,可視光の下でのTVカメラ入力
を用いる場合を例にして,図1に従って説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows a configuration example of the present invention. As an embodiment of the present invention, regarding determination of an optimum threshold value for binarization processing by background difference using a slit spatiotemporal image, extraction of a person region walking on a sidewalk is performed, and input to a TV camera under visible light. 1 will be described as an example using FIG.

【0014】なお,対象は人物に限らず別の移動物体に
応用することも簡単で,また,サンプル信号として超音
波や赤外線などによる距離データの信号を使用すること
も可能である。その場合,例えば明るさを距離値に読み
替えればよい。
The object is not limited to a person and can be easily applied to another moving object, and a signal of distance data such as ultrasonic waves or infrared rays can be used as a sample signal. In that case, for example, the brightness may be read as a distance value.

【0015】図1において,スリット時空間画像蓄積部
1は,移動する人物像を含む入力画像についての2次元
画像のスリット状の画像を切り出して時間方向に並べた
スリット時空間画像を蓄積する手段である。エッジ抽出
部2は,入力画像から,スリット上を通過する動物体領
域である対象物体のエッジを求める部分である。物体領
域抽出部3は,入力画像からしきい値をパラメータとし
て物体領域を抽出する部分であり,動物体領域の抽出
は,入力画像と予め求めておいた背景画像との差分をし
きい値処理して求める。輪郭抽出部4は,物体領域像に
対する輪郭を求める部分である。マッチング処理部5
は,求められた輪郭に沿ったエッジの有無を検出する部
分である。最適しきい値決定部6は,輪郭上に存在する
エッジ総長が最大となるように前記しきい値を決定する
部分である。背景像蓄積部7は,予め求められた背景画
像を格納している部分である。
In FIG. 1, the slit spatiotemporal image storage unit 1 stores a slit spatiotemporal image in which a slit-shaped image of a two-dimensional image of an input image including a moving human image is cut out and arranged in the time direction. Is. The edge extraction unit 2 is a unit that obtains an edge of a target object, which is a moving object region that passes over the slit, from the input image. The object region extraction unit 3 is a unit that extracts an object region from the input image using a threshold value as a parameter. To extract the moving object region, the difference between the input image and the previously obtained background image is thresholded. And ask. The contour extraction unit 4 is a portion for obtaining a contour for the object area image. Matching processing unit 5
Is a part that detects the presence or absence of an edge along the obtained contour. The optimum threshold value determining unit 6 is a unit that determines the threshold value so that the total length of edges existing on the contour becomes maximum. The background image storage unit 7 is a part that stores a background image obtained in advance.

【0016】動作は以下のとおりである。まず,スリッ
ト時空間画像蓄積部1において,移動物体を含む入力画
像から,スリット時空間画像(スリット動画像)を逐次
に構成する。つまり,背景である歩道上の計測ラインを
通過する人物を固定アングルで撮影した画像から,計測
ラインに相当する1ライン上の画像情報をサンプリング
し,スリット時空間画像を得る。さらに,前記スリット
時空間画像のうち複数フレーム分を統合し,2次元のス
ライス画像として蓄積する。スリット時空間画像の獲得
はTVカメラに限らず1次元センサでもよい。
The operation is as follows. First, in the slit spatiotemporal image storage unit 1, a slit spatiotemporal image (slit moving image) is sequentially constructed from an input image including a moving object. That is, the image information on one line corresponding to the measurement line is sampled from the image of the person passing through the measurement line on the sidewalk, which is the background, at a fixed angle to obtain the slit spatiotemporal image. Further, a plurality of frames of the slit spatiotemporal image are integrated and accumulated as a two-dimensional slice image. The acquisition of the slit spatiotemporal image is not limited to the TV camera but may be performed by a one-dimensional sensor.

【0017】次に,エッジ抽出部2において,スリット
時空間画像蓄積部1により得られるスライス画像に対し
てエッジ抽出処理を行う。エッジ抽出処理としては,例
えば,Cannyのエッジ検出法など,低コントラスト
なエッジに対しても正しい位置に細線化されて検出でき
る処理を用いればよい。
Next, the edge extraction unit 2 performs edge extraction processing on the slice image obtained by the slit spatiotemporal image storage unit 1. As the edge extraction processing, for example, a Canny edge detection method or the like that can detect even a low-contrast edge by thinning it to the correct position can be used.

【0018】次に,物体領域抽出部3において,スリッ
ト時空間画像蓄積部1により得られるスライス画像内の
各フレームに対応するスリット像に対して,背景像蓄積
部7に予め蓄積された背景画像との差分を,あるしきい
値で2値化処理して運動領域像を求める。さらに,輪郭
抽出部4において,物体領域抽出部3で求めた運動領域
像の輪郭を抽出する。
Next, in the object area extraction unit 3, for the slit image corresponding to each frame in the slice image obtained by the slit spatiotemporal image storage unit 1, the background image stored in the background image storage unit 7 in advance. The difference between and is binarized with a certain threshold to obtain a motion region image. Further, the contour extraction unit 4 extracts the contour of the motion area image obtained by the object area extraction unit 3.

【0019】続いて,マッチング処理部5において,輪
郭抽出部4により抽出した運動領域像の輪郭をもとにス
ライス画像のエッジをラベリングし,スライス画像と抽
出した運動領域像との一致度を求める。
Subsequently, in the matching processing section 5, the edges of the slice image are labeled based on the contours of the motion area image extracted by the contour extraction section 4, and the degree of coincidence between the slice image and the extracted motion area image is obtained. .

【0020】例えば,エッジ抽出部2により,一つのス
ライス画像に対するエッジが,図2に示すエッジ画像例
のように得られたとする。このエッジ画像では,対象物
体輪郭のエッジ21,背景のエッジ22,対象物体内部
のエッジ23が現れている。また,物体領域抽出部3に
より,あるしきい値を用いて抽出された運動領域が,図
3に示すように得られたとする。図3において,24は
2値化処理後の輪郭,25は2値化処理後の運動領域で
ある。
For example, it is assumed that the edge extraction unit 2 obtains an edge for one slice image as in the edge image example shown in FIG. In this edge image, an edge 21 of the target object contour, an edge 22 of the background, and an edge 23 inside the target object appear. Further, it is assumed that the object region extraction unit 3 obtains a motion region extracted using a certain threshold as shown in FIG. In FIG. 3, reference numeral 24 is the contour after the binarization processing, and 25 is the motion area after the binarization processing.

【0021】その輪郭情報を用いて,図4のラベリング
マスク図で示すように,2値化処理後の輪郭24に沿っ
た輪郭部マスク26,内部マスク27,外部マスク28
の3つのラベリングマスクを設定する。各マスクをエッ
ジ画像に重ね合わせることにより,それぞれラベリング
処理を行う。
Using the contour information, as shown in the labeling mask diagram of FIG. 4, the contour mask 26, the inner mask 27, and the outer mask 28 along the contour 24 after the binarization processing are performed.
Set the three labeling masks. Labeling processing is performed by overlaying each mask on the edge image.

【0022】図5は,輪郭部マスク26,内部マスク2
7,外部マスク28による各ラベリング処理の結果を示
している。図5(a) は輪郭部エッジ,図5(b) は内部エ
ッジ,図5(c) は外部エッジである。そこで,運動領域
の輪郭に重なる輪郭部エッジ30の総長を参照し,エッ
ジ画像と運動領域形状の一致度を求めればよい。
FIG. 5 shows the contour mask 26 and the internal mask 2.
7 shows the result of each labeling process by the external mask 28. FIG. 5 (a) is the contour edge, FIG. 5 (b) is the inner edge, and FIG. 5 (c) is the outer edge. Therefore, the degree of coincidence between the edge image and the motion region shape may be obtained by referring to the total length of the contour edge 30 that overlaps the contour of the motion region.

【0023】最終的に,最適しきい値決定部6におい
て,しきい値を変化させて,一致度が最大となるしきい
値を最適値とする。例えば,前記ラベリング処理により
得られる各部エッジ長のしきい値に応じた変化は,通常
図6のようになるので,一致度を表す輪郭エッジの最大
値となる値を,最適な運動領域抽出のしきい値とすれば
よい。
Finally, in the optimum threshold value determining section 6, the threshold value is changed and the threshold value with the maximum degree of coincidence is set to the optimum value. For example, the change in the edge length of each part obtained by the labeling process according to the threshold value is usually as shown in FIG. 6, and therefore, the maximum value of the contour edges representing the degree of coincidence is set to the optimum motion region extraction value. It may be a threshold value.

【0024】[0024]

【発明の効果】従来技術では,スリット時空間画像から
背景像との差分により歩行者である動物体領域を抽出す
る処理において,差分の最適な2値化しきい値は,人間
が2値化処理の状況を見ながら設定しており,設置環境
や通行状況に応じた2値化パラメータの初期設定や更新
は困難であった。
According to the prior art, in the process of extracting the moving object region of a pedestrian from the slit spatiotemporal image based on the difference from the background image, the optimum binarization threshold of the difference is a binarization process by a human. However, it was difficult to initialize and update the binarization parameters according to the installation environment and traffic conditions.

【0025】本発明の物体抽出しきい値の決定装置を使
用することにより,TVカメラなどの画像から得られる
動画像から人間と同等な基準で正確な移動物体の抽出を
行うことができ,本発明の処理を随時に行えば,初期値
の自動設定や適応的な2値化を容易に行うことができる
という利点がある。
By using the object extraction threshold value determination device of the present invention, a moving object can be accurately extracted from a moving image obtained from an image of a TV camera or the like on the basis of a human being. If the process of the invention is performed at any time, there is an advantage that the automatic setting of the initial value and the adaptive binarization can be easily performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の構成例を示す図である。FIG. 1 is a diagram showing a configuration example of the present invention.

【図2】あるスライス画像に対するエッジ画像を説明す
る図である。
FIG. 2 is a diagram illustrating an edge image for a certain slice image.

【図3】スライス画像に対して,あるしきい値を用いて
抽出された運動領域を説明する図である。
FIG. 3 is a diagram illustrating a motion area extracted from a slice image using a certain threshold.

【図4】運動領域の輪郭によるラベリングマスクを説明
する図である。
FIG. 4 is a diagram illustrating a labeling mask based on a contour of a motion area.

【図5】ラベリングマスクによるスライス画像のエッジ
のラベリング処理の結果を説明する図である。
FIG. 5 is a diagram illustrating a result of labeling processing of an edge of a slice image using a labeling mask.

【図6】ラベリング処理による各部エッジ長のしきい値
に応じた変化を説明する図である。
FIG. 6 is a diagram for explaining a change in edge length of each portion according to a threshold due to labeling processing.

【符号の説明】[Explanation of symbols]

1 スリット時空間画像蓄積部 2 エッジ抽出部 3 物体領域抽出部 4 輪郭抽出部 5 マッチング処理部 6 最適しきい値決定部 21 対象物体輪郭のエッジ 22 背景のエッジ 23 対象物体内部のエッジ 24 2値化処理後の輪郭 25 2値化処理後の運動領域 26 輪郭部マスク 27 内部マスク 28 外部マスク 30 輪郭部エッジ 1 Slit Spatio-Temporal Image Accumulation Section 2 Edge Extraction Section 3 Object Area Extraction Section 4 Contour Extraction Section 5 Matching Processing Section 6 Optimum Threshold Determining Section 21 Target Object Contour Edge 22 Background Edge 23 Edge Inside Target Object 24 2 Values Contour after conversion processing 25 motion area after binarization processing 26 contour mask 27 inner mask 28 outer mask 30 contour edge

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 入力画像から物体領域を抽出する装置に
おいて,入力画像から対象物体のエッジを求めるエッジ
抽出部と,該入力画像からしきい値をパラメータとして
物体領域を抽出する物体領域抽出部と,抽出した物体領
域像に対して求めた輪郭に沿った前記エッジの有無を検
出するマッチング処理部と,該輪郭上に存在するエッジ
総長が最大となるように前記しきい値を決定する最適し
きい値決定部とを有することを特徴とする物体抽出しき
い値の決定装置。
1. An apparatus for extracting an object area from an input image, comprising: an edge extracting section for obtaining an edge of a target object from the input image; and an object area extracting section for extracting the object area from the input image using a threshold value as a parameter. , A matching processing unit that detects the presence or absence of the edge along the contour obtained for the extracted object region image, and an optimum value that determines the threshold value so that the total length of edges existing on the contour becomes maximum. An apparatus for determining an object extraction threshold value, comprising: a threshold value determining section.
【請求項2】 請求項1記載の物体抽出しきい値の決定
装置において,前記入力画像は,2次元画像のスリット
状の画像を切り出して時間方向に並べたスリット時空間
画像であり,前記抽出対象の物体領域は,スリット上を
通過する動物体領域であることを特徴とする物体抽出し
きい値の決定装置。
2. The object extraction threshold value determination device according to claim 1, wherein the input image is a slit spatio-temporal image obtained by cutting out slit-like images of a two-dimensional image and arranging them in the time direction. The object extraction threshold determination device characterized in that the target object area is a moving object area that passes over the slit.
【請求項3】 請求項1または請求項2記載の物体抽出
しきい値の決定装置において,前記物体領域抽出部は,
物体領域の抽出を,前記入力画像と予め求めておいた背
景画像との差分をしきい値処理して行うことを特徴とす
る物体抽出しきい値の決定装置。
3. The object extraction threshold value determination device according to claim 1 or 2, wherein the object region extraction unit includes:
A device for determining an object extraction threshold value, wherein the object region is extracted by performing threshold processing on a difference between the input image and a background image obtained in advance.
JP5048876A 1993-03-10 1993-03-10 Device for determining object extracting threshold Pending JPH06259553A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5048876A JPH06259553A (en) 1993-03-10 1993-03-10 Device for determining object extracting threshold

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5048876A JPH06259553A (en) 1993-03-10 1993-03-10 Device for determining object extracting threshold

Publications (1)

Publication Number Publication Date
JPH06259553A true JPH06259553A (en) 1994-09-16

Family

ID=12815491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5048876A Pending JPH06259553A (en) 1993-03-10 1993-03-10 Device for determining object extracting threshold

Country Status (1)

Country Link
JP (1) JPH06259553A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100512831B1 (en) * 2001-07-26 2005-09-07 캐논 가부시끼가이샤 Image processing method, apparatus and program storage medium
JP2006200937A (en) * 2005-01-18 2006-08-03 Bridgestone Corp Deformation behavior predicting method of rubber material, and deformation behavior predicting device of rubber material
JP2007271369A (en) * 2006-03-30 2007-10-18 Bridgestone Corp Apparatus and method for estimating deformation behavior of rubber material
JP2008168016A (en) * 2007-01-15 2008-07-24 Fujifilm Corp Ultrasonic diagnostic apparatus, imt measurement method, and imt measurement program
JP2010014554A (en) * 2008-07-03 2010-01-21 Toyota Motor Corp Method for evaluating welding penetration depth

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100512831B1 (en) * 2001-07-26 2005-09-07 캐논 가부시끼가이샤 Image processing method, apparatus and program storage medium
JP2006200937A (en) * 2005-01-18 2006-08-03 Bridgestone Corp Deformation behavior predicting method of rubber material, and deformation behavior predicting device of rubber material
JP4602776B2 (en) * 2005-01-18 2010-12-22 株式会社ブリヂストン Method for predicting deformation behavior of rubber material and apparatus for predicting deformation behavior of rubber material
JP2007271369A (en) * 2006-03-30 2007-10-18 Bridgestone Corp Apparatus and method for estimating deformation behavior of rubber material
JP2008168016A (en) * 2007-01-15 2008-07-24 Fujifilm Corp Ultrasonic diagnostic apparatus, imt measurement method, and imt measurement program
JP2010014554A (en) * 2008-07-03 2010-01-21 Toyota Motor Corp Method for evaluating welding penetration depth

Similar Documents

Publication Publication Date Title
CA2218793C (en) Multi-modal system for locating objects in images
KR100617408B1 (en) Method and system for classifying object in scene
JP3123587B2 (en) Moving object region extraction method using background subtraction
JP4970195B2 (en) Person tracking system, person tracking apparatus, and person tracking program
CN101030256B (en) Method and apparatus for cutting vehicle image
EP1553516B1 (en) Pedestrian extracting apparatus
JP2016162232A (en) Method and device for image recognition and program
KR100631235B1 (en) Method for linking edges in stereo images into chains
JP5135284B2 (en) Object detection method
CN112613568A (en) Target identification method and device based on visible light and infrared multispectral image sequence
JP3812384B2 (en) Leading vehicle recognition device
KR100885418B1 (en) System and method for detecting and tracking people from overhead camera video
JPH06259553A (en) Device for determining object extracting threshold
Kita Change detection using joint intensity histogram
JPH03282709A (en) Environment recognition device for mobile vehicle
JPH10320559A (en) Traveling path detector for vehicle
Baird Image Segmentation Technique for Locating Automotive Parts on Belt Conveyors.
He et al. A novel iris segmentation method for hand-held capture device
JP3011748B2 (en) Mobile counting device
JPH1063863A (en) Method for counting moving body
JP6866182B2 (en) Bed positioning device
Xiao et al. Extraction of glasses in human face images
JP2007259076A (en) Device for recognizing pedestrian
JP3117497B2 (en) License plate recognition device
JP2006314060A (en) Image processing apparatus and noise detecting method