JP2008287376A - Image identification apparatus - Google Patents

Image identification apparatus Download PDF

Info

Publication number
JP2008287376A
JP2008287376A JP2007129989A JP2007129989A JP2008287376A JP 2008287376 A JP2008287376 A JP 2008287376A JP 2007129989 A JP2007129989 A JP 2007129989A JP 2007129989 A JP2007129989 A JP 2007129989A JP 2008287376 A JP2008287376 A JP 2008287376A
Authority
JP
Japan
Prior art keywords
observation point
image identification
observation
input
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007129989A
Other languages
Japanese (ja)
Inventor
Hirotaka Nagayoshi
洋登 永吉
Kosuke Yanai
孝介 柳井
Nobuaki Fujimura
宣昭 藤村
Yutaka Sako
裕 酒匂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Omron Terminal Solutions Corp
Original Assignee
Hitachi Omron Terminal Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Omron Terminal Solutions Corp filed Critical Hitachi Omron Terminal Solutions Corp
Priority to JP2007129989A priority Critical patent/JP2008287376A/en
Publication of JP2008287376A publication Critical patent/JP2008287376A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically control the computational complexity of an image identification algorithm such that image identification will be finished within a predetermined time in, for example, an apparatus for identifying periodically input images that is required to finish image identification within the predetermined time. <P>SOLUTION: An automatic image identification algorithm configuration apparatus comprises an input means, an output means, an observation point number decision means and an observation point position decision means. The observation point number decision means stores relationships between the time required for image identification and the number of observation points in a function or database form for speeds or types of calculation means, and in accordance with calculation means information and predetermined time information input from the input means, decides the number of observation points with which image identification will be finished within the predetermined time. The observation point position decision means decides observation point positions by the number of observation points, and outputs a kind of set of observation point positions through the output means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は画像識別に関する発明であって,特に紙葉状の媒体識別に適する。   The present invention relates to image identification, and is particularly suitable for paper-sheet-like medium identification.

一般的に,画像識別は,識別精度と所要時間とのトレードオフが課題となる。多くの画素を参照した詳細な画像特徴を用いて識別を行うと識別精度は向上することが多いが,所要時間は長くなる。これを解決するための技術として特許文献1が知られている。
これは,識別対象が多く発生する時間帯は第一のアルゴリズムで画像識別を行い,識別対象が少なくなる時間帯に,第一のアルゴリズム実施時に蓄積した画像に対し,第二のアルゴリズムで再度識別を実行するという技術である。これは,画像識別の結果が利用されるまでの時間に余裕があることから可能な手法である。しかし,例えば,画像識別の結果を用いて媒体を分類する装置では,短時間(例えば500msなど)で結果を出力する必要があり,上記の手法は適用できなかった。
In general, in image identification, the trade-off between identification accuracy and required time is a problem. If identification is performed using detailed image features that refer to many pixels, the identification accuracy is often improved, but the required time becomes longer. Patent Document 1 is known as a technique for solving this problem.
This is because image identification is performed using the first algorithm during times when many identification objects occur, and images accumulated during the execution of the first algorithm are identified again using the second algorithm during times when there are fewer identification objects. It is a technology that executes. This is a possible technique because there is room in the time until the result of image identification is used. However, for example, in an apparatus that classifies media using the result of image identification, it is necessary to output the result in a short time (for example, 500 ms), and the above method cannot be applied.

特開平04-242493JP 04-242493

本発明は,画像識別の結果を用いて媒体を分類する装置などの,所定の所要時間内に画像識別を終了させる必要がある場合に,前記所要時間内に画像識別が終了するように画像識別アルゴリズムの計算量を自動的に調整することを目的とする。   In the present invention, when it is necessary to end image identification within a predetermined required time, such as an apparatus for classifying media using the result of image identification, the image identification is performed so that the image identification is completed within the required time. The purpose is to automatically adjust the computational complexity of the algorithm.

上記課題を解決するため,本発明は,入力手段と,出力手段と,観測点数決定手段と,観測点位置決定手段と,を備え,前記観測点数決定手段は,画像識別の所要時間と観測点数との関係を計算手段の速度あるいは種類毎に関数あるいはデータベースとして記憶しており,前記入力手段から入力された計算手段の情報および所要時間の情報から,前記所要時間内に画像識別が完了する観測点数を決定し,前記観測点位置決定手段は,前記観測点数の分だけ観測点位置を決定し,前記出力手段を通じて前記観測点位置の集合を1種類出力する。   In order to solve the above problems, the present invention comprises input means, output means, observation point number determination means, and observation point position determination means, wherein the observation point number determination means includes the time required for image identification and the number of observation points. Is stored as a function or a database for each speed or type of the calculation means, and from the information of the calculation means input from the input means and the required time information, the image identification is completed within the required time. The number of observation points is determined, and the observation point position determination means determines the observation point positions corresponding to the number of observation points, and outputs one set of the observation point positions through the output means.

画像識別を実施する装置の計算速度の違い,画像識別を実施する装置の利用状況の違いなどによって画像識別には異なる計算量が要求されるが,本発明によって画像識別の計算量を自動的に調整することが可能となる。   Different calculation amounts are required for image identification due to differences in the calculation speed of apparatuses that perform image identification, differences in the usage status of apparatuses that perform image identification, and the like. It becomes possible to adjust.

(実施例1)
本発明の実施例1について説明する。図1は実施例1における画像識別アルゴリズム自動構成装置の構成を示すブロック図である。ここでは概要を説明し,詳細については図5,図6のフローを用いて後述する。まず,所要時間101および計算手段の情報102を画像識別アルゴリズム自動構成装置104に入力する。画像識別アルゴリズム自動構成装置104内部では,観測点数決定部105において,所要時間101内で処理が終わるだけの観測点数を決定する。観測点とは,画像識別の際に用いる画像上の場所のことをさす。続いて,観測点位置決定部106において観測点の位置を決定し,観測点位置102を出力する。
Example 1
Example 1 of the present invention will be described. FIG. 1 is a block diagram illustrating a configuration of an image identification algorithm automatic configuration apparatus according to the first embodiment. Here, an outline will be described, and details will be described later with reference to the flowcharts of FIGS. First, the required time 101 and calculation means information 102 are input to the image identification algorithm automatic construction device 104. Within the automatic image identification algorithm construction device 104, the observation point number determination unit 105 determines the number of observation points that can be processed within the required time 101. An observation point is a place on an image used for image identification. Subsequently, the observation point position determination unit 106 determines the position of the observation point and outputs the observation point position 102.

図2のブロック図は,画像識別装置の構成を表している。撮影画像201が画像識別装置203に入力されると,まず観測点位置変換部204において,観測点位置の座標変換が実施される。この座標変換は,図3に示すように,位置・サイズに関して正規化された観測点位置303を,撮影画像301中の媒体302の位置・サイズに対応して変換するのが目的である。これによって,撮影画像301中の媒体302の位置・サイズの違いが吸収される。図3を,媒体の画像で表したものが図4である。撮影画像301中の媒体画像401に対して,位置・サイズを正規化した画像が画像402となる。   The block diagram of FIG. 2 represents the configuration of the image identification device. When the captured image 201 is input to the image identification device 203, the observation point position conversion unit 204 first performs coordinate conversion of the observation point position. The purpose of this coordinate conversion is to convert the observation point position 303 normalized with respect to the position and size in accordance with the position and size of the medium 302 in the captured image 301, as shown in FIG. Thereby, the difference in the position and size of the medium 302 in the captured image 301 is absorbed. FIG. 4 shows FIG. 3 as a medium image. An image whose position and size are normalized with respect to the medium image 401 in the photographed image 301 is an image 402.

観測点画素値取得部205では,観測点位置の画素値がとりだされる。特徴ベクトル正規化部206では,特徴ベクトルに正規化を施す。正規化は,例えば特徴ベクトルの要素の最大値が規定値(1もしくは255)となるように各要素に補正係数を乗算する方法,各要素の値の平均=0,分散=1となるように線形変換する方法,などがある。
識別部207では,入力された特徴ベクトルを用いた識別が実行され,識別結果202が返される。例えば,識別の目的が,入力画像が媒体A,B,Cのいずれなのかを判定するのが目的であれば,識別結果は媒体A,B,C,それらのいずれでもない,の4値の結果である。識別部206で利用される識別技術としては,例えばニューラルネットワーク,LVQ,2次識別関数,SVMといったものがある。
The observation point pixel value acquisition unit 205 extracts the pixel value at the observation point position. The feature vector normalization unit 206 normalizes the feature vector. Normalization is, for example, a method of multiplying each element by a correction coefficient so that the maximum value of the element of the feature vector becomes a specified value (1 or 255), the average of the values of each element = 0, and the variance = 1. There is a method of linear transformation.
In the identification unit 207, identification using the input feature vector is executed, and an identification result 202 is returned. For example, if the purpose of identification is to determine whether the input image is medium A, B, or C, the identification result is a four-valued medium that is neither medium A, B, or C, nor any of them. It is a result. Examples of the identification technique used by the identification unit 206 include a neural network, LVQ, secondary identification function, and SVM.

画像識別アルゴリズム自動構成装置103における観測点数決定部104の処理を,図5のフローを用いて説明する。まず,選択すべき観測点数npに1をセットする(501)。続いて,観測点数がnpであったときの,観測点位置の画素を取得するのに要する所要時間tg(np),および識別に要する時間tc(np)の和をとり,その和と所定の所要時間tとを比較する(502)。tg(np)およびtc(np)は,計算手段の情報102によって異なる。算出方法には,その計算手段を用いてプログラムを走らせて算出する方法,あるいは計算手段の仕様と,画像識別アルゴリズムを実現するプログラムのステップ数から,ボトムアップに算出する方法などがある。図10に示すように,tg(np)のデータ1002およびtc(np)のデータ1003は,計算手段の種類やクロック周波数によって決定されるインデックス1001毎に,関数として記録しておくとよい。あるいは,クロック周波数clに対しては線形だと判断して,図11に示すように計算手段の種類によってだけ決定されるインデックス1101毎に記録しても良い。502の条件式の結果が真であれば,npを1つ増やし(503),502に戻る。502の条件式の結果が偽であれば,npを一つ減らし(504),終了する。

Figure 2008287376
The processing of the observation point number determination unit 104 in the image identification algorithm automatic configuration apparatus 103 will be described with reference to the flow of FIG. First, 1 is set to the number of observation points n p to be selected (501). Next, when the number of observation points is n p , the sum of the time t g (n p ) required to acquire the pixel at the observation point and the time t c (n p ) required for identification is obtained. The sum is compared with a predetermined required time t (502). t g (n p ) and t c (n p ) differ depending on the information 102 of the calculation means. As a calculation method, there are a method of calculating by running a program using the calculation means, or a method of calculating bottom-up from the specification of the calculation means and the number of steps of the program realizing the image identification algorithm. As shown in FIG. 10, t g (n p ) data 1002 and t c (n p ) data 1003 are recorded as functions for each index 1001 determined by the type of the calculation means and the clock frequency. Good. Alternatively, it may be determined that the clock frequency cl is linear and recorded for each index 1101 determined only by the type of calculation means as shown in FIG. If the result of the conditional expression 502 is true, n p is incremented by 1 (503), and the processing returns to 502. If the result of the conditional expression 502 is false, n p is reduced by one (504), and the process ends.
Figure 2008287376

Figure 2008287376
Figure 2008287376
Figure 2008287376
Figure 2008287376

Figure 2008287376
Figure 2008287376

次に観測点同士の最低間隔dを設定する(602)。この値は,例えば画像面積と選択すべき観測点数から次式を用いて求める手法がある。   Next, a minimum interval d between observation points is set (602). For example, this value can be obtained from the image area and the number of observation points to be selected using the following equation.

Figure 2008287376
Figure 2008287376

あるいは上記の値を基準として,その1/2,1/3といった値としてもよいし,あるいは固定的に5画素,10画素,といった値にしてもよい。   Alternatively, on the basis of the above values, the values may be 1/2, 1/3, or may be fixed values such as 5 pixels and 10 pixels.

次に,選択済みの観測点数nsに0をセットし(603),マスクを初期化する(604)。マスクされていない画素があるか否かを判定し(605),ない場合は観測点最低間隔dを1減らし(606),603に戻る。 Then, 0 is set to the selected observation points n s (603), initializes the mask (604). It is determined whether or not there is an unmasked pixel (605). If there is no pixel, the minimum observation point interval d is decreased by 1 (606), and the process returns to 603.

判定605でマスクされていない画素がある場合,マスクされていない画素のうちで識別有効度が最大の画素を,観測点として選択し(607),選択済みの観測点数nsを増やす(608)。nsと選択済みの観測点数npとを比較し(609),両者が同じであれば終了する。そうでなければ,観測点として選択した画素から,距離d画素以内の画素をマスクし(606),605へ戻る。 If there is a pixel that is not masked in the determination 605, a pixel having the maximum discrimination effectiveness among the unmasked pixels is selected as an observation point (607), and the number of selected observation points n s is increased (608). . Compare n s with the number of selected observation points n p (609), and if both are the same, the process ends. Otherwise, the pixels within the distance d pixels are masked from the pixel selected as the observation point (606), and the process returns to 605.

なお,ここでは識別有効度が大きい画素から順に観測点として選択したが,ランダムに選択するという方法でもよい。また,観測点数点npのうち一部を識別有効度の大きい順に選択し,残りをランダムに選択する,という方法でも良い。 Here, the observation points are selected in order from the pixel having the largest discrimination effectiveness, but a method of selecting at random may be used. Alternatively, a method may be used in which a part of the number of observation points n p is selected in descending order of identification effectiveness and the rest are selected at random.

(実施例2)
本発明の実施例2について説明する。図7は,本発明の実施例2における画像識別アルゴリズム自動構成装置の構成を示すブロック図である。
(Example 2)
A second embodiment of the present invention will be described. FIG. 7 is a block diagram illustrating a configuration of an image identification algorithm automatic configuration apparatus according to the second embodiment of the present invention.

観測点数決定部104の動作は,実施例1と同一である。観測点位置決定部105においては,実施例1と異なり,複数の候補を出力する。これは,例えば図6ステップ602における観測点間隔の最低間隔dを複数種類設定することにより,可能となる。
そして,上記観測点位置の複数候補を表示装置701に表示する。このときの表示方法としては,図8,図9に示すような二通りの方法がある。図8では,識別対象となる媒体3種類を左の列に配置し(801〜803),右の列に観測点位置の候補を配置している(804〜806)。図9では,識別対象となる媒体1種類を表示し,観測点位置の候補を重ねて表示している(901〜906)。具体的な描画方法は,観測点位置を表す図形(例えば円,×印など)を,媒体画像に直接書き加えるという方法である。表示に使う色に関しては,識別対象と,観測点位置を表す図形を,異なる彩度,色相にするとユーザにとって見やすい。例えば,媒体画像をグレーの濃淡画像で表示し,観測点位置を表す図形を赤,緑,青などの彩度の高い色で表示すると,ユーザにとって見やすい。
なお,表示する媒体の種類は,ユーザの入力によって切り替えると利便性が高まる。
The operation of the observation point number determination unit 104 is the same as that in the first embodiment. Unlike the first embodiment, the observation point position determination unit 105 outputs a plurality of candidates. This can be achieved, for example, by setting a plurality of minimum intervals d of observation points in step 602 in FIG.
Then, a plurality of observation point position candidates are displayed on the display device 701. As a display method at this time, there are two methods as shown in FIGS. In FIG. 8, three types of media to be identified are arranged in the left column (801 to 803), and observation point position candidates are arranged in the right column (804 to 806). In FIG. 9, one type of medium to be identified is displayed, and observation point candidates are displayed in an overlapping manner (901 to 906). A specific drawing method is a method of directly adding a graphic (for example, a circle, a x mark, etc.) representing an observation point position to a medium image. Regarding the colors used for display, it is easy for the user to see the objects to be identified and the graphics representing the position of the observation point with different saturation and hue. For example, if the medium image is displayed as a gray shade image and the graphic representing the observation point position is displayed in a highly saturated color such as red, green, or blue, it is easy for the user to see.
It should be noted that convenience is enhanced if the type of medium to be displayed is switched by user input.

以上のように,実施例1では,計算手段と所定の所要時間を指定することにより,上記所要時間内に画像識別が終了するように観測点数を設定し,観測点の位置を自動的に設定できる。連像的に媒体を搬送して画像識別を実行する装置においては,画像識別を所定の時間内に終了させる必要があるが,本発明はその装置で利用する画像識別のアルゴリズム自動構成に適する。例えば搬送速度の異なる複数の画像識別装置があった場合,計算速度の異なる複数の画像識別装置があった場合,いちいち手動でアルゴリズムを再構成する必要なく,それぞれの装置に許された所要時間に応じて自動的に観測点数および観測点位置が決定される。
実施例1において,画像識別を常に一定の所要時間で終了させる必要があるときは,明示的に入力がなくともその所要時間が入力されているものとして画像識別アルゴリズム自動構成装置を動作させればよい。計算手段が常に一定である場合でも,同様である。
As described above, in the first embodiment, by specifying the calculation means and a predetermined required time, the number of observation points is set so that the image identification is completed within the required time, and the position of the observation point is automatically set. it can. In an apparatus that continuously conveys a medium and executes image identification, it is necessary to complete the image identification within a predetermined time. However, the present invention is suitable for automatic configuration of an image identification algorithm used in the apparatus. For example, if there are multiple image identification devices with different transport speeds, and there are multiple image identification devices with different calculation speeds, it is not necessary to manually reconfigure the algorithm one by one. Accordingly, the number of observation points and the observation point position are automatically determined.
In the first embodiment, when it is necessary to always end the image identification within a certain required time, the image identification algorithm automatic configuration apparatus is operated assuming that the required time is input even if there is no explicit input. Good. The same applies even when the calculation means is always constant.

実施例2においては,さらに,ユーザは表示された観測点位置の画像をみて,自分の経験則に基づいて適切だと思われる観測点位置を選択することができる。   In the second embodiment, the user can further select an observation point position that is considered appropriate based on his / her empirical rule by viewing the displayed image of the observation point position.

なお,実施例1,2では紙葉状の媒体を想定して説明を行ったが,それ以外の識別対象であっても,識別対象の位置ずれ,傾きが適切に補正できるという条件のもとで本発明は適用可能である。   In the first and second embodiments, the description has been made on the assumption that a sheet-like medium is used. However, even in the case of other identification targets, the positional deviation and inclination of the identification target can be corrected appropriately. The present invention is applicable.

本発明は画像識別に関する発明であって,特に紙葉状の媒体を連続的に識別する装置への適用に適する。   The present invention relates to image identification, and is particularly suitable for application to an apparatus for continuously identifying a sheet-like medium.

実施例1における画像識別アルゴリズム自動構成装置。FIG. 3 is an image identification algorithm automatic configuration apparatus in Embodiment 1. FIG. 画像識別装置。Image identification device. 観測点位置と正規化観測点位置の関係。Relationship between station position and normalized station position. 媒体画像と正規化媒体画像の関係。Relationship between media image and normalized media image. 観測点数決定部104の動作フロー。An operation flow of the observation point number determination unit 104. 観測点位置決定部105の動作フロー。The operation | movement flow of the observation point position determination part 105. FIG. 実施例2における画像識別アルゴリズム自動構成装置。7 is an automatic image identification algorithm construction apparatus in Embodiment 2. FIG. 観測点位置の表示方法1。Display method 1 of observation point position. 観測点位置の表示方法2。Observation point position display method 2. 計算手段と画像識別所要時間の関係1。Relationship 1 between calculation means and time required for image identification. 計算手段と画像識別所要時間の関係2。Relationship 2 between calculation means and time required for image identification.

符号の説明Explanation of symbols

101 所要時間,102 計算手段の情報,103 観測点位置,104 画像識別アルゴリズム自動構成装置,105 観測点数決定部,106 観測点位置決定部、201 撮影画像,202 識別結果,203 画像識別装置,204 観測点位置変換部,205 観測点画素値取得部,206 特徴ベクトル正規化部,207 識別器、301 撮影画像,302 撮影画像上の観測点位置,303 観測点位置,304 正規化された観測点位置,401 正規化された媒体画像、701 表示装置,702 ユーザ入力装置、801〜803 媒体画像,804〜806 観測点位置を示す画像、901〜906 媒体画像に観測点位置を書き加えた画像、1001 計算手段の種類とクロック毎に決定されるインデックス,1102 計算手段の種類毎に決定されるインデックス,1002 画素取得の所要時間tg(np),1003 識別に要する時間tc(np)。 101 Time required, 102 Information of calculation means, 103 Observation point position, 104 Image identification algorithm automatic configuration device, 105 Observation point determination unit, 106 Observation point position determination unit, 201 Captured image, 202 Identification result, 203 Image identification device, 204 Observation point position conversion unit, 205 Observation point pixel value acquisition unit, 206 Feature vector normalization unit, 207 Discriminator, 301 Captured image, 302 Observation point position on the captured image, 303 Observation point position, 304 Normalized observation point Position, 401 normalized media image, 701 display device, 702 user input device, 801-803 media image, 804-806 image showing observation point position, 901-906 image obtained by adding observation point location to media image, 1001 Type of calculation means and index determined for each clock, 1102 Determined for each type of calculation means Index, 1002 time required for pixel acquisition t g (np), 1003 time required for identification t c (np).

Claims (8)

入力手段と,出力手段と,観測点数決定手段と,観測点位置決定手段と,を備え,
前記観測点数決定手段は,画像識別の所要時間と観測点数との関係を計算手段の速度あるいは種類毎に関数あるいはデータベースとして記憶しており,前記入力手段から入力された計算手段の情報および所要時間の情報から,前記所要時間内に画像識別が完了する観測点数を決定し,
前記観測点位置決定手段は,前記観測点数の分だけ観測点位置を決定し,前記出力手段を通じて前記観測点位置の集合を1種類出力する画像識別アルゴリズム自動構成装置。
An input means, an output means, an observation point number determination means, and an observation point position determination means;
The observation point number determining means stores the relationship between the time required for image identification and the number of observation points as a function or a database for each speed or type of the calculation means, and information on the calculation means input from the input means and the required time From this information, determine the number of observation points where image identification is completed within the required time,
The observation point position determining means determines an observation point position by the number of observation points, and outputs one set of the observation point positions through the output means.
入力手段と,出力手段と,観測点数決定手段と,観測点位置決定手段と,を備え,
前記観測点数決定手段は,特定の計算手段を用いたときの画像識別の所要時間と観測点数との関係を関数あるいはデータベースとして記憶しており,前記入力手段から入力された所要時間の情報から,前記所要時間内に画像識別が完了する観測点数を決定し,
前記観測点位置決定手段は,前記観測点数の分だけ観測点位置を決定し,前記出力手段を通じて前記観測点位置の集合を1種類出力する画像識別アルゴリズム自動構成装置。
An input means, an output means, an observation point number determination means, and an observation point position determination means;
The observation point number determination means stores the relationship between the time required for image identification and the number of observation points when using a specific calculation means as a function or database, and from the information on the required time input from the input means, Determining the number of observation points where image identification is completed within the required time;
The observation point position determining means determines an observation point position by the number of observation points, and outputs one set of the observation point positions through the output means.
入力手段と,出力手段と,観測点数決定手段と,観測点位置決定手段と,を備え,
前記観測点数決定手段は,計算手段の速度あるいは種類毎に,特定の所要時間内に画像処理が完了する観測点数の情報を記憶しており,前記入力手段から入力された計算手段の情報の情報から,前記特定の所要時間内に画像識別が完了する観測点数を決定し,
前記観測点位置決定手段は,前記観測点数の分だけ観測点位置を決定し,前記出力手段を通じて前記観測点位置の集合を1種類出力する画像識別アルゴリズム自動構成装置。
An input means, an output means, an observation point number determination means, and an observation point position determination means;
The observation point number determination means stores information on the number of observation points for which image processing is completed within a specific required time for each speed or type of the calculation means, and information on the calculation means information input from the input means From this, the number of observation points for which image identification is completed within the specific required time is determined,
The observation point position determining means determines an observation point position by the number of observation points, and outputs one set of the observation point positions through the output means.
請求項1乃至3記載の画像識別アルゴリズム自動構成装置であって,表示手段と,ユーザの操作を受け付けるユーザ入力手段とを備え,
前記観測点位置決定手段は,前記観測点位置の集合を複数種類決定し,
前記表示手段は,前記観測点位置の集合の複数種類を表示し,
ユーザ入力手段からの入力によって指定された,前記観測点位置の集合の1種類を前記出力手段に出力する画像識別アルゴリズム自動構成装置。
The image identification algorithm automatic configuration apparatus according to claim 1, comprising display means and user input means for accepting a user operation,
The observation point position determining means determines a plurality of types of sets of the observation point positions,
The display means displays a plurality of types of the set of observation point positions;
An apparatus for automatically constructing an image identification algorithm that outputs one type of the set of observation point positions designated by input from a user input means to the output means.
請求項4記載の画像識別アルゴリズム自動構成装置であって,
前記表示手段は,画像識別アルゴリズムが識別対象とする1種類あるいは複数種類の媒体の画像と,前記観測点位置の集合の複数種類を各々図示した複数種類の画像を,並べて表示する画像識別アルゴリズム自動構成装置。
An image identification algorithm automatic composition device according to claim 4,
The display means automatically displays an image identification algorithm for displaying one or a plurality of types of images to be identified by the image identification algorithm and a plurality of types of images showing a plurality of types of the set of observation point positions side by side. Configuration equipment.
請求項4記載の画像識別アルゴリズム自動構成装置であって,
前記表示手段は,画像識別アルゴリズムが識別対象とする1種類の媒体の画像,あるいは複数種類の媒体のうちの1種類の画像,に対して,
前記観測点位置を示す印を書き加えて表示する画像識別アルゴリズム自動構成装置。
An image identification algorithm automatic composition device according to claim 4,
The display means is for an image of one type of medium to be identified by the image identification algorithm, or one type of image among a plurality of types of media,
An apparatus for automatically configuring an image identification algorithm for adding and displaying a mark indicating the observation point position.
請求項6記載の画像識別アルゴリズム自動構成装置であって,
前記表示手段は,前記ユーザ入力手段からの入力によって,画像識別アルゴリズムが識別対象とする複数種類の媒体のうちの,いずれの媒体の画像を表示するか,を切り替える,画像識別アルゴリズム自動構成装置。
An image identification algorithm automatic composition device according to claim 6,
The image identification algorithm automatic configuration apparatus, wherein the display unit switches which medium of a plurality of types of media to be identified by the image identification algorithm is displayed according to an input from the user input unit.
請求項6記載の画像識別アルゴリズム自動構成装置であって,
前記表示手段は,表示する前記1種類の媒体の画像と,書き加える前記観測点位置を示す印とを,異なる彩度または異なる色相,あるいはその両方とする,画像識別アルゴリズム自動構成装置。
An image identification algorithm automatic composition device according to claim 6,
The image identification algorithm automatic configuration apparatus, wherein the display means sets an image of the one type of medium to be displayed and a mark indicating the position of the observation point to be added to different saturations, different hues, or both.
JP2007129989A 2007-05-16 2007-05-16 Image identification apparatus Pending JP2008287376A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007129989A JP2008287376A (en) 2007-05-16 2007-05-16 Image identification apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007129989A JP2008287376A (en) 2007-05-16 2007-05-16 Image identification apparatus

Publications (1)

Publication Number Publication Date
JP2008287376A true JP2008287376A (en) 2008-11-27

Family

ID=40147055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007129989A Pending JP2008287376A (en) 2007-05-16 2007-05-16 Image identification apparatus

Country Status (1)

Country Link
JP (1) JP2008287376A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013029971A (en) * 2011-07-28 2013-02-07 Japan Display East Co Ltd Touch panel
CN113853544A (en) * 2019-03-28 2021-12-28 有限公司诗兰帝普研究所 Image data obtaining method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013029971A (en) * 2011-07-28 2013-02-07 Japan Display East Co Ltd Touch panel
US8760435B2 (en) 2011-07-28 2014-06-24 Japan Display Inc. Touch panel
US9146648B2 (en) 2011-07-28 2015-09-29 Japan Display Inc. Touch sensing method for touch panel
CN113853544A (en) * 2019-03-28 2021-12-28 有限公司诗兰帝普研究所 Image data obtaining method
CN113853544B (en) * 2019-03-28 2024-03-26 有限公司诗兰帝普研究所 Image data obtaining method

Similar Documents

Publication Publication Date Title
US10372226B2 (en) Visual language for human computer interfaces
CN107771336B (en) Feature detection and masking in images based on color distribution
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
AU2016225841B2 (en) Predicting accuracy of object recognition in a stitched image
US20210142033A1 (en) System and method for identifying target objects
JPWO2008129875A1 (en) Detection device, detection method, and integrated circuit for detection
JP6584123B2 (en) Image processing apparatus, image processing method, and program
WO2015107859A1 (en) Image comparison device, image sensor, processing system, and image comparison method
US20150302256A1 (en) Program, method, and system for displaying image recognition processing suitability
US10055824B2 (en) Image correction device, image correction method and storage medium
CN106663322A (en) Identifying features
US20170124430A1 (en) Apparatus, method and program for classifying crowd
US11416707B2 (en) Information processing method, information processing system, and information processing apparatus
US10140555B2 (en) Processing system, processing method, and recording medium
KR20120007850A (en) Apparatus and method for object recognition based on part-template matching
JP2018097611A (en) Image processing device and control method thereof
JP2008287376A (en) Image identification apparatus
JP4682782B2 (en) Image processing device
KR101015646B1 (en) Face detecting apparatus and face detection using the same
CN105956559B (en) Specific objective detection method based on UAV Video
JP2020057224A (en) Detection device, discriminator, computer program, and detection method
JP6855175B2 (en) Image processing equipment, image processing methods and programs
US9842402B1 (en) Detecting foreground regions in panoramic video frames
US9824455B1 (en) Detecting foreground regions in video frames
CN113820012B (en) Multispectral image processing method and device