JPH04348474A - Control and retrieving device of image data base - Google Patents

Control and retrieving device of image data base

Info

Publication number
JPH04348474A
JPH04348474A JP2417476A JP41747690A JPH04348474A JP H04348474 A JPH04348474 A JP H04348474A JP 2417476 A JP2417476 A JP 2417476A JP 41747690 A JP41747690 A JP 41747690A JP H04348474 A JPH04348474 A JP H04348474A
Authority
JP
Japan
Prior art keywords
image data
feature quantity
feature
data
dimensional feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2417476A
Other languages
Japanese (ja)
Inventor
Yoshinori Wakimoto
脇本 良則
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JFE Steel Corp
Original Assignee
Kawasaki Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Steel Corp filed Critical Kawasaki Steel Corp
Priority to JP2417476A priority Critical patent/JPH04348474A/en
Publication of JPH04348474A publication Critical patent/JPH04348474A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PURPOSE:To take out the target image data by registering the image data without limiting the method of retrieval and classifying the data from various points of view in accordance with the purpose of a user at the time of retrieving. CONSTITUTION:This device has a feature extracting part 10 to extract the high dimensional feature quantity from the image of image data, a data storing part 12 to register and control the high dimensional, for example, 25-dimension feature quantity obtained by the feature extracting part 10 by combining with the corresponding image data, a feature converting part 14 to pull out the high dimensional feature quantity from the data storing part 12 and convert it to the low dimensional, for example, 2-dimension feature quantity and a displaying part 16 to display the distribution of the converted low dimensional feature quantity. The user, while the user watches the displaying part 16, instructs the conversion through a user instructing part 18 of a keyboard, a mouse, etc., to the feature converting part 14. From the user instructing part 18, the conversion is instructed, for example, at the time of converting to 2 dimension, the icon (image reduced data) as the 2 dimensional feature quantity is displayed at the displaying part 16. By changing the 2 dimensional feature quantity, the icon corresponding to the feature quantity is successively displayed at the displaying part 16.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、各種画像データを管理
・分類・検索する装置に関し、特に、キーワードやイン
デックスを作成しなくても、対話的に、しかも必要に応
じて様々な観点から画像データを管理・分類・検索する
ことができる画像データベースの管理・検索装置に関す
る。
[Field of Industrial Application] The present invention relates to a device for managing, classifying, and searching various types of image data, and in particular, the present invention relates to a device for managing, classifying, and searching various image data, and in particular, it is possible to interactively search images from various viewpoints as needed without creating keywords or indexes. The present invention relates to an image database management/search device that can manage, classify, and search data.

【0002】0002

【従来の技術】画像データの内容を自動的に抽象化する
ことは技術的に困難な状況にある。そのため、画像デー
タベースシステムにおいては、例えば特開平2−127
771に開示されているように、利用者がデータ登録時
に利用目的に応じて任意に検索用のキーワード又はイン
デックスを作成し、検索時にこのキーワード等に基づい
てデータを引き出すのが一般的である。
2. Description of the Related Art It is technically difficult to automatically abstract the contents of image data. Therefore, in the image database system, for example,
As disclosed in Japanese Patent No. 771, it is common for a user to arbitrarily create a search keyword or index according to the purpose of use when registering data, and to retrieve data based on this keyword or the like during a search.

【0003】0003

【発明が解決しようとする課題】しかしながら、上記の
ようにキーワード等を用いる場合は、ある観点から見る
と似ている画像データに対して全く異なるキーワードが
付与されていたり、逆に似ていないのに同じキーワード
が付与されていたりすることがしばしばあり、又、キー
ワード登録時に想定していなかった観点からはデータを
検索することができないという欠点がある。このことは
即ち、画像データは、登録時にキーワード作成者によっ
て分類されるが、検索時にもこの分類を基にデータを取
り出すことしかできないということであり、極めて限定
された利用しかできないという問題がある。
[Problem to be Solved by the Invention] However, when keywords are used as described above, completely different keywords may be assigned to image data that are similar from a certain point of view, or conversely, image data that are not similar may be assigned completely different keywords. It is often the case that the same keywords are assigned to the same keywords, and there is also the disadvantage that it is not possible to search for data from a viewpoint that was not envisaged at the time of keyword registration. This means that although image data is classified by the keyword creator at the time of registration, it is only possible to retrieve the data based on this classification when searching, which poses the problem of extremely limited use. .

【0004】本発明は、前記従来の問題点を解決するべ
くなされたもので、画像データを検索の方法を限定せず
に登録し、検索時には利用者の目的に応じた様々な観点
からそのデータを分類し、目的の画像データを取り出す
ことができる画像データベースの管理・検索装置を提供
することを課題とする。
The present invention has been made to solve the above-mentioned conventional problems. Image data is registered without limiting the search method, and when searching, the data is searched from various viewpoints depending on the purpose of the user. An object of the present invention is to provide an image database management/search device that can classify images and extract desired image data.

【0005】[0005]

【課題を解決するための手段】本発明は、各画像データ
について画像から高次元特徴量を抽出する特徴抽出部と
、抽出した高次元特徴量と対応する画像データとを組合
せて登録するデータ記憶部と、利用者の指示に基づいて
高次元特徴量を低次元特徴量に変換する特徴変換部と、
上記低次元特徴量の分布を表示する表示部とを備えてい
ることにより、前記課題を達成したものである。
[Means for Solving the Problems] The present invention provides a feature extraction unit that extracts high-dimensional feature quantities from an image for each image data, and a data storage that registers a combination of the extracted high-dimensional feature quantities and the corresponding image data. a feature conversion unit that converts a high-dimensional feature into a low-dimensional feature based on a user's instruction;
The above-mentioned problem has been achieved by including a display section that displays the distribution of the low-dimensional feature amounts.

【0006】[0006]

【作用】本発明においては、登録時に、各画像データに
対して、画像から抽出した高次元の特徴量を組合せて登
録・管理すると共に、検索時には、高次元特徴量を利用
者の目的に応じた低次元特徴量に変換し、その低次元特
徴空間における画像データの分布を視角的に利用者に提
示するようにしたので、利用者が上記特徴空間上の位置
として画像データ又は画像の特徴を指示することにより
、様々な観点から画像データを分類し、目的の画像デー
タを取り出すことが可能となる。
[Operation] In the present invention, at the time of registration, high-dimensional feature quantities extracted from the image are combined and registered and managed for each image data, and at the time of search, high-dimensional feature quantities are combined according to the purpose of the user. The distribution of image data in the low-dimensional feature space is visually presented to the user, so that the user can identify the image data or image features as a position on the feature space. By giving instructions, it becomes possible to classify image data from various viewpoints and extract the desired image data.

【0007】又、画像データを連続空間である高次元特
徴空間上の点として管理しているため、検索時に低次元
特徴空間への変換とその空間の分割の仕方を変えるだけ
で様々な観点からの分類が可能となる。従って、画像デ
ータの登録時には、その画像データに対してキーワード
を付与する作業は不要となる。又、画像をキーワードで
はなく特徴量そのもので利用者が指示できるため、言語
では表現し難い画像の特徴による検索が可能となる。更
に、特徴量の抽出はデータ登録時に行い、検索時にはそ
の変換のみを行えば良いため、検索時の計算量は小さく
てすむ利点もある。
[0007] Furthermore, since image data is managed as points on a high-dimensional feature space, which is a continuous space, it can be used from various viewpoints simply by converting it to a low-dimensional feature space and changing the way the space is divided during a search. classification becomes possible. Therefore, when registering image data, there is no need to assign keywords to the image data. Furthermore, since the user can specify an image using the feature amount itself rather than a keyword, it becomes possible to search based on image features that are difficult to express in language. Furthermore, since feature amounts are extracted at the time of data registration and only the conversion is performed at the time of retrieval, there is an advantage that the amount of calculation at the time of retrieval can be reduced.

【0008】[0008]

【実施例】以下、図面を参照して、本発明の実施例を詳
細に説明する。
Embodiments Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

【0009】図1は、本発明の一実施例の画像データベ
ースの管理・検索装置を示す概略構成図である。
FIG. 1 is a schematic diagram showing an image database management/search device according to an embodiment of the present invention.

【0010】本実施例の画像データベースの管理・検索
装置は、画像データの画像から高次元特徴量を抽出する
ことができる特徴抽出部10と、該特徴抽出部10で求
めた高次元特徴量を、対応する画像データと組合せて登
録・管理するデータ記憶部12と、該データ記憶部12
から高次元特徴量を引き出し、それを低次元特徴量に変
換する特徴変換部14と、変換された低次元特徴量の分
布を表示する表示部16とを備えている。そして、利用
者が、上記表示部16を見ながら、キーボード、マウス
等の利用者指示部18を介して上記特徴変換部14に変
換の指示が可能になっている。
The image database management/search device of this embodiment includes a feature extraction section 10 capable of extracting high-dimensional feature quantities from images of image data, and a feature extraction section 10 that can extract high-dimensional feature quantities obtained by the feature extraction section 10. , a data storage unit 12 that is registered and managed in combination with corresponding image data, and the data storage unit 12
The apparatus includes a feature conversion section 14 that extracts high-dimensional feature amounts from the source and converts them into low-dimensional feature amounts, and a display section 16 that displays the distribution of the converted low-dimensional feature amounts. While viewing the display section 16, the user can instruct the feature conversion section 14 to perform conversion via a user instruction section 18 such as a keyboard or mouse.

【0011】次に、本実施例の作用を説明する。Next, the operation of this embodiment will be explained.

【0012】本実施例は、人間が眼で見たときの、似て
いる、似ていないという感覚に一致した画像の分類を目
的としている。
The purpose of this embodiment is to classify images that match the human sense of similarity or dissimilarity when viewed with the human eye.

【0013】なお、同じ構成のままで各部分の方式を変
えれば、他の目的に対しても適用できる。
[0013] It should be noted that if the system of each part is changed while keeping the same configuration, it can be applied to other purposes.

【0014】上記特徴抽出部10における特徴抽出の方
法としては、神経生理学における視覚系の特徴抽出細胞
の仕組みを応用する。具体的には、下に詳述する「N次
自己相関マスクによる図形の特徴抽出」(電子通信学会
技報PRL78−31)に述べられている大津らによる
、25種類のマスクパターンを用いて25個のN次自己
相関を求める方法を利用した。この方法は、上記特徴抽
出細胞の仕組みを数学的に整理したものになっていると
考えられるため、この方法を採用した。
As a feature extraction method in the feature extraction section 10, the mechanism of feature extraction cells in the visual system in neurophysiology is applied. Specifically, we used 25 types of mask patterns by Otsu et al. described in "Graphic feature extraction using N-th order autocorrelation masks" (IEICE technical report PRL78-31), which is detailed below. A method for obtaining N-th autocorrelation was used. This method was adopted because it is thought to be a mathematical arrangement of the mechanism of the feature extraction cell described above.

【0015】上記25種類のマスクパターンは、以下の
ようにして作成する。
The above 25 types of mask patterns are created as follows.

【0016】N次自己相関関数を、N個の変位a1、・
・・aNに対して次の(1)式で定義する。
[0016] The Nth-order autocorrelation function is expressed as N displacements a1, .
...aN is defined by the following equation (1).

【0017】[0017]

【数1】[Math 1]

【0018】又、実際的な応用を図るために、N次自己
相関関数の選び方を系統的に行い、第2図に示すように
、変位ベクトルa1、・・・aNの範囲を局所的な3×
3格子上の8方向に限定した。この場合の最高次数はN
=8である。
In addition, in order to achieve practical application, we systematically selected the N-th autocorrelation function, and as shown in FIG. ×
It was limited to 8 directions on 3 grids. The highest order in this case is N
=8.

【0019】上記3×3の格子上に配置されたN+1点
に対応する図形の値の積が(1)式のように積分される
が、これは、3×3のマスクで図形上を走査することに
より得られる。
The product of the values of the figure corresponding to the N+1 points placed on the 3×3 grid is integrated as shown in equation (1), but this is done by scanning the figure with a 3×3 mask. It can be obtained by

【0020】3×3の全てのマスクは、単純に考えると
、このままでは2の8乗=256種類であるが、マスク
上のN+1点の配置を一様に平行移動して重なり合うマ
スクは互いに同値であり、同値類として1つで代表させ
ることにより、少数の独立のマスクに簡約できる。この
ように簡約したマスクのうち、0次、1次、2次のもの
を示したのが図3であり、0次、1次及び2次は、前記
(1)式で右辺が1項のみ、2項(a1)迄及び3項(
a2)迄にそれぞれ対応している。
If we consider all 3×3 masks simply, there are 2 to the 8th power = 256 types as is, but masks that overlap by uniformly moving the N+1 points on the mask have the same value as each other. By representing one as an equivalence class, it can be reduced to a small number of independent masks. Figure 3 shows the 0th, 1st, and 2nd orders of the masks simplified in this way. , up to Section 2 (a1) and Section 3 (
Up to a2) are supported respectively.

【0021】又、上記0次、1次及び2次に対応するマ
スクの種類は、それぞれ1、4及び20であり、合計2
5種である。なお、本実施例では、マスクの種類を2次
迄としたが、3次以上にすることもできる。
The types of masks corresponding to the 0th, 1st, and 2nd orders are 1, 4, and 20, respectively, and a total of 2
There are 5 types. In this embodiment, the types of masks are up to secondary, but they can also be tertiary or higher.

【0022】まず、画像データを上記データ記憶部12
に登録する時には、特徴抽出部10で、入力された画像
データから上記マスクパターンに対応する25個の実数
特徴量を抽出し、画像データと共にデータ記憶部12に
記録される。
First, image data is stored in the data storage section 12.
When registering, the feature extraction unit 10 extracts 25 real number feature quantities corresponding to the mask pattern from the input image data and records them in the data storage unit 12 together with the image data.

【0023】上記表示部16では、CRT画面上で、2
次元特徴量を画像データの単位を縮小した画像であるア
イコンの位置として表示する。なお、3次元グラフィッ
ク等の手法を用いれば3次元以上の特徴量の表示も可能
である。
[0023] The display unit 16 displays 2 on the CRT screen.
The dimensional feature amount is displayed as the position of an icon, which is an image obtained by reducing the unit of image data. Note that if a technique such as three-dimensional graphics is used, it is also possible to display feature amounts in three or more dimensions.

【0024】又、特徴変換部14では、特徴抽出部10
で得られ、データ記憶部12に記録されている25次元
の特徴量を、検索時に検索の目的に応じた2次元の特徴
量に変換する。
[0024] Also, in the feature conversion section 14, the feature extraction section 10
During a search, the 25-dimensional feature quantity obtained in the above and recorded in the data storage unit 12 is converted into a 2-dimensional feature quantity according to the purpose of the search.

【0025】本実施例ではこの変換を線形変換により行
った。この線形変換により、25次元空間のある方向か
ら見た平面を取出すことができる。
In this embodiment, this conversion was performed by linear conversion. Through this linear transformation, a plane viewed from a certain direction in the 25-dimensional space can be extracted.

【0026】即ち、第k 番の画像データと共に記憶さ
れた特徴量fki(i =1,・・・,25)から、変
換後の特徴量Ykj(j =1,2)を、次の(2)式
で計算する。
That is, from the feature quantity fki (i = 1, . . . , 25) stored together with the k-th image data, the transformed feature quantity Ykj (j = 1, 2) is calculated by the following (2 ) is calculated using the formula.

【0027】[0027]

【数2】[Math 2]

【0028】変換の係数ai(i =1,・・・,25
)の設定は主成分分析により行った。fkj の分散共
分散行列Sを、次の(3)式とする。
[0028] Transformation coefficient ai (i = 1, . . . , 25
) was determined using principal component analysis. Let the variance-covariance matrix S of fkj be expressed by the following equation (3).

【0029】[0029]

【数3】[Math 3]

【0030】ここで、Sijは共分散で、次の(4)式
で表わされる。
[0030] Here, Sij is a covariance and is expressed by the following equation (4).

【0031】[0031]

【数4】[Math 4]

【0032】ここで、fi′は平均で、fj′は次の(
5)式である。
Here, fi' is the average, and fj' is the following (
5) is the formula.

【0033】[0033]

【数5】[Math 5]

【0034】なお、Nは記録されている画像データの数
である。行列Sの大きい方からp 番目の固有値に対す
る固有ベクトルを{a 1 (p) ,・・・,a 2
5(p) }としたとき、次の(6)式が第p 主成分
である。
Note that N is the number of recorded image data. The eigenvector for the p-th eigenvalue from the largest one of the matrix S is {a 1 (p) ,...,a 2
5(p)}, the following equation (6) is the p-th principal component.

【0035】[0035]

【数6】[Math 6]

【0036】この主成分のうち2個、例えば、第1主成
分と第2主成分を選び、2次元の特徴とする。
Two of these principal components, for example, the first principal component and the second principal component, are selected and used as two-dimensional features.

【0037】上述の主成分分析による方法は、データの
分布がつかみ易い変換係数が得られるという特徴がある
。例えば画像データが最も分散して広がっている方向を
取出すことができ、画像データの分散が掴み易く、検索
が容易となる。なお、特徴量変換の方法としては、この
他に、学習により利用者に役立つ変換を生成できるニュ
ーラルネットワーク等を用いてもよい。
The method using principal component analysis described above is characterized in that it can obtain transformation coefficients that make it easy to understand the distribution of data. For example, it is possible to extract the direction in which the image data is most dispersed and spread, making it easier to understand the distribution of the image data and making it easier to search. In addition, as a method for converting the feature amount, a neural network or the like which can generate conversion useful to the user through learning may be used.

【0038】上記特徴変換部14で得られた2次元特徴
量の分布は、表示部16の画面上に表示される。利用者
指示部18では、表示部16の表示画面上で、利用者が
マウス等のポインティングデバイス(利用者指示部)1
8によって目的の画像を指示したり、変換された2次元
特徴空間上で更に詳しく検索したい部分空間を指示した
りする。本実施例によって表示される表示部16の画面
例を、図4〜図6に示す。
The distribution of two-dimensional feature amounts obtained by the feature conversion section 14 is displayed on the screen of the display section 16. In the user instruction section 18, the user points a pointing device (user instruction section) 1 such as a mouse on the display screen of the display section 16.
8 to designate a target image or designate a subspace to be searched in more detail on the transformed two-dimensional feature space. Examples of screens displayed on the display unit 16 according to this embodiment are shown in FIGS. 4 to 6.

【0039】図4は、各種金属材料の組織写真を登録し
たデータベースにおいて、特徴変換部14で第1主成分
と第2主成分を計算し、表示部16のX座標とY座標に
対応させて表示したところである。眼で見て似ている画
像は表示画面上で近い位置にかたまっているのが分かる
FIG. 4 shows that the first principal component and the second principal component are calculated by the feature conversion section 14 in a database in which structural photographs of various metal materials are registered, and are made to correspond to the X and Y coordinates of the display section 16. It has just been displayed. It can be seen that images that are visually similar are clustered near each other on the display screen.

【0040】この図4に矢印と共に示してある線は、利
用者がマウスによって粒子画像(アイコンA)が固まっ
ている部分を囲み、その範囲内を更に詳しく検索しよう
としている状態を示したものである。
[0040] The line shown with the arrow in Fig. 4 shows the state in which the user is trying to use the mouse to enclose the part where the particle image (icon A) is solidified and search within that range in more detail. be.

【0041】図5は、各種図形の画像を登録したデータ
ベースにおいて、特徴変換部14で第2主成分と第1主
成分を計算し、表示部16のX座標とY座標に対応させ
て表示したところである。円形、三角形、十字の3種類
の図形がうまく分離できているのが分かる。
FIG. 5 shows a database in which images of various figures are registered, in which the second principal component and first principal component are calculated by the feature conversion section 14 and displayed in correspondence with the X and Y coordinates of the display section 16. By the way. It can be seen that the three types of shapes, circles, triangles, and crosses, are well separated.

【0042】図4は、各種の縞模様の画像を登録したデ
ータベースにおいて、特徴変換部14で第3主成分と第
4主成分を計算し、表示部16のX座標とY座標に対応
させて表示したところである。縞模様の方向性と縞の密
度によって画面上での異なる位置に分布しているのが分
かる。
FIG. 4 shows that in a database in which images of various striped patterns are registered, the feature conversion section 14 calculates the third principal component and the fourth principal component and makes them correspond to the X and Y coordinates of the display section 16. It has just been displayed. It can be seen that the stripes are distributed at different positions on the screen depending on the directionality and density of the stripes.

【0043】以上、本発明について具体的に説明したが
、本発明は、前記実施例に示したものに限定されるもの
でない。
Although the present invention has been specifically explained above, the present invention is not limited to what has been shown in the above embodiments.

【0044】例えば、画像データからの高次元特徴量の
抽出は、前記のN次自己相関を求める方法に限定される
ものでない。
For example, the extraction of high-dimensional features from image data is not limited to the method of determining the N-th autocorrelation described above.

【0045】[0045]

【発明の効果】前述した通り、本発明によれば、画像デ
ータの検索の方法を限定せずに登録し、検索時には利用
者の目的に応じた様々な観点からそのデータを分類し、
目的の画像データを取り出すことが可能となる。
[Effects of the Invention] As described above, according to the present invention, the method for searching image data is registered without being limited, and when searching, the data is classified from various viewpoints depending on the purpose of the user.
It becomes possible to extract the desired image data.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】図1は、本発明の一実施例の画像データベース
の管理・検索装置を示す概略構成図である。
FIG. 1 is a schematic configuration diagram showing an image database management/search device according to an embodiment of the present invention.

【図2】図2は、高次元特徴量を抽出する方法の説明図
である。
FIG. 2 is an explanatory diagram of a method for extracting high-dimensional features.

【図3】図3は、高次元特徴量を抽出するマスクを示す
説明図である。
FIG. 3 is an explanatory diagram showing a mask for extracting high-dimensional feature amounts.

【図4】図4は、本発明の実施例における表示画面の一
例を示す概略説明図である。
FIG. 4 is a schematic explanatory diagram showing an example of a display screen in an embodiment of the present invention.

【図5】図5は、本発明の実施例における表示画面の他
の一例を示す概略説明図である。
FIG. 5 is a schematic explanatory diagram showing another example of the display screen in the embodiment of the present invention.

【図6】図6は、本発明の実施例における表示画面の更
に他の一例を示す概略説明図である。
FIG. 6 is a schematic explanatory diagram showing still another example of the display screen in the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10…特徴抽出部、 12…データ記憶部、 14…特徴変換部、 16…表示部、 18…利用者指示部。 10...Feature extraction unit, 12...data storage section, 14...Feature conversion unit, 16...display section, 18...User instruction section.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】各画像データについて画像から高次元特徴
量を抽出する特徴抽出部と、抽出した高次元特徴量と対
応する画像データとを組合せて登録するデータ記憶部と
、利用者の指示に基づいて高次元特徴量を低次元特徴量
に変換する特徴変換部と、上記低次元特徴量の分布を表
示する表示部と、を備えていることを特徴とする画像デ
ータベースの管理・検索装置。
Claim 1: A feature extraction unit that extracts a high-dimensional feature amount from an image for each image data; a data storage unit that registers a combination of the extracted high-dimensional feature amount and the corresponding image data; 1. An image database management/search device comprising: a feature conversion section that converts a high-dimensional feature amount into a low-dimensional feature amount based on the above-mentioned information; and a display section that displays a distribution of the low-dimensional feature amount.
JP2417476A 1990-12-28 1990-12-28 Control and retrieving device of image data base Pending JPH04348474A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2417476A JPH04348474A (en) 1990-12-28 1990-12-28 Control and retrieving device of image data base

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2417476A JPH04348474A (en) 1990-12-28 1990-12-28 Control and retrieving device of image data base

Publications (1)

Publication Number Publication Date
JPH04348474A true JPH04348474A (en) 1992-12-03

Family

ID=18525573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2417476A Pending JPH04348474A (en) 1990-12-28 1990-12-28 Control and retrieving device of image data base

Country Status (1)

Country Link
JP (1) JPH04348474A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121569A (en) * 1993-10-26 1995-05-12 Fuji Xerox Co Ltd Information presenting device
JPH0883281A (en) * 1994-09-13 1996-03-26 Fuji Xerox Co Ltd Information presenting device
JPH0887525A (en) * 1994-09-20 1996-04-02 Nippon Telegr & Teleph Corp <Ntt> Video management map presentation method and device therefor
JPH08249351A (en) * 1995-03-15 1996-09-27 Omron Corp Method and device for image retrieval
JPH11175535A (en) * 1997-12-08 1999-07-02 Hitachi Ltd Method and device for retrieving image and retrieval service utilizing the same
JP2000105772A (en) * 1998-07-28 2000-04-11 Sharp Corp Information managing device
JP2007183990A (en) * 2007-03-19 2007-07-19 Hitachi Ltd Image retrieval system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121569A (en) * 1993-10-26 1995-05-12 Fuji Xerox Co Ltd Information presenting device
JPH0883281A (en) * 1994-09-13 1996-03-26 Fuji Xerox Co Ltd Information presenting device
JPH0887525A (en) * 1994-09-20 1996-04-02 Nippon Telegr & Teleph Corp <Ntt> Video management map presentation method and device therefor
JPH08249351A (en) * 1995-03-15 1996-09-27 Omron Corp Method and device for image retrieval
JPH11175535A (en) * 1997-12-08 1999-07-02 Hitachi Ltd Method and device for retrieving image and retrieval service utilizing the same
JP2000105772A (en) * 1998-07-28 2000-04-11 Sharp Corp Information managing device
JP2007183990A (en) * 2007-03-19 2007-07-19 Hitachi Ltd Image retrieval system
JP4521008B2 (en) * 2007-03-19 2010-08-11 株式会社日立製作所 Image search system

Similar Documents

Publication Publication Date Title
JP6831769B2 (en) Image search device, image search method, and setting screen used for it
Li et al. Attribute-conditioned layout gan for automatic graphic design
US6842176B2 (en) Computer-related method and system for controlling data visualization in external dimension(s)
Schaefer A next generation browsing environment for large image repositories
Johnson TreeViz: treemap visualization of hierarchically structured information
CA2155901A1 (en) Method of storing and retrieving images of people, for example, in photographic archives and for the construction of identikit images
CN101446980B (en) Tridimensional partial shape matching and retrieval method based on color rotation picture
JPH0527677A (en) Method and device for three-dimensional display of figure information
JP2000311246A (en) Similar image display method and recording medium storing similar image display processing program
CN115933930A (en) Method, terminal and device for analyzing attention of learning object in education meta universe
Tao et al. A deformation framework for focus+ context flow visualization
Tu et al. Balloon focus: a seamless multi-focus+ context method for treemaps
JPH04348474A (en) Control and retrieving device of image data base
Geisler Making information more accessible: a survey of information visualization applications and techniques
Liggett et al. Interactive design/decision making in a virtual urban world: Visual simulation and GIS
Azzag et al. Vrminer: A tool for multimedia database mining with virtual reality
Hansen et al. Overview of the SRI cartographic modeling environment
Kraak Visual exploration of virtual environments
Siang et al. An overview of immersive data visualisation methods using type by task taxonomy
Hamano A similarity retrieval method for image databases using simple graphics
Gevers et al. Indexing of Images by Pictorial Information.
Jain Workshop Report, NSF Workshop on Visual Information Management Systems
Uchida et al. A visualization and level-of-detail control technique for large scale time series data
Schwarz et al. Sound search by content-based navigation in large databases
Babaee et al. Immersive interactive information mining with application to earth observation data retrieval