JP2001022927A - Image processor, method thereof and storage medium - Google Patents

Image processor, method thereof and storage medium

Info

Publication number
JP2001022927A
JP2001022927A JP11192401A JP19240199A JP2001022927A JP 2001022927 A JP2001022927 A JP 2001022927A JP 11192401 A JP11192401 A JP 11192401A JP 19240199 A JP19240199 A JP 19240199A JP 2001022927 A JP2001022927 A JP 2001022927A
Authority
JP
Japan
Prior art keywords
image
unit
related information
sub
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11192401A
Other languages
Japanese (ja)
Inventor
Yuji Takenaka
裕二 竹中
Yasushi Nishiyama
泰 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP11192401A priority Critical patent/JP2001022927A/en
Publication of JP2001022927A publication Critical patent/JP2001022927A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor generating relevant information, showing the correspondence relation between a main image and a sub image extracted from the main image. SOLUTION: This image processor is provided with an input part 10 inputting a main image, a processing part 20 which generates a sub image, including a part to be noticed meeting a prescribed image pattern condition from the main image and also generates relevant information showing the correspondence relation between the main image and the sub image, an area designating part 21 designating a desired area in the main image, a recording part 40 recording the main and sub image together with the relevant information on a recording medium and an outputting part 50 outputting the main and sub images. Then, for instance, in the case of a construction photograph, a ruler and a blackboard can be detected and extracted automatically as a part of the entire photograph, even without taking the photographs of the ruler and the blackboard apart from the entire photograph of the construction site.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置に関
し、特に、第一の画像から所定の画像パターン条件を満
たした注目部位を含む第二の画像を生成する画像処理装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly, to an image processing apparatus for generating a second image including a region of interest satisfying a predetermined image pattern condition from a first image.

【0002】[0002]

【従来の技術】従来、画像から所定の画像パターンを認
識する方法として、特開平8−305855号(公開日
平成8年11月22日)は、画像を精度よくパターン認
識し、分類する方法を開示している。また、特開平10
−21365号(公開日平成10年1月23日)、特開
平9−69114(公開日平成9年3月11日)は、複
数の写真の管理と検索を容易にする方法を開示してい
る。さらに、特開平6−233225号(公開日平成6
年8月19日)、特開平8−201931(公開日平成
8年8月9日)は、複数の写真の識別を容易にする方法
を開示している。
2. Description of the Related Art Conventionally, as a method of recognizing a predetermined image pattern from an image, Japanese Patent Application Laid-Open No. Hei 8-305855 (published on Nov. 22, 1996) discloses a method of accurately recognizing and classifying an image. Has been disclosed. Also, Japanese Patent Application Laid-Open
JP-A-21365 (publication date: January 23, 1998) and JP-A-9-69114 (publication date: March 11, 1997) disclose a method for facilitating management and retrieval of a plurality of photos. . Further, Japanese Unexamined Patent Application Publication No. 6-233225 (published
Japanese Patent Application Laid-Open No. Hei 8-201931 (August 9, 1996) discloses a method for facilitating identification of a plurality of photographs.

【0003】従来、目前にある複数の被写体に対しそれ
ぞれ個別の写真を得たい場合、得たい写真ごとに撮影を
行っていた。また、複数の被写体をそれぞれ撮影し、さ
らにこれら複数の被写体を一枚の全体写真として得たい
場合、全体と一部とを別々に撮影していた。例えば、工
事写真の場合、全体写真を撮った後、出来高を証明する
ために必要な部分を全体写真とは別に拡大写真として撮
影し、全体写真と部分拡大写真とを一緒にして発注者に
提出していた。
[0003] Conventionally, when it is desired to obtain individual photographs for a plurality of objects in front of each other, a photograph is taken for each desired photograph. In addition, when a plurality of subjects are photographed, and when it is desired to obtain the plurality of subjects as one whole photograph, the whole and a part are separately photographed. For example, in the case of a construction photo, after taking the entire photo, the part necessary to prove the work volume is taken as an enlarged photo separately from the entire photo, and the entire photo and the partially enlarged photo are submitted to the orderer together Was.

【0004】[0004]

【発明が解決しようとする課題】しかし、多数の写真を
得たい場合に写真の数だけ撮影するのは多大な労力を要
するので、例えば、工事写真においては、全体写真を1
枚撮れば、必要な複数の部分写真を同時に得られる技術
の実現が望まれていた。また、工事写真のように写真枚
数が多数になると、写真同士の対応関係が複雑になるの
で、写真の管理や検索に手間がかかっていた。撮影者は
写真を撮影する度に写真の対応関係をメモする場合が多
いが、メモを紛失したりメモを書き忘れたりすると、ア
ルバム作成が困難となっていた。
However, when it is desired to obtain a large number of photographs, taking a large number of photographs requires a great deal of labor. For example, in a construction photograph, one whole photograph is taken.
It has been desired to realize a technique capable of simultaneously obtaining a plurality of necessary partial photographs by taking a plurality of photographs. In addition, when the number of photographs is large as in the case of construction photographs, the correspondence between the photographs becomes complicated, so that it takes time and effort to manage and search for the photographs. Each time a photographer takes a picture, he or she often notes the correspondence between the pictures. However, if the memo is lost or the user forgets to write the memo, it has been difficult to create an album.

【0005】そこで本発明は、上記の課題を解決するこ
とのできる画像処理装置、画像処理方法、及び記録媒体
を提供することを目的とする。この目的は特許請求の範
囲における独立項に記載の特徴の組み合わせにより達成
される。また従属項は本発明のさらなる有利な具体例を
規定する。
Accordingly, an object of the present invention is to provide an image processing device, an image processing method, and a recording medium that can solve the above-mentioned problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous embodiments of the present invention.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するため
に、本発明の第1の形態においては、画像から画像パタ
ーンを認識する画像処理装置であって、第一の画像を入
力する入力部と、所定の画像パターン条件を記憶するパ
ターン記憶部と、前記第一の画像から前記画像パターン
条件を満たした注目部位を検出する検出部と、前記注目
部位が含まれる領域を抽出して第二の画像を生成する生
成部と、前記第二の画像と前記第一の画像との対応関係
を示す関連情報を生成する関連情報生成部と、前記第二
の画像を前記関連情報とともに記録する記録部とを備え
る。
According to a first aspect of the present invention, there is provided an image processing apparatus for recognizing an image pattern from an image, comprising: an input unit for inputting a first image; A pattern storage unit that stores a predetermined image pattern condition, a detection unit that detects a region of interest that satisfies the image pattern condition from the first image, and a second region that extracts a region that includes the region of interest. A generating unit that generates an image of the second image, a related information generating unit that generates related information indicating a correspondence between the second image and the first image, and a recording that records the second image together with the related information. Unit.

【0007】前記生成部は、前記第一の画像及び前記第
二の画像のそれぞれに対しファイル名を与える手段を有
し、前記関連情報生成部は、前記第一の画像のファイル
名と前記第二の画像のファイル名とに基づいて前記関連
情報を生成する手段を有してもよい。
[0007] The generating unit has means for giving a file name to each of the first image and the second image, and the related information generating unit stores a file name of the first image and the second image. A means for generating the related information based on the file name of the second image may be provided.

【0008】前記第二の画像から文字情報を検出する文
字検出部をさらに備え、前記記録部は、前記文字情報を
記録する手段を有してもよい。前記関連情報生成部は、
前記文字情報と、前記第一の画像及び前記第二の画像の
うちいずれか一方又は双方との対応関係に基づいて前記
関連情報を生成する手段をさらに有してもよい。前記関
連情報生成部は、前記文字情報と前記関連情報との対応
関係を示す情報を生成する手段をさらに有してもよい。
前記関連情報生成部は、前記関連情報を前記第一の画像
及び前記第二の画像のうちいずれか一方又は双方のデー
タに含めさせる手段をさらに有してもよい。
[0008] The image processing apparatus may further include a character detection unit that detects character information from the second image, and the recording unit may include a unit that records the character information. The related information generation unit,
The information processing apparatus may further include a unit configured to generate the related information based on a correspondence between the character information and one or both of the first image and the second image. The related information generating unit may further include a unit that generates information indicating a correspondence between the character information and the related information.
The related information generating unit may further include a unit configured to include the related information in data of one or both of the first image and the second image.

【0009】前記関連情報生成部は、前記検出部により
前記第一の画像から前記注目部位が検出されなかった場
合に、前記注目部位が検出されなかったことを示す情報
を前記関連情報として生成する手段をさらに有してもよ
い。
[0009] The related information generating unit generates, as the related information, information indicating that the attention site is not detected when the detection unit does not detect the attention site from the first image. Means may further be provided.

【0010】前記生成部は、前記第一の画像における前
記第二の画像の位置情報を生成する手段をさらに有し、
前記記録部は、前記位置情報を記録する手段をさらに有
してもよい。前記第一の画像における所望の領域を指定
する領域指定部をさらに備え、前記生成部は、前記領域
指定部により指定された領域の位置情報を生成する手段
をさらに有し、前記記録部は、前記位置情報を記録する
手段をさらに有してもよい。前記関連情報生成部は、前
記位置情報と、前記第一の画像及び前記第二の画像のい
ずれか一方又は双方との対応関係に基づいて前記関連情
報を生成する手段をさらに有してもよい。
[0010] The generation unit further includes means for generating position information of the second image in the first image.
The recording unit may further include a unit that records the position information. The image processing apparatus further includes an area specification unit that specifies a desired area in the first image, the generation unit further includes a unit configured to generate position information of an area specified by the area specification unit, and the recording unit includes: The information processing apparatus may further include means for recording the position information. The related information generating unit may further include a unit configured to generate the related information based on a correspondence between the position information and one or both of the first image and the second image. .

【0011】前記第一の画像及び前記第二の画像を前記
位置情報とともに出力する出力部をさらに備えてもよ
い。前記生成部は、前記注目部位が含まれる領域を拡大
して前記第二の画像を生成する手段をさらに有してもよ
い。
[0011] An output unit for outputting the first image and the second image together with the position information may be further provided. The generation unit may further include a unit configured to generate a second image by enlarging an area including the attention site.

【0012】本発明の第2の形態においては、画像から
画像パターンを認識する画像処理方法であって、第一の
画像を入力する段階と、所定の画像パターン条件を記憶
する段階と、前記第一の画像から前記画像パターン条件
を満たした注目部位を検出する段階と、前記注目部位が
含まれる領域を抽出して第二の画像を生成する段階と、
前記第二の画像と前記第一の画像との対応関係を示す関
連情報を生成する段階と、前記第二の画像を前記関連情
報とともに記録する段階とを備えてもよい。
According to a second aspect of the present invention, there is provided an image processing method for recognizing an image pattern from an image, comprising the steps of: inputting a first image; storing a predetermined image pattern condition; Detecting a site of interest that satisfies the image pattern condition from one image, and extracting a region including the site of interest to generate a second image;
The method may include generating related information indicating a correspondence between the second image and the first image, and recording the second image together with the related information.

【0013】本発明の第3の形態においては、画像から
画像パターンを認識するプログラムを記録したコンピュ
ータ読み取り可能な記録媒体であって、前記プログラム
が、前記コンピュータに働きかけて、第一の画像を入力
する手順と、前記コンピュータに働きかけて、所定の画
像パターン条件を記憶する手順と、前記コンピュータに
働きかけて、前記第一の画像から前記画像パターン条件
を満たした注目部位を検出する手順と、前記コンピュー
タに働きかけて、前記注目部位が含まれる領域を抽出し
て第二の画像を生成する手順と、前記第二の画像と前記
第一の画像との対応関係を示す関連情報を生成する手順
と、前記コンピュータに働きかけて、前記第二の画像を
前記関連情報とともに記録する手順とを備えてもよい。
According to a third aspect of the present invention, there is provided a computer-readable recording medium storing a program for recognizing an image pattern from an image, wherein the program operates on the computer to input a first image. A step of operating the computer to store a predetermined image pattern condition; a step of operating the computer to detect, from the first image, a site of interest that satisfies the image pattern condition; and A procedure for generating a second image by extracting an area including the region of interest, and a procedure for generating related information indicating a correspondence between the second image and the first image, Operating the computer to record the second image together with the related information.

【0014】なお上記の発明の概要は、本発明の必要な
特徴の全てを列挙したものではなく、これらの特徴群の
サブコンビネーションもまた発明となりうる。
The above summary of the present invention does not list all of the necessary features of the present invention, and a sub-combination of these features may also be an invention.

【0015】[0015]

【発明の実施の形態】以下、発明の実施の形態を通じて
本発明を説明するが、以下の実施形態は特許請求の範囲
に係る発明を限定するものではなく、また実施形態の中
で説明されている特徴の組み合わせの全てが発明の解決
手段に必須であるとは限らない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described through embodiments of the present invention. However, the following embodiments do not limit the invention according to the claims and are described in the embodiments. Not all combinations of features are essential to the solution of the invention.

【0016】以下、本発明を工事現場の写真画像の処理
に用いた実施形態を説明する。本実施形態においては、
全体写真(主画像)から出来高を証明するために必要な
部分を自動的に抽出し、これを拡大して部分拡大写真
(副画像)を生成する。そして、主画像と副画像との対
応関係を示す関連情報を生成する。工事写真において、
出来高を証明するための必要な部分としては、例えば物
の高さや距離の測定値を表示する定規の部分、又は工事
の内容を文字で表示する黒板の部分等が考えられる。な
お、以下に用いる「主画像」は、特許請求の範囲におけ
る「第一の画像」を示す。また、以下に用いる「副画
像」は、特許請求の範囲における「第二の画像」を示
す。
An embodiment in which the present invention is used for processing a photographic image of a construction site will be described below. In the present embodiment,
A part necessary for proving the volume is automatically extracted from the entire photograph (main image), and is enlarged to generate a partially enlarged photograph (sub image). Then, related information indicating the correspondence between the main image and the sub image is generated. In the construction photos,
The necessary part for proving the work volume may be, for example, a ruler part for displaying the measured value of the height or distance of an object, or a blackboard part for displaying the contents of the construction in text. The “main image” used below indicates the “first image” in the claims. The “sub-image” used below refers to the “second image” in the claims.

【0017】まず、本発明の第1実施形態を説明する。
図1は、画像処理装置の一例としての、写真画像の現像
や編集等をするラボシステムの構成図である。この画像
処理装置は、入力部10と処理部20と領域指定部21
と記録部40と出力部50とを備える。
First, a first embodiment of the present invention will be described.
FIG. 1 is a configuration diagram of a laboratory system that develops and edits a photographic image, as an example of an image processing apparatus. This image processing apparatus includes an input unit 10, a processing unit 20, and an area designating unit 21.
And a recording unit 40 and an output unit 50.

【0018】入力部10は、画像処理装置に主画像を入
力する。銀塩カメラで撮影された画像を画像処理装置に
入力する場合、入力部10には、ネガフイルムやポジフ
イルム等の写真フイルム上の画像を光学的に走査して電
気信号に変換するフイルムスキャナが用いられる。デジ
タルカメラで撮影されたデジタル画像を画像処理装置に
入力する場合、入力部10には、入力するデジタル画像
を格納した記録媒体に応じた各種読取装置が用いられ
る。例えば、入力部10には、不揮発性の半導体メモリ
カード等の着脱自在な記録媒体から画像データを読み取
るための読取装置等が用いられる。また、フロッピーデ
ィスク、MO、CD−ROM等から画像データを読み取
る場合は、入力部10としてそれぞれフロッピードライ
ブ、MOドライブ、CDドライブ等が用いられる。
The input unit 10 inputs a main image to the image processing device. When an image captured by a silver halide camera is input to an image processing apparatus, the input unit 10 includes a film scanner that optically scans an image on a photographic film such as a negative film or a positive film and converts the image into an electric signal. Used. When a digital image captured by a digital camera is input to an image processing apparatus, the input unit 10 includes various reading devices corresponding to a recording medium storing the input digital image. For example, a reading device or the like for reading image data from a removable recording medium such as a nonvolatile semiconductor memory card is used for the input unit 10. When image data is read from a floppy disk, MO, CD-ROM, or the like, a floppy drive, MO drive, CD drive, or the like is used as the input unit 10, respectively.

【0019】処理部20は、入力部10から受け取った
主画像から、所定の画像パターンを有する注目部位を検
出する。ここで注目部位とは、主画像の中に写る各被写
体のうち、副画像として抽出しようとする被写体を示
す。本実施形態においては、工事写真から抽出しようと
する定規や黒板が注目部位である。処理部20は、注目
部位が含まれる領域を抽出し、さらに拡大して副画像を
生成する。また、処理部20は、副画像から文字情報を
検出し、さらに、主画像、副画像、位置情報、及び文字
情報の対応関係を示す関連情報を生成する。
The processing section 20 detects a site of interest having a predetermined image pattern from the main image received from the input section 10. Here, the region of interest refers to a subject to be extracted as a sub-image among the subjects appearing in the main image. In the present embodiment, a ruler or a blackboard to be extracted from the construction photograph is the site of interest. The processing unit 20 extracts a region including the region of interest and further enlarges it to generate a sub-image. Further, the processing unit 20 detects character information from the sub-image, and further generates related information indicating a correspondence relationship between the main image, the sub-image, the position information, and the character information.

【0020】領域指定部21は、主画像における所望の
領域を指定する。ラボシステムの操作者が領域指定部2
1を介して領域を指定した場合、処理部20は、指定さ
れた領域の位置情報を生成し、この位置情報に基づいて
副画像を生成してもよい。領域指定部21は、例えば、
マウス等のポインティングデバイスであってもよい。
The area designating section 21 designates a desired area in the main image. The operator of the laboratory system specifies the area 2
When an area is designated through the processing unit 1, the processing unit 20 may generate position information of the specified area and generate a sub-image based on the position information. For example, the area designation unit 21
It may be a pointing device such as a mouse.

【0021】記録部40は、処理部20から受け取った
主画像、副画像、位置情報、文字情報、及び関連情報を
着脱自在な記録媒体に記録する。記録媒体としては、書
き込み可能なCD、DVD等の光記録媒体や、MO等の
光磁気記録媒体、フロッピーディスク等の磁気記録媒体
等が考えられる。記録部40としては、CD−Rドライ
ブ、DVDドライブ、MOドライブ、フロッピードライ
ブ等が用いられる。なお、記録部40は、半導体メモリ
等の記憶装置に主画像及び副画像を記録してもよい。ま
た、記録部40は、フイルム面に磁気記録層を備えたA
PS(AdvancedPhoto System)フイルムの磁気記録層に
関連情報等を磁気的に記録してもよい。この場合、記録
部40にフイルム装填部を設けてもよい。
The recording section 40 records the main image, sub-image, position information, character information, and related information received from the processing section 20 on a removable recording medium. Examples of the recording medium include a writable optical recording medium such as a CD and a DVD, a magneto-optical recording medium such as an MO, and a magnetic recording medium such as a floppy disk. As the recording unit 40, a CD-R drive, DVD drive, MO drive, floppy drive, or the like is used. Note that the recording unit 40 may record the main image and the sub image in a storage device such as a semiconductor memory. Further, the recording unit 40 has a magnetic recording layer provided on the film surface.
Related information or the like may be magnetically recorded on a magnetic recording layer of a PS (Advanced Photo System) film. In this case, the recording unit 40 may be provided with a film loading unit.

【0022】出力部50は、処理部20から受け取った
主画像及び副画像を出力する。例えば画像を画面表示す
る場合、出力部50には画像を表示するモニタが用いら
れる。また例えば画像を印刷する場合、出力部50には
デジタルプリンタやレーザプリンタ等のプリンタが用い
られる。
The output unit 50 outputs the main image and the sub image received from the processing unit 20. For example, when displaying an image on a screen, a monitor that displays the image is used as the output unit 50. For example, when printing an image, a printer such as a digital printer or a laser printer is used for the output unit 50.

【0023】図2は、処理部20の機能ブロック図であ
る。処理部20は、検出部22と生成部24と文字検出
部25と関連情報生成部27とパターン記憶部28と文
字パターン記憶部29とを有する。検出部22は、入力
部10より受け取った主画像から、パターン記憶部28
より受け取る所定の画像パターン条件を満たした注目部
位を検出する。パターン記憶部28は、所定の画像パタ
ーン条件を記憶する。本実施形態においては、画像パタ
ーン条件として、定規や黒板の画像パターンの特徴を定
める条件をパターン記憶部28に記憶させておく。
FIG. 2 is a functional block diagram of the processing unit 20. The processing unit 20 includes a detection unit 22, a generation unit 24, a character detection unit 25, a related information generation unit 27, a pattern storage unit 28, and a character pattern storage unit 29. The detection unit 22 converts the main image received from the input unit 10 into a pattern storage unit 28
Then, a portion of interest that satisfies a predetermined image pattern condition received from the device is detected. The pattern storage unit 28 stores a predetermined image pattern condition. In the present embodiment, as the image pattern condition, a condition that determines the characteristics of the ruler or the image pattern of the blackboard is stored in the pattern storage unit 28.

【0024】なお、パターン記憶部28に記憶させる画
像パターン条件は、所定の設定手段により設定し又は変
更することができる。また、パターン記憶部28に記憶
させる画像パターン条件を、データを送受信する所定の
通信手段によって設定し又は変更してもよい。
The image pattern conditions stored in the pattern storage section 28 can be set or changed by a predetermined setting means. The image pattern condition stored in the pattern storage unit 28 may be set or changed by a predetermined communication unit that transmits and receives data.

【0025】生成部24は、主画像から注目部位が含ま
れる領域を抽出する。ここで生成部24は、注目部位が
所定の割合の大きさで含まれる領域を抽出してもよい。
例えば、主画像から定規が含まれた領域を抽出する場
合、定規の目盛りが読み易い程度の大きさの割合で生成
部24に領域を抽出させてもよい。また例えば、主画像
から黒板が含まれた領域を抽出する場合、黒板以外の背
景はさほど必要でないので、黒板が9割程度の大きさで
含まれる領域を生成部24に抽出させてもよい。
The generation unit 24 extracts a region including the target part from the main image. Here, the generation unit 24 may extract a region in which the region of interest is included at a predetermined ratio in size.
For example, when extracting a region including a ruler from the main image, the generation unit 24 may cause the generation unit 24 to extract the region at a ratio such that the scale of the ruler is easy to read. Further, for example, when extracting a region including a blackboard from the main image, the background other than the blackboard is not so necessary, and therefore, the generation unit 24 may extract a region including the blackboard with a size of about 90%.

【0026】このように、本実施形態においては、所定
の画像パターン条件をパターン記憶部28に記憶させて
おき、検出部22が画像パターン条件を満たす注目部位
を検出し、生成部24が注目部位を含む領域を抽出す
る。したがって、例えば工事写真の場合、工事現場の全
体写真とは別に定規や黒板の写真を撮らなくとも、全体
写真からその一部として定規や黒板を自動的に検出し抽
出することができる。
As described above, in the present embodiment, predetermined image pattern conditions are stored in the pattern storage unit 28, the detection unit 22 detects a target region satisfying the image pattern conditions, and the generation unit 24 detects the target region. Is extracted. Therefore, for example, in the case of a construction photograph, a ruler or a blackboard can be automatically detected and extracted as a part of the entire photograph without taking a photograph of a ruler or a blackboard separately from the entire photograph of the construction site.

【0027】生成部24は、主画像における副画像の位
置情報を生成する。即ち、生成部24は、注目部位が含
まれる領域の位置情報を抽出する。また、ラボシステム
の操作者が領域指定部21を介して領域を指定した場
合、生成部24は、指定された領域の位置情報を生成し
てもよい。この場合、生成部24は、位置情報に基づい
て副画像を生成してもよい。位置情報としては、例えば
注目部位が含まれる矩形領域の主画像における位置を示
す座標が考えられる。生成部24により抽出された位置
情報は、記録部40により主画像及び副画像とともに記
録媒体に記録される。
The generating section 24 generates position information of the sub-image in the main image. That is, the generation unit 24 extracts the position information of the area including the target part. When the operator of the lab system specifies an area via the area specifying unit 21, the generating unit 24 may generate position information of the specified area. In this case, the generation unit 24 may generate the sub-image based on the position information. As the position information, for example, coordinates indicating the position in the main image of a rectangular area including the target part can be considered. The position information extracted by the generation unit 24 is recorded on a recording medium by the recording unit 40 together with the main image and the sub image.

【0028】生成部24により抽出された位置情報は、
出力部50によりモニタ画面に表示させてもよい。例え
ば、出力部50が主画像と副画像とを画面に表示すると
きに、出力部50は副画像の主画像における位置情報と
して座標の数値をさらにモニタ画面に表示する。また例
えば、出力部50は、副画像の主画像における位置情報
に基づいて、副画像として抽出された矩形領域を主画像
の中に破線表示させてもよい。
The position information extracted by the generation unit 24 is as follows:
The data may be displayed on the monitor screen by the output unit 50. For example, when the output unit 50 displays the main image and the sub-image on the screen, the output unit 50 further displays a numerical value of coordinates as position information of the sub-image in the main image on the monitor screen. Further, for example, the output unit 50 may display a rectangular area extracted as a sub-image in the main image based on the position information of the sub-image in the main image, as a broken line.

【0029】このように、生成部24が注目部位を含む
領域の位置情報を抽出し、記録部40が位置情報を記録
媒体に記録するので、この記録媒体に納められた画像を
閲覧する者は、副画像が主画像のどの部分を抽出したも
のであるかを確認することができる。また、出力部50
が位置情報をモニタ画面に出力するので、ラボシステム
の操作者は、副画像が主画像のどの部分を抽出したもの
であるかをモニタ画面上で確認することができる。
As described above, the generation unit 24 extracts the position information of the area including the target part, and the recording unit 40 records the position information on the recording medium. It is possible to confirm which part of the main image the sub-image is extracted from. The output unit 50
Outputs the position information to the monitor screen, so that the operator of the lab system can confirm on the monitor screen which part of the main image is extracted by the sub-image.

【0030】生成部24は、注目部位が含まれる領域を
拡大して副画像を生成する。注目部位が含まれる領域を
拡大する場合、定規の目盛りや黒板に書かれた文字を読
み易くするため、生成部24に副画像のシャープネス、
コントラスト、明るさ、カラーバランス等を補正させて
もよい。
The generation unit 24 generates a sub-image by enlarging the area including the target site. When enlarging the area including the region of interest, in order to make it easier to read the scales of the ruler and the characters written on the blackboard, the sharpness of the sub-image,
Contrast, brightness, color balance, etc. may be corrected.

【0031】このように、生成部24は注目部位が含ま
れる領域を拡大して副画像を生成するので、例えば工事
写真の場合、工事現場の全体写真から定規や黒板の部分
拡大写真を自動的に生成することができる。
As described above, since the generating unit 24 generates the sub-image by enlarging the area including the target portion, for example, in the case of a construction photograph, a partially enlarged photograph of a ruler or a blackboard is automatically obtained from the entire photograph of the construction site. Can be generated.

【0032】生成部24は、主画像及び副画像のそれぞ
れに対しファイル名を与えて各画像のデータファイルを
生成する。生成部24は、主画像及び副画像のそれぞれ
に対し、主画像と副画像とが互いに関連することを示し
たファイル名を与えてもよい。
The generating unit 24 gives a file name to each of the main image and the sub image, and generates a data file of each image. The generation unit 24 may give a file name indicating that the main image and the sub image are related to each other for each of the main image and the sub image.

【0033】文字検出部25は、生成部24が生成した
副画像から文字情報を検出する。例えば、副画像が黒板
の画像を含む場合、文字検出部25は、黒板に表示され
た文字の画像を認識し、その文字を示す文字コードが含
まれる文字情報を生成する。文字情報は記録部40によ
り記録媒体に記録される。文字パターン記憶部29は、
各文字の画像パターンと、各文字の画像パターンに対応
する文字コードとを記憶する。
The character detecting section 25 detects character information from the sub-image generated by the generating section 24. For example, when the sub-image includes a blackboard image, the character detection unit 25 recognizes a character image displayed on the blackboard and generates character information including a character code indicating the character. The character information is recorded on the recording medium by the recording unit 40. The character pattern storage unit 29
An image pattern of each character and a character code corresponding to the image pattern of each character are stored.

【0034】通常、黒板には工事名、工種、撮影月日、
位置、設計寸法、実測寸法、立会監督員、及び略図が表
示されている。このように記載項目が予め定められてい
るので、書かれる内容は記載項目によってある程度推測
できる。そこで、記載される可能性の高い文字列の画像
パターンと、該画像パターンに対応する文字コードとを
文字パターン記憶部29に記憶させておいてもよい。
Normally, the construction name, construction type, shooting date,
The position, design dimensions, measured dimensions, attending supervisor, and schematic are displayed. Since the items to be described are determined in advance as described above, the contents to be written can be estimated to some extent by the items to be described. Therefore, an image pattern of a character string that is likely to be described and a character code corresponding to the image pattern may be stored in the character pattern storage unit 29.

【0035】このように、文字検出部25が副画像から
文字情報を検出し、文字情報を記録部40が記録媒体に
記録するので、主画像及び副画像の閲覧者は、これらの
画像が撮影された状況に関する情報を容易に得ることが
できる。例えば、工事写真の場合、工事名や場所等の工
事の状況に関する情報を自動的に記録媒体へ記録される
ので、主画像及び副画像の閲覧者は工事に関する情報を
容易に得ることができる。さらに、文字パターン記憶部
29に、文字検出部25が検出する可能性の高い文字列
の画像パターンと文字コードとを記憶させておくことに
より、文字検出部25の文字認識率を高めることができ
る。
As described above, the character detecting section 25 detects the character information from the sub-image, and the recording section 40 records the character information on the recording medium, so that the viewer of the main image and the sub-image can capture these images. It is possible to easily obtain information on the situation. For example, in the case of a construction photograph, information on the construction status such as the construction name and location is automatically recorded on the recording medium, so that a viewer of the main image and the sub-image can easily obtain information on the construction. Further, by storing the character pattern image pattern and the character code that are likely to be detected by the character detection unit 25 in the character pattern storage unit 29, the character recognition rate of the character detection unit 25 can be increased. .

【0036】関連情報生成部27は、注目部位が含まれ
る領域を抽出した副画像と主画像との対応関係を示す関
連情報を生成する。例えば関連情報生成部27は、関連
情報を所定のデータファイルに納めて生成してもよい。
また例えば関連情報生成部27は、関連情報を主画像及
び副画像のうちいずれか一方又は双方の画像データ中に
含めさせてもよい。
The related information generating section 27 generates related information indicating the correspondence between the main image and the sub-image from which the region including the target part is extracted. For example, the related information generation unit 27 may generate the related information by storing the related information in a predetermined data file.
Further, for example, the related information generating unit 27 may cause the related information to be included in one or both of the main image and the sub image.

【0037】関連情報生成部27は、主画像のファイル
名と副画像のファイル名との対応関係に基づいて関連情
報を生成してもよい。また、関連情報生成部27は、検
出部22が主画像から注目部位を検出しなかったことを
示す情報を含む関連情報を生成してもよい。さらに、関
連情報生成部27は、位置情報と、主画像及び副画像の
いずれか一方又は双方との対応関係に基づいて関連情報
を生成してもよい。またさらに、関連情報生成部27
は、文字情報と、主画像及び副画像のうちいずれか一方
又は双方との対応関係に基づいて関連情報を生成しても
よく、また文字情報と関連情報との対応関係を示す情報
(文字関連情報)を生成してもよい。
The related information generating section 27 may generate related information based on the correspondence between the file name of the main image and the file name of the sub image. Further, the related information generating unit 27 may generate related information including information indicating that the detection unit 22 has not detected the target part from the main image. Further, the related information generation unit 27 may generate the related information based on the correspondence between the position information and one or both of the main image and the sub image. Further, the related information generation unit 27
May generate related information based on the correspondence between the character information and one or both of the main image and the sub-image, and may also include information indicating the correspondence between the character information and the related information (character-related information). Information).

【0038】このように、関連情報生成部27が、主画
像と副画像との対応関係を示す関連情報を生成するの
で、主画像及び副画像の閲覧者は、主画像と副画像との
対応関係を容易に把握することができる。また、主画
像、副画像等が記録された記録媒体において、位置情報
又は文字情報に基づいて容易に所望の画像を検索するこ
とができる。
As described above, since the related information generating section 27 generates the related information indicating the correspondence between the main image and the sub image, the viewer of the main image and the sub image can check the correspondence between the main image and the sub image. The relationship can be easily grasped. Further, it is possible to easily search for a desired image on the recording medium on which the main image, the sub-image, and the like are recorded, based on the position information or the character information.

【0039】図3は、本実施形態における主画像、副画
像、位置情報、文字情報、及び関連情報の対応関係を示
す。主画像としては、主画像001〜003が入力部1
0により入力される。副画像としては、副画像001〜
005が生成部24により生成される。位置情報として
は、位置情報001〜005が生成部24により生成さ
れる。文字情報としては、文字情報001及び002が
文字検出部25により生成される。関連情報としては、
関連情報001〜003が関連情報生成部27により生
成される。本実施形態の関連情報は、関連情報生成部2
7により所定のデータファイルに納められて生成され
る。
FIG. 3 shows the correspondence between the main image, the sub image, the position information, the character information, and the related information in the present embodiment. As main images, main images 001 to 003 are input unit 1
Input by 0. As sub-images, sub-images 001 to
005 is generated by the generation unit 24. The position information 001 to 005 are generated by the generation unit 24 as the position information. As character information, character information 001 and 002 are generated by the character detection unit 25. As related information,
The related information 001 to 003 are generated by the related information generating unit 27. The related information of the present embodiment is a related information generation unit 2
7 and stored in a predetermined data file.

【0040】副画像001及び002は主画像001か
ら抽出されるので、関連情報001には、主画像00
1、副画像001及び002を示す情報と位置情報00
1及び002とが含められる。副画像003〜005は
主画像002から抽出されるので、関連情報002に
は、主画像002、副画像003〜005を示す情報と
位置情報003〜005とが含められる。主画像003
からは副画像が抽出されないので、関連情報003には
主画像003を示す情報だけが含められる。
Since the sub-images 001 and 002 are extracted from the main image 001, the related information 001 contains the main image 00
1, information indicating sub-images 001 and 002 and position information 00
1 and 002 are included. Since the sub-images 003 to 005 are extracted from the main image 002, the related information 002 includes information indicating the main image 002 and the sub-images 003 to 005 and position information 003 to 005. Main image 003
Since the sub-image is not extracted from, only the information indicating the main image 003 is included in the related information 003.

【0041】文字情報001は副画像002から抽出さ
れるので、関連情報001には文字情報001を示す情
報が含められる。同様に、文字情報002は副画像00
4から抽出されるので、関連情報002には文字情報0
02を示す情報が含められる。関連情報001〜003
に含められる各画像を示す情報としては、例えば、各画
像が持つ固有の識別番号が考えられる。
Since the character information 001 is extracted from the sub-image 002, the related information 001 includes information indicating the character information 001. Similarly, the character information 002 is the sub-image 00
4, the related information 002 includes character information 0
02 is included. Related information 001 to 003
The information indicating each image included in the image may be, for example, a unique identification number of each image.

【0042】このように、本実施形態においては、関連
情報生成部27が、主画像、副画像等の対応関係を示す
関連情報を生成するので、主画像及び副画像の閲覧者
は、主画像と副画像との対応関係を容易に把握すること
ができる。また、主画像、副画像等が記録された記録媒
体において、位置情報又は文字情報に基づいて容易に所
望の画像を検索することができる。
As described above, in the present embodiment, since the related information generating unit 27 generates the related information indicating the correspondence between the main image and the sub image, the viewer of the main image and the sub image can read the main image and the sub image. And the sub-image can be easily grasped. Further, it is possible to easily search for a desired image on the recording medium on which the main image, the sub-image, and the like are recorded, based on the position information or the character information.

【0043】次に、第2実施形態を説明する。図4は、
本実施形態における主画像、副画像、位置情報、文字情
報、及び関連情報の対応関係を示す。本実施形態におけ
る主画像、副画像等の対応関係は、第1実施形態におけ
る主画像、副画像等の対応関係と同様である。ただし、
本実施形態の関連情報に含められる主画像、副画像等の
対応関係は、それぞれのファイル名に基づいて示される
点で第1実施形態と異なる。
Next, a second embodiment will be described. FIG.
4 shows a correspondence relationship between a main image, a sub image, position information, character information, and related information in the present embodiment. The correspondence between the main image and the sub-image in the present embodiment is the same as the correspondence between the main image and the sub-image in the first embodiment. However,
The correspondence between the main image and the sub-image included in the related information of the present embodiment is different from that of the first embodiment in that it is indicated based on the respective file names.

【0044】主画像001〜003はそれぞれファイル
名としてmain001.jpg〜main003.j
pgが与えられている。副画像001〜005はそれぞ
れファイル名としてsub001.jpg〜sub00
5.jpgが与えられている。位置情報001〜005
はそれぞれファイル名としてlocate001.tx
t〜locate005.txtが与えられている。文
字情報001及び002はそれぞれファイル名としてc
har001.txt、char002.txtが与え
られている。関連情報001〜003はそれぞれファイ
ル名としてinfo001.txt〜info003.
txtが与えられている。
Each of the main images 001 to 003 has a file name of main001. jpg to main003. j
pg are given. The sub-images 001 to 005 each have a file name of sub001.sub. jpg to sub00
5. jpg is given. Location information 001-005
Are used as the file names “locate001. tx
t-locate005. txt is given. Character information 001 and 002 are respectively c
har001. txt, char002. txt is given. The related information 001 to 003 are respectively named as info001. txt to info003.
txt is given.

【0045】関連情報001には、ファイル名main
001.jpg、sub001.jpg、sub00
2.jpg、locate001.txt、locat
e002.txt、char001.txtの文字が含
められる。関連情報002には、ファイル名main0
02.jpg、sub003.jpg〜sub005、
locate003.txt〜locate005.t
xt、char002.txtの文字が含められる。関
連情報003には、ファイル名main003.jpg
の文字が含められる。
The related information 001 includes a file name “main”.
001. jpg, sub001. jpg, sub00
2. jpg, locate001. txt, locat
e002. txt, char001. txt characters are included. The related information 002 includes the file name main0
02. jpg, sub003. jpg to sub005,
locate003. txt to locate005. t
xt, char002. txt characters are included. The related information 003 includes the file name main003. jpg
Characters are included.

【0046】このように、本実施形態においては、関連
情報生成部27が、主画像、副画像等の対応関係を示す
関連情報をファイル名に基づいて生成するので、主画像
及び副画像の閲覧者は、主画像と副画像との対応関係を
容易に把握することができる。また、主画像、副画像等
が記録された記録媒体において、ファイル名に基づいて
容易に所望の画像を検索することができる。
As described above, in the present embodiment, the related information generating unit 27 generates the related information indicating the correspondence between the main image and the sub-image based on the file name. The user can easily grasp the correspondence between the main image and the sub-image. Further, it is possible to easily search for a desired image based on a file name in a recording medium on which a main image, a sub image, and the like are recorded.

【0047】次に、第3実施形態を説明する。図5は、
本実施形態における主画像、副画像、文字情報及び関連
情報の対応関係を示す。主画像としては、主画像001
〜003が入力部10により入力される。副画像として
は、副画像001〜005が生成部24により生成され
る。文字情報としては、文字情報001、002が文字
検出部25により生成される。
Next, a third embodiment will be described. FIG.
4 shows a correspondence relationship between a main image, a sub image, character information, and related information in the present embodiment. As the main image, the main image 001
To 003 are input by the input unit 10. The sub-images 001 to 005 are generated by the generation unit 24 as the sub-images. As character information, character information 001 and 002 are generated by the character detection unit 25.

【0048】本実施形態においては、関連情報生成部2
7が関連情報を所定のデータファイルに納めて生成する
のではなく、関連情報生成部27が関連情報を主画像及
び副画像のうちいずれか一方又は双方のデータに含めさ
せる。例えば、画像のデータ内にヘッダ領域を設け、対
応する画像を示す情報をヘッダ領域内に含めさせてもよ
い。
In this embodiment, the related information generation unit 2
The related information generation unit 27 causes the related information to be included in the data of one or both of the main image and the sub-image, instead of generating the related information in a predetermined data file. For example, a header area may be provided in image data, and information indicating a corresponding image may be included in the header area.

【0049】副画像001及び002は主画像001か
ら抽出されるので、主画像001には、副画像001及
び002を示す情報が含められる。また、副画像001
及び002にはそれぞれ主画像001を示す情報が含め
られる。副画像003〜005は主画像002から抽出
されるので、主画像002には、副画像003〜005
を示す情報が含められる。また、副画像003〜005
にはそれぞれ主画像002を示す情報が含められる。主
画像003からは副画像が抽出されないので、主画像0
03には副画像を示す情報は含められない。ただし、主
画像003から副画像が抽出されなかったことを示す方
法として、例えば主画像003に主画像003自身を示
す情報を含めてもよい。
Since the sub images 001 and 002 are extracted from the main image 001, the main image 001 includes information indicating the sub images 001 and 002. Also, the sub image 001
And 002 include information indicating the main image 001, respectively. Since the sub-images 003 to 005 are extracted from the main image 002, the main image 002 includes the sub-images 003 to 005.
Is included. Also, the sub-images 003 to 005
Includes information indicating the main image 002. Since no sub-image is extracted from the main image 003, the main image 003
03 does not include information indicating a sub-image. However, as a method of indicating that the sub-image has not been extracted from the main image 003, for example, information indicating the main image 003 itself may be included in the main image 003.

【0050】副画像002からは文字情報001が抽出
されるので、文字情報001には副画像002を示す情
報が含められ、主画像001には文字情報001を示す
情報が含められる。副画像004からは文字情報002
が抽出されるので、文字情報002には副画像004を
示す情報が含められ、主画像002には文字情報002
を示す情報が含められる。
Since the character information 001 is extracted from the sub-image 002, the character information 001 includes information indicating the sub-image 002, and the main image 001 includes information indicating the character information 001. Character information 002 from sub-image 004
Is extracted, the character information 002 includes information indicating the sub-image 004, and the main image 002 includes the character information 002.
Is included.

【0051】次に、第4実施形態を説明する。図6は、
本実施形態の主画像、副画像、文字情報、関連情報、及
び文字関連情報との対応関係を示す。本実施形態におい
ては、関連情報生成部27が文字情報と関連情報との対
応関係を示す情報(文字関連情報)を所定のデータファ
イルとして生成する。
Next, a fourth embodiment will be described. FIG.
4 shows a correspondence relationship between a main image, a sub image, character information, related information, and character related information according to the present embodiment. In the present embodiment, the related information generating unit 27 generates information (character related information) indicating the correspondence between character information and related information as a predetermined data file.

【0052】主画像としては、主画像001〜003が
入力部10により入力される。副画像としては、副画像
001〜005が生成部24により生成される。文字情
報としては、文字情報001及び002が文字検出部2
5により生成される。関連情報としては、関連情報00
1〜003が関連情報生成部27により生成される。文
字関連情報としては、文字関連情報001〜003が文
字検出部25により生成される。
As the main images, main images 001 to 003 are input by the input unit 10. The sub-images 001 to 005 are generated by the generation unit 24 as the sub-images. The character information 001 and 002 are the character information
5 generated. As related information, related information 00
1 to 003 are generated by the related information generation unit 27. As the character-related information, the character detection unit 25 generates character-related information 001 to 003.

【0053】副画像001及び002は主画像001か
ら抽出されるので、関連情報001には、主画像001
と副画像001及び002とを示す情報が含められる。
副画像003〜005は主画像002から抽出されるの
で、関連情報002には、主画像002と副画像003
〜005とを示す情報が含められる。主画像003から
は副画像が抽出されないので、関連情報003には主画
像003を示す情報だけが含められる。
Since the sub-images 001 and 002 are extracted from the main image 001, the related information 001 includes the main image 001.
And information indicating the sub-images 001 and 002.
Since the sub images 003 to 005 are extracted from the main image 002, the related information 002 includes the main image 002 and the sub image 003.
To 005 are included. Since no sub-image is extracted from the main image 003, the related information 003 includes only information indicating the main image 003.

【0054】文字情報001は副画像002から抽出さ
れ、また副画像002の対応関係は関連情報001に納
められるので、文字関連情報001には関連情報001
と文字情報001とを示す情報が含められる。文字情報
002は副画像004から抽出され、また副画像002
の対応関係は関連情報002に納められるので、文字関
連情報002には関連情報002と文字情報002とを
示す情報が含められる。主画像003からは副画像が抽
出されず、文字情報も検出されないので、文字関連情報
003には関連情報003を示す情報だけが含められ
る。
Since the character information 001 is extracted from the sub-image 002, and the correspondence between the sub-images 002 is stored in the related information 001, the related information 001 is included in the character related information 001.
And character information 001 are included. The character information 002 is extracted from the sub-image 004.
Are stored in the related information 002, and the character related information 002 includes information indicating the related information 002 and the character information 002. Since no sub-image is extracted from the main image 003 and no character information is detected, the character-related information 003 includes only information indicating the related information 003.

【0055】図7は、定規80の画像パターンを示す図
である。第1〜第4実施形態における画像パターンの一
つは、長さを表示する定規80の画像である。パターン
記憶部28には、撮影する定規80の画像パターンの特
徴を定める画像パターン条件を記憶させておく。例え
ば、複数の異なる色相で配色された定規80を撮影する
場合、パターン記憶部28には、長尺状の四角形の形
状、及び複数の異なる色相を有するという特徴を定規8
0の画像パターン条件として記憶させておいてもよい。
FIG. 7 is a diagram showing an image pattern of the ruler 80. One of the image patterns in the first to fourth embodiments is an image of the ruler 80 for displaying the length. The pattern storage unit 28 stores image pattern conditions for defining the characteristics of the image pattern of the ruler 80 to be photographed. For example, when photographing the ruler 80 arranged in a plurality of different hues, the pattern storage unit 28 has a ruler 8 that has a long rectangular shape and a plurality of different hues.
It may be stored as an image pattern condition of 0.

【0056】本実施形態の場合、定規80の第一色部8
1と第三色部83とには青色を配し、また第二色部82
には赤色を配している。この場合、まず検出部22が主
画像から長尺状の四角形の形状を有する被写体を検出す
る。そして、長尺状の被写体が青色と赤色との配色を有
するかを検出部22が検出する。被写体が青色と赤色と
の配色を有していた場合、その被写体は画像パターン条
件を満たした定規であると判断される。このように、パ
ターン記憶部28に記憶させた画像パターン条件が、複
数の異なる色相を交互に配色した定規80の特徴を定め
ているので、検出部22により注目部位を容易に検出す
ることができる。
In the case of this embodiment, the first color portion 8 of the ruler 80
The first and third color portions 83 are arranged in blue, and the second color portion 82
Has a red color. In this case, first, the detection unit 22 detects a subject having a long rectangular shape from the main image. Then, the detection unit 22 detects whether the long subject has the color scheme of blue and red. If the subject has a color scheme of blue and red, it is determined that the subject is a ruler that satisfies the image pattern condition. As described above, since the image pattern conditions stored in the pattern storage unit 28 determine the characteristics of the ruler 80 in which a plurality of different hues are alternately arranged, the detection unit 22 can easily detect the target region. .

【0057】なお、工事写真において撮影される定規
は、物の高さ等を測るために縦に支えられて撮影される
場合と、物の幅等を測るために横向きに倒されて撮影さ
れる場合とがある。これらいずれの場合であっても検出
部22が定規80を検出できるよう、パターン記憶部2
8には定規80の特徴として縦長の形状と横長の形状と
の双方の条件を記憶させてもよい。
The ruler photographed in the construction photograph is photographed while being supported vertically to measure the height of the object, or is tilted horizontally to measure the width of the object. There are cases. In any of these cases, the pattern storage unit 2 is configured so that the detection unit 22 can detect the ruler 80.
8 may store the conditions of both the vertically long shape and the horizontally long shape as the characteristics of the ruler 80.

【0058】例えば、画像パターンの内側部分の明度と
異なる明度を持つ輪郭線、及び所定の位置に突形部分を
含む輪郭線を有するという特徴を定規80の画像パター
ン条件として記憶させておいてもよい。本実施形態の場
合、定規80の内側部分に白色を配し、定規の輪郭線8
4に黒色を配している。また、輪郭線84は、内側方向
へ突出する所定間隔の目盛り線を含む。さらに、輪郭線
84及び目盛り線は太線で形成される。パターン記憶部
28に記憶させた画像パターン条件が、内側部分の明度
と異なる明度を持つ輪郭線84や、目盛り線を含む輪郭
線84を有する定規80の特徴を定めているので、検出
部22により注目部位を容易に検出することができる。
For example, the feature of having a contour line having a brightness different from the brightness of the inner portion of the image pattern and a contour line including a protruding portion at a predetermined position may be stored as the image pattern condition of the ruler 80. Good. In the case of the present embodiment, white is arranged inside the ruler 80, and the ruler contour line 8
4 is colored black. In addition, the outline 84 includes graduation lines at predetermined intervals protruding inward. Further, the outline 84 and the scale line are formed by thick lines. Since the image pattern conditions stored in the pattern storage unit 28 define the characteristics of the outline 84 having a brightness different from the brightness of the inner part and the ruler 80 having the outline 84 including the scale line, the detection unit 22 The attention site can be easily detected.

【0059】図8は、黒板90の画像パターンを示す図
である。第1〜第4実施形態における画像パターンの一
つは、書かれた文字を表示する黒板90の画像である。
パターン記憶部28には、撮影する黒板90の画像パタ
ーンの特徴を定める画像パターン条件を記憶させておい
てもよい。例えば、長方形の輪郭形状、画像パターンの
内側部分の色相と異なる色相を有する輪郭線、及び所定
の位置に突形部分を有する輪郭線を有するという特徴を
黒板90の画像パターン条件として記憶させておいても
よい。
FIG. 8 is a diagram showing an image pattern of the blackboard 90. One of the image patterns in the first to fourth embodiments is an image of the blackboard 90 that displays written characters.
The pattern storage unit 28 may store image pattern conditions that determine the characteristics of the image pattern of the blackboard 90 to be photographed. For example, a feature of having a rectangular contour shape, a contour line having a hue different from the hue of the inner portion of the image pattern, and a contour line having a protruding portion at a predetermined position is stored as an image pattern condition of the blackboard 90. May be.

【0060】本実施形態の場合、黒板90の内側部分
(文字表示部93)に濃緑色を配し、黒板90の輪郭線
91に黄色を配している。また、輪郭線91は、内側方
向へ突出する突形部分92a〜dを各辺の略中央にそれ
ぞれ有する。輪郭線91及び突形部分92は、黒板90
の検出を容易にするため略幅広に形成される。この場
合、検出部22は、まず略横長の長方形の形状をした被
写体を主画像から検出する。そして、検出部22は、内
側部分の色相と異なる色相を有する略幅広の輪郭線91
を検出する。さらに、長方形の被写体の輪郭線91が黄
色であり、また文字表示部93が濃緑色であるかを検出
する。さらに、検出部22は、輪郭線91の各辺略中央
に略幅広の突形部分92a〜dを有しているかを検出す
る。またさらに検出部22は、輪郭線91と突形部分9
2a〜dが略幅広であるかを検出する。こうして検出部
22により検出された被写体が、黒板90であると判断
される。
In the case of the present embodiment, dark green is arranged on the inner portion (character display section 93) of the blackboard 90, and yellow is arranged on the outline 91 of the blackboard 90. Further, the contour line 91 has projecting portions 92a to 92d protruding inwardly at substantially the center of each side. The outline 91 and the protruding portion 92 are
Is formed to be substantially wide in order to facilitate the detection of the In this case, the detection unit 22 first detects a substantially horizontally long rectangular object from the main image. Then, the detection unit 22 generates a substantially wide outline 91 having a hue different from the hue of the inner portion.
Is detected. Further, it is detected whether the outline 91 of the rectangular object is yellow and the character display section 93 is dark green. Further, the detection unit 22 detects whether or not each of the outlines 91 has substantially wide protruding portions 92a to 92d at substantially the center of each side. Further, the detection unit 22 includes the outline 91 and the protruding portion 9.
It is detected whether 2a to 2d are substantially wide. The subject detected by the detection unit 22 is determined to be the blackboard 90.

【0061】このように、パターン記憶部28に記憶さ
せた画像パターン条件が、内側部分の色相と異なる色相
を持つ輪郭線91、及び突形部分92を含む輪郭線91
を有する黒板90の特徴を定めるので、検出部22によ
り注目部位を容易に検出することができる。
As described above, the image pattern condition stored in the pattern storage unit 28 is such that the outline 91 having a hue different from the hue of the inner portion and the outline 91 including the projecting portion 92
Is determined, the target part can be easily detected by the detection unit 22.

【0062】図9は、出力部50により出力された画像
の一例を示す。出力部50が出力する画像は、主画像6
0と副画像62a〜dとを含む。例えば、出力部50が
画像を表示するモニタの場合は、モニタ画面に図9のよ
うな配置で主画像60と副画像62a〜dとを表示させ
る。また例えば、出力部50がプリンタの場合は、図9
のような配置で主画像60と副画像62a〜dとを印刷
する。主画像60には、副画像62a〜dとして抽出さ
れた領域を破線64a〜dで表示させてもよい。
FIG. 9 shows an example of an image output by the output unit 50. The image output from the output unit 50 is the main image 6
0 and sub-images 62a to 62d. For example, when the output unit 50 is a monitor that displays an image, the main image 60 and the sub images 62a to 62d are displayed on the monitor screen in an arrangement as shown in FIG. For example, when the output unit 50 is a printer, FIG.
The main image 60 and the sub images 62a to 62d are printed in such an arrangement. In the main image 60, the regions extracted as the sub-images 62a to 62d may be displayed by broken lines 64a to 64d.

【0063】このように、出力部50が主画像60を副
画像62a〜dとともに出力するので、ラボシステムの
操作者又は印刷物の閲覧者は主画像60を副画像62a
〜dとの対応関係を容易に把握することができる。ま
た、主画像60に副画像62a〜dとして抽出された領
域を破線64a〜dで表示する場合には、副画像62a
〜dを主画像60のどの領域から抽出したのかを、ラボ
システムの操作者又は印刷物の閲覧者が容易に把握する
ことができる。
As described above, since the output section 50 outputs the main image 60 together with the sub-images 62a to 62d, the operator of the laboratory system or the viewer of the printed material can convert the main image 60 into the sub-image 62a.
Can be easily grasped. When the areas extracted as the sub-images 62a to 62d in the main image 60 are displayed by dashed lines 64a to 64d, the sub-image 62a
The operator of the lab system or the viewer of the printed material can easily understand from which region of the main image 60 the characters .about.d have been extracted.

【0064】ラボシステムの操作者が、領域指定部21
により主画像から抽出したい副画像の領域を指定する場
合、例えば領域指定部21により指定された領域を破線
64a〜dのようにモニタ画面に表示させてもよい。こ
の場合、生成部24は、破線64a〜dで囲まれた領域
から副画像62a〜dを生成する。
The operator of the lab system operates the area designating section 21
When the area of the sub-image to be extracted from the main image is designated by using, the area designated by the area designation unit 21 may be displayed on the monitor screen as shown by broken lines 64a to 64d. In this case, the generation unit 24 generates the sub-images 62a to 62d from the regions surrounded by the broken lines 64a to 64d.

【0065】図10は、画像処理方法を示すフローチャ
ートである。本図は、第1実施形態から第4実施形態ま
での画像処理方法を示す。まず、画像処理装置の操作を
開始し(S100)、入力部10が主画像を画像処理装
置に入力する(S102)。次に、主画像が副画像生成
処理の対象に指定されている場合(S104)、処理部
20は主画像から副画像を生成する(S106)。な
お、主画像が副画像生成処理の対象に指定されているか
どうかを付帯情報として主画像に付帯させておいてもよ
い。この場合、付帯情報は入力部10により主画像とと
もに入力される。また、副画像生成処理の対象である主
画像をラボシステムの操作者が、予め、若しくは操作中
に指定してもよい。主画像が副画像生成処理の対象に指
定されていない場合、処理部20は主画像から副画像を
生成しない(S104)。
FIG. 10 is a flowchart showing the image processing method. This figure shows an image processing method from the first embodiment to the fourth embodiment. First, the operation of the image processing apparatus is started (S100), and the input unit 10 inputs the main image to the image processing apparatus (S102). Next, when the main image is designated as a target of the sub image generation processing (S104), the processing unit 20 generates a sub image from the main image (S106). Note that whether the main image is designated as a target of the sub-image generation processing may be added to the main image as additional information. In this case, the supplementary information is input by the input unit 10 together with the main image. The operator of the lab system may specify the main image to be subjected to the sub-image generation processing in advance or during operation. If the main image is not specified as a target of the sub image generation processing, the processing unit 20 does not generate a sub image from the main image (S104).

【0066】次に、関連情報生成部27は主画像と副画
像との対応関係を示す関連情報を生成する(S10
8)。次に、出力部50は主画像を副画像とともに画面
表示し(S110)、ラボシステムの操作者は画面に表
示された主画像及び副画像を確認する。次に、主画像及
び副画像をCD等に書き込む対象として書き込み指定を
する(S112)。入力部10により入力された複数の
主画像の全てを処理するまでS102からS112まで
の段階を繰り返す(S114)。
Next, the related information generation section 27 generates related information indicating the correspondence between the main image and the sub image (S10).
8). Next, the output unit 50 displays the main image and the sub-image on the screen (S110), and the operator of the laboratory system checks the main image and the sub-image displayed on the screen. Next, the main image and the sub-image are designated to be written on a CD or the like (S112). Steps S102 to S112 are repeated until all of the plurality of main images input by the input unit 10 are processed (S114).

【0067】次に、記録部40は、書き込み指定がされ
た主画像及び副画像を関連情報とともに記録媒体に記録
する(S116)。記録部40は、主画像と副画像とを
関連情報とともに記録媒体に記録するので、この記録媒
体の閲覧者は、主画像と副画像との対応関係を容易に把
握することができる。また他の形態としては、主画像と
副画像とを出力部50が印刷してもよい。主画像及び副
画像が記録部40により記録媒体に記録され、又は出力
部50により印刷されると、画像処理装置による処理が
終了する(S118)。
Next, the recording section 40 records the main image and the sub-image for which writing has been specified together with the related information on the recording medium (S116). Since the recording unit 40 records the main image and the sub-image together with the related information on the recording medium, the viewer of the recording medium can easily grasp the correspondence between the main image and the sub-image. As another form, the output unit 50 may print the main image and the sub image. When the main image and the sub-image are recorded on the recording medium by the recording unit 40 or printed by the output unit 50, the processing by the image processing device ends (S118).

【0068】なお、図10は、記録部40の一例として
のCD−Rドライブにより、書き込み指定しておいた複
数の画像を一括してCDディスクに書き込む形態を説明
した。他の方法としては、例えば、MOディスクやフロ
ッピーディスク等に記録する場合は、記録部40は書き
込み対象の画像を順次記録してもよい。
FIG. 10 illustrates a mode in which a plurality of images designated to be written are collectively written to a CD disk by a CD-R drive as an example of the recording unit 40. As another method, for example, when recording on an MO disk, a floppy disk, or the like, the recording unit 40 may sequentially record images to be written.

【0069】図11は、図10における副画像生成段階
(S106)の詳細な動作を示すフローチャートであ
る。まず、検出部22が、パターン記憶部28から受け
取る画像パターン条件を満たした注目部位を主画像から
検出する(S120)。次に、生成部24が注目部位を
含む領域を主画像から抽出する(S122)。次に、生
成部24は、注目部位を含む領域の主画像における位置
情報を抽出する(S124)。次に、生成部24は、注
目部位を含む領域を拡大して副画像を生成する(S12
6)。次に、文字検出部25が副画像から文字情報を検
出する(S128)。全ての注目部位に対し副画像を生
成するまで、S122からS128までの段階を繰り返
す(S130)。
FIG. 11 is a flowchart showing the detailed operation of the sub-image generation step (S106) in FIG. First, the detection unit 22 detects, from the main image, an attention site that satisfies the image pattern condition received from the pattern storage unit 28 (S120). Next, the generation unit 24 extracts a region including the region of interest from the main image (S122). Next, the generation unit 24 extracts position information in the main image of the region including the attention site (S124). Next, the generation unit 24 generates a sub-image by enlarging the area including the attention site (S12).
6). Next, the character detection unit 25 detects character information from the sub-image (S128). The steps from S122 to S128 are repeated until sub-images are generated for all the target parts (S130).

【0070】次に、第5実施形態を説明する。本実施形
態の基本的な構成及び動作は、図1乃至図11に示され
る基本的な構成及び動作と同様である。本実施形態は、
処理部20としてパーソナルコンピュータやワークステ
ーション等の電子計算機を用いる点で、第1乃至第3実
施形態と異なる。
Next, a fifth embodiment will be described. The basic configuration and operation of the present embodiment are the same as the basic configuration and operation shown in FIGS. In this embodiment,
The third embodiment differs from the first to third embodiments in that an electronic computer such as a personal computer or a workstation is used as the processing unit 20.

【0071】図12は、第6実施形態における処理部2
0のハードウェア構成図である。CPU30はROM3
2およびRAM34に格納されたプログラムに基づいて
動作する。入力装置31を介して操作者によりデータが
入力される。ハードディスク33は、画像等のデータ、
及びCPU30を動作させるプログラムを格納する。C
D−ROMドライブ35はCD−ROM100からデー
タ又はプログラムを読み取り、RAM34、ハードディ
スク33及びCPU30の少なくともいずれかに提供す
る。
FIG. 12 shows a processing unit 2 according to the sixth embodiment.
0 is a hardware configuration diagram. FIG. CPU 30 is ROM3
2 and operates based on the program stored in the RAM 34. Data is input by the operator via the input device 31. The hard disk 33 stores data such as images,
And a program for operating the CPU 30. C
The D-ROM drive 35 reads data or a program from the CD-ROM 100 and provides the data or the program to at least one of the RAM 34, the hard disk 33 and the CPU 30.

【0072】図13は、CPU30が実行するソフトウ
エアの機能構成を示すブロック図である。これらのソフ
トウエアは、CD−ROM100等の記録媒体に格納さ
れて利用者に提供される。記録媒体に格納されたソフト
ウエアは圧縮されていても非圧縮であってもよい。ソフ
トウエアは記録媒体からハードディスク33にインスト
ールされ、RAM34に読み出されてCPU30により
実行される。
FIG. 13 is a block diagram showing a functional configuration of software executed by the CPU 30. These software are stored in a recording medium such as the CD-ROM 100 and provided to the user. The software stored on the recording medium may be compressed or uncompressed. The software is installed on the hard disk 33 from the recording medium, read out to the RAM 34, and executed by the CPU 30.

【0073】記録媒体に格納されて提供されるソフトウ
エア、即ちハードディスク33にインストールされるソ
フトウェアは、機能構成として検出モジュール122と
生成モジュール124と文字情報検出モジュール125
と関連情報生成モジュール127とパターン条件モジュ
ール128と文字パターンモジュール129とを備え
る。
The software stored and provided on the recording medium, that is, the software installed on the hard disk 33 has a detection module 122, a generation module 124, and a character information detection module 125 as functional components.
And a related information generation module 127, a pattern condition module 128, and a character pattern module 129.

【0074】パターン条件モジュール128には、画像
パターン条件が含まれる。検出モジュール122は、入
力部10より受け取る主画像から、パターン条件モジュ
ール128より受け取る画像パターン条件を満たした注
目部位を検出する。生成モジュール124は、主画像か
ら注目部位が含まれる領域を抽出して拡大した副画像を
生成する。文字情報検出モジュール125は、副画像か
ら文字情報を検出する。文字パターンモジュール129
は、文字情報検出モジュール125が副画像から検出す
る可能性の高い文字の画像パターンと文字コードとを記
憶する。関連情報生成モジュール127は、主画像と副
画像との対応関係を示す関連情報を生成する。副画像
は、記録部40と出力部50とに出力される。
The pattern condition module 128 includes image pattern conditions. The detection module 122 detects, from the main image received from the input unit 10, a site of interest that satisfies the image pattern condition received from the pattern condition module 128. The generation module 124 generates an enlarged sub-image by extracting a region including the region of interest from the main image. The character information detection module 125 detects character information from the sub-image. Character pattern module 129
Stores an image pattern and a character code of a character that is likely to be detected by the character information detection module 125 from the sub-image. The related information generation module 127 generates related information indicating the correspondence between the main image and the sub image. The sub-image is output to the recording unit 40 and the output unit 50.

【0075】記録媒体の一例としてのCD−ROM10
0には、本出願で説明した処理部20の動作の一部又は
全ての機能を格納することができる。またCD−ROM
100には他の装置の動作の一部又は全ての機能を格納
することができる。これらのプログラムは記録媒体から
直接RAM34に読み出されて実行されてもよい。
CD-ROM 10 as an example of a recording medium
0 can store some or all of the functions of the operation of the processing unit 20 described in the present application. Also CD-ROM
100 can store some or all of the functions of other devices. These programs may be read directly from the recording medium to the RAM 34 and executed.

【0076】記録媒体としては、CD−ROM100の
他にも、DVDやPD等の光学記録媒体、フロッピーデ
ィスクやミニディスク(MD)等の磁気記録媒体、MO
等の光磁気記録媒体、テープ状記録媒体、不揮発性の半
導体メモリカード等を用いることができる。上記のプロ
グラムを格納した記録媒体は、画像処理装置を製造する
ためにのみ使用されるものであり、そのような記録媒体
の業としての製造および販売等が本出願に基づく特許権
の侵害を構成することは明らかである。
As a recording medium, in addition to the CD-ROM 100, an optical recording medium such as a DVD and a PD, a magnetic recording medium such as a floppy disk and a mini disk (MD),
And the like, a magneto-optical recording medium, a tape-shaped recording medium, a nonvolatile semiconductor memory card, and the like can be used. The recording medium storing the above program is used only for manufacturing an image processing apparatus, and the manufacture and sale of such a recording medium as a business constitutes infringement of the patent right based on the present application. It is clear that.

【0077】以上のように、第1〜4実施形態によれ
ば、所定の画像パターン条件をパターン記憶部28に記
憶させておき、検出部22が画像パターン条件を満たす
注目部位を検出し、生成部24が注目部位を含む領域を
抽出する。したがって、例えば工事写真の場合、全体写
真とは別に定規や黒板の写真を撮らなくとも、全体写真
からその一部として定規や黒板を自動的に検出し抽出す
ることができる。
As described above, according to the first to fourth embodiments, a predetermined image pattern condition is stored in the pattern storage unit 28, and the detection unit 22 detects a target part satisfying the image pattern condition, and The unit 24 extracts a region including the region of interest. Therefore, for example, in the case of a construction photograph, a ruler or a blackboard can be automatically detected and extracted as a part of the whole photograph without taking a photograph of a ruler or a blackboard separately from the whole photograph.

【0078】また、本実施形態によれば、生成部24が
注目部位を含む領域の位置情報を抽出し、記録部40が
位置情報を記録媒体に記録するので、この記録媒体に納
められた画像を閲覧する者は、副画像が主画像のどの部
分を抽出したものであるかを確認することができる。ま
た、出力部50が位置情報をモニタ画面に出力するの
で、ラボシステムの操作者は、副画像が主画像のどの部
分を抽出したものであるかをモニタ画面上で確認するこ
とができる。
Further, according to the present embodiment, the generation unit 24 extracts the position information of the area including the target part, and the recording unit 40 records the position information on the recording medium. Can check which part of the main image the sub-image is extracted from. Further, since the output unit 50 outputs the position information to the monitor screen, the operator of the lab system can confirm on the monitor screen which part of the main image is extracted as the sub-image.

【0079】また、本実施形態によれば、生成部24は
注目部位が含まれる領域を拡大して副画像を生成するの
で、例えば工事写真の場合、工事現場の全体写真から定
規や黒板の部分拡大写真を自動的に生成することができ
る。
Further, according to the present embodiment, since the generating unit 24 generates a sub-image by enlarging the area including the target part, for example, in the case of a construction photograph, a ruler or a blackboard part is obtained from the entire photograph of the construction site. Enlarged photos can be generated automatically.

【0080】また、本実施形態によれば、文字検出部2
5が副画像から文字情報を検出し、文字情報を記録部4
0が記録媒体に記録するので、主画像及び副画像の閲覧
者は、これらの画像が撮影された状況に関する情報を容
易に得ることができる。
Further, according to the present embodiment, the character detecting unit 2
5 detects character information from the sub-image and stores the character information in the recording unit 4
Since 0 is recorded on the recording medium, the viewer of the main image and the sub-image can easily obtain information on the situation in which these images were captured.

【0081】また、本実施形態によれば、文字パターン
記憶部29に、文字検出部25が検出する可能性の高い
文字列の画像パターンと文字コードとを記憶させておく
ことにより、文字検出部25の文字認識率を高めること
ができる。
Further, according to the present embodiment, the character pattern storage unit 29 stores the character string image pattern and the character code which are highly likely to be detected by the character detection unit 25, so that the character detection unit 25 can improve the character recognition rate.

【0082】また、本実施形態によれば、関連情報生成
部27が、主画像と副画像との対応関係を示す関連情報
を生成するので、主画像及び副画像の閲覧者は、主画像
と副画像との対応関係を容易に把握することができる。
Further, according to the present embodiment, since the related information generating section 27 generates the related information indicating the correspondence between the main image and the sub image, the viewer of the main image and the sub image can read the main image and the sub image. The correspondence with the sub-image can be easily grasped.

【0083】また、本実施形態によれば、主画像、副画
像、位置情報、文字情報、及び関連情報の対応関係が記
録されるので、主画像及び副画像が記録された記録媒体
において、位置情報又は文字情報に基づいて容易に所望
の画像を検索することができる。
According to the present embodiment, the correspondence between the main image, the sub image, the position information, the character information, and the related information is recorded. A desired image can be easily searched based on information or character information.

【0084】また、本実施形態によれば、パターン記憶
部28に記憶させた画像パターン条件が、内側部分の明
度と異なる明度を有する輪郭線84や、目盛り線が書か
れた輪郭線84を有する定規80の特徴を定めているの
で、検出部22により注目部位を容易に検出することが
できる。
Further, according to the present embodiment, the image pattern conditions stored in the pattern storage section 28 include the contour line 84 having a brightness different from the brightness of the inner portion and the contour line 84 on which graduation lines are written. Since the features of the ruler 80 are determined, the target part can be easily detected by the detection unit 22.

【0085】また、本実施形態によれば、パターン記憶
部28に記憶させた画像パターン条件が、内側部分の色
相と異なる色相を有する輪郭線91や、突形部分92を
有する輪郭線91を有する黒板90の特徴を定めている
ので、検出部22により注目部位を容易に検出すること
ができる。
Further, according to the present embodiment, the image pattern conditions stored in the pattern storage section 28 include the contour 91 having a hue different from the hue of the inner portion and the contour 91 having the protrusion 92. Since the characteristics of the blackboard 90 are determined, the target portion can be easily detected by the detection unit 22.

【0086】また、本実施形態によれば、入力部10と
してフイルムスキャナを用いることにより銀塩フイルム
の画像から副画像を生成することができる。
Further, according to the present embodiment, by using a film scanner as the input unit 10, a sub-image can be generated from an image of a silver halide film.

【0087】以上、本発明を実施の形態を用いて説明し
たが、本発明の技術的範囲は上記実施の形態に記載の範
囲には限定されない。上記実施の形態に、多様な変更又
は改良を加えることができることが当業者に明らかであ
る。その様な変更又は改良を加えた形態も本発明の技術
的範囲に含まれ得ることが、特許請求の範囲の記載から
明らかである。
Although the present invention has been described with reference to the embodiment, the technical scope of the present invention is not limited to the scope described in the above embodiment. It is apparent to those skilled in the art that various changes or improvements can be added to the above embodiment. It is apparent from the description of the appended claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

【発明の効果】上記の説明から明らかなように、本発明
によれば、主画像と主画像から抽出された副画像との対
応関係を容易に把握することができる。
As is apparent from the above description, according to the present invention, the correspondence between the main image and the sub-images extracted from the main image can be easily grasped.

【図面の簡単な説明】[Brief description of the drawings]

【図1】ラボシステムの構成図である。FIG. 1 is a configuration diagram of a lab system.

【図2】処理部20の機能ブロック図である。FIG. 2 is a functional block diagram of a processing unit 20.

【図3】第1実施形態における主画像、副画像、位置情
報、文字情報、及び関連情報の対応関係を示す。
FIG. 3 shows a correspondence relationship between a main image, a sub image, position information, character information, and related information in the first embodiment.

【図4】第2実施形態における主画像、副画像、位置情
報、文字情報、及び関連情報の対応関係を示す。
FIG. 4 shows a correspondence relationship between a main image, a sub image, position information, character information, and related information in a second embodiment.

【図5】第3実施形態における主画像、副画像、文字情
報、及び関連情報の対応関係を示す。
FIG. 5 shows a correspondence relationship between a main image, a sub image, character information, and related information in a third embodiment.

【図6】第4実施形態における主画像、副画像、文字情
報、関連情報、及び文字関連情報の対応関係を示す。
FIG. 6 shows a correspondence relationship between a main image, a sub image, character information, related information, and character related information in the fourth embodiment.

【図7】定規80の画像パターンを示す図である。7 is a diagram showing an image pattern of a ruler 80. FIG.

【図8】黒板90の画像パターンを示す図である。FIG. 8 is a diagram showing an image pattern of a blackboard 90.

【図9】出力部50により出力された画像を示す。FIG. 9 shows an image output by the output unit 50.

【図10】画像処理方法を示すフローチャートである。FIG. 10 is a flowchart illustrating an image processing method.

【図11】図10における第1実施形態の副画像生成段
階(S106)の詳細な動作を示すフローチャートであ
る。
11 is a flowchart showing a detailed operation of a sub-image generation step (S106) of the first embodiment in FIG.

【図12】第5実施形態における処理部20のハードウ
ェア構成図である。
FIG. 12 is a hardware configuration diagram of a processing unit 20 according to the fifth embodiment.

【図13】CPU30が実行するソフトウエアの機能構
成を示すブロック図である。
FIG. 13 is a block diagram illustrating a functional configuration of software executed by a CPU 30.

【符号の説明】[Explanation of symbols]

10 入力部 20 処理部 21 領域指定部 22 検出部 24 生成部 25 文字検出部 27 関連情報生成部 28 パターン記憶部 29 文字パターン記憶部 30 CPU 31 入力装置 32 RAM 33 ハードディスク 34 ROM 35 CD−ROMドライブ 40 記録部 50 出力部 60 主画像 62 副画像 64 破線 80 定規 81 第一色部 82 第二色部 83 第三色部 84 輪郭線 90 黒板 91 輪郭線 92 突形部分 93 文字表示部 100 CD−ROM 122 検出モジュール 124 生成モジュール 125 文字情報検出モジュール 127 関連情報生成モジュール 128 パターン条件モジュール 129 文字パターンモジュール DESCRIPTION OF SYMBOLS 10 Input part 20 Processing part 21 Area specification part 22 Detection part 24 Generation part 25 Character detection part 27 Related information generation part 28 Pattern storage part 29 Character pattern storage part 30 CPU 31 Input device 32 RAM 33 Hard disk 34 ROM 35 CD-ROM drive Reference Signs List 40 recording unit 50 output unit 60 main image 62 sub image 64 dashed line 80 ruler 81 first color unit 82 second color unit 83 third color unit 84 outline 90 blackboard 91 outline 92 protruding part 93 character display unit 100 CD- ROM 122 detection module 124 generation module 125 character information detection module 127 related information generation module 128 pattern condition module 129 character pattern module

フロントページの続き Fターム(参考) 5C052 AA01 AA03 AA04 AA17 AB03 AB04 AC08 DD04 EE02 EE03 EE08 5L096 BA08 CA02 CA24 EA03 EA35 FA81 9A001 HH28 Continued on the front page F term (reference) 5C052 AA01 AA03 AA04 AA17 AB03 AB04 AC08 DD04 EE02 EE03 EE08 5L096 BA08 CA02 CA24 EA03 EA35 FA81 9A001 HH28

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 画像から画像パターンを認識する画像処
理装置であって、 第一の画像を入力する入力部と、 所定の画像パターン条件を記憶するパターン記憶部と、 前記第一の画像から前記画像パターン条件を満たした注
目部位を検出する検出部と、 前記注目部位が含まれる領域を抽出して第二の画像を生
成する生成部と、 前記第二の画像と前記第一の画像との対応関係を示す関
連情報を生成する関連情報生成部と、 前記第二の画像を前記関連情報とともに記録する記録部
とを備えることを特徴とする画像処理装置。
1. An image processing apparatus for recognizing an image pattern from an image, comprising: an input unit for inputting a first image; a pattern storage unit for storing predetermined image pattern conditions; A detection unit that detects a region of interest that satisfies an image pattern condition; a generation unit that extracts a region including the region of interest to generate a second image; and a generation unit that generates the second image and the first image. An image processing apparatus comprising: a related information generating unit that generates related information indicating a correspondence; and a recording unit that records the second image together with the related information.
【請求項2】 前記生成部は、前記第一の画像及び前記
第二の画像のそれぞれに対しファイル名を与える手段を
有し、 前記関連情報生成部は、前記第一の画像のファイル名と
前記第二の画像のファイル名とに基づいて前記関連情報
を生成する手段を有することを特徴とする請求項1に記
載の画像処理装置。
2. The method according to claim 1, wherein the generating unit has a unit that gives a file name to each of the first image and the second image, and the related information generating unit determines a file name of the first image. The image processing apparatus according to claim 1, further comprising a unit configured to generate the related information based on a file name of the second image.
【請求項3】 前記第二の画像から文字情報を検出する
文字検出部をさらに備え、 前記記録部は、前記文字情報を記録する手段を有するこ
とを特徴とする請求項1又は2に記載の画像処理装置。
3. The apparatus according to claim 1, further comprising a character detection unit configured to detect character information from the second image, wherein the recording unit includes a unit configured to record the character information. Image processing device.
【請求項4】 前記関連情報生成部は、前記文字情報
と、前記第一の画像及び前記第二の画像のうちいずれか
一方又は双方との対応関係に基づいて前記関連情報を生
成する手段をさらに有することを特徴とする請求項3に
記載の画像処理装置。
4. The unit according to claim 1, wherein the related information generating unit generates the related information based on a correspondence between the character information and one or both of the first image and the second image. The image processing apparatus according to claim 3, further comprising:
【請求項5】 前記関連情報生成部は、前記文字情報と
前記関連情報との対応関係を示す情報を生成する手段を
さらに有することを特徴とする請求項3又は4に記載の
画像処理装置。
5. The image processing apparatus according to claim 3, wherein the related information generating unit further includes a unit that generates information indicating a correspondence between the character information and the related information.
【請求項6】 前記関連情報生成部は、前記関連情報を
前記第一の画像及び前記第二の画像のうちいずれか一方
又は双方のデータに含めさせる手段をさらに有すること
を特徴とする請求項1乃至5のいずれかに記載の画像処
理装置。
6. The apparatus according to claim 1, wherein the related information generation unit further includes a unit configured to include the related information in data of one or both of the first image and the second image. An image processing apparatus according to any one of claims 1 to 5.
【請求項7】 前記関連情報生成部は、前記検出部によ
り前記第一の画像から前記注目部位が検出されなかった
場合に、前記注目部位が検出されなかったことを示す情
報を前記関連情報として生成する手段をさらに有するこ
とを特徴とする請求項1乃至6のいずれかに記載の画像
処理装置。
7. The related information generation unit, wherein when the detection unit does not detect the target site from the first image, information indicating that the target site is not detected is used as the relevant information. The image processing apparatus according to claim 1, further comprising a generation unit.
【請求項8】 前記生成部は、前記第一の画像における
前記第二の画像の位置情報を生成する手段をさらに有
し、 前記記録部は、前記位置情報を記録する手段をさらに有
することを特徴とする請求項1乃至7のいずれかに記載
の画像処理装置。
8. The method according to claim 1, wherein the generation unit further includes a unit configured to generate position information of the second image in the first image, and the recording unit further includes a unit configured to record the position information. The image processing apparatus according to any one of claims 1 to 7, wherein:
【請求項9】 前記第一の画像における所望の領域を指
定する領域指定部をさらに備え、 前記生成部は、前記領域指定部により指定された領域の
位置情報を生成する手段をさらに有し、 前記記録部は、前記位置情報を記録する手段をさらに有
することを特徴とする請求項1乃至8のいずれかに記載
の画像処理装置。
9. The image processing apparatus according to claim 1, further comprising: an area specifying unit that specifies a desired area in the first image, wherein the generating unit further includes a unit configured to generate position information of the area specified by the area specifying unit. The image processing apparatus according to claim 1, wherein the recording unit further includes a unit that records the position information.
【請求項10】 前記関連情報生成部は、前記位置情報
と、前記第一の画像及び前記第二の画像のいずれか一方
又は双方との対応関係に基づいて前記関連情報を生成す
る手段をさらに有することを特徴とする請求項8又は9
に記載の画像処理装置。
10. The related information generating unit further includes a unit configured to generate the related information based on a correspondence between the position information and one or both of the first image and the second image. 10. The device according to claim 8, wherein
An image processing apparatus according to claim 1.
【請求項11】 前記第一の画像及び前記第二の画像を
前記位置情報とともに出力する出力部をさらに備えるこ
とを特徴とする請求項8乃至10のいずれかに記載の画
像処理装置。
11. The image processing apparatus according to claim 8, further comprising an output unit that outputs the first image and the second image together with the position information.
【請求項12】 前記生成部は、前記注目部位が含まれ
る領域を拡大して前記第二の画像を生成する手段をさら
に有することを特徴とする請求項1乃至11のいずれか
に記載の画像処理装置。
12. The image according to claim 1, wherein the generation unit further includes a unit configured to generate the second image by enlarging an area including the target region. Processing equipment.
【請求項13】 画像から画像パターンを認識する画像
処理方法であって、第一の画像を入力する段階と、 所定の画像パターン条件を記憶する段階と、 前記第一の画像から前記画像パターン条件を満たした注
目部位を検出する段階と、 前記注目部位が含まれる領域を抽出して第二の画像を生
成する段階と、 前記第二の画像と前記第一の画像との対応関係を示す関
連情報を生成する段階と、 前記第二の画像を前記関連情報とともに記録する段階と
を備えることを特徴とする画像処理方法。
13. An image processing method for recognizing an image pattern from an image, comprising: inputting a first image; storing a predetermined image pattern condition; and storing the image pattern condition from the first image. Detecting a region of interest that satisfies the following: extracting a region including the region of interest to generate a second image; and indicating a correspondence relationship between the second image and the first image. An image processing method comprising: generating information; and recording the second image together with the related information.
【請求項14】 画像から画像パターンを認識するプロ
グラムを記録したコンピュータ読み取り可能な記録媒体
であって、 前記プログラムが、 前記コンピュータに働きかけて、第一の画像を入力する
手順と、 前記コンピュータに働きかけて、前記第一の画像から所
定の画像パターン条件を満たした注目部位を検出する手
順と、 前記コンピュータに働きかけて、前記注目部位が含まれ
る領域を抽出して第二の画像を生成する手順と、 前記第二の画像と前記第一の画像との対応関係を示す関
連情報を生成する手順と、 前記コンピュータに働きかけて、前記第二の画像を前記
関連情報とともに記録する手順とを備えることを特徴と
する記録媒体。
14. A computer-readable recording medium on which a program for recognizing an image pattern from an image is recorded, wherein the program operates on the computer to input a first image, and operates on the computer. A procedure for detecting, from the first image, a region of interest that satisfies a predetermined image pattern condition; and a step of operating the computer to extract a region including the region of interest and generate a second image. A step of generating related information indicating a correspondence between the second image and the first image, and a step of acting on the computer to record the second image together with the related information. Characteristic recording medium.
JP11192401A 1999-07-06 1999-07-06 Image processor, method thereof and storage medium Pending JP2001022927A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11192401A JP2001022927A (en) 1999-07-06 1999-07-06 Image processor, method thereof and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11192401A JP2001022927A (en) 1999-07-06 1999-07-06 Image processor, method thereof and storage medium

Publications (1)

Publication Number Publication Date
JP2001022927A true JP2001022927A (en) 2001-01-26

Family

ID=16290711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11192401A Pending JP2001022927A (en) 1999-07-06 1999-07-06 Image processor, method thereof and storage medium

Country Status (1)

Country Link
JP (1) JP2001022927A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10303620B2 (en) 2004-07-30 2019-05-28 Intel Corporation Maintaining processor resources during architectural events

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10303620B2 (en) 2004-07-30 2019-05-28 Intel Corporation Maintaining processor resources during architectural events

Similar Documents

Publication Publication Date Title
EP1298585B1 (en) Image processing method and apparatus
US8711265B2 (en) Image processing apparatus, control method for the same, and storage medium
US7286255B2 (en) Method, system, and program for storing images
US20060188175A1 (en) Image synthesization method
JP2003344021A (en) Method for calculating dimension of human face in image and method for detecting face
CN102113306A (en) Thumbnail based image quality inspection
JP2008236468A (en) Image file management device and program
JP2007133838A (en) Image display method and image display program
CN101335811B (en) Printing method, and printing apparatus
JP2006107289A (en) Image file management device, image file management method and image file management program
JP4298386B2 (en) Image display apparatus and method, and program
JP2001022927A (en) Image processor, method thereof and storage medium
JP4017790B2 (en) Image processing apparatus, image processing method, and recording medium
JP4294805B2 (en) Image processing apparatus, image processing method, and recording medium
JP2001045257A (en) Image processor, image processing method and recording medium
JP4034012B2 (en) Image processing apparatus, image processing method, and recording medium
JP4080157B2 (en) Image processing apparatus, image processing method, and recording medium
JPH11262030A (en) Digital still camera and its operation control method
JP2006268173A (en) Image management system and program
JP2005109760A (en) Apparatus and method of storing image
JP4554007B2 (en) Imaging apparatus, imaging method, and recording medium
JP2002352238A (en) Device and method for processing image, and program and recording medium
JP2001016427A (en) Image processor, image processing method and recording medium
JP3705239B2 (en) Photo development processing apparatus and photo development processing program
JP2001054010A (en) Photographing device, photographing method and recording medium