JP2012142739A - Image processing device, image processing method and imaging apparatus - Google Patents

Image processing device, image processing method and imaging apparatus Download PDF

Info

Publication number
JP2012142739A
JP2012142739A JP2010293228A JP2010293228A JP2012142739A JP 2012142739 A JP2012142739 A JP 2012142739A JP 2010293228 A JP2010293228 A JP 2010293228A JP 2010293228 A JP2010293228 A JP 2010293228A JP 2012142739 A JP2012142739 A JP 2012142739A
Authority
JP
Japan
Prior art keywords
subject
image
unit
extracted
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010293228A
Other languages
Japanese (ja)
Inventor
Takako Hanai
孝子 花井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010293228A priority Critical patent/JP2012142739A/en
Publication of JP2012142739A publication Critical patent/JP2012142739A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device, an image processing method and an imaging apparatus that can detect a subject in an image and add a character string associated with the detected subject to generate a composite image.SOLUTION: The image processing device includes: a subject recognition section for extracting subjects in an input image and weighting the extracted subjects in accordance with characteristics of the extracted subjects to generate weight information; an object specification section for specifying an object subject to which a character string should be added from the subjects extracted by the subject recognition section; a language search section for searching for a character string matching the extracted subjects including the object subject from a predetermined language database according to the weight information; and an image composition section for compositing the character string matching the object subject found by the language search section in association with the object subject in the input image to generate a composite image.

Description

本発明は、被写体に関連する情報に基づいた画像を生成する画像処理装置、画像処理方法、および撮像装置に関する。   The present invention relates to an image processing device, an image processing method, and an imaging device that generate an image based on information related to a subject.

従来、画像を生成する画像処理装置として、例えば、特許文献1のように、画像に関連付けた文字列を吹き出しとして表示する撮像装置が提案されている。特許文献1に開示された撮像装置は、画像認識処理およびカレンダー機能により、注目画像の属性(人物、動物、植物、生物、山、川など)や季節を取得し、注目画像の動作や表情の状態に応じた言葉の種類を選択可能に表示する。次に、絞込み処理により文字列を表示し、注目画像とその文字列を関連付けた吹き出しを付加した画像を生成するものである。   2. Description of the Related Art Conventionally, as an image processing apparatus that generates an image, for example, as in Patent Document 1, an imaging apparatus that displays a character string associated with an image as a balloon has been proposed. The imaging device disclosed in Patent Literature 1 acquires the attributes (person, animal, plant, creature, mountain, river, etc.) and season of the image of interest by image recognition processing and a calendar function, and the operation and expression of the image of interest. The type of words according to the state is displayed to be selectable. Next, a character string is displayed by a narrowing-down process, and an image with a balloon associated with the image of interest and the character string added is generated.

特開2009−81785号公報JP 2009-81785 A

特許文献1に開示された撮像装置では、吹き出しとして付加する内容(文字列)を、例えば、撮像装置のユーザーが選択することによって、選択した内容を含む吹き出しを画像に付加することができる。しかしながら、画像に付加する吹き出しの内容を選択するのは、撮像装置のユーザーに手間がかかり、吹き出しの内容を選択するための操作が煩雑になってしまう。このため、画像に吹き出しを付加する機能が実際に使用される頻度が少なくなってしまうことが考えられる。   In the imaging device disclosed in Patent Document 1, a content (character string) to be added as a speech balloon can be added to an image by selecting the content (character string), for example, by a user of the imaging device. However, selecting the content of the speech balloon to be added to the image takes time and effort for the user of the imaging apparatus, and the operation for selecting the content of the speech balloon becomes complicated. For this reason, it is conceivable that the frequency of actually using the function of adding a balloon to an image is reduced.

本発明は、上記の課題認識に基づいてなされたものであり、画像内の被写体を検出し、検出した被写体に関連した文字列を付加した合成画像を生成することができる画像処理装置、画像処理方法、および撮像装置を提供することを目的としている。   The present invention has been made based on the above problem recognition, an image processing apparatus capable of detecting a subject in an image and generating a composite image to which a character string related to the detected subject is added, and image processing It is an object to provide a method and an imaging device.

上記の課題を解決するため、本発明の画像処理装置は、入力された画像中の被写体を抽出し、該抽出した被写体の特徴に基づいて、該抽出した被写体に所定の重み付けを行った重み付け情報を生成する被写体認識部と、前記被写体認識部が抽出した被写体の中から、文字列を付加する対象の対象被写体を特定する対象物特定部と、前記重み付け情報に基づいて、所定の言語データベースから前記対象被写体を含む前記抽出した被写体に適合する文字列を検索する言語検索部と、前記言語検索部によって検索された前記対象被写体に適合する文字列を、前記入力された画像中の該対象被写体に関連付けて合成した合成画像を生成する画像合成部と、を備えることを特徴とする。   In order to solve the above-described problem, the image processing apparatus of the present invention extracts a subject in an input image, and weighting information obtained by performing predetermined weighting on the extracted subject based on the characteristics of the extracted subject. From a predetermined language database based on the weighting information, a subject identifying unit that generates a subject, a target identifying unit that identifies a target subject to which a character string is to be added, among subjects extracted by the subject recognizing unit A language search unit that searches for a character string that matches the extracted subject including the target subject, and a character string that matches the target subject searched by the language search unit, the target subject in the input image And an image composition unit that generates a composite image synthesized in association with.

また、本発明の前記画像合成部は、前記対象被写体に適合する文字列を、該対象被写体からの吹き出しとして関連付けた合成画像を生成する、ことを特徴とする。   The image composition unit of the present invention generates a composite image in which a character string suitable for the target subject is associated as a balloon from the target subject.

また、本発明の前記被写体認識部が重み付けする際の前記被写体の特徴は、前記抽出された被写体の形状および色彩の特徴であり、前記被写体認識部は、前記入力された画像中の被写体の輪郭を抽出し、前記抽出した被写体の輪郭と、所定の形状との一致率の情報に基づいて、該被写体の形状に関する重み付けを行い、前記抽出した被写体の輪郭内の色のデータの情報に基づいて、該被写体の色彩に関する重み付けを行い、前記言語検索部は、前記一致率の情報および前記色のデータの情報に基づいて、前記被写体に適合する文字列を検索する、ことを特徴とする。   In addition, the feature of the subject when the subject recognition unit of the present invention performs weighting is the shape and color feature of the extracted subject, and the subject recognition unit includes the contour of the subject in the input image. Based on information on the matching rate between the extracted contour of the subject and a predetermined shape, weighting is performed on the shape of the subject, and based on information on color data in the extracted contour of the subject Further, weighting is performed on the color of the subject, and the language search unit searches for a character string that matches the subject based on the information on the matching rate and the information on the color data.

また、本発明の前記被写体認識部が重み付けする際の前記被写体の特徴は、前記抽出された被写体の形状の特徴であり、前記被写体認識部は、前記入力された画像中の被写体の輪郭を抽出し、前記抽出した被写体の輪郭と、所定の形状との一致率の情報に基づいて、該被写体の形状に関する重み付けを行い、前記言語検索部は、前記一致率の情報に基づいて、前記被写体に適合する文字列を検索する、ことを特徴とする。   Further, the feature of the subject when the subject recognition unit of the present invention performs weighting is a feature of the shape of the extracted subject, and the subject recognition unit extracts the contour of the subject in the input image. Then, weighting is performed on the shape of the subject based on information on the matching rate between the extracted contour of the subject and a predetermined shape, and the language search unit applies the weight to the subject based on the matching rate information. It is characterized by searching for a matching character string.

また、本発明の前記被写体認識部が重み付けする際の前記被写体の特徴は、前記抽出された被写体の色彩の特徴であり、前記被写体認識部は、前記入力された画像中の被写体の輪郭を抽出し、前記抽出した被写体の輪郭内の色のデータの情報に基づいて、該被写体の色彩に関する重み付けを行い、前記言語検索部は、前記色のデータの情報に基づいて、前記被写体に適合する文字列を検索する、ことを特徴とする。   Further, the feature of the subject when the subject recognition unit of the present invention performs weighting is the color feature of the extracted subject, and the subject recognition unit extracts the contour of the subject in the input image. Then, weighting is performed on the color of the subject based on the information on the color data in the contour of the extracted subject, and the language search unit is configured to apply a character suitable for the subject based on the information on the color data. It is characterized by searching a column.

また、本発明の前記対象物特定部は、該画像処理装置の操作者によって指定された被写体を、前記対象被写体として特定する、ことを特徴とする。   The object specifying unit according to the present invention is characterized in that an object specified by an operator of the image processing apparatus is specified as the object object.

また、本発明の撮像装置は、被写体を撮影した画像を出力すると共に、前記被写体を撮影したときの焦点の情報を出力する撮影部と、前記撮影部が撮影した画像中の被写体を抽出し、該抽出した被写体の特徴に基づいて、該抽出した被写体に所定の重み付けを行った重み付け情報を生成する被写体認識部と、前記撮影部が撮影したときの焦点の情報に基づいて、前記被写体認識部が抽出した被写体の中から、文字列を付加する対象の対象被写体を特定する対象物特定部と、前記重み付け情報に基づいて、所定の言語データベースから前記対象被写体を含む前記抽出した被写体に適合する文字列を検索する言語検索部と、前記言語検索部によって検索された前記対象被写体に適合する文字列を、前記入力された画像中の該対象被写体に関連付けて合成した合成画像を生成する画像合成部と、を備えることを特徴とする。   The image pickup apparatus of the present invention outputs an image obtained by photographing the subject, and outputs a focus information when the subject is photographed, and extracts a subject in the image photographed by the photographing unit, A subject recognition unit that generates weighting information obtained by performing predetermined weighting on the extracted subject based on the extracted subject characteristics; and the subject recognition unit based on focus information obtained by the photographing unit Based on the target specifying unit for specifying the target subject to which the character string is to be added, and the weighted information, the extracted subject including the target subject is matched with the extracted subject. A language search unit that searches for a character string, and a character string that matches the target subject searched by the language search unit is associated with the target subject in the input image. An image combining unit for generating a composite synthetic image, characterized in that it comprises a.

また、本発明の前記対象物特定部は、前記焦点の情報において焦点が合っていることを表している前記抽出した被写体、または該撮像装置の操作者によって指定された被写体のいずれか1つの被写体、または両方の被写体を、前記対象被写体として特定する、ことを特徴とする。   In addition, the object specifying unit of the present invention may be any one of the extracted subject indicating that the in-focus information is in focus or a subject specified by an operator of the imaging apparatus. Or both of the subjects are identified as the subject subjects.

また、本発明の撮像装置は、前記画像合成部によって生成された前記合成画像を表示する表示部、を、さらに備える、ことを特徴とする。   The imaging apparatus according to the present invention further includes a display unit that displays the composite image generated by the image composition unit.

また、本発明の撮像装置は、前記画像合成部によって生成された前記合成画像を記録する記録部、を、さらに備える、ことを特徴とする。   The imaging apparatus of the present invention further includes a recording unit that records the composite image generated by the image composition unit.

また、本発明の画像処理方法は、入力された画像中の被写体を抽出し、該抽出した被写体の特徴に基づいて、該抽出した被写体に所定の重み付けを行った重み付け情報を生成する被写体認識ステップと、前記被写体認識ステップによって抽出した被写体の中から、文字列を付加する対象の対象被写体を特定する対象物特定ステップと、前記重み付け情報に基づいて、所定の言語データベースから前記対象被写体を含む前記抽出した被写体に適合する文字列を検索する言語検索ステップと、前記言語検索ステップによって検索された前記対象被写体に適合する文字列を、前記入力された画像中の該対象被写体に関連付けて合成した合成画像を生成する画像合成ステップと、を含むことを特徴とする。   Further, the image processing method of the present invention extracts a subject in an input image, and generates a weighting information by performing predetermined weighting on the extracted subject based on the extracted subject characteristics. A target specifying step for specifying a target subject to which a character string is to be added from the subjects extracted in the subject recognition step, and the target subject from a predetermined language database based on the weighting information. A language search step for searching for a character string that matches the extracted subject, and a composition in which the character string that matches the target subject searched by the language search step is synthesized in association with the target subject in the input image And an image composition step for generating an image.

本発明によれば、画像内の被写体を検出し、検出した被写体に関連した文字列を付加した合成画像を生成することができるという効果が得られる。   According to the present invention, it is possible to detect an object in an image and generate a composite image to which a character string related to the detected object is added.

本発明の第1の実施形態における画像処理装置の概略構成を示したブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to a first embodiment of the present invention. 本第1の実施形態の画像処理装置で用いられる言語データベースにおける言語データの構成の一例を模式的に示した図である。It is the figure which showed typically an example of the structure of the language data in the language database used with the image processing apparatus of the 1st embodiment. 本第1の実施形態の画像処理装置における画像合成処理の手順を示したフローチャートである。5 is a flowchart illustrating a procedure of image composition processing in the image processing apparatus according to the first embodiment. 本第1の実施形態の画像処理装置における被写体の特定方法と、画像合成によって生成される画像の一例を示した図である。FIG. 3 is a diagram illustrating an example of a subject specifying method and an image generated by image synthesis in the image processing apparatus according to the first embodiment. 本第1の実施形態の画像処理装置における画像合成によって生成される画像の別の一例を示した図である。It is the figure which showed another example of the image produced | generated by the image composition in the image processing apparatus of the 1st embodiment. 本第1の実施形態の画像処理装置を備えた第2の実施形態の撮像装置の概略構成を示したブロック図である。It is the block diagram which showed schematic structure of the imaging device of 2nd Embodiment provided with the image processing apparatus of the 1st embodiment. 本第2の実施形態の撮像装置における画像合成処理の手順を示したフローチャートである。It is the flowchart which showed the procedure of the image composition process in the imaging device of the 2nd embodiment. 本第2の実施形態の撮像装置における吹き出し位置の指定方法の一例を示した図である。It is the figure which showed an example of the designation | designated method of the blowing position in the imaging device of the 2nd embodiment.

<第1の実施形態>
以下、本発明の実施形態について、図面を参照して説明する。図1は、本第1の実施形態における画像処理装置の概略構成を示したブロック図である。図1に示した画像処理装置200は、例えば、デジタルスチルカメラなどの撮像装置に適用される。なお、画像処理装置200を撮像装置に適用した場合の詳細な説明は、後述する。図1に示した画像処理装置200は、被写体認識部1と、対象物特定部2と、言語索出部3と、画像合成部4とから構成されている。また、画像処理装置200には、被写体に適合するコメントの文字列を記憶している言語データベース300が接続されている。画像処理装置200は、入力された画像データ内の指定された被写体に、言語データベース300に記憶している被写体に関連したコメント(文字列)を付加した画像を生成して出力する。
<First Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a schematic configuration of the image processing apparatus according to the first embodiment. The image processing apparatus 200 illustrated in FIG. 1 is applied to an imaging apparatus such as a digital still camera, for example. A detailed description when the image processing apparatus 200 is applied to an imaging apparatus will be described later. The image processing apparatus 200 shown in FIG. 1 includes a subject recognition unit 1, an object specifying unit 2, a language searching unit 3, and an image composition unit 4. The image processing apparatus 200 is connected to a language database 300 that stores a character string of a comment that matches the subject. The image processing apparatus 200 generates and outputs an image in which a comment (character string) related to the subject stored in the language database 300 is added to the specified subject in the input image data.

以下の説明においては、画像処理装置200と言語データベース300との構成に、画像処理装置200に画像データを入力するデータ入力部100と、画像処理装置200が生成した画像を表示する、例えば、液晶などの表示装置である表示部400とを加えた画像処理システムの場合について説明する。なお、図1においては、言語データベース300が、画像処理装置200の外部の構成要素である場合を示したが、言語データベース300は、画像処理装置200の内部の構成要素であってもよい。また、図1においては、言語データベース300が画像処理装置200の外部に配線されている場合を示したが、例えば、ネットワークを経由して画像処理装置200から離れている言語データベース300にアクセスする構成とすることもできる。   In the following description, a data input unit 100 that inputs image data to the image processing apparatus 200 and an image generated by the image processing apparatus 200 are displayed in the configuration of the image processing apparatus 200 and the language database 300. A case of an image processing system including a display unit 400 that is a display device such as the above will be described. 1 shows a case where the language database 300 is a component external to the image processing apparatus 200, the language database 300 may be a component internal to the image processing apparatus 200. FIG. 1 shows the case where the language database 300 is wired outside the image processing apparatus 200. For example, a configuration in which the language database 300 remote from the image processing apparatus 200 is accessed via a network. It can also be.

被写体認識部1は、データ入力部100から入力された画像データ(以下、「元画像」という)内の被写体の画像認識を行い、被写体を抽出する。そして、被写体認識部1は、データ入力部100から入力された元画像に抽出した被写体の情報を付加して対象物特定部2に出力する。また、被写体認識部1は、抽出した被写体の特徴(例えば、形状や色彩)に基づいて、それぞれの被写体の重み付け処理を行う。そして、重み付け処理した各被写体の重み付け情報(以下、「重み情報」という)を、言語索出部3に出力する。   The subject recognition unit 1 performs image recognition of a subject in image data (hereinafter referred to as “original image”) input from the data input unit 100 and extracts a subject. Then, the subject recognition unit 1 adds the extracted subject information to the original image input from the data input unit 100 and outputs it to the object specifying unit 2. In addition, the subject recognition unit 1 performs weighting processing of each subject based on the extracted features (for example, shape and color) of the subject. Then, the weighting information of each subject subjected to the weighting process (hereinafter referred to as “weighting information”) is output to the language searching unit 3.

ここで、被写体認識部1による処理内容の一例について説明する。被写体認識部1における被写体の抽出では、元画像内の被写体の輪郭をそれぞれ抽出する。そして、抽出した被写体の輪郭または被写体の輪郭内のデータに基づいて、重み付け処理を行う。   Here, an example of processing contents performed by the subject recognition unit 1 will be described. In subject extraction in the subject recognition unit 1, the contours of subjects in the original image are extracted. Then, weighting processing is performed based on the extracted contour of the subject or data in the contour of the subject.

例えば、抽出した被写体の輪郭、すなわち、被写体の形状に基づいた重み付け処理を行う際には、被写体の形状のテンプレートマッチング(照合)の処理を行い、テンプレートとの一致率に基づいて重み付け処理を行う。より具体的には、被写体認識部1は、抽出した各被写体の輪郭が、被写体認識部1内に備えた、例えば、三角、四角、丸などのテンプレートに類似しているか否かを、それぞれの被写体毎に比較する。そして、それぞれの比較結果を、各被写体の重み情報として言語索出部3に出力する。   For example, when performing weighting processing based on the contour of the extracted subject, that is, the shape of the subject, template matching processing of the shape of the subject is performed, and weighting processing is performed based on the matching rate with the template. . More specifically, the subject recognition unit 1 determines whether or not the extracted contour of each subject is similar to a template such as a triangle, square, or circle provided in the subject recognition unit 1. Compare each subject. Each comparison result is output to the language searching unit 3 as weight information of each subject.

なお、被写体の輪郭とテンプレートとの比較を行う際には、例えば、テンプレートの大きさと同じ大きさになるように、被写体の輪郭を拡大処理または縮小処理を行って一致率を算出する。そして、最も一致率の高い形状のテンプレートを、当該被写体のテンプレートとして選択する。その後、被写体認識部1は、選択されたテンプレートを用いて、それぞれの被写体の重み付けを行う。被写体の形状に基づいた重み付け処理では、被写体の輪郭と選択されたテンプレートとの一致率が、当該被写体の重み情報になる。   When comparing the contour of the subject with the template, for example, the contour of the subject is subjected to enlargement processing or reduction processing so as to have the same size as the template, and the matching rate is calculated. Then, the template having the highest matching rate is selected as the template for the subject. Thereafter, the subject recognition unit 1 weights each subject using the selected template. In the weighting process based on the shape of the subject, the matching rate between the contour of the subject and the selected template becomes the weight information of the subject.

また、例えば、被写体の輪郭内のデータ、すなわち、被写体の色彩に基づいた重み付け処理を行う際には、例えば、被写体の色の濃淡を表す輝度に基づいて重み付け処理を行う。被写体の色彩に基づいた重み付け処理では、各被写体の輝度の情報が、当該被写体の重み情報になる。また、被写体の色彩に基づいた重み付け処理では、例えば、各被写体を構成しているそれぞれの色(例えば、赤、緑、または青などのそれぞれの色)の情報に基づいて、各被写体の重み付けを行うこともできる。   Further, for example, when performing weighting processing based on the data in the contour of the subject, that is, the color of the subject, the weighting processing is performed based on, for example, luminance representing the shade of the subject color. In the weighting process based on the color of the subject, the luminance information of each subject becomes the weight information of the subject. Further, in the weighting process based on the color of the subject, for example, the weighting of each subject is performed based on the information of each color constituting each subject (for example, each color such as red, green, or blue). It can also be done.

対象物特定部2は、画像処理装置200のユーザーによる図示しない操作部の操作に応じて、被写体認識部1が抽出した被写体の内、コメントを付加する対象の被写体(以下、「対象被写体」という)を特定する。そして、被写体認識部1から入力された被写体の情報が付加された元画像に、さらに対象被写体の情報を付加して、画像合成部4に出力する。また、対象物特定部2は、特定された対象被写体の情報(以下、「対象被写体情報」という)を、言語索出部3に出力する。なお、対象物特定部2は、対象被写体が、被写体認識部1から入力された被写体の情報に含まれていない場合、すなわち、被写体認識部1が抽出した被写体と異なる被写体が、対象被写体である場合には、対象被写体の情報を被写体認識部1にも出力する。これにより、被写体認識部1は、対象被写体の画像認識を再度行って対象被写体を抽出し、対象被写体の重み情報を言語索出部3に出力することができる。   The object specifying unit 2 is a subject to be commented (hereinafter referred to as “target subject”) among the subjects extracted by the subject recognition unit 1 in response to an operation of an operation unit (not shown) by a user of the image processing apparatus 200. ). Then, the information of the target subject is further added to the original image to which the subject information input from the subject recognition unit 1 is added, and the information is output to the image composition unit 4. The object specifying unit 2 also outputs information on the specified target subject (hereinafter referred to as “target subject information”) to the language searching unit 3. Note that the target specifying unit 2 is the target subject when the target subject is not included in the subject information input from the subject recognition unit 1, that is, a subject different from the subject extracted by the subject recognition unit 1. In this case, information on the target subject is also output to the subject recognition unit 1. Thus, the subject recognition unit 1 can perform image recognition of the target subject again to extract the target subject, and output the weight information of the target subject to the language searching unit 3.

言語索出部3は、被写体認識部1から入力された重み情報と、対象物特定部2から入力された対象被写体情報とに基づいて、言語データベース300に記憶しているコメントの文字列の検索を行い、対象被写体に適合するコメントの文字列(以下、「コメントデータ」という)を選択する。そして、言語索出部3は、選択したコメントデータを、言語データベース300から取得し、取得したコメントデータを、画像合成部4に出力する。   The language search unit 3 searches for the character string of the comment stored in the language database 300 based on the weight information input from the subject recognition unit 1 and the target subject information input from the target specifying unit 2. To select a comment character string (hereinafter referred to as “comment data”) that matches the target subject. Then, the language searching unit 3 acquires the selected comment data from the language database 300 and outputs the acquired comment data to the image composition unit 4.

画像合成部4は、対象物特定部2から入力された被写体の情報と対象被写体情報とが付加された元画像に、言語索出部3から入力されたコメントデータを、例えば、対象被写体の吹き出しとして合成する画像合成処理を行った合成画像を生成する。そして、画像合成部4は、コメントデータが吹き出し内のコメント(以下、「吹き出しコメント」という)として合成された合成画像を、表示部400に出力する。なお、画像合成部4がコメントデータを吹き出しコメントとして合成する際には、コメントを含む吹き出しの領域の画像データを、元画像に上書きする画像合成処理を行うこともできるが、例えば、透明度の情報を予め画像処理装置200に設定しておき、吹き出しの領域の画像データを透明度の情報に応じた割合で重ね合わせる画像合成処理を行うこともできる。   The image composition unit 4 adds the comment data input from the language search unit 3 to the original image in which the subject information input from the target specifying unit 2 and the target subject information are added, for example, a balloon for the target subject. As a result, a composite image that has undergone image composition processing is generated. Then, the image synthesis unit 4 outputs a synthesized image in which the comment data is synthesized as a comment in a balloon (hereinafter referred to as “balloon comment”) to the display unit 400. Note that when the image composition unit 4 composes the comment data as a balloon comment, image composition processing for overwriting the original image with the image data of the balloon region including the comment can be performed. Can be set in the image processing apparatus 200 in advance, and the image composition processing for superimposing the image data of the balloon region at a ratio according to the transparency information can be performed.

次に、本第1の実施形態の画像処理装置200における画像合成処理について説明する。なお、以下の説明においては、被写体の形状と色彩との重み情報を用いて、対象被写体に適合したコメントデータを吹き出しコメントとして合成した合成画像を生成する場合について説明する。まず、本第1の実施形態の画像処理装置200において元画像に合成されるコメントデータを記憶した言語データベース300のデータ構成について説明する。図2は、本第1の実施形態の画像処理装置200で用いられる言語データベース300における言語データ(コメントデータ)の構成の一例を模式的に示した図である。なお、図2においては、網掛けで表したところに、図2中に吹き出しで示したコメントデータが記憶されているものとする。   Next, image composition processing in the image processing apparatus 200 of the first embodiment will be described. In the following description, a case will be described in which a combined image is generated by combining comment data suitable for a target subject as a balloon comment using weight information on the shape and color of the subject. First, the data configuration of the language database 300 that stores comment data to be combined with the original image in the image processing apparatus 200 of the first embodiment will be described. FIG. 2 is a diagram schematically illustrating an example of a configuration of language data (comment data) in the language database 300 used in the image processing apparatus 200 according to the first embodiment. In FIG. 2, it is assumed that the comment data indicated by the balloons in FIG. 2 is stored in the shaded area.

言語データベース300は、重み情報に対応したコメントデータが一義的に選択されるように構成されている。例えば、図2に示したように、言語データベース300には、被写体の形状(一致率)と、被写体の色彩(被写体の輝度)に応じて、1つのコメントデータが選択されるように、コメントデータが記憶されている。言語データベース300を、このような構成とすることによって、重み情報に対応した1つのコメントデータのみが、言語索出部3によって必ず選択される。図2では、被写体の形状と色彩との重み情報に基づいて、重みPの位置のコメントデータである言葉の文字列「きれい」が選択された場合の例を示している。   The language database 300 is configured such that comment data corresponding to the weight information is uniquely selected. For example, as shown in FIG. 2, in the language database 300, comment data is selected so that one comment data is selected according to the shape of the subject (match rate) and the color of the subject (subject brightness). Is remembered. By configuring the language database 300 as described above, only one comment data corresponding to the weight information is surely selected by the language searching unit 3. FIG. 2 shows an example in which the word character string “beautiful”, which is comment data at the position of the weight P, is selected based on the weight information of the shape and color of the subject.

なお、図2に示した言語データベース300の構成の一例では、被写体の形状と色彩との重み情報に基づいて対象被写体に適合した言葉の文字列を選択する場合の例について説明したが、被写体の形状または色彩のいずれか一方の重み情報に基づいて、対象被写体に適合した言葉の文字列を選択することができる。より具体的には、図2からもわかるように、言語データベース300には、被写体の形状(一致率)毎、すなわち、図2においては横方向の行毎に、1つのコメントデータのみが記憶されている。また、被写体の色彩(被写体の輝度)毎、すなわち、図2においては縦方向の列毎にも、1つのコメントデータのみが記憶されている。言語データベース300がこのような構成となっているため、言語索出部3は、入力された重み情報が1つであっても、必ず1つのコメントデータを選択することができる。なお、複数の重み情報に基づいて対象被写体に適合した言葉の文字列を選択する場合、コメントデータの選択に用いられる重み情報の優先順位(例えば、図2においては、形状または色彩のどちらの重み情報を優先してコメントデータを選択するか)は、画像合成処理を実行する前に、予め画像処理装置200に設定しておくことが望ましい。この重み情報の優先順位は、例えば、画像処理装置200のユーザーが決定し、予め画像処理装置200に設定しておく構成とすることができる。   In the example of the configuration of the language database 300 illustrated in FIG. 2, an example in which a character string of words suitable for the target subject is selected based on the weight information of the shape and color of the subject has been described. Based on the weight information of either the shape or the color, it is possible to select a character string of words suitable for the target subject. More specifically, as can be seen from FIG. 2, the language database 300 stores only one comment data for each shape (matching rate) of the subject, that is, for each horizontal row in FIG. ing. Also, only one comment data is stored for each subject color (subject brightness), that is, for each vertical column in FIG. Since the language database 300 has such a configuration, the language searching unit 3 can always select one comment data even if the input weight information is one. In addition, when selecting a character string of a word suitable for a target subject based on a plurality of weight information, the priority order of weight information used for selecting comment data (for example, in FIG. 2, which weight of shape or color is used) Whether comment data is selected with priority given to information) is preferably set in the image processing apparatus 200 in advance before executing the image composition processing. For example, the priority of the weight information can be determined by the user of the image processing apparatus 200 and set in the image processing apparatus 200 in advance.

次に、本第1の実施形態の画像処理装置200における画像合成処理の手順について説明する。図3は、本第1の実施形態の画像処理装置200における画像合成処理の手順を示したフローチャートである。   Next, a procedure for image composition processing in the image processing apparatus 200 according to the first embodiment will be described. FIG. 3 is a flowchart showing a procedure of image composition processing in the image processing apparatus 200 of the first embodiment.

まず、ステップS31において、データ入力部100に元画像が入力されると、データ入力部100は、入力された元画像を被写体認識部1に出力する。続いて、ステップS32において、被写体認識部1は、データ入力部100から入力された元画像内の被写体の画像認識を行い、被写体の輪郭をそれぞれ抽出する。そして、被写体認識部1は、抽出した被写体の輪郭の情報を元画像に付加して対象物特定部2に出力する。   First, in step S <b> 31, when an original image is input to the data input unit 100, the data input unit 100 outputs the input original image to the subject recognition unit 1. Subsequently, in step S32, the subject recognition unit 1 performs image recognition of the subject in the original image input from the data input unit 100, and extracts the contours of the subject. Then, the subject recognizing unit 1 adds the extracted subject outline information to the original image and outputs the information to the target specifying unit 2.

続いて、ステップS33において、対象物特定部2は、画像処理装置200のユーザーによる図示しない操作部の操作に応じて、対象被写体を特定し、被写体認識部1から入力された被写体の輪郭の情報が付加された元画像に、特定した対象被写体の情報をさらに付加して、画像合成部4に出力する。また、対象物特定部2は、対象被写体情報を、言語索出部3に出力する。   Subsequently, in step S <b> 33, the object specifying unit 2 specifies a target subject in accordance with an operation of an operation unit (not shown) by the user of the image processing apparatus 200, and information on the contour of the subject input from the subject recognition unit 1. Is added to the original image to which is added, and the information is output to the image composition unit 4. In addition, the target object specifying unit 2 outputs target subject information to the language searching unit 3.

続いて、ステップS34において、被写体認識部1は、抽出した被写体の特徴に基づいて、それぞれの被写体の重み付け処理を行い、各被写体の重み情報を言語索出部3に出力する。なお、本第1の実施形態では、被写体の形状と色彩との重み情報が言語索出部3に出力される。   Subsequently, in step S <b> 34, the subject recognition unit 1 performs weighting processing for each subject based on the extracted subject characteristics, and outputs the weight information of each subject to the language searching unit 3. In the first embodiment, the weight information of the shape and color of the subject is output to the language searching unit 3.

続いて、ステップS35において、言語索出部3は、ステップS33において対象物特定部2から入力された対象被写体情報と、ステップS34において被写体認識部1から出力された重み情報とに基づいて、言語データベース300内のコメントデータを検索する。そして、対象被写体に適合するコメントデータ取得して、画像合成部4に出力する。   Subsequently, in step S35, the language searching unit 3 determines the language based on the target subject information input from the target object specifying unit 2 in step S33 and the weight information output from the subject recognition unit 1 in step S34. The comment data in the database 300 is searched. Then, comment data suitable for the target subject is acquired and output to the image composition unit 4.

続いて、ステップS36において、画像合成部4は、対象物特定部2から入力された対象被写体の情報が付加された元画像に、言語索出部3から入力されたコメントデータを、対象被写体の吹き出しコメントとして合成した合成画像を生成する。そして、生成した合成画像を、表示部400に表示し、画像合成処理を終了する。   Subsequently, in step S36, the image composition unit 4 adds the comment data input from the language search unit 3 to the original image to which the information on the target subject input from the target object specifying unit 2 is added. A composite image synthesized as a balloon comment is generated. Then, the generated combined image is displayed on the display unit 400, and the image combining process is terminated.

ここで、画像処理装置200によって画像合成処理する場合の一例について説明する。図4は、本第1の実施形態の画像処理装置200における被写体の特定方法と、画像合成によって生成される画像の一例を示した図である。   Here, an example in the case of image composition processing by the image processing apparatus 200 will be described. FIG. 4 is a diagram illustrating an example of a subject specifying method and an image generated by image synthesis in the image processing apparatus 200 according to the first embodiment.

元画像が、図4(a)に示したような、花と2頭の蝶の画像である場合を想定する。被写体認識部1は、図4(a)に示した元画像内の被写体の画像認識を行い、図4(b)に示したように、それぞれの被写体(被写体A〜C)の輪郭を抽出する。   Assume that the original image is an image of a flower and two butterflies as shown in FIG. The subject recognition unit 1 performs image recognition of the subject in the original image shown in FIG. 4A, and extracts the contours of the respective subjects (subjects A to C) as shown in FIG. 4B. .

また、対象物特定部2は、画像処理装置200のユーザーによって指定された被写体を、対象被写体として特定する。なお、ユーザーによる対象被写体の指定は、例えば、図示しない操作部に備えた十字キーやタッチパネルなどを、ユーザーが操作することによって行うことができる。図4(c)では、元画像内の被写体C(右側の蝶)を、ユーザーがタッチパネル上で対象被写体として指定することによって、対象被写体を特定している様子を示している。   Further, the object specifying unit 2 specifies a subject specified by the user of the image processing apparatus 200 as a target subject. The user can specify the target subject by, for example, operating the cross key or the touch panel provided in the operation unit (not shown) by the user. FIG. 4C shows a state in which the subject is specified by the user specifying the subject C (right butterfly) in the original image as the subject on the touch panel.

この場合、対象物特定部2は、タッチパネルの機能を備えた表示部400に元画像を表示させる。その後、ユーザーによって吹き出しコメントを付加する被写体が指定されたとき、表示部400に備えたタッチパネルから、ユーザーが指定した被写体の位置を表す情報(図4(c)においては、被写体Cの位置の位置を表す情報)が、対象物特定部2に入力される。対象物特定部2は、入力された被写体の位置を表す情報に基づいて、被写体認識部1が抽出した元画像に含まれる被写体(図4(b)においては、被写体A〜C)の中から、被写体Cを対象被写体として特定する。なお、対象被写体を特定する方法は、ユーザーによって指定された被写体を特定することができる方法であれば、どのような方法でもよく、図4(c)に示したようなタッチパネル上で被写体を指定する方法に限定されるものではない。   In this case, the target object specifying unit 2 displays the original image on the display unit 400 having a touch panel function. Thereafter, when the subject to which the balloon comment is added is designated by the user, information indicating the location of the subject designated by the user (in FIG. 4C, the position of the location of the subject C) from the touch panel provided in the display unit 400. Is input to the object specifying unit 2. The object specifying unit 2 selects from the subjects (subjects A to C in FIG. 4B) included in the original image extracted by the subject recognition unit 1 based on the input information indicating the position of the subject. The subject C is specified as the target subject. Any method can be used for specifying the target subject as long as it can specify the subject specified by the user, and the subject can be specified on the touch panel as shown in FIG. It is not limited to the method of doing.

また、被写体認識部1は、抽出した被写体A〜Cの特徴に基づいて、それぞれの被写体の重み付け処理を行う。そして、言語索出部3は、被写体認識部1から入力された重み情報と、対象物特定部2から入力された対象被写体情報に基づいて、言語データベース300内のコメントデータを検索し、被写体Cに適合するコメントデータを取得する。ここでは、図4(b)に示した対象被写体である被写体C(右側の蝶)に適合したコメントデータとして、図2に示した重みPの位置のコメントデータが選択され、「きれい」という言葉の文字列のコメントデータを取得して、画像合成部4に出力するものとする。   The subject recognition unit 1 performs weighting processing of each subject based on the extracted features of the subjects A to C. Then, the language searching unit 3 searches the comment data in the language database 300 based on the weight information input from the subject recognition unit 1 and the target subject information input from the target specifying unit 2, and the subject C Get comment data conforming to. Here, the comment data at the position of the weight P shown in FIG. 2 is selected as the comment data suitable for the subject C (right butterfly) which is the target subject shown in FIG. The comment data of the character string is acquired and output to the image composition unit 4.

画像合成部4は、対象物特定部2から入力された元画像と、言語索出部3から入力されたコメントデータとを画像合成処理し、図4(d)に示したような、ユーザーによって指定された対象被写体である被写体Cに、吹き出しコメントとしてコメントデータが合成された合成画像を生成する。なお、ユーザーによって複数の対象被写体が指定された場合には、言語索出部3が指定されたそれぞれの対象被写体に適合するコメントデータを検索し、画像合成部4が、対象被写体毎に吹き出しコメントを合成した合成画像を生成することもできる。   The image composition unit 4 performs image composition processing on the original image input from the object specifying unit 2 and the comment data input from the language search unit 3, and is performed by the user as shown in FIG. A synthesized image in which comment data is synthesized as a balloon comment on the subject C, which is the designated target subject, is generated. When a plurality of target subjects are specified by the user, the language searching unit 3 searches for comment data that matches each specified target subject, and the image composition unit 4 performs a balloon comment for each target subject. It is also possible to generate a composite image obtained by combining

なお、画像合成部4がコメントデータを合成する場合、対象被写体の予め定めた方向に、予め定めた大きさの吹き出しコメントを合成することもできるが、被写体認識部1によって元画像に付加された被写体の輪郭の情報に基づいて、合成する吹き出しコメントの方向や大きさを変更することもできる。例えば、図4に示したように、元画像に複数の被写体(被写体A〜C)が含まれている場合には、被写体認識部1によって元画像に付加されている被写体の輪郭の情報に基づいて、対象被写体以外の被写体(被写体AおよびB)に吹き出しコメントが重ならないように、合成する吹き出しコメントの方向や大きさを変更することもできる。   When the image synthesis unit 4 synthesizes the comment data, a balloon comment having a predetermined size can be synthesized in a predetermined direction of the target subject, but is added to the original image by the subject recognition unit 1. The direction and size of the balloon comment to be synthesized can be changed based on the information on the outline of the subject. For example, as shown in FIG. 4, when a plurality of subjects (subjects A to C) are included in the original image, the subject recognition unit 1 adds information on the contour of the subject added to the original image. Thus, the direction and size of the balloon comment to be combined can be changed so that the balloon comment does not overlap with subjects other than the target subject (subjects A and B).

例えば、図4(b)に示した被写体Bが対象被写体として指定された場合、図4(d)と同様に吹き出しコメントを合成すると、図5(a)に示したように、吹き出しコメントが被写体Aに重なってしまう。元画像に付加されている被写体の輪郭の情報に基づいて、合成する吹き出しコメントの方向や大きさを変更することによって、例えば、図5(b)に示したように、元画像内の他の被写体(被写体AおよびC)に吹き出しコメントが重ならないように画像合成処理を行うことができる。   For example, when the subject B shown in FIG. 4B is designated as the target subject, if a balloon comment is synthesized as in FIG. 4D, the balloon comment becomes the subject as shown in FIG. It overlaps with A. By changing the direction and size of the balloon comment to be combined based on the contour information of the subject added to the original image, for example, as shown in FIG. Image composition processing can be performed so that the balloon comments do not overlap the subjects (subjects A and C).

上記に述べたように、本第1の実施形態の画像処理装置200では、元画像内の対象被写体に適合した吹き出しコメントを自動で付加した合成画像を生成することができる。これにより、画像をより楽しむことができる。   As described above, in the image processing apparatus 200 according to the first embodiment, it is possible to generate a composite image in which a balloon comment suitable for the target subject in the original image is automatically added. Thereby, an image can be enjoyed more.

<第2の実施形態>
次に、第1の実施形態の画像処理装置200を、例えば、デジタルスチルカメラなどの撮像装置に適用した場合について説明する、図6は、第1の実施形態の画像処理装置を備えた本第2の実施形態の撮像装置の概略構成を示したブロック図である。図6に示した撮像装置500は、レンズ部51と、撮像部52と、撮像制御部53と、画像信号処理部54と、画像記録部55と、表示部56と、制御部57と、画像処理装置200とから構成されている。また、撮像装置500には、言語データベース300が接続されている。また、撮像制御部53には、AF(オートフォーカス:自動焦点)部53aを備えている。また、画像処理装置200は、被写体認識部1と、対象物特定部2と、言語索出部3と、画像合成部4とから構成されている。
<Second Embodiment>
Next, the case where the image processing apparatus 200 according to the first embodiment is applied to an imaging apparatus such as a digital still camera will be described. FIG. 6 illustrates the first embodiment including the image processing apparatus according to the first embodiment. It is the block diagram which showed schematic structure of the imaging device of 2 embodiment. An imaging apparatus 500 illustrated in FIG. 6 includes a lens unit 51, an imaging unit 52, an imaging control unit 53, an image signal processing unit 54, an image recording unit 55, a display unit 56, a control unit 57, and an image. The processing apparatus 200 is comprised. A language database 300 is connected to the imaging apparatus 500. In addition, the imaging control unit 53 includes an AF (autofocus) unit 53a. The image processing apparatus 200 includes a subject recognition unit 1, an object specifying unit 2, a language searching unit 3, and an image composition unit 4.

撮像装置500は、撮影した画像内の指定された被写体に、言語データベース300に記憶している被写体に関連したコメント(文字列)を付加した画像を生成して記録または表示する。なお、撮像装置500に備えた画像処理装置200は、AF部53aから出力される焦点位置の情報が入力される以外は、図1に示した画像処理装置200と同様である。また、言語データベース300も図1に示した言語データベース300と同様である。従って、図6においては、言語データベース300が、撮像装置500の外部の構成要素である場合を示しているが、言語データベース300は、撮像装置500の内部の構成要素であってもよい。以下の説明においては、図1に示した画像処理装置200および言語データベース300と同じ構成要素については、同一の符号を付与し、それぞれの構成要素における同様の動作や構成についての詳細な説明は省略する。   The imaging apparatus 500 generates and records or displays an image in which a comment (character string) related to the subject stored in the language database 300 is added to a specified subject in the captured image. Note that the image processing apparatus 200 included in the imaging apparatus 500 is the same as the image processing apparatus 200 illustrated in FIG. 1 except that the information on the focal position output from the AF unit 53a is input. The language database 300 is the same as the language database 300 shown in FIG. Therefore, FIG. 6 shows a case where the language database 300 is a component outside the imaging device 500, but the language database 300 may be a component inside the imaging device 500. In the following description, the same components as those of the image processing apparatus 200 and the language database 300 shown in FIG. 1 are denoted by the same reference numerals, and detailed descriptions of similar operations and configurations of the respective components are omitted. To do.

レンズ部51は、複数のレンズから構成されズームレンズやオートフォーカスレンズなどを備え、被写体像を撮像部52に結像させる。
撮像部52は、CCD(Charge Coupled Device:電荷結合素子)型撮像素子や、CMOS(Complementary Metal Oxide Semiconductor:相補型金属酸化膜半導体)型撮像素子などのイメージセンサから構成され、レンズ部51の各種レンズを通過して撮像装置500内に入射した被写体の光学像を画像信号に変換する。
The lens unit 51 includes a plurality of lenses and includes a zoom lens, an autofocus lens, and the like, and forms an object image on the imaging unit 52.
The imaging unit 52 includes an image sensor such as a CCD (Charge Coupled Device) type imaging device or a CMOS (Complementary Metal Oxide Semiconductor) type imaging device. An optical image of a subject that has passed through the lens and entered the imaging apparatus 500 is converted into an image signal.

撮像制御部53は、撮像部52を制御して、被写体の撮像条件の調節制御を行う。また、撮像制御部53に備えたAF部53aは、レンズ部51を光軸方向に移動させて自動焦点の調節を行う。また、AF部53aは、被写体を撮影したときの焦点位置(以下、「AF位置」という)の情報を画像処理装置200内の対象物特定部2に出力する。   The imaging control unit 53 controls the imaging unit 52 to perform adjustment control of imaging conditions of the subject. The AF unit 53a provided in the imaging control unit 53 moves the lens unit 51 in the optical axis direction and adjusts the automatic focus. In addition, the AF unit 53 a outputs information on a focal position (hereinafter referred to as “AF position”) when the subject is photographed to the object specifying unit 2 in the image processing apparatus 200.

画像信号処理部54は、撮像部52から出力された画像信号に対して、信号の増幅、画像データへの変換および各種の補正、画像データの圧縮など、種々の画像処理を行う。
画像記録部55は、半導体メモリなどの着脱可能な記録媒体を制御して、画像データの記録または読み出しを行う。
The image signal processing unit 54 performs various image processing such as signal amplification, conversion into image data, various corrections, and image data compression on the image signal output from the imaging unit 52.
The image recording unit 55 controls a removable recording medium such as a semiconductor memory to record or read image data.

表示部56は、撮像部52に結像され、画像信号処理部54によって処理された画像データ、または画像記録部55が読み出された画像データの画像を表示する液晶などの表示装置である。
制御部57は、画像信号処理部54、画像記録部55、表示部56、および画像処理装置200の制御を行う。
The display unit 56 is a display device such as a liquid crystal that displays the image data imaged on the imaging unit 52 and processed by the image signal processing unit 54 or the image data read by the image recording unit 55.
The control unit 57 controls the image signal processing unit 54, the image recording unit 55, the display unit 56, and the image processing device 200.

なお、図6に示した撮像装置500においては、レンズ部51、撮像部52、撮像制御部53、および画像信号処理部54を併せた構成が、図1に示したデータ入力部100に相当する。すなわち、レンズ部51によって撮像部52に結像され、画像信号処理部54によって画像処理された画像データが、撮像装置500に備えた画像処理装置200に入力される元画像になる。また、表示部56は、図1に示した表示部400に相当する。   In the imaging apparatus 500 illustrated in FIG. 6, the configuration including the lens unit 51, the imaging unit 52, the imaging control unit 53, and the image signal processing unit 54 corresponds to the data input unit 100 illustrated in FIG. 1. . That is, the image data imaged on the imaging unit 52 by the lens unit 51 and image-processed by the image signal processing unit 54 becomes an original image input to the image processing device 200 provided in the imaging device 500. The display unit 56 corresponds to the display unit 400 shown in FIG.

対象物特定部2は、図1に示した対象物特定部2と同様に、撮像装置500のユーザーによる図示しない操作部の操作に応じて、対象被写体を特定する。また、対象物特定部2は、AF部53aから入力されたAF位置の情報に基づいた対象被写体の特定も行う。   Similar to the object specifying unit 2 shown in FIG. 1, the object specifying unit 2 specifies a target subject in accordance with an operation of an operation unit (not shown) by the user of the imaging apparatus 500. The object specifying unit 2 also specifies the target subject based on the AF position information input from the AF unit 53a.

次に、本第2の実施形態の撮像装置500における画像合成処理の手順について説明する。なお、以下の説明においては、撮影した被写体の形状と色彩との重み情報を用いて、対象被写体に適合したコメントデータを吹き出しコメントとして合成した合成画像を生成する場合について説明する。図7は、本第2の実施形態の撮像装置500における画像合成処理の手順を示したフローチャートである。   Next, the procedure of image composition processing in the imaging apparatus 500 of the second embodiment will be described. In the following description, a case will be described in which a composite image is generated by combining comment data suitable for a target subject as a balloon comment using weight information of the shape and color of the photographed subject. FIG. 7 is a flowchart illustrating a procedure of image composition processing in the imaging apparatus 500 according to the second embodiment.

まず、ステップS61において、撮影が行われると、画像信号処理部54は、レンズ部51によって撮像部52に結像された被写体像の画像信号に基づいた元画像を、被写体認識部1に出力する。続いて、ステップS62において、制御部57は、被写体に吹き出しコメントを合成するか否か、すなわち、撮像装置500の設定が、吹き出しコメントを付加するモードであるか否かを判断する。なお、吹き出しコメントを付加するモードであるか否かの撮像装置500の設定は、撮影前に、予め撮像装置500に設定しておくこともできるが、撮像装置500のユーザーがステップS62のときに決定するようにすることもできる。撮像装置500の設定が吹き出しコメントを付加するモードでない場合は、撮像装置500における画像合成処理を終了する。   First, in step S <b> 61, when shooting is performed, the image signal processing unit 54 outputs an original image based on the image signal of the subject image formed on the imaging unit 52 by the lens unit 51 to the subject recognition unit 1. . Subsequently, in step S62, the control unit 57 determines whether to synthesize a balloon comment on the subject, that is, whether the setting of the imaging device 500 is a mode for adding a balloon comment. Note that the setting of the imaging apparatus 500 as to whether or not it is a mode for adding a balloon comment can be set in the imaging apparatus 500 in advance before shooting, but when the user of the imaging apparatus 500 performs step S62. It can also be determined. If the setting of the imaging apparatus 500 is not the mode for adding a balloon comment, the image composition process in the imaging apparatus 500 is terminated.

ステップS62による判断の結果、撮像装置500の設定が吹き出しコメントを付加するモードである場合、ステップS63において、被写体認識部1は、画像信号処理部54から入力された元画像内の被写体の画像認識を行い、被写体の輪郭をそれぞれ抽出する。そして、被写体認識部1は、抽出した被写体の輪郭の情報を元画像に付加して対象物特定部2に出力する。   If the result of determination in step S62 is that the setting of the imaging apparatus 500 is a mode for adding a balloon comment, in step S63, the subject recognition unit 1 performs image recognition of the subject in the original image input from the image signal processing unit 54. To extract the contours of the subject. Then, the subject recognizing unit 1 adds the extracted subject outline information to the original image and outputs the information to the target specifying unit 2.

続いて、ステップS64において、対象物特定部2は、撮像装置500のユーザーによる図示しない操作部の操作に応じて、対象被写体を特定する。また、対象物特定部2は、対象被写体情報を、言語索出部3に出力する。   Subsequently, in step S <b> 64, the object specifying unit 2 specifies a target subject in accordance with an operation of an operation unit (not shown) by the user of the imaging device 500. In addition, the target object specifying unit 2 outputs target subject information to the language searching unit 3.

続いて、ステップS65において、被写体認識部1は、抽出した被写体の特徴に基づいて、それぞれの被写体の重み付け処理を行い、各被写体の重み情報を言語索出部3に出力する。なお、本第2の実施形態では、被写体の形状と色彩との重み情報が言語索出部3に出力される。   Subsequently, in step S <b> 65, the subject recognition unit 1 performs a weighting process for each subject based on the extracted feature of the subject, and outputs weight information for each subject to the language searching unit 3. In the second embodiment, weight information on the shape and color of the subject is output to the language searching unit 3.

続いて、ステップS66において、言語索出部3は、ステップS64において対象物特定部2から入力された対象被写体情報と、ステップS65において被写体認識部1から出力された重み情報とに基づいて、言語データベース300内のコメントデータを検索する。   Subsequently, in step S66, the language searching unit 3 determines the language based on the target subject information input from the target object specifying unit 2 in step S64 and the weight information output from the subject recognition unit 1 in step S65. The comment data in the database 300 is searched.

続いて、ステップS67において、対象物特定部2は、AF部53aから入力されたAF位置の情報に基づいて、AF位置を中心にした焦点が合っている被写体を特定し、被写体認識部1から入力された被写体の輪郭の情報が付加された元画像に、特定した対象被写体の情報と焦点が合っている被写体の情報とをさらに付加して、画像合成部4に出力する。なお、対象物特定部2は、焦点が合っている被写体の情報を、言語索出部3に出力することもできる。これにより、言語索出部3は、言語データベース300を再度検索することによって、焦点が合っている被写体に適合するコメントデータを取得することができる。このことによって、画像合成部4は、焦点が合っている被写体に吹き出しコメントを付加することができるようになる。   Subsequently, in step S67, the object specifying unit 2 specifies a focused subject centered on the AF position based on the AF position information input from the AF unit 53a. Information on the subject to be identified and information on the subject in focus are further added to the input original image to which the contour information of the subject has been added, and output to the image composition unit 4. Note that the object specifying unit 2 can also output information on the subject in focus to the language searching unit 3. Thereby, the language searching part 3 can acquire the comment data suitable for the focused subject by searching the language database 300 again. As a result, the image composition unit 4 can add a balloon comment to the subject in focus.

続いて、ステップS68において、対象物特定部2は、撮像装置500のユーザーによる図示しない操作部の操作に応じて、吹き出しコメントを付加する元画像内の位置(以下、「吹き出し位置」という)を決定する。なお、ユーザーの指定によらず、焦点が合っている被写体の位置を吹き出し位置に決定することもできる。また、ユーザーに指定された位置と、焦点が合っている被写体の位置とを、吹き出し位置に決定することもできる。そして、対象物特定部2は、決定した吹き出し位置の情報を、言語索出部3および画像合成部4に出力する。   Subsequently, in step S <b> 68, the object specifying unit 2 determines a position (hereinafter referred to as “balloon position”) in the original image to which a balloon comment is added in response to an operation of an operation unit (not shown) by the user of the imaging apparatus 500. decide. Note that the position of the in-focus subject can be determined as the balloon position regardless of the user's designation. Also, the position designated by the user and the position of the subject in focus can be determined as the balloon position. Then, the object specifying unit 2 outputs information on the determined balloon position to the language searching unit 3 and the image composition unit 4.

続いて、ステップS69において、言語索出部3は、ステップS68において対象物特定部2から入力された決定した吹き出し位置の情報に基づいて、吹き出し位置に適合するコメントデータ取得して、画像合成部4に出力する。そして、画像合成部4は、対象物特定部2から入力された吹き出し位置の情報に基づいて、言語索出部3から入力されたコメントデータを、吹き出しコメントとして元画像に合成した合成画像を生成する。そして、生成した合成画像を、表示部400に表示、または画像記録部55によって記録媒体に記録し、画像合成処理を終了する。   Subsequently, in step S69, the language searching unit 3 acquires comment data suitable for the balloon position based on the information of the determined balloon position input from the object specifying unit 2 in step S68, and the image synthesis unit. 4 is output. Then, the image composition unit 4 generates a composite image in which the comment data input from the language searching unit 3 is combined with the original image as a balloon comment based on the information on the balloon position input from the object specifying unit 2. To do. Then, the generated composite image is displayed on the display unit 400 or recorded on a recording medium by the image recording unit 55, and the image composition processing is completed.

ここで、撮像装置500における吹き出し位置の指定方法の一例について説明する。図8は、本第2の実施形態の撮像装置500における吹き出し位置の指定方法の一例を示した図である。撮像装置500のユーザーによる吹き出し位置の指定は、ユーザーによる対象被写体の指定方法と同様に、十字キーやタッチパネルなどの操作によって行うことができる。例えば、図8に示したように、表示部56にタッチパネルの機能を備えている場合には、ユーザーが撮像装置500の表示部56のタッチパネルに触れることによって得られる、表示部56に備えたタッチパネルからの吹き出し位置を表す情報に基づいて、吹き出し位置を決定することができる。また、例えば、表示部56にタッチパネルの機能を備えていない場合には、図8に示した十字キー58をユーザーが操作することによって、吹き出し位置を決定することもできる。   Here, an example of a method for designating the balloon position in the imaging apparatus 500 will be described. FIG. 8 is a diagram illustrating an example of a method for specifying a balloon position in the imaging apparatus 500 according to the second embodiment. The designation of the balloon position by the user of the imaging apparatus 500 can be performed by an operation of a cross key, a touch panel, or the like, in the same manner as the method of designating the target subject by the user. For example, as illustrated in FIG. 8, when the display unit 56 has a touch panel function, the touch panel included in the display unit 56 obtained by the user touching the touch panel of the display unit 56 of the imaging device 500. The balloon position can be determined based on the information representing the balloon position from. For example, when the display unit 56 does not have a touch panel function, the balloon position can be determined by the user operating the cross key 58 shown in FIG.

上記に述べたように、本第2の実施形態の撮像装置500では、撮像装置500に備えた操作部によって、容易に、撮影した画像内の被写体に適合した吹き出しコメントを自動で付加した合成画像を生成することができる。そして、生成した合成画像を表示または記録することができる。これにより、撮影したその場で吹き出しコメントが付加された画像を楽しむことができ、後でも吹き出しコメントが付加された画像を楽しむことができる。   As described above, in the imaging apparatus 500 of the second embodiment, a composite image in which a balloon comment that is suitable for a subject in a captured image is easily added automatically by an operation unit provided in the imaging apparatus 500. Can be generated. Then, the generated composite image can be displayed or recorded. As a result, it is possible to enjoy the image with the balloon comment added on the spot and to enjoy the image with the balloon comment added later.

上記に述べたとおり、本発明を実施するための形態によれば、画像内の被写体に適合したコメントデータを言語データベースから検索することができる。また、言語データベース内には、重み情報に応じて一義的に選択されるコメントデータが記憶されている。これにより、言語データベースを検索した結果、複数のコメントデータが選択されることはなく、必ず1つのコメントデータのみが選択される。従って、本発明を実施するための形態では、従来の撮像装置のように、複数のコメントデータから画像に付加する吹き出しコメントを選択する必要がなく、被写体に適合した吹き出しコメントを自動で付加した合成画像を生成することができる。また、本発明を実施するための形態では、吹き出しコメントを付加する被写体をユーザーが指定することができる。これにより、画像内に複数の被写体がある場合でも、特定の被写体のみに吹き出しコメントを付加することができる。   As described above, according to the embodiment for carrying out the present invention, comment data suitable for a subject in an image can be searched from a language database. In the language database, comment data that is uniquely selected according to the weight information is stored. Thereby, as a result of searching the language database, a plurality of comment data is not selected, and only one comment data is always selected. Therefore, in the embodiment for carrying out the present invention, unlike the conventional imaging device, it is not necessary to select a balloon comment to be added to an image from a plurality of comment data, and a composition in which a balloon comment suitable for a subject is automatically added. An image can be generated. In the form for carrying out the present invention, the user can specify the subject to which the balloon comment is added. Thereby, even when there are a plurality of subjects in the image, it is possible to add a balloon comment only to a specific subject.

また、本発明を実施するための形態によれば、画像内で焦点が合っている位置の被写体を特定することができる。これにより、ユーザーが注目する被写体を認識することができ、吹き出し位置を自動で決定することができる。また、本発明を実施するための形態では、吹き出し位置をユーザーが指定することができる。これにより、ユーザーの所望の位置に吹き出しコメントを合成することができる。   Moreover, according to the form for implementing this invention, the to-be-photographed object of the position in focus in an image can be pinpointed. As a result, it is possible to recognize the subject to which the user pays attention, and to automatically determine the balloon position. Moreover, in the form for implementing this invention, a user can designate the balloon position. Thereby, the balloon comment can be synthesized at the position desired by the user.

なお、本実施形態においては、画像処理装置200に1つの言語データベース300が接続されている場合の例について説明したが、画像処理装置200に接続されている言語データベース300の個数は、本実施形態に限定されるものではなく、複数の言語データベース300が画像処理装置200に接続されている構成とすることもできる。この場合、例えば、言語索出部3がコメントデータを検索する言語データベース300を、ユーザーが選択する構成にすることもできる。また、例えば、ポートレートや夜景など、撮影されるシーンや、動物や昆虫など、被写体の種類に応じた複数の言語データベース300が接続されている場合には、例えば、撮像装置500の撮影条件や、被写体認識部1が抽出した被写体に応じて、コメントデータを検索する言語データベース300を切り替える構成とすることもできる。   In this embodiment, an example in which one language database 300 is connected to the image processing apparatus 200 has been described. However, the number of language databases 300 connected to the image processing apparatus 200 depends on the number of language databases 300 connected to the image processing apparatus 200. The present invention is not limited to this, and a plurality of language databases 300 may be connected to the image processing apparatus 200. In this case, for example, the language searching unit 3 can search the comment data, and the user can select the language database 300. In addition, for example, when a plurality of language databases 300 corresponding to the type of subject such as a portrait or night view, a scene to be photographed, or an animal or an insect are connected, for example, The language database 300 for searching for comment data can be switched in accordance with the subject extracted by the subject recognition unit 1.

また、言語データベース300に記憶されているコメントデータは、予め記憶されたデータのみではなく、例えば、ユーザーが好みに合わせて、コメントの文字列を変更する構成とすることもできる。例えば、撮像装置500内の言語データベース300を変更する場合には、図示しない操作部に備えた十字キーやタッチパネルなどをユーザーが操作することもできる。また、ネットワークを経由して画像処理装置200から離れている言語データベース300を変更する場合には、画像処理装置200で利用しているネットワークと異なる経路で言語データベース300にアクセスすることもできる。   Further, the comment data stored in the language database 300 is not limited to data stored in advance, and for example, the user can change the comment character string according to his / her preference. For example, when the language database 300 in the imaging apparatus 500 is changed, the user can operate a cross key or a touch panel provided in an operation unit (not shown). When the language database 300 that is remote from the image processing apparatus 200 via the network is changed, the language database 300 can be accessed through a route different from that of the network used by the image processing apparatus 200.

また、本実施形態においては、図2において被写体の形状(一致率)と、被写体の色彩(被写体の輝度)との重み情報を、それぞれ6段階に分割した言語データベース300の構成の例について説明したが、言語データベースにおいて分割する重み情報の段階(分割数)は、本実施形態に限定されるものではなく、重み情報毎に言語データベース内で分割する段階(分割数)を変えることができる。例えば、被写体の形状(一致率)を6段階とし、被写体の色彩(被写体の輝度)を8段階とした言語データベースの構成にすることもできる。   In the present embodiment, the example of the configuration of the language database 300 in which the weight information of the subject shape (coincidence rate) and the subject color (subject brightness) is divided into six stages in FIG. 2 has been described. However, the stage (number of divisions) of weight information divided in the language database is not limited to this embodiment, and the stage (number of divisions) divided in the language database can be changed for each weight information. For example, it is possible to adopt a language database configuration in which the shape of the subject (matching rate) has 6 levels and the color of the subject (brightness of the subject) has 8 levels.

また、本第2の実施形態においては、第1の実施形態の画像処理装置200を、デジタルスチルカメラなどの撮像装置に適用した場合について説明したが、画像処理装置を適用するシステムは、本実施形態に限定されるものではなく、元画像内の被写体に吹き出しコメントを付加した合成画像を生成するシステムであれば、どのようなシステムも適用することができる。   In the second embodiment, the case where the image processing apparatus 200 according to the first embodiment is applied to an imaging apparatus such as a digital still camera has been described. However, a system to which the image processing apparatus is applied is described in this embodiment. The present invention is not limited to the form, and any system can be applied as long as the system generates a composite image in which a balloon comment is added to a subject in the original image.

以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。   The embodiment of the present invention has been described above with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes various modifications within the scope of the present invention. It is.

100・・・データ入力部(撮影部)
200・・・画像処理装置
1・・・被写体認識部
2・・・対象物特定部
3・・・言語索出部(言語検索部)
4・・・画像合成部
300・・・言語データベース
400・・・表示部
500・・・撮像装置
51・・・レンズ部(撮影部)
52・・・撮像部(撮影部)
53・・・撮像制御部(撮影部)
53a・・・AF部(撮影部)
54・・・画像信号処理部(撮影部)
55・・・画像記録部(記録部)
56・・・表示部
57・・・制御部
58・・・十字キー
100: Data input part (photographing part)
200... Image processing device 1... Subject recognition unit 2... Object specifying unit 3 .. language search unit (language search unit)
4 ... Image composition unit 300 ... Language database 400 ... Display unit 500 ... Imaging device 51 ... Lens unit (shooting unit)
52 ... Imaging unit (imaging unit)
53 ... Imaging control unit (imaging unit)
53a AF section (shooting section)
54... Image signal processing unit (imaging unit)
55 ... Image recording part (recording part)
56... Display unit 57... Control unit 58.

Claims (11)

入力された画像中の被写体を抽出し、該抽出した被写体の特徴に基づいて、該抽出した被写体に所定の重み付けを行った重み付け情報を生成する被写体認識部と、
前記被写体認識部が抽出した被写体の中から、文字列を付加する対象の対象被写体を特定する対象物特定部と、
前記重み付け情報に基づいて、所定の言語データベースから前記対象被写体を含む前記抽出した被写体に適合する文字列を検索する言語検索部と、
前記言語検索部によって検索された前記対象被写体に適合する文字列を、前記入力された画像中の該対象被写体に関連付けて合成した合成画像を生成する画像合成部と、
を備えることを特徴とする画像処理装置。
A subject recognition unit that extracts a subject in the input image and generates weighting information obtained by performing predetermined weighting on the extracted subject based on characteristics of the extracted subject;
A target specifying unit for specifying a target subject to which a character string is to be added from the subjects extracted by the subject recognition unit;
A language search unit that searches for a character string that matches the extracted subject including the target subject from a predetermined language database based on the weighting information;
An image compositing unit that generates a composite image in which a character string that matches the target subject searched by the language search unit is associated with the target subject in the input image;
An image processing apparatus comprising:
前記画像合成部は、
前記対象被写体に適合する文字列を、該対象被写体からの吹き出しとして関連付けた合成画像を生成する、
ことを特徴とする請求項1に記載の画像処理装置。
The image composition unit
Generating a composite image in which a character string suitable for the target subject is associated as a balloon from the target subject;
The image processing apparatus according to claim 1.
前記被写体認識部が重み付けする際の前記被写体の特徴は、
前記抽出された被写体の形状および色彩の特徴であり、
前記被写体認識部は、
前記入力された画像中の被写体の輪郭を抽出し、
前記抽出した被写体の輪郭と、所定の形状との一致率の情報に基づいて、該被写体の形状に関する重み付けを行い、
前記抽出した被写体の輪郭内の色のデータの情報に基づいて、該被写体の色彩に関する重み付けを行い、
前記言語検索部は、
前記一致率の情報および前記色のデータの情報に基づいて、前記被写体に適合する文字列を検索する、
ことを特徴とする請求項2に記載の画像処理装置。
The characteristics of the subject when the subject recognition unit weights are as follows:
The extracted subject's shape and color characteristics;
The subject recognition unit
Extracting the contour of the subject in the input image;
Based on the information on the matching rate between the extracted contour of the subject and a predetermined shape, weighting is performed on the shape of the subject,
Based on the information of the color data in the contour of the extracted subject, weighting is performed on the color of the subject,
The language search unit
Based on the information on the matching rate and the information on the color data, a character string suitable for the subject is searched.
The image processing apparatus according to claim 2.
前記被写体認識部が重み付けする際の前記被写体の特徴は、
前記抽出された被写体の形状の特徴であり、
前記被写体認識部は、
前記入力された画像中の被写体の輪郭を抽出し、
前記抽出した被写体の輪郭と、所定の形状との一致率の情報に基づいて、該被写体の形状に関する重み付けを行い、
前記言語検索部は、
前記一致率の情報に基づいて、前記被写体に適合する文字列を検索する、
ことを特徴とする請求項2に記載の画像処理装置。
The characteristics of the subject when the subject recognition unit weights are as follows:
A characteristic of the shape of the extracted subject;
The subject recognition unit
Extracting the contour of the subject in the input image;
Based on the information on the matching rate between the extracted contour of the subject and a predetermined shape, weighting is performed on the shape of the subject,
The language search unit
Search for a character string that matches the subject based on the matching rate information.
The image processing apparatus according to claim 2.
前記被写体認識部が重み付けする際の前記被写体の特徴は、
前記抽出された被写体の色彩の特徴であり、
前記被写体認識部は、
前記入力された画像中の被写体の輪郭を抽出し、
前記抽出した被写体の輪郭内の色のデータの情報に基づいて、該被写体の色彩に関する重み付けを行い、
前記言語検索部は、
前記色のデータの情報に基づいて、前記被写体に適合する文字列を検索する、
ことを特徴とする請求項2に記載の画像処理装置。
The characteristics of the subject when the subject recognition unit weights are as follows:
A characteristic of the color of the extracted subject;
The subject recognition unit
Extracting the contour of the subject in the input image;
Based on the information of the color data in the contour of the extracted subject, weighting is performed on the color of the subject,
The language search unit
Based on the information on the color data, search for a character string that matches the subject.
The image processing apparatus according to claim 2.
前記対象物特定部は、
該画像処理装置の操作者によって指定された被写体を、前記対象被写体として特定する、
ことを特徴とする請求項2に記載の画像処理装置。
The object specifying unit includes:
A subject specified by an operator of the image processing apparatus is identified as the subject subject;
The image processing apparatus according to claim 2.
被写体を撮影した画像を出力すると共に、前記被写体を撮影したときの焦点の情報を出力する撮影部と、
前記撮影部が撮影した画像中の被写体を抽出し、該抽出した被写体の特徴に基づいて、該抽出した被写体に所定の重み付けを行った重み付け情報を生成する被写体認識部と、
前記撮影部が撮影したときの焦点の情報に基づいて、前記被写体認識部が抽出した被写体の中から、文字列を付加する対象の対象被写体を特定する対象物特定部と、
前記重み付け情報に基づいて、所定の言語データベースから前記対象被写体を含む前記抽出した被写体に適合する文字列を検索する言語検索部と、
前記言語検索部によって検索された前記対象被写体に適合する文字列を、前記入力された画像中の該対象被写体に関連付けて合成した合成画像を生成する画像合成部と、
を備えることを特徴とする撮像装置。
An image capturing unit that outputs an image of the subject and outputs information on a focus when the subject is captured;
A subject recognition unit that extracts a subject in an image photographed by the photographing unit and generates weighting information obtained by performing predetermined weighting on the extracted subject based on characteristics of the extracted subject;
A target specifying unit that specifies a target subject to which a character string is to be added from among the subjects extracted by the subject recognition unit, based on focus information when the shooting unit takes a picture;
A language search unit that searches for a character string that matches the extracted subject including the target subject from a predetermined language database based on the weighting information;
An image compositing unit that generates a composite image in which a character string that matches the target subject searched by the language search unit is associated with the target subject in the input image;
An imaging apparatus comprising:
前記対象物特定部は、
前記焦点の情報において焦点が合っていることを表している前記抽出した被写体、または該撮像装置の操作者によって指定された被写体のいずれか1つの被写体、または両方の被写体を、前記対象被写体として特定する、
ことを特徴とする請求項7に記載の撮像装置。
The object specifying unit includes:
The extracted subject indicating that the focus is in focus in the focus information, the subject designated by the operator of the imaging apparatus, or both subjects are identified as the subject subject. To
The imaging apparatus according to claim 7.
前記画像合成部によって生成された前記合成画像を表示する表示部、
を、さらに備える、
ことを特徴とする請求項7に記載の撮像装置。
A display unit for displaying the combined image generated by the image combining unit;
Further comprising
The imaging apparatus according to claim 7.
前記画像合成部によって生成された前記合成画像を記録する記録部、
を、さらに備える、
ことを特徴とする請求項7に記載の撮像装置。
A recording unit for recording the combined image generated by the image combining unit;
Further comprising
The imaging apparatus according to claim 7.
入力された画像中の被写体を抽出し、該抽出した被写体の特徴に基づいて、該抽出した被写体に所定の重み付けを行った重み付け情報を生成する被写体認識ステップと、
前記被写体認識ステップによって抽出した被写体の中から、文字列を付加する対象の対象被写体を特定する対象物特定ステップと、
前記重み付け情報に基づいて、所定の言語データベースから前記対象被写体を含む前記抽出した被写体に適合する文字列を検索する言語検索ステップと、
前記言語検索ステップによって検索された前記対象被写体に適合する文字列を、前記入力された画像中の該対象被写体に関連付けて合成した合成画像を生成する画像合成ステップと、
を含むことを特徴とする画像処理方法。
A subject recognition step of extracting a subject in the input image and generating weighting information obtained by performing a predetermined weighting on the extracted subject based on the characteristics of the extracted subject;
A target specifying step for specifying a target subject to which a character string is to be added from the subjects extracted in the subject recognition step;
A language search step for searching a character string suitable for the extracted subject including the target subject from a predetermined language database based on the weighting information;
An image compositing step for generating a composite image in which the character string matching the target subject searched in the language search step is combined with the target subject in the input image;
An image processing method comprising:
JP2010293228A 2010-12-28 2010-12-28 Image processing device, image processing method and imaging apparatus Withdrawn JP2012142739A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010293228A JP2012142739A (en) 2010-12-28 2010-12-28 Image processing device, image processing method and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010293228A JP2012142739A (en) 2010-12-28 2010-12-28 Image processing device, image processing method and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012142739A true JP2012142739A (en) 2012-07-26

Family

ID=46678592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010293228A Withdrawn JP2012142739A (en) 2010-12-28 2010-12-28 Image processing device, image processing method and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2012142739A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014038429A (en) * 2012-08-14 2014-02-27 Zenrin Datacom Co Ltd Image processor, image processing method and image processing program
WO2015163068A1 (en) * 2014-04-22 2015-10-29 ソニー株式会社 Information-processing device, information-processing method, and computer program
KR101914661B1 (en) * 2017-09-29 2018-11-06 주식회사 포렉스랩 Additional information display system for real-time broadcasting service through automatic recognition of object of video object

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014038429A (en) * 2012-08-14 2014-02-27 Zenrin Datacom Co Ltd Image processor, image processing method and image processing program
WO2015163068A1 (en) * 2014-04-22 2015-10-29 ソニー株式会社 Information-processing device, information-processing method, and computer program
KR101914661B1 (en) * 2017-09-29 2018-11-06 주식회사 포렉스랩 Additional information display system for real-time broadcasting service through automatic recognition of object of video object

Similar Documents

Publication Publication Date Title
US8599251B2 (en) Camera
JP4862930B2 (en) Image processing apparatus, image processing method, and program
JP4645685B2 (en) Camera, camera control program, and photographing method
KR101434564B1 (en) Method and system for extracting the photographing information
US20100225785A1 (en) Image processor and recording medium
JP2009159514A (en) Imaging device, control method thereof, and program
JP2009059042A (en) Image handling device, image handling method, and image handling program
JP2009141516A (en) Image display device, camera, image display method, program, image display system
CN105847666B (en) Picture pick-up device and its control method
US20120133798A1 (en) Electronic camera and object scene image reproducing apparatus
JP4895205B2 (en) Image processing apparatus and program thereof
US20180077298A1 (en) Image-capturing assistance device and image-capturing device
JP2012142739A (en) Image processing device, image processing method and imaging apparatus
JP4989362B2 (en) IMAGING DEVICE, THROUGH IMAGE DISPLAY METHOD, AND CAPTURED IMAGE RECORDING METHOD
JP4870503B2 (en) Camera and blog management system
US20130051633A1 (en) Image processing apparatus
JP5168320B2 (en) Camera, best shot shooting method, program
JP5332493B2 (en) Camera, image sharing server, and image sharing program
JP2008211506A (en) Image processing apparatus, imaging apparatus and its program
US20150249792A1 (en) Image processing device, imaging device, and program
JP2008103850A (en) Camera, image retrieval system, and image retrieving method
JP6006841B2 (en) Image handling apparatus, image handling method, and program
JP5778314B2 (en) Server and image handling method
WO2022158201A1 (en) Image processing device, image processing method, and program
JP5287965B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140304