JP2016220051A - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP2016220051A
JP2016220051A JP2015103346A JP2015103346A JP2016220051A JP 2016220051 A JP2016220051 A JP 2016220051A JP 2015103346 A JP2015103346 A JP 2015103346A JP 2015103346 A JP2015103346 A JP 2015103346A JP 2016220051 A JP2016220051 A JP 2016220051A
Authority
JP
Japan
Prior art keywords
image processing
image
processing apparatus
captured image
rod
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015103346A
Other languages
Japanese (ja)
Other versions
JP2016220051A5 (en
Inventor
康佑 松本
Kosuke Matsumoto
康佑 松本
将 小野澤
Susumu Onozawa
将 小野澤
佳嗣 真鍋
Keiji Manabe
佳嗣 真鍋
隆雄 中井
Takao Nakai
隆雄 中井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015103346A priority Critical patent/JP2016220051A/en
Publication of JP2016220051A publication Critical patent/JP2016220051A/en
Publication of JP2016220051A5 publication Critical patent/JP2016220051A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To remove unnecessary objects reflected at the time of shooting briefly from an image.SOLUTION: When a selfie stick 2 is reflected in an image captured while mounting on the selfie stick 2, a digital camera 1 acquires the positions in the images of markers M1, M2 disposed on the selfie stick 2, and based on the positions of the markers M1, M2, performs image processing for removing the image part of the unnecessary objects (selfie stick 2) in the captured image.SELECTED DRAWING: Figure 1

Description

本発明は、撮像手段を備える画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus including an imaging unit, an image processing method, and a program.

近年、デジタルカメラを用いて、いわゆる自分撮りを行う際に、セルフィースティックと呼ばれる延長棒(自撮り棒、或いはセルカ棒)の先端部にデジタルカメラを取り付け、このカメラのレンズ側を自分に向けて自身を撮影する方法が知られているが、より離れた位置から自分撮りを行うことができるという効果が得られる反面、不要物であるセルフィースティック自体が撮像画像内に写り込んでしまうという問題があった。
ところで、撮像画像内に写り込んだ不要物や障害物を検出する技術としては、例えば、特許文献1や特許文献2のような技術が開示されている。すなわち、特許文献1は、撮像された複数の連続画像を用いて動点の移動領域を抽出することにより障害物を自動的に検出するようにした技術であり、特許文献2は、異なる向きの画像を重ね合わせて形成した統合モデル画像を作成し、この統合モデル画像と撮影画像とのパターンマッチングにより障害物を検出する技術である。
In recent years, when taking a so-called selfie with a digital camera, a digital camera is attached to the tip of an extension stick (selfie stick or selka stick) called a selfie stick, and the lens side of this camera is pointed at you. Although there is a known method of photographing itself, there is an effect that it is possible to take a self-portrait from a farther position, but there is a problem that an unnecessary selfie stick is reflected in the captured image. there were.
By the way, as a technique for detecting an unnecessary object or an obstacle reflected in a captured image, for example, techniques such as Patent Document 1 and Patent Document 2 are disclosed. That is, Patent Document 1 is a technique in which an obstacle is automatically detected by extracting a moving region of moving points using a plurality of captured continuous images, and Patent Document 2 is different in orientation. This is a technique for creating an integrated model image formed by overlapping images and detecting an obstacle by pattern matching between the integrated model image and a captured image.

特開2013−255076号公報JP2013-255076A 特開2011−221613号公報JP 2011-221613 A

しかしながら、上述した特許文献1にあっては、撮影タイミングの前後に渡る複数枚の画像を取得するために、予め連続的な撮影を行いながらその各画像をバッファに一時記憶しておく必要があり、また、特許文献2にあっては、パターンマッチングを行うために、予め異なる角度から撮影した各画像を基に統合モデル画像を作成しておく必要があるため、これらの技術は、処理負担の大きい処理を前提とするものと言わざるを得ない。   However, in Patent Document 1 described above, in order to acquire a plurality of images before and after the shooting timing, it is necessary to temporarily store each image in a buffer while performing continuous shooting in advance. Further, in Patent Document 2, it is necessary to create an integrated model image based on images taken from different angles in advance in order to perform pattern matching. It must be said that it assumes large processing.

本願発明の課題は、撮像時に写り込んだ不要物を画像内から簡略に除去できるようにすることである。   An object of the present invention is to make it possible to simply remove unnecessary objects reflected during imaging from an image.

上述した課題を解決するために本発明は、
撮像手段を備える画像処理装置であって、
一方の端部が当該画像処理装置に装着され、他方の端部が使用者により把持される棒状の物体が、前記撮像手段によって撮像された撮像画像内に写り込んでいる場合に、前記棒状の物体の該撮像画像内における位置を取得する取得手段と、
前記取得手段により取得された前記撮像画像内における前記棒状の物体の位置に基づき、その撮像画像内における前記棒状の物体の画像部分を除去する画像処理を行う画像処理手段と、
を備えることを特徴とする。
In order to solve the above-described problems, the present invention
An image processing apparatus comprising an imaging means,
When a rod-shaped object whose one end is attached to the image processing apparatus and whose other end is gripped by a user is reflected in a captured image captured by the imaging unit, the rod-shaped object Obtaining means for obtaining a position of the object in the captured image;
Image processing means for performing image processing based on the position of the rod-shaped object in the captured image acquired by the acquisition means to remove an image portion of the rod-shaped object in the captured image;
It is characterized by providing.

本発明によれば、撮像時に写り込んだ不要物を画像内から簡略に除去することができる。   According to the present invention, it is possible to simply remove unnecessary objects reflected during imaging from the image.

撮像手段を備える画像処理装置として適用したデジタルカメラ1をセルフィースティック(自撮り棒:セルカ棒)2の一端部に装着した状態を示した外観図。1 is an external view showing a state in which a digital camera 1 applied as an image processing apparatus including an imaging unit is attached to one end of a selfie stick (selfie stick: selka stick) 2. デジタルカメラ1の基本的な構成要素を示したブロック図。1 is a block diagram showing basic components of a digital camera 1. FIG. セルフィースティック2の基本的な構成要素を示したブロック図。The block diagram which showed the basic component of SELPHY STIC2. (1)は、ライブビュー画像の表示例を示し、(2)は、画像内に楕円領域(不要除去領域)を重ね合わせた状態を示し、(3)は、楕円領域(不要除去領域)に対してインペイント処理を実行した後の画像の表示例を示した図。(1) shows a display example of a live view image, (2) shows a state where an elliptical area (unnecessary removal area) is superimposed on the image, and (3) shows an elliptical area (unnecessary removal area). The figure which showed the example of a display of the image after performing the in-paint process with respect to. 撮影モードに切り替えられた際に実行開始されるデジタルカメラ1の特徴的な動作を示したフローチャート。The flowchart which showed the characteristic operation | movement of the digital camera 1 started execution when switched to imaging | photography mode. 図5の動作に続くフローチャート。6 is a flowchart following the operation of FIG. 第2実施形態において、(1)は、除去対象の所定の物体として踏み台を例示した場合で、この踏み台に3つのマーカM11、M12、M13を配設した状態を示した図、(2)は、3つのマークM11〜M13の配列関係(位置関係)を説明するための図。In the second embodiment, (1) is a case where a step is exemplified as a predetermined object to be removed, and a diagram showing a state in which three markers M11, M12, M13 are arranged on this step, (2) The figure for demonstrating the arrangement | sequence relationship (positional relationship) of three marks M11-M13. 第2実施形態において使用する物体形状テーブルTを示した図。The figure which showed the object shape table T used in 2nd Embodiment. 第2実施形態において、撮影モードに切り替えられた際に実行開始されるデジタルカメラ1の特徴的な動作を示したフローチャート。9 is a flowchart illustrating a characteristic operation of the digital camera 1 that is started when a shooting mode is switched in the second embodiment.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(第1実施形態)
先ず、図1〜図6を参照して本発明の第1実施形態を説明する。
図1は、撮像手段を備える画像処理装置として適用したデジタルカメラ1をセルフィースティック(自撮り棒:セルカ棒)2の一端部に装着した状態を示した外観図である。
デジタルカメラ1は、被写体を高精細に撮影可能な撮像機能、現在日時やタイマ時間を計時する計時機能、記録保存されている撮影済み画像(保存画像)を任意に読み出して再生する画像再生機能などを備えたコンパクトデジタルカメラである。セルフィースティック2は、一方の端部がデジタルカメラ1に装着され、他方の端部が使用者により把持される棒状の物体(自撮り棒:セルカ棒)で、デジタルカメラ1のシャッタを遠隔操作により駆動させるワイヤレスシャッタ機能などを備えている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
First, a first embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is an external view showing a state in which a digital camera 1 applied as an image processing apparatus including an imaging unit is attached to one end of a selfie stick (selfie stick: selfie stick) 2.
The digital camera 1 has an imaging function capable of photographing a subject with high definition, a timekeeping function that measures the current date and time, a timer time, an image reproduction function that arbitrarily reads and plays a recorded and saved image (stored image), and the like It is a compact digital camera equipped with. The selfie stick 2 is a stick-like object (self-shooting stick: selka stick) whose one end is attached to the digital camera 1 and whose other end is gripped by the user. The shutter of the digital camera 1 is remotely controlled. It has a wireless shutter function to drive it.

セルフィースティック2を構成するスティック部2aは、その長さを自在に伸縮可能な構成となっており、その一方の端部にはデジタルカメラ1を装着するホルダ部2bが設けられ、他方の端部にはICチップ(図示省略)や電源部を内蔵する把持部2cが設けられている。なお、ホルダ部2bには、スティック部2aに対してホルダ部2bの角度(デジタルカメラ1の向き)を任意に調整することが可能な角度調整機構部(図示省略)と、デジタルカメラ1が装着されたことを検出する装着検出スイッチ部(図1では図示省略)が設けられている。また、スティック部2aの外表面には、複数のマーカM1、M2が配設されている。   The stick part 2a constituting the selfie stick 2 is configured such that its length can be freely expanded and contracted, and a holder part 2b for mounting the digital camera 1 is provided at one end part, and the other end part is provided. Is provided with an IC chip (not shown) and a gripping part 2c containing a power supply part. In addition, the angle adjustment mechanism part (illustration omitted) and the digital camera 1 which can adjust arbitrarily the angle (direction of the digital camera 1) of the holder part 2b with respect to the stick part 2a are attached to the holder part 2b. A mounting detection switch portion (not shown in FIG. 1) for detecting that this has been performed is provided. A plurality of markers M1 and M2 are disposed on the outer surface of the stick portion 2a.

すなわち、把持部2cに隣接した位置(手元付近)には、メインマーカM1が配設され、このメインマーカM1の延長線上の所定位置には、サブマーカM2が配設されている。このようにメインマーカM1は、手元付近に配設されているのに対して、サブマーカM2は、その延長線上の所定距離(例えば、スティック部2aの長さの1/10程度)を隔てた位置に配設されたもので、発光色の異なるLED(Light Emitting Diode)によって構成されている。例えば、メインマーカM1はその点灯により緑色を発光し、サブマーカM2は、その点灯により赤色を発光するもので、セルフィースティック2の電源がオンされている状態でデジタルカメラ1が装着されている間、点灯状態を維持するようにしている。なお、マーカM1、M2の点灯/消灯は、セルフィースティック2側に設けられたキーの操作に応じて制御するようにしてもよい。また、メインマーカM1とサブマーカM2との隔たりは、スティック部2aの長さの1/10に限らず、任意であるが、両者は手元側(把持部2c側)に配設されていることが好ましい。   That is, a main marker M1 is disposed at a position (near the hand) adjacent to the grip portion 2c, and a sub marker M2 is disposed at a predetermined position on an extension line of the main marker M1. As described above, the main marker M1 is disposed near the hand, while the sub marker M2 is located at a predetermined distance on the extension line (for example, about 1/10 of the length of the stick portion 2a). It is comprised by LED (Light Emitting Diode) from which luminescent color differs. For example, the main marker M1 emits green when it is lit, and the sub marker M2 emits red when it is lit. While the digital camera 1 is mounted while the power of the selfie stick 2 is on, The lighting state is maintained. The lighting / extinguishing of the markers M1 and M2 may be controlled in accordance with the operation of a key provided on the selfie stick 2 side. Further, the distance between the main marker M1 and the sub marker M2 is not limited to 1/10 of the length of the stick portion 2a, but is optional, but both may be disposed on the hand side (the grip portion 2c side). preferable.

このメインマーカM1及びサブマーカM2は、撮像された画像(ライブビュー画像)内に写り込んでしまったセルフィースティック2の画像内における位置及びその輪郭(アウトライン)を特定するために使用されるマーカである。すなわち、第1実施形態においては、撮像画像内に写り込んでしまったセルフィースティック2の画像部分を特定してその画像部分を画像処理により除去するインペイント処理を実行するようにしているが、その際、セルフィースティック2上に配置された複数のマーカM1、M2の撮像画像内における位置関係からセルフィースティック2の画像部分(輪郭領域)を特定してインペイント処理を実行するようにしている。なお、このようなインペイント処理は、画像処理装置において一般的に用いられている技術であり、本実施形態ではその周知技術を利用するようにしているため、その具体的な説明については省略するものとする。   The main marker M1 and the sub marker M2 are markers used for specifying the position and outline (outline) of the selfie stick 2 captured in the captured image (live view image). . That is, in the first embodiment, an in-paint process is performed in which the image portion of the selfie stick 2 that has been captured in the captured image is specified and the image portion is removed by image processing. At this time, the image portion (outline region) of the selfie stick 2 is specified from the positional relationship in the captured image of the plurality of markers M1 and M2 arranged on the selfie stick 2, and the in-paint process is executed. Such an in-paint process is a technique generally used in an image processing apparatus, and since the known technique is used in the present embodiment, the detailed description thereof is omitted. Shall.

図2は、デジタルカメラ1の基本的な構成要素を示したブロック図である。
制御部11は、電源部(二次電池)12からの電力供給によって動作し、記憶部13内に格納されている各種のプログラムに応じてこのデジタルカメラ1の全体動作を制御するもので、この制御部11には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。記憶部13は、例えば、ROM、フラッシュメモリなどを有する構成で、後述する図5及び図6に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているプログラムメモリ13aと、フラグなどのデータを一時記憶するワークメモリ13bなどを有している。なお、記憶部13は、例えば、複数枚の撮影済み画像(保存画像群)を記憶可能なSDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しないが、通信機能を介してネットワークに接続されている状態においては所定のサーバ装置側の記憶領域を含むものであってもよい。
FIG. 2 is a block diagram showing basic components of the digital camera 1.
The control unit 11 operates by supplying power from the power supply unit (secondary battery) 12 and controls the overall operation of the digital camera 1 according to various programs stored in the storage unit 13. The control unit 11 is provided with a CPU (Central Processing Unit) and a memory (not shown). The storage unit 13 includes, for example, a ROM, a flash memory, and the like, and stores programs and various applications for realizing the present embodiment in accordance with operation procedures shown in FIGS. 5 and 6 to be described later. A program memory 13a and a work memory 13b for temporarily storing data such as flags. The storage unit 13 may be configured to include a removable portable memory (recording medium) such as an SD card or an IC card that can store a plurality of shot images (saved image group). Although not shown, a storage area on a predetermined server device side may be included when connected to a network via a communication function.

操作部14は、図示省略したが、各種のハードキーとして、電源オン/オフを行う電源キー、撮影が可能なモードと撮影済み画像(保存画像)を再生するモードなどを切り替えるモード変更キー、シャッタキーなど、各種のハードキーを備えたもので、制御部11は、このハードキーの操作に応じて、例えば、モード変更処理、撮影処理などを行う。撮像部15は、図示しないが、光学レンズからの被写体画像が撮像素子(CCDやCMOSなど)に結像されることにより被写体を高精細に撮影することが可能なもので、ズーム機能を備えた撮影レンズ、撮像素子、各種のセンサ、アナログ処理部、デジタル処理部を有している。制御部11は、撮像部15によって撮像された画像に対して各種の画像処理として、データ補間(デモザイク)を行ったり、カラー変換したり、ホワイトバランスやシャープネスなどを調整したりする現像処理を行うことにより撮像画像を撮影画像に変換すると共に、この現像処理後の画像を圧縮してファイル化する画像圧縮処理を施した後、記憶部13の記録メディアに記録保存するようにしている。   Although not shown, the operation unit 14 includes a power key for turning on / off the power as various hard keys, a mode change key for switching between a mode capable of photographing and a mode for reproducing a photographed image (stored image), a shutter, and the like. The controller 11 includes various hard keys such as keys, and the control unit 11 performs, for example, a mode change process, a photographing process, and the like in accordance with the operation of the hard keys. Although not shown, the imaging unit 15 is capable of photographing a subject with high definition by forming a subject image from an optical lens on an imaging element (CCD, CMOS, etc.), and has a zoom function. A photographing lens, an image sensor, various sensors, an analog processing unit, and a digital processing unit are included. The control unit 11 performs development processing such as data interpolation (demosaic), color conversion, white balance, sharpness adjustment, and the like as various image processing on the image captured by the imaging unit 15. As a result, the captured image is converted into a captured image, and after being subjected to image compression processing for compressing the image after development processing into a file, the image is recorded and stored in a recording medium in the storage unit 13.

表示部16は、画像を表示する高精細液晶、又は有機EL(Electro Luminescence)などで構成され、その表示画面は、撮像された画像(ライブビュー画像)をリアルタイムに表示するモニタ画面(ライブビュー画面)となったり、撮影済み画像を再生する再生画面となったりする。通信部17は、セルフィースティック2との間で短距離通信、例えば、Bluetooth(登録商標)通信を行うもので、制御部11は、シャッタキー(ハードキー)の操作に応じて撮影処理を行う他に、セルフィースティック2から送信されたシャッタ操作信号を通信部17が受信した際にも撮影処理を行うようにしている。なお、デジタルカメラ1とセルフィースティック2との間での短距離通信としては、無線LAN(Local Area Network)通信、又は有線通信であってもよい。   The display unit 16 includes a high-definition liquid crystal that displays an image or an organic EL (Electro Luminescence), and the display screen is a monitor screen (live view screen) that displays a captured image (live view image) in real time. ) Or a playback screen for playing back captured images. The communication unit 17 performs short-distance communication, for example, Bluetooth (registered trademark) communication with the selfie stick 2, and the control unit 11 performs a photographing process in response to an operation of a shutter key (hard key). In addition, the photographing process is also performed when the communication unit 17 receives the shutter operation signal transmitted from the selfie stick 2. The short-range communication between the digital camera 1 and the selfie stick 2 may be wireless LAN (Local Area Network) communication or wired communication.

セルフィースティック2の基本的な構成要素を示したブロック図である。
制御部21は、電源部(二次電池)22からの電力供給によって動作し、記憶部23内に格納されている各種のプログラムに応じてこのセルフィースティック2の全体動作を制御するもので、この制御部21には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。この制御部21にはその周辺デバイスとして、上述したメインマーカM1、サブマーカM2が接続されている他、装着検出スイッチ24、操作部25、通信部26、受光素子27が接続され、それらの入出力動作を制御する。
3 is a block diagram showing basic components of SELPHY STIC 2. FIG.
The control unit 21 operates by supplying power from the power source unit (secondary battery) 22 and controls the overall operation of the selfie stick 2 according to various programs stored in the storage unit 23. The control unit 21 is provided with a CPU (Central Processing Unit) and a memory (not shown). The control unit 21 is connected to the above-described main marker M1 and sub-marker M2 as peripheral devices, as well as a mounting detection switch 24, an operation unit 25, a communication unit 26, and a light receiving element 27. Control the behavior.

装着検出スイッチ24は、上述したようにホルダ部2bにデジタルカメラ1が装着されたことを検出するもので、制御部21は、装着検出スイッチ24からの検出信号に応じて、メインマーカM1、サブマーカM2、受光素子27を駆動する制御を行うようにしている。操作部25は、電源オン/オフを行う電源キーなどを有し、通信部26は、デジタルカメラ1との間で短距離通信、例えば、Bluetooth(登録商標)通信を行う。受光素子27は、上述のワイヤレスシャッタ機能を構成するもので、手元側のメインマーカM1に接近して配置され、メインマーカM1から発光された光が使用者の親指などで遮蔽された際にその発光された光を受光できなくなることによりメインマーカM1への遮蔽を検出する。制御部21は、メインマーカM1が遮蔽された際に受光素子27の検出信号に基づいてシャッタ操作が行われたものと判断してシャッタ操作信号を通信部26から送信するようにしている。   The mounting detection switch 24 detects that the digital camera 1 is mounted on the holder portion 2b as described above, and the control unit 21 responds to the detection signal from the mounting detection switch 24 with the main marker M1 and the sub marker. Control for driving M2 and the light receiving element 27 is performed. The operation unit 25 includes a power key for turning on / off the power, and the communication unit 26 performs short-range communication, for example, Bluetooth (registered trademark) communication with the digital camera 1. The light receiving element 27 constitutes the wireless shutter function described above, and is disposed close to the main marker M1 on the hand side, and when the light emitted from the main marker M1 is shielded by the user's thumb or the like, Shielding the main marker M1 is detected when the emitted light cannot be received. The control unit 21 determines that the shutter operation has been performed based on the detection signal of the light receiving element 27 when the main marker M1 is shielded, and transmits the shutter operation signal from the communication unit 26.

図4(1)は、撮像部15で撮像された画像(ライブビュー画像)がモニタ画面に表示されている状態を例示した図である。すなわち、デジタルカメラ1をセルフィースティック2に装着した状態において使用者(撮影者)が自分自身を頭上から撮像したときの撮像画像を示し、図示の例は、この画像内にセルフィースティック2の略全体が写り込んでしまう場合である。このように画像内にセルフィースティック2が写り込んでしまう場合、制御部11は、その画像を解析することによって画像内のメインマーカM1、サブマーカM2の位置を検出すると共に、このメインマーカM1、サブマーカM2の位置を結ぶ直線(仮想線)を長軸とする楕円をセルフィースティック2の輪郭(アウトライン)として生成し、この楕円領域を不要除去領域として特定するようにしている。   FIG. 4A is a diagram illustrating a state where an image (live view image) captured by the imaging unit 15 is displayed on the monitor screen. That is, an image taken when the user (photographer) takes an image of himself / herself from above with the digital camera 1 mounted on the selfie stick 2 is shown. The example shown in FIG. Is reflected in the image. When the selfie stick 2 appears in the image as described above, the control unit 11 analyzes the image to detect the positions of the main marker M1 and the sub marker M2 in the image, and also detects the main marker M1 and the sub marker. An ellipse whose major axis is a straight line (virtual line) connecting the positions of M2 is generated as an outline (outline) of the selfie stick 2, and this ellipse area is specified as an unnecessary removal area.

図4(2)は、撮像画像(ライブビュー画像)内に楕円領域(セルフィースティック2の輪郭:不要除去領域)を概念的に配置した状態を示している。この場合、メインマーカM1、サブマーカM2の位置を結ぶ直線上に楕円の長軸を沿わせると共に、画像内のメインマーカM1の位置を起点とし、その位置に楕円領域の一端部(先細部分)を合わせることにより楕円領域を画像内に配置するようにしている。この場合、画像内のセルフィースティック2は、手元から画像の端部に向かって次第に太くなるように写し込まれるようになるため、つまり、画像の端部が最も太くなるため、楕円領域の長軸の長さ(長径)の略1/2(長半径)が画像の端に位置するような楕円領域を生成し、また、メインマーカM1は、手元側(把持部2c側)に配設されているために、このメインマーカM1に楕円領域の先細部分が合うように楕円領域を画像内に配置することにより画像内におけるセルフィースティック2の輪郭領域が楕円領域と略一致するようになる。   FIG. 4 (2) shows a state in which an elliptical area (contour of selfie stick 2: unnecessary removal area) is conceptually arranged in the captured image (live view image). In this case, the long axis of the ellipse is set along a straight line connecting the positions of the main marker M1 and the sub marker M2, and the position of the main marker M1 in the image is set as a starting point, and one end portion (tapered portion) of the elliptical region is set at the position. By combining them, an elliptical region is arranged in the image. In this case, the selfie stick 2 in the image is imprinted so as to gradually become thicker from the hand toward the edge of the image, that is, the edge of the image becomes the thickest, so the major axis of the elliptical region An elliptical region is generated such that approximately 1/2 (major radius) of the length (major radius) is located at the end of the image, and the main marker M1 is disposed on the hand side (the grip portion 2c side). Therefore, by arranging the elliptical area in the image so that the tapered portion of the elliptical area matches the main marker M1, the contour area of the selfie stick 2 in the image substantially coincides with the elliptical area.

このようにして生成した楕円領域(セルフィースティック2の輪郭:不要除去領域)に対して公知のインペイント処理を行うことによって、その楕円領域内のセルフィースティック2の画像部分を除去すると共に、その除去した部分をその周囲の色や模様などで塗り潰すことによって修復するようにしている。図4(3)は、楕円領域(不要除去領域)に対してインペイント処理を実行した後の撮像画像を示した図で、図示の例では、セルフィースティック2の画像部分が全て除去されたものとなる。   By performing a known in-paint process on the elliptical area thus generated (contour of selfie stick 2: unnecessary removal area), the image portion of selfie stick 2 in the elliptical area is removed and removed. The repaired part is repaired by painting it with the surrounding color or pattern. FIG. 4 (3) is a diagram showing a captured image after performing an in-paint process on an elliptical area (unnecessary removal area). In the illustrated example, the image portion of the selfie stick 2 is completely removed. It becomes.

次に、第1実施形態におけるデジタルカメラ1の動作概念を図5及び図6に示すフローチャートを参照して説明する。ここで、このフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。このことは後述する他の実施形態においても同様であり、記録媒体の他に、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。なお、図5及び図6は、デジタルカメラ1の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図5及び図6のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。   Next, the operation concept of the digital camera 1 in the first embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in this flowchart is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Further, it is possible to sequentially execute the operation according to the above-described program code transmitted via a transmission medium such as a network. The same applies to other embodiments described later. In addition to the recording medium, an operation unique to the present embodiment can be executed using a program / data supplied externally via a transmission medium. 5 and 6 are flowcharts showing an outline of the operation of the characteristic part of the present embodiment in the entire operation of the digital camera 1. When the flow of FIG. 5 and FIG. Return to the main flow of operation (not shown).

図5及び図6は、撮影モードに切り替えられた際に実行開始されるデジタルカメラ1の特徴的な動作を示したフローチャートである。
セルフィースティック2側の制御部21は、その電源がオンされている状態において、そのホルダ部2bにデジタルカメラ1が装着されると、装着検出スイッチ24がオンされるため、その検出信号に応じてメインマーカM1及びサブマーカM2を駆動して点灯させると共に、受光素子27を駆動して受信可能な状態となる。この場合、メインマーカM1は緑色に点灯し、サブマーカM2は赤色に点灯するようになる。
FIG. 5 and FIG. 6 are flowcharts showing characteristic operations of the digital camera 1 that are started when the shooting mode is switched.
When the digital camera 1 is attached to the holder 2b in the state in which the power source is turned on, the control unit 21 on the selfie stick 2 side turns on the attachment detection switch 24, and accordingly, according to the detection signal. The main marker M1 and the sub marker M2 are driven to be lit, and the light receiving element 27 is driven so that reception is possible. In this case, the main marker M1 is lit in green, and the sub marker M2 is lit in red.

この状態においてデジタルカメラ1側の制御部11は、撮影モードに切り替えられると、撮像部15から撮像画像を取得してモニタ画面にライブビュー画像として表示させる(図5のステップA1)。そして、その撮像画像を解析することによりメインマーカM1、サブマーカM2の検出を行う(ステップA2)。この場合、撮像画像内に高輝度の緑色、赤色の円形の発光体が写っているか否かに基づいて画像内にメインマーカM1及びサブマーカM2が含まれているか否か、つまり、メインマーカM1とサブマーカM2の両方が写っているかを調べる(ステップA3)。   In this state, when switching to the shooting mode, the control unit 11 on the digital camera 1 side acquires a captured image from the imaging unit 15 and displays it as a live view image on the monitor screen (step A1 in FIG. 5). Then, the main marker M1 and the sub marker M2 are detected by analyzing the captured image (step A2). In this case, whether or not the main marker M1 and the sub marker M2 are included in the image based on whether or not the high-luminance green and red circular light emitters are captured in the captured image, that is, the main marker M1 and It is checked whether both sub-markers M2 are shown (step A3).

なお、撮像画像内にメインマーカM1、サブマーカM2の一方だけしか写っていない場合でも、他方のマーカの一部分だけが写っている場合、又は、マーカの全てが写っていなくてもその周辺光(薄色の拡散光)を検出することができた場合には、撮像画像内に両方のマーカが写っているものと判断するようにしてもよい。すなわち、2つのマーカM1、M2が撮像画像内に完全に写し込まれていなくても、2つのマーカM1、M2の位置を推測可能であれば、画像内に2つのマーカM1、M2が含まれていると判別する。   Even if only one of the main marker M1 and the sub marker M2 is shown in the captured image, only a part of the other marker is shown, or even if all the markers are not shown, the ambient light (light If the color diffused light can be detected, it may be determined that both markers are reflected in the captured image. That is, even if the two markers M1 and M2 are not completely imprinted in the captured image, the two markers M1 and M2 are included in the image as long as the positions of the two markers M1 and M2 can be estimated. It is determined that

いま、画像内にメインマーカM1及びサブマーカM2が写っていない場合には(ステップA3でNO)、セルフィースティック2を使用しない場合、又はセルフィースティック2を使用しても撮像画像内にセルフィースティック2が写っていない場合であるから図6のフローに移り、セルフィースティック2からシャッタ操作信号を受信したかを調べたり(ステップA11)、操作部14上のシャッタキーが操作されたかを調べたりする(ステップA12)。ここで、セルフィースティック2側では、メインマーカM1から発光された緑色の光が使用者の親指などで遮蔽されると、その発光された光が受光素子27に受光できなくなるので、シャッタ操作が行われたものと判断してシャッタ操作信号を通信部26から送信する。   If the main marker M1 and the sub marker M2 are not shown in the image (NO in step A3), the selfie stick 2 is not included in the captured image even when the selfie stick 2 is not used or even when the selfie stick 2 is used. Since this is not the case, the flow proceeds to the flow of FIG. 6 to check whether the shutter operation signal has been received from the selfie stick 2 (step A11) or to check whether the shutter key on the operation unit 14 has been operated (step S11). A12). Here, on the selfie stick 2 side, when the green light emitted from the main marker M1 is shielded by the user's thumb or the like, the emitted light cannot be received by the light receiving element 27, so that the shutter operation is performed. A shutter operation signal is transmitted from the communication unit 26 by determining that it has been broken.

デジタルカメラ1側において、セルフィースティック2からのシャッタ操作信号を受信しなかった場合(ステップA11でNO)、しかもシャッタキーが操作されなかった場合には(ステップA12でNO)、ステップA87に移り、撮影モードを解除する操作が行われたかを調べるが、いま、撮影モードのままであれば(ステップA18でNO)、図5のステップA1に戻る。一方、セルフィースティック2からシャッタ操作信号を受信した場合(ステップA11でYES)、又は操作部14上のシャッタキーが操作されたことを検出した場合には(ステップA12でYES)、撮影画像用に撮像画像を取得し(ステップA13)、後述する楕円領域がライブビュー画像にあるかを調べるが(ステップA14)、いま、楕円領域はないので(ステップA14でNO)、この撮像画像に対して現像処理を行うことにより撮影画像に変換する(ステップA16)。そして、この現像処理後の画像を圧縮処理して記憶部13の記録メディアに記録保存(ステップA17)させた後、図5のステップA1に戻る。   When the digital camera 1 does not receive the shutter operation signal from the selfie stick 2 (NO in step A11), and when the shutter key is not operated (NO in step A12), the process proceeds to step A87. It is checked whether or not an operation for canceling the shooting mode has been performed. If it is still in the shooting mode (NO in step A18), the process returns to step A1 in FIG. On the other hand, when a shutter operation signal is received from the selfie stick 2 (YES in step A11), or when it is detected that the shutter key on the operation unit 14 is operated (YES in step A12), it is used for a captured image. A captured image is acquired (step A13), and it is checked whether an elliptical area described later is present in the live view image (step A14). Since there is no elliptical area (NO in step A14), the captured image is developed. By performing the processing, it is converted into a photographed image (step A16). Then, the developed image is compressed and recorded on the recording medium of the storage unit 13 (step A17), and the process returns to step A1 in FIG.

一方、撮像画像内にメインマーカM1及びサブマーカM2が写っている場合には(図5のステップA3でYES)、このメインマーカM1とサブマーカM2の撮像画像内における位置を取得する(ステップA4)。そして、メインマーカM1とサブマーカM2の位置を結ぶ直線を画像内の端まで延長した線分の長さに基づいて楕円を生成する(ステップA5)。この場合、メインマーカM1とサブマーカM2の位置を結ぶ直線を撮像画像内の端まで延長した線分の長さを長軸の長さの略1/2(略長半径)とし、短軸の長さ(短径)を所定値とする楕円を生成する。   On the other hand, when the main marker M1 and the sub marker M2 are shown in the captured image (YES in step A3 in FIG. 5), the positions of the main marker M1 and the sub marker M2 in the captured image are acquired (step A4). Then, an ellipse is generated based on the length of the line segment obtained by extending the straight line connecting the positions of the main marker M1 and the sub marker M2 to the end in the image (step A5). In this case, the length of the line segment obtained by extending the straight line connecting the positions of the main marker M1 and the sub marker M2 to the end in the captured image is approximately ½ of the length of the major axis (substantially major radius), and the length of the minor axis An ellipse having a predetermined value for the length (minor axis) is generated.

次に、制御部11は、撮影レンズの焦点距離を取得すると共に、被写体までの距離(被写体距離:フォーカス距離)を取得する(ステップA6)。更に、予め記憶されているセルフィースティック2の実サイズ(太さ)を読み出し取得する(ステップA7)。そして、取得した焦点距離、被写体距離、セルフィースティック2の実サイズ(太さ)に基づいて、画像内におけるセルフィースティック2のサイズ(太さ)を求めると共に、このセルフィースティック2のサイズ(太さ)に基づいて、楕円領域の短軸の長さ(短径)を補正する処理を行う(ステップA8)。   Next, the control unit 11 acquires the focal length of the photographic lens and also acquires the distance to the subject (subject distance: focus distance) (step A6). Further, the actual size (thickness) of the selfie stick 2 stored in advance is read and acquired (step A7). Based on the acquired focal length, subject distance, and actual size (thickness) of selfie stick 2, the size (thickness) of selfie stick 2 in the image is obtained, and the size (thickness) of selfie stick 2 is obtained. Based on the above, a process of correcting the length (minor axis) of the minor axis of the elliptical region is performed (step A8).

次に、上述のようにして生成した楕円領域を不要除去領域として撮像画像(ライブビュー画像)内に配置するための位置を特定し(ステップA9)、この楕円領域を撮像画像(ライブビュー画像)内に概念的に配置する(ステップA10)。すなわち、メインマーカM1は、把持部2cに隣接した位置(手元付近)に配設されているので、このメインマーカM1の画像内の位置に楕円領域の先細部分を合わせると、楕円領域の先細部分がセルフィースティック2の把持部2cを含む手元側が略合致するようになる。また、メインマーカM1とサブマーカM2とを結ぶ直線に楕円領域の長軸を合わせると、楕円領域の長軸方向がスティック部2aの軸方向に沿ったものとなる。   Next, a position for disposing the elliptical area generated as described above as an unnecessary removal area in the captured image (live view image) is specified (step A9), and this elliptical area is captured image (live view image). Are conceptually arranged (step A10). That is, since the main marker M1 is disposed at a position (near the hand) adjacent to the grip portion 2c, when the tapered portion of the elliptical area is aligned with the position in the image of the main marker M1, the tapered part of the elliptical area However, the hand side including the grip portion 2c of the selfie stick 2 substantially matches. Further, when the major axis of the elliptical area is aligned with the straight line connecting the main marker M1 and the sub marker M2, the major axis direction of the elliptical area is along the axial direction of the stick portion 2a.

そして、図6のフローに移り、セルフィースティック2からシャッタ操作信号を受信した場合(ステップA13でYES)、又は操作部14上のシャッタキーが操作された場合には(ステップA14でYES)、上述の楕円領域(不要除去領域)に対してインペイント処理を実行することにより、撮像画像内の楕円領域(セルフィースティック2の画像部分)を除去すると共に、その除去した領域内を周囲の色や模様などで塗り潰して修復する処理を行う。これによって処理されたインペイント後の撮像画像に対して現像処理を施して撮影画像に変換(ステップA16)した後、この現像処理後の画像を圧縮処理して記憶部13の記録メディアに記録保存させる(ステップA17)。その後、図5のステップA1に戻る。   Then, the flow proceeds to the flow of FIG. 6, when the shutter operation signal is received from the selfie stick 2 (YES in step A13), or when the shutter key on the operation unit 14 is operated (YES in step A14), the above-mentioned. By executing the in-paint process on the ellipse area (unnecessary removal area), the ellipse area (image portion of Selfie Stick 2) in the captured image is removed, and surrounding colors and patterns are included in the removed area. Do the process of painting and repairing. After the in-painted captured image processed in this way is subjected to a development process and converted into a photographed image (step A16), the image after the development process is compressed and recorded on the recording medium of the storage unit 13. (Step A17). Then, it returns to step A1 of FIG.

以上のように、第1実施形態においてデジタルカメラ1の制御部11は、棒状の物体(セルフィースティック2)に装着されている状態で撮像した画像内にセルフィースティック2が写し込んでいる場合に、このセルフィースティック2の該画像内における位置を取得し、このセルフィースティック2の位置に基づき、その撮像画像内における不要物(セルフィースティック2)の画像部分を除去する画像処理を行うようにしたので、撮像時に写し込まれた不要物をユーザ操作でその都度指定したり、処理負担の大きい処理を必要としたりせずに、撮像画像内から不要物を簡略に除去することができる。   As described above, in the first embodiment, the control unit 11 of the digital camera 1 is configured such that the selfie stick 2 is captured in an image captured while being attached to a rod-like object (selfie stick 2). Since the position of the selfie stick 2 in the image is acquired, and based on the position of the selfie stick 2, image processing for removing an image portion of an unnecessary object (selfie stick 2) in the captured image is performed. It is possible to simply remove unnecessary objects from the captured image without designating unnecessary objects imprinted at the time of imaging each time by a user operation or requiring processing with a large processing load.

制御部11は、予め棒状の物体(セルフィースティック2)に配置されているマーカの撮像画像内における位置を、セルフィースティック2の撮像画像内における位置として取得するようにしたので、マーカの位置からセルフィースティック2全体の位置を容易に得ることが可能となる。   Since the control unit 11 acquires the position in the captured image of the marker arranged on the rod-shaped object (Selfie Stick 2) in advance as the position in the captured image of the Selfie Stick 2, the control unit 11 determines the position of the marker from the marker position. The position of the entire stick 2 can be easily obtained.

制御部11は、セルフィースティック2の異なる複数の位置に配置されているメインマーカM1及びサブマーカM2の画像内における位置を取得し、この複数のマーカM1、M2の位置関係に基づき、その撮像画像内でのセルフィースティック2の輪郭を特定すると共に、その輪郭を基にセルフィースティック2の画像部分を除去するようにしたので、画像内におけるセルフィースティック2の輪郭を簡略に特定することができ、そのセルフィースティック2の画像部分の除去も容易なものとなる。   The control unit 11 acquires the positions in the image of the main marker M1 and the sub marker M2 arranged at different positions on the selfie stick 2, and based on the positional relationship between the markers M1 and M2, Since the contour of the selfie stick 2 is specified and the image portion of the selfie stick 2 is removed based on the contour, the contour of the selfie stick 2 in the image can be simply specified. The image portion of the stick 2 can be easily removed.

制御部11は、レンズの焦点距離、被写体距離、セルフィースティック2の実サイズ(太さ)に基づいてセルフィースティック2の画像内における輪郭(太さ)を特定して、その輪郭を基にセルフィースティック2の画像部分を除去するようにしたので、セルフィースティック2の太さ(楕円の短軸の長さ)を精度良く求めることができ、その除去も精度良く行うことが可能となる。   The control unit 11 specifies the contour (thickness) in the image of the selfie stick 2 based on the focal length of the lens, the subject distance, and the actual size (thickness) of the selfie stick 2, and the selfie stick based on the contour. Since the image portion 2 is removed, the thickness of the selfie stick 2 (the length of the minor axis of the ellipse) can be obtained with high accuracy, and the removal can be performed with high accuracy.

制御部11は、セルフィースティック2の異なる複数の位置に配置されているメインマーカM1及びサブマーカM2の画像内における位置を取得し、この複数のマーカM1、M2の位置を結ぶ直線を撮像画像内の端まで延長した線分の長さを略長半径とする楕円を生成し、この楕円領域に基づいて、セルフィースティック2の輪郭を特定して、その輪郭を基にセルフィースティック2の画像部分を除去するようにしたので、画像内から不要物であるセルフィースティック2を簡略に除去することができる。   The control unit 11 acquires positions in the image of the main marker M1 and the sub marker M2 arranged at different positions on the selfie stick 2, and connects straight lines connecting the positions of the markers M1 and M2 in the captured image. Generate an ellipse with the length of the line segment extended to the end as a major radius, specify the contour of Selfie Stick 2 based on this ellipse area, and remove the image part of Selfie Stick 2 based on the contour As a result, the unnecessary sticky stick 2 can be simply removed from the image.

制御部11は、セルフィースティック2の輪郭が特定された撮像画像をライブビュー画像として表示するようにしたので、使用者にあっては、セルフィースティック2が除去される撮像画像を確認してからその撮影を指示することができる。   Since the control unit 11 displays the captured image in which the contour of the selfie stick 2 is specified as a live view image, the user confirms the captured image from which the selfie stick 2 is removed, and then It is possible to instruct shooting.

制御部11は、セルフィースティック2側においてメインマーカM1の発光が使用者の親指などで遮蔽されることによって送信されるシャッタ操作信号を受信すると、それを契機として、セルフィースティック2が除去された撮像画像から撮影画像を生成する処理を行うようにしたので、セルフィースティック2側のメインマーカM1をシャッタボタンとして機能させることが可能となる。   When the control unit 11 receives a shutter operation signal transmitted when the light emission of the main marker M1 is shielded by the user's thumb or the like on the selfie stick 2 side, the control unit 11 takes the trigger as an opportunity for imaging with the selfie stick 2 removed. Since the process of generating the captured image from the image is performed, the main marker M1 on the selfie stick 2 side can be caused to function as a shutter button.

なお、上述した第1実施形態においてデジタルカメラ1は、セルフィースティック2上に配設された2つのマーカM1、M2の位置を結ぶ直線を画像内の端まで延長した線分を求めるようにしたが、セルフィースティック2上に複数のマーカを配設するのではなく、セルフィースティック2上の任意の位置に1つのマーカを設けるようにしてもよい。この際、制御部11は、セルフィースティック2の1個所に配置されているマーカの撮像画像内における位置を取得し、このマーカの位置と、セルフィースティック2とデジタルカメラ1との連結点との位置関係に基づいて、その撮像画像内でのセルフィースティック2の輪郭を特定して、その輪郭を基にセルフィースティック2の画像部分を除去するようにしてもよい。この場合、デジタルカメラ1とセルフィースティック2との連結方向に応じた画像の端の1点を固定点として設け、この固定点の位置から画像内のマーカの位置を結ぶ直線を求めるようにすれば、セルフィースティック2上のマーカは1つでも足りることになる。   In the first embodiment described above, the digital camera 1 obtains a line segment obtained by extending a straight line connecting the positions of the two markers M1 and M2 arranged on the selfie stick 2 to the end in the image. Instead of arranging a plurality of markers on the selfie stick 2, one marker may be provided at an arbitrary position on the selfie stick 2. At this time, the control unit 11 acquires the position in the captured image of the marker arranged at one place on the selfie stick 2, and the position of the marker and the connection point between the selfie stick 2 and the digital camera 1. Based on the relationship, the contour of the selfie stick 2 in the captured image may be specified, and the image portion of the selfie stick 2 may be removed based on the contour. In this case, if one point at the end of the image corresponding to the connection direction of the digital camera 1 and the selfie stick 2 is provided as a fixed point, a straight line connecting the position of the marker in the image is obtained from the position of the fixed point. Even one marker on the selfie stick 2 is sufficient.

また、撮像時にユーザがセルフィースティック2をその軸方向に僅かに移動させるようにすれば、セルフィースティック2上の任意の位置に1つのマーカを設けるだけでも足りる。この場合、デジタルカメラ1側では、連続撮像された各画像を順次解析することによって画像内におけるマーカの移動軌跡を検出し、この移動軌跡(セルフィースティック2の軸方向)から画像内の端まで延長した線分を求めるようにすれば、セルフィースティック2の方向からその輪郭を特定することができるので、その輪郭を基にセルフィースティック2の画像部分を除去することが可能となる。   Further, if the user slightly moves the selfie stick 2 in the axial direction during imaging, it is sufficient to provide one marker at an arbitrary position on the selfie stick 2. In this case, on the digital camera 1 side, the successively moving images are sequentially analyzed to detect the marker movement locus in the image and extend from the movement locus (in the axial direction of the selfie stick 2) to the end in the image. If the determined line segment is obtained, the contour can be specified from the direction of the selfie stick 2, so that the image portion of the selfie stick 2 can be removed based on the contour.

また、マーカを点光源ではなく面積を持たせ、撮像方向や角度によって変化するマーカの形状を検出可能とすれば、1つのマーカを設けるだけでも足りる。   Also, if the marker has an area instead of a point light source, and it is possible to detect the shape of the marker that changes depending on the imaging direction and angle, it is sufficient to provide only one marker.

また、セルフィースティック2全体を発光させるようにしてもよい。   Alternatively, the entire selfie stick 2 may emit light.

上述した第1実施形態においてデジタルカメラ1は、レンズの焦点距離、被写体距離、セルフィースティック2の実サイズ(太さ)に基づいて、セルフィースティック2の画像内における輪郭(太さ)を特定するようにしたが、メインマーカM1、サブマーカM2の位置を結んだ直線に対してその周辺に存在する画素を解析し、直線上の画素と周辺画素とを比較することによってそれらの類似度(色、濃度)からセルフィースティック2の輪郭を特定するようにしてもよい。すなわち、メインマーカM1、サブマーカM2の位置を結んだ直線の周辺の類似度(画像の解析結果)からセルフィースティックの輪郭を特定してその輪郭を基にセルフィースティック2の画像部分を除去するようにてもよい。これによってセルフィースティック2の輪郭を更に精度良く特定することができ、その除去も精度良く行うことが可能となる。   In the first embodiment described above, the digital camera 1 specifies the contour (thickness) in the image of the selfie stick 2 based on the focal length of the lens, the subject distance, and the actual size (thickness) of the selfie stick 2. However, by analyzing the pixels existing around the straight line connecting the positions of the main marker M1 and the sub marker M2, and comparing the pixels on the straight line with the peripheral pixels, their similarity (color, density) ), The contour of the selfie stick 2 may be specified. That is, the contour of the selfie stick is specified from the similarity (image analysis result) around the straight line connecting the positions of the main marker M1 and the sub marker M2, and the image portion of selfie stick 2 is removed based on the contour. May be. As a result, the contour of the selfie stick 2 can be specified with higher accuracy and the removal can be performed with higher accuracy.

上述した第1実施形態においては、楕円領域を生成してセルフィースティック2の輪郭を特定するようにしたが、楕円に限らず、その形状は任意であり、例えば、複数の矩形、三角形、円形などを組合わせることによってセルフィースティック2の輪郭を特定するようにしてもよい。   In the first embodiment described above, the ellipse region is generated and the contour of the selfie stick 2 is specified. However, the shape is not limited to an ellipse, and the shape is arbitrary, for example, a plurality of rectangles, triangles, circles, etc. The contour of the selfie stick 2 may be specified by combining.

上述した第1実施形態においては、セルフィースティック2の画像部分を除去するインペイント処理の実行タイミングとして、セルフィースティック2側のメインマーカM1が遮蔽された後の撮影画像の生成時に行うようにしたが、ライブビュー画像時において、逐次セルフィースティック2の画像部分を除去するインペイント処理を行うようにしてもよい。   In the first embodiment described above, the execution timing of the in-paint process for removing the image portion of the selfie stick 2 is performed when the captured image is generated after the main marker M1 on the selfie stick 2 side is shielded. In the live view image, an in-paint process for sequentially removing the image portion of the selfie stick 2 may be performed.

(第2実施形態)
以下、この発明の第2実施形態について図7〜図9を参照して説明する。
なお、上述した第1実施形態においては、撮像画像内から除去する対象(不要物)としてセルフィースティック2を例示したが、この第2実施形態においては、除去対象をセルフィースティック2に限らず、その他の所定の物体としたものである。ここで、両実施形態において基本的、或いは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施形態の特徴部分を中心に説明するものとする。
(Second Embodiment)
A second embodiment of the present invention will be described below with reference to FIGS.
In the first embodiment described above, the selfie stick 2 is illustrated as an object (unnecessary object) to be removed from the captured image. However, in the second embodiment, the removal object is not limited to the selfie stick 2, and the others. This is a predetermined object. Here, in both embodiments, the same or the same name in the embodiments are denoted by the same reference numerals, the description thereof will be omitted, and hereinafter, the description will focus on the features of the second embodiment. To do.

図7(1)は、第2実施形態において、除去対象(不要物)である所定の物体として、踏み台を例示した場合で、この踏み台の所定位置に3つのマーカM11、M12、M13を配設した状態を示した図である。
図示の例は、踏み台を斜め方向から見た場合を例示したもので、この踏み台の正面には3つのマークM11、M12、M13が配設されている。図7(2)は、3つのマークM11〜M13の配列関係(位置関係)を説明するための図で、マークM11〜M13は、正三角形の各頂点位置に配設されている。各マークM11〜M13は、同じ物体に対しては同じ色を発光するLEDを使用し、物体毎に異なる色を発光するようにしている。
FIG. 7A shows a case where a step is illustrated as a predetermined object to be removed (unnecessary) in the second embodiment, and three markers M11, M12, and M13 are arranged at predetermined positions on the step. It is the figure which showed the state which carried out.
In the example shown in the figure, the step is viewed from an oblique direction, and three marks M11, M12, and M13 are arranged on the front of the step. FIG. 7B is a diagram for explaining the arrangement relationship (positional relationship) of the three marks M11 to M13. The marks M11 to M13 are arranged at the vertex positions of the equilateral triangle. Each of the marks M11 to M13 uses an LED that emits the same color for the same object, and emits a different color for each object.

図8は、第2実施形態において使用する物体形状テーブルTを示した図である。
物体形状テーブルTは、所定の物体別にその形状データを記憶するもので、「発光色」、「物体の種類」、「形状に関する情報」の各項目を有し、ユーザ操作によって予め任意に設定されたものである。「発光色」は、所定の物体毎に異なる色を発光する各マークM11〜M13の発光色を示し、この発光色の違いによって所定の物体を識別可能としている。図示の例は、“踏み台”の「発光色」として“青色”を記憶し、“鉄棒”の「発光色」として“赤色”を記憶した場合を示している。「所定の物体」とは、撮像画像から除去する対象となる物体(不要物)を示し、例えば、人物が空中に浮かんでいる状態の画像を得るために、所定の物体として、踏み台、鉄棒などを除去対象としている。
FIG. 8 is a diagram showing an object shape table T used in the second embodiment.
The object shape table T stores shape data for each predetermined object. The object shape table T includes items “light emission color”, “type of object”, and “information on shape”, and is arbitrarily set in advance by a user operation. It is a thing. The “light emission color” indicates the light emission color of each mark M11 to M13 that emits a different color for each predetermined object, and the predetermined object can be identified by the difference in the light emission color. The illustrated example shows a case where “blue” is stored as the “light emission color” of the “step” and “red” is stored as the “light emission color” of the “iron bar”. The “predetermined object” indicates an object (unnecessary object) to be removed from the captured image. For example, in order to obtain an image of a person floating in the air, a predetermined object such as a step board or a horizontal bar Is targeted for removal.

「形状に関する情報」は、所定の物体の形状(輪郭)をその方向と長さを持つベクトルで表現するベクトルデータと、そのベクトルデータ内における複数のマーカ(上述の各マークM11〜M13に対応して正三角形の配列関係にある3つのマーカ)の位置データから成るもので、制御部11は、各マークM11、M12、M13の撮像画像内における位置と、ベクトルデータ内における複数のマーカの位置を対応させることにより、所定の物体の輪郭を表現するベクトルデータを変形させるようにしている。すなわち、撮像時に所定の物体がどのような向きで撮像されたかに応じて、各マークM11〜M13による正三角形を作る条件(例えば、各辺の長さが同一)が変化するために、撮像画像内の各マーク位置(三角形の各頂点位置)にベクトルデータ内の各マーク位置を合わせ込む(一致させる)ことにより、物体の輪郭を表現するベクトルデータをその物体の向きに応じて変形させるようにしている。   “Information about shape” corresponds to vector data representing the shape (contour) of a predetermined object by a vector having the direction and length, and a plurality of markers (the above-mentioned marks M11 to M13 described above) in the vector data. The control unit 11 determines the positions of the marks M11, M12, and M13 in the captured image and the positions of a plurality of markers in the vector data. By making it correspond, vector data expressing the contour of a predetermined object is deformed. That is, the conditions for creating an equilateral triangle by the marks M11 to M13 (for example, the length of each side is the same) change depending on the direction in which a predetermined object is imaged at the time of imaging. By aligning (matching) each mark position in the vector data with each mark position (each vertex position of the triangle), the vector data representing the contour of the object is deformed according to the orientation of the object. ing.

図9は、第2実施形態において、撮影モードに切り替えられた際に実行開始されるデジタルカメラ1の特徴的な動作を示したフローチャートである。
先ず、制御部11は、撮影モードに切り替えられると、撮像部15から撮像画像を取得してモニタ画面にライブビュー画像として表示させる(ステップB1)。次に、その撮像画像を解析することにより3つのマーカM11〜M13の検出し(ステップB2)、その撮像画像内に高輝度の発光体が写っているか否かに基づいて画像内に3つのマーカM11〜M13が含まれているか否かを調べる(ステップB3)。
FIG. 9 is a flowchart showing a characteristic operation of the digital camera 1 that is started when the mode is switched to the shooting mode in the second embodiment.
First, when switched to the shooting mode, the control unit 11 acquires a captured image from the imaging unit 15 and displays it as a live view image on the monitor screen (step B1). Next, the three markers M11 to M13 are detected by analyzing the captured image (step B2), and the three markers are included in the image based on whether or not a high-luminance illuminant is reflected in the captured image. It is checked whether or not M11 to M13 are included (step B3).

この場合においても第1実施形態と同様に、3つのマーカM11〜M13が撮像画像内に完全に写し込まれていなくても、3つのマーカM11〜M13の位置関係を推測することが可能であれば、画像内に3つのマーカM11〜M13が含まれていると判別するようにしている。いま、画像内に3つのマーカM11〜M13が写っていなければ(ステップB3でNO)、シャッタ操作が行われたかを調べたり(ステップB9)、撮影モードを解除する操作が行われたかを調べたりする(ステップB15)。   Even in this case, as in the first embodiment, even if the three markers M11 to M13 are not completely imprinted in the captured image, it is possible to estimate the positional relationship between the three markers M11 to M13. For example, it is determined that three markers M11 to M13 are included in the image. If the three markers M11 to M13 are not shown in the image (NO in step B3), it is checked whether a shutter operation has been performed (step B9), or whether an operation to cancel the shooting mode has been performed. (Step B15).

ここで、上述したいずれの操作も行われなければ(ステップB9及びB15でNO)、上述のステップB1に戻るが、シャッタ操作が行われたときには(ステップB9でYES)、撮影画像用に撮像画像を取得し(ステップB10)、プレビュー画像内で所定の物体が識別表示されているかを調べる(ステップB11)。いま、識別表示中ではないので(ステップB11でNO)、この撮像画像に対して現像処理を施して撮影画像に変換し(ステップB13)、この現像処理後の画像を圧縮処理して記憶部13の記録メディアに記録保存させる(ステップB14)。その後、撮影モードを解除する操作が行われたかを調べ(ステップB15)、撮影モードのままであれば(ステップB15でNO)、上述のステップB1に戻る。   If none of the operations described above is performed (NO in Steps B9 and B15), the process returns to Step B1 described above. However, if a shutter operation is performed (YES in Step B9), the captured image is used for the captured image. (Step B10), and it is checked whether a predetermined object is identified and displayed in the preview image (step B11). Now, since the identification display is not in progress (NO in step B11), the captured image is subjected to development processing and converted into a photographed image (step B13), and the image after the development processing is subjected to compression processing to store the storage unit 13. Are recorded and stored in the recording medium (step B14). Thereafter, it is checked whether or not an operation for canceling the photographing mode has been performed (step B15). If the photographing mode is maintained (NO in step B15), the process returns to the above-described step B1.

一方、撮像画像内に3つのマーカM11〜M13が写っている場合には(ステップB3でYES)、そのマーカM11〜M13の発光色(同一色)を検出する(ステップB4)。そして、この発光色に基づいて物体形状テーブルTを検索し、該当する発光色が有るかを調べ(ステップB5)、該当する発光色が無ければ(ステップB5でNO)、上述のシャッタ操作の有無を検出するステップB9に移るが、該当する発光色が有れば(ステップB5でYES)、物体形状テーブルTからその発光色に対応する所定の物体の「形状に関する情報」を取得する(ステップB6)。例えば、検出したマーカM11〜M13の発光色が“青色”であれば、所定の物体の種類は“踏み台”であるから、その「形状に関する情報」として、踏み台の形状(輪郭)を表現するベクトルデータと、そのベクトルデータ内における複数のマーカの位置データを読み出し取得する。   On the other hand, when three markers M11 to M13 are shown in the captured image (YES in step B3), the emission colors (same colors) of the markers M11 to M13 are detected (step B4). Then, the object shape table T is searched based on the emission color to check whether the corresponding emission color exists (step B5). If there is no corresponding emission color (NO in step B5), the presence / absence of the shutter operation described above is present. If there is a corresponding emission color (YES in step B5), “shape information” of a predetermined object corresponding to the emission color is acquired from the object shape table T (step B6). ). For example, if the detected emission color of the markers M11 to M13 is “blue”, the type of the predetermined object is “steps”, and therefore, a vector that represents the shape (contour) of the step as the “information about the shape”. Data and position data of a plurality of markers in the vector data are read and acquired.

そして、この3つのマークM11〜M13の撮像画像内における位置と、ベクトルデータ内における複数のマーカの位置とを対応させることによって、所定の物体(踏み台)の輪郭を表現するベクトルデータを変形(ステップB7)させた後、変形した輪郭を識別表示(例えば、太線表示)させる(ステップB8)。この状態において、シャッタキー操作が行われると(ステップB9でYES)、撮影画像用に撮像画像を取得し(ステップB10)、撮像画像内で所定の物体が識別表示されているかを調べる(ステップB11)。   Then, the position of the three marks M11 to M13 in the captured image is made to correspond to the positions of the plurality of markers in the vector data, thereby transforming the vector data representing the outline of the predetermined object (step). After B7), the deformed contour is displayed for identification (for example, bold line display) (step B8). In this state, when the shutter key operation is performed (YES in step B9), a captured image is acquired for the captured image (step B10), and it is checked whether a predetermined object is identified and displayed in the captured image (step B11). ).

いま、識別表示中であるので(ステップB11でYES)、輪郭領域(不要除去領域)に対してインペイント処理を実行することにより、撮像画像内の踏み台の画像部分を除去すると共に、その除去した領域内を周囲の色や模様などで塗り潰して修復する処理を行う(ステップB12)。そして、このインペイント処理後の撮像画像に対して現像処理を行うことにより撮影画像に変換(ステップB13)した後、この現像処理後の画像を圧縮処理して記憶部13の記録メディアに記録保存させる(ステップB14)。その後、上述のステップB1に戻る。   Since the identification display is being performed (YES in step B11), the in-paint process is performed on the contour area (unnecessary removal area), thereby removing the image portion of the step in the captured image and removing it. A process of filling the area with a surrounding color or pattern and repairing it is performed (step B12). The captured image after the in-paint processing is converted into a captured image by performing development processing (step B13), and then the image after the development processing is compressed and recorded and stored in the recording medium of the storage unit 13. (Step B14). Then, it returns to the above-mentioned step B1.

以上のように、第2実施形態においてデジタルカメラ1側の制御部11は、所定の物体の異なる複数の位置に配置されたマーカM11〜M13が撮像部15によって撮像された撮像画像内に写し込まれている場合に、複数のマーカM11〜M13の撮像画像内における位置と、所定の物体の形状に関する情報とに基づき、撮像画像内における所定の物体の輪郭を特定するようにしたので、撮像時に写し込まれた不要物をユーザ操作でその都度指定したり、処理負担の大きい処理を必要としたりせずに、簡略な処理で撮像画像内における所定の物体の輪郭を特定することができ、撮像時に写し込まれた所定の物体を不要物としてその画像内から簡略に除去することが可能となる。   As described above, in the second embodiment, the control unit 11 on the digital camera 1 side imprints the markers M11 to M13 arranged at a plurality of different positions of a predetermined object in a captured image captured by the imaging unit 15. In rare cases, the contour of the predetermined object in the captured image is specified based on the position of the plurality of markers M11 to M13 in the captured image and the information related to the shape of the predetermined object. It is possible to specify the outline of a predetermined object in the captured image by simple processing without specifying the imprinted object each time by a user operation or requiring processing with a heavy processing load. It is possible to simply remove a predetermined object that is sometimes copied from the image as an unnecessary object.

所定の物体の形状に関する情報は、その輪郭を表現するベクトルデータと、そのベクトルデータ内における複数のマーカの位置データであり、制御部11は、複数のマーカM11〜M13の撮像画像内における位置と、ベクトルデータ内における複数のマーカの位置とを対応させることによって、輪郭を表現するベクトルデータを変形するようにしたので、撮像時に所定の物体の向きに拘わらず、マーカの位置を合わせ込むという簡略な処理で撮像画像内における所定の物体の輪郭を容易に特定することができる。   The information related to the shape of the predetermined object is vector data representing the contour and position data of a plurality of markers in the vector data, and the control unit 11 determines the positions of the plurality of markers M11 to M13 in the captured image. Since the vector data representing the contour is deformed by associating with the positions of a plurality of markers in the vector data, the marker positions are aligned regardless of the orientation of a predetermined object during imaging. With this process, the contour of a predetermined object in the captured image can be easily specified.

制御部11は、物体形状テーブルTから所定の物体の形状に関する情報を取得することにより所定の物体の輪郭を特定するようにしたので、所定の物体の輪郭の特定が容易なものとなる。   Since the control unit 11 specifies the contour of the predetermined object by acquiring information on the shape of the predetermined object from the object shape table T, it is easy to specify the contour of the predetermined object.

制御部11は、撮像画像内における所定の物体の輪郭を識別可能に表示させ、その物体の輪郭内の画像部分を除去するようにしたので、撮像時に写し込まれた所定の物体を不要物として除去することを使用者に知らせることが可能となり、不要物を間違えることなく除去することが可能となる。   Since the control unit 11 displays the outline of the predetermined object in the captured image in an identifiable manner and removes the image portion in the outline of the object, the predetermined object captured at the time of imaging is regarded as an unnecessary object. The user can be notified of the removal, and unnecessary items can be removed without making a mistake.

なお、上述した第2実施形態においては、物体形状テーブルTから所定の物体の形状に関する情報を読み出し取得するようにしたが、所定の物体からその形状に関する情報を、通信手段を介して受信取得するようにしてもよい。例えば、景勝地を撮像した際に、近くの立て看板が写らないようにするために、その立て看板から例えば、LED等の発光体を点滅させることで情報を送信する可視光通信により発信される自身の形状(輪郭)に関する情報を、デジタルカメラ1側で受信するようにしてもよい。この場合、デジタルカメラ1側では、立て看板の形状(輪郭)に関する情報に基づいて、立て看板の輪郭を特定してその輪郭を基にインペイント処理を行うようにすればよい。これによって予め物体形状テーブルTに記憶されていない所定の物体であっても、その輪郭を容易に特定してインペイント処理を行うことが可能となる。このことは、景勝地の撮像に限らず、撮影禁止箇所で撮影を行った場合に、その禁止対象の物体を除去する場合にも適用可能である。   In the second embodiment described above, information related to the shape of a predetermined object is read out and acquired from the object shape table T, but information related to the shape of the predetermined object is received and acquired via a communication unit. You may do it. For example, when shooting a scenic spot, in order to prevent a nearby standing sign from being captured, it is transmitted from the standing sign by, for example, visible light communication that transmits information by blinking a light emitter such as an LED. Information regarding its own shape (contour) may be received by the digital camera 1 side. In this case, on the digital camera 1 side, the outline of the standing signboard is specified based on the information related to the shape (contour) of the standing signboard, and the in-paint process may be performed based on the outline. As a result, even for a predetermined object that is not stored in advance in the object shape table T, it is possible to easily specify the contour and perform the in-paint process. This is applicable not only to the shooting of a scenic spot but also to the removal of an object to be prohibited when shooting is performed at a shooting prohibited place.

上述した第2実施形態においては、複数種類の物体に対応付けてその形状に関する情報を物体形状テーブルTに記憶するようにしたが、物体形状テーブルTに1つの物体に対応付けてその形状に関する情報を記憶するようにしてもよい。このように所定の物体が1つであれば、物体を識別表示する必要もない。   In the second embodiment described above, information on the shape is stored in the object shape table T in association with a plurality of types of objects. However, information on the shape in association with one object in the object shape table T. May be stored. Thus, if there is one predetermined object, there is no need to identify and display the object.

上述した第2実施形態においては、物体の形状に関する情報としてベクトルデータを示したが、ベクトルデータに限らず、関数で表現可能な単純な楕円形や矩形などの図形形状のデータであってもよい。   In the second embodiment described above, vector data is shown as information related to the shape of the object. However, the data is not limited to vector data, and may be simple shape data such as an ellipse or a rectangle that can be expressed by a function. .

上述した各実施形態においては、LEDによってマーカを構成する場合を例に挙げたが、発光しないマーカであってもよく、また、自然界には余り存在していない色や形状、或いは反射率の高い塗装やシールなどであってもよい。   In each of the above-described embodiments, the case where the marker is configured by the LED has been described as an example. However, the marker may not emit light, and the color and shape that do not exist so much in the natural world or the reflectance is high. It may be painted or sealed.

また、上述した各実施形態においては、撮像手段を備える画像処理装置として、カメラに適用した場合を示したが、これに限らず、例えば、カメラ機能付きパーソナルコンピュータ・PDA(個人向け携帯型情報通信機器)・タブレット端末装置・スマートフォンなどの携帯電話機・電子ゲーム・音楽プレイヤーなどであってもよい。   Further, in each of the above-described embodiments, the case where the present invention is applied to a camera is shown as an image processing apparatus including an imaging unit. However, the present invention is not limited to this, and for example, a personal computer with a camera function / PDA Equipment), a tablet terminal device, a mobile phone such as a smartphone, an electronic game, a music player, and the like.

また、上述した各実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   Further, the “apparatus” and “unit” shown in each of the above-described embodiments may be separated into a plurality of cases by function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
撮像手段を備える画像処理装置であって、
一方の端部が当該画像処理装置に装着され、他方の端部が使用者により把持される棒状の物体が、前記撮像手段によって撮像された撮像画像内に写り込んでいる場合に、前記棒状の物体の該撮像画像内における位置を取得する取得手段と、
前記取得手段により取得された前記撮像画像内における前記棒状の物体の位置に基づき、その撮像画像内における前記棒状の物体の画像部分を除去する画像処理を行う画像処理手段と、
を備えることを特徴とする。
(請求項2)
請求項2に記載の発明は、請求項1に記載の画像処理装置において、
前記取得手段は、前記棒状の物体に予め配置されているマーカの撮像画像内における位置を、その棒状の物体の該撮像画像内における位置として取得する、
ことを特徴とする。
(請求項3)
請求項3に記載の発明は、請求項2に記載の画像処理装置において、
前記取得手段は、前記棒状の物体の異なる複数の位置に配置されている各マーカの前記撮像画像内における位置を取得し、
前記画像処理手段は、前記取得手段により取得される複数のマーカの位置関係に基づき、その撮像画像内での前記棒状の物体の輪郭を特定して、その輪郭を基に棒状の物体の画像部分を除去する画像処理を行う、
ことを特徴とする。
(請求項4)
請求項4に記載の発明は、請求項2に記載の画像処理装置において、
前記取得手段は、前記棒状の物体の1個所に配置されているマーカの前記撮像画像内における位置を取得し、
前記画像処理手段は、前記取得手段により取得されるマーカの位置と、前記棒状の物体の一方の端部に装着されている当該画像処理装置との連結点の位置関係に基づき、その撮像画像内での前記棒状の物体の輪郭を特定して、その輪郭を基に当該棒状の物体の画像部分を除去する画像処理を行う、
ことを特徴とする。
(請求項5)
請求項5に記載の発明は、請求項2乃至4のいずれか1項に記載の画像処理装置において、
前記取得手段は、前記撮像手段を構成するレンズの焦点距離と、被写体までの距離と、前記棒状の物体の実サイズとを更に取得し、
前記画像処理手段は、前記取得手段により取得される撮像画像内におけるマーカの位置と、前記レンズの焦点距離、被写体までの距離、及び棒状の物体の実サイズに基づき、前記棒状の物体の輪郭を特定して、その輪郭を基に当該棒状の物体の画像部分を除去する画像処理を行う、
ことを特徴とする。
(請求項6)
請求項6に記載の発明は、請求項2乃至5のいずれか1項に記載の画像処理装置において、
前記撮像画像を解析する画像解析手段を、更に備え、
前記画像処理手段は、前記取得手段により取得される撮像画像内におけるマーカの位置と、前記画像解析手段により解析される結果と、に基づき、前記棒状の物体の輪郭を特定して、その輪郭を基に当該棒状の物体の画像部分を除去する画像処理を行う、
ことを特徴とする。
(請求項7)
請求項7に記載の発明は、請求項2、3、5、6のいずれか1項に記載の画像処理装置において、
前記画像処理手段は、前記取得手段により取得された複数のマーカの位置を結ぶ直線を撮像画像内の端まで延長した線分の長さを略長半径とする楕円を生成し、この楕円領域に基づいて、前記棒状の物体の輪郭を特定して、その輪郭を基に当該棒状の物体の画像部分を除去する画像処理を行う、
ことを特徴とする。
(請求項8)
請求項8に記載の発明は、請求項1〜7のいずれか1項に記載の画像処理装置において、
前記画像処理手段によって特定された前記撮像画像内における前記棒状の物体の輪郭を識別可能にライブビュー画像として表示する表示手段を更に備える、
ことを特徴とする。
(請求項9)
請求項9に記載の発明は、請求項2乃至8のいずれか1項に記載の画像処理装置において、
前記マーカが遮蔽されたか否かを判別する判別手段と、
前記判別手段によりマーカが遮蔽されたと判別されたことを契機として撮像画像から撮影画像を生成する処理を行う撮影画像生成手段と、
を更に備え、
前記撮影画像生成手段は、前記画像処理手段により前記棒状の物体の画像部分が除去された撮像画像から撮影画像を生成する処理を行う、
ことを特徴とする。
(請求項10)
請求項10に記載の発明は、請求項9に記載の画像処理装置において、
前記画像処理手段は、前記判別手段によりマーカが遮蔽されたと判別されたことを契機として、前記棒状の物体を除去する画像処理を行う、
ことを特徴とする。
(請求項11)
請求項11に記載の発明は、
撮像手段を備える画像処理装置であって、
所定の物体の異なる複数の位置に配置されたマーカが前記撮像手段によって撮像された撮像画像内に写り込んでいる場合に、前記複数のマーカの前記撮像画像内における位置を取得する取得手段と、
前記取得手段により取得される複数の位置と、前記所定の物体の形状に関する情報と、に基づき、前記撮像画像内における前記所定の物体の輪郭を特定する特定手段と、
を備えることを特徴とする。
(請求項12)
請求項12に記載の発明は、請求項11に記載の画像処理装置において、
前記所定の物体の形状に関する情報は、その輪郭を表現するベクトルデータと、そのベクトルデータ内における複数のマーカの位置データであり、
前記特定手段は、前記取得手段により取得される複数の位置と、前記ベクトルデータ内における複数のマーカの位置とを対応させて、輪郭を表現するベクトルデータを変形させることで、前記所定の物体の輪郭を特定する、
ことを特徴とする。
(請求項13)
請求項13に記載の発明は、請求項11に記載の画像処理装置において、
前記所定の物体の形状に関する情報を予め記憶する記憶手段を更に備え、
前記特定手段は、前記取得手段により取得される複数のマーカの位置と、前記記憶手段に記憶されている所定の物体の形状に関する情報と、に基づき、前記所定の物体の輪郭を特定する、
ことを特徴とする。
(請求項14)
請求項14に記載の発明は、請求項11乃至13のいずれか1項に記載の画像処理装置において、
撮像画像を表示する表示手段と、
前記特定手段により特定される撮像画像内における前記所定の物体の輪郭を識別可能に表示する制御を行う表示制御手段と、
前記特定手段により特定される撮像画像における前記所定の物体における輪郭内の画像部分を除去する画像処理を行う画像処理手段と、
を更に備える、
ことを特徴とする。
(請求項15)
請求項15に記載の発明は、請求項11乃至14のいずれか1項に記載の画像処理装置において、
前記マーカが発光により送信する自身の形状に関する情報を、前記撮像画像を介して受信する受信手段を更に備え、
前記特定手段は、前記取得手段により取得される複数の位置と、前記受信手段により受信される所定の物体の形状に関する情報と、に基づき、前記所定の物体の輪郭を特定する、
ことを特徴とする。
(請求項16)
請求項16に記載の発明は、
撮像手段を備える画像処理装置における画像処理方法であって、
一方の端部が当該画像処理装置に装着され、他方の端部が使用者により把持される棒状の物体が、前記撮像手段によって撮像された撮像画像内に写り込んでいる場合に、前記棒状の物体の該撮像画像内における位置を取得する処理と、
前記取得された前記撮像画像内における前記棒状の物体の位置に基づき、その撮像画像内における前記棒状の物体の画像部分を除去する処理と、
を含むことを特徴とする。
(請求項17)
請求項17に記載の発明は、
撮像手段を備える画像処理装置のコンピュータに対して、
一方の端部が当該画像処理装置に装着され、他方の端部が使用者により把持される棒状の物体が、前記撮像手段によって撮像された撮像画像内に写り込んでいる場合に、前記棒状の物体の該撮像画像内における位置を取得する機能と、
前記取得された前記撮像画像内における前記棒状の物体の位置に基づき、その撮像画像内における前記棒状の物体の画像部分を除去する機能と、
を実現させるためのプログラムである。
(請求項18)
請求項18に記載の発明は、
撮像手段を備える画像処理装置における画像処理方法であって、
所定の物体の異なる複数の位置に配置されたマーカが前記撮像手段によって撮像された撮像画像内に写り込んでいる場合に、前記複数のマーカの前記撮像画像内における位置を取得する処理と、
前記取得手段により取得される複数の位置と、前記所定の物体の形状に関する情報と、に基づき、前記撮像画像内における前記所定の物体の輪郭を特定する処理と、
を含むことを特徴とする。
(請求項19)
請求項19に記載の発明は、
撮像手段を備える画像処理装置のコンピュータに対して、
所定の物体の異なる複数の位置に配置されたマーカが前記撮像手段によって撮像された撮像画像内に写り込んでいる場合に、前記複数のマーカの前記撮像画像内における位置を取得する機能と、
前記取得手段により取得される複数の位置と、前記所定の物体の形状に関する情報と、に基づき、前記撮像画像内における前記所定の物体の輪郭を特定する機能と、
を実現させるためのプログラムである。
The embodiment of the present invention has been described above. However, the present invention is not limited to this, and includes the invention described in the claims and the equivalent scope thereof.
Hereinafter, the invention described in the claims of the present application will be appended.
(Appendix)
(Claim 1)
The invention described in claim 1
An image processing apparatus comprising an imaging means,
When a rod-shaped object whose one end is attached to the image processing apparatus and whose other end is gripped by a user is reflected in a captured image captured by the imaging unit, the rod-shaped object Obtaining means for obtaining a position of the object in the captured image;
Image processing means for performing image processing based on the position of the rod-shaped object in the captured image acquired by the acquisition means to remove an image portion of the rod-shaped object in the captured image;
It is characterized by providing.
(Claim 2)
The invention according to claim 2 is the image processing apparatus according to claim 1,
The acquisition means acquires a position in a captured image of a marker arranged in advance on the rod-shaped object as a position in the captured image of the rod-shaped object.
It is characterized by that.
(Claim 3)
The invention according to claim 3 is the image processing apparatus according to claim 2,
The acquisition means acquires the position in the captured image of each marker arranged at a plurality of different positions of the rod-shaped object,
The image processing unit specifies an outline of the rod-like object in the captured image based on a positional relationship of the plurality of markers acquired by the acquisition unit, and an image portion of the rod-like object based on the outline Image processing to remove,
It is characterized by that.
(Claim 4)
The invention according to claim 4 is the image processing apparatus according to claim 2,
The acquisition means acquires a position in the captured image of a marker arranged at one place of the rod-shaped object,
The image processing means is based on a positional relationship between a marker position acquired by the acquisition means and a connection point between the image processing apparatus attached to one end of the rod-shaped object. Identify the outline of the rod-shaped object at, and perform image processing to remove the image portion of the rod-shaped object based on the outline,
It is characterized by that.
(Claim 5)
The invention according to claim 5 is the image processing apparatus according to any one of claims 2 to 4,
The acquisition means further acquires the focal length of the lens constituting the imaging means, the distance to the subject, and the actual size of the rod-shaped object,
The image processing means calculates the contour of the bar-shaped object based on the position of the marker in the captured image acquired by the acquisition means, the focal length of the lens, the distance to the subject, and the actual size of the bar-shaped object. Identify and perform image processing to remove the image portion of the rod-shaped object based on the contour,
It is characterized by that.
(Claim 6)
The invention according to claim 6 is the image processing apparatus according to any one of claims 2 to 5,
Image analysis means for analyzing the captured image is further provided,
The image processing means identifies the outline of the rod-shaped object based on the marker position in the captured image acquired by the acquisition means and the result analyzed by the image analysis means, and determines the outline. Based on the image processing to remove the image portion of the rod-shaped object based on,
It is characterized by that.
(Claim 7)
The invention according to claim 7 is the image processing apparatus according to any one of claims 2, 3, 5, and 6,
The image processing means generates an ellipse having a substantially long radius as a length of a line segment obtained by extending a straight line connecting the positions of the plurality of markers acquired by the acquiring means to the end in the captured image, and in this elliptical area Based on the outline of the rod-shaped object, based on the contour, to perform image processing to remove the image portion of the rod-shaped object,
It is characterized by that.
(Claim 8)
The invention according to claim 8 is the image processing apparatus according to any one of claims 1 to 7,
A display unit configured to display an outline of the rod-shaped object in the captured image specified by the image processing unit as a live view image so as to be identifiable;
It is characterized by that.
(Claim 9)
The invention according to claim 9 is the image processing apparatus according to any one of claims 2 to 8,
Determining means for determining whether or not the marker is shielded;
A captured image generating means for performing a process of generating a captured image from the captured image triggered by the determination that the marker has been shielded;
Further comprising
The captured image generation means performs processing for generating a captured image from a captured image from which the image portion of the rod-like object has been removed by the image processing means.
It is characterized by that.
(Claim 10)
According to a tenth aspect of the present invention, in the image processing apparatus according to the ninth aspect,
The image processing means performs image processing to remove the rod-like object when it is determined that the marker is shielded by the determination means.
It is characterized by that.
(Claim 11)
The invention according to claim 11
An image processing apparatus comprising an imaging means,
An acquisition unit configured to acquire positions of the plurality of markers in the captured image when markers arranged at different positions of the predetermined object are reflected in the captured image captured by the imaging unit;
Identification means for identifying an outline of the predetermined object in the captured image based on a plurality of positions acquired by the acquisition means and information on the shape of the predetermined object;
It is characterized by providing.
(Claim 12)
The invention according to claim 12 is the image processing apparatus according to claim 11,
The information related to the shape of the predetermined object is vector data representing the contour, and position data of a plurality of markers in the vector data,
The specifying unit associates the plurality of positions acquired by the acquiring unit with the positions of the plurality of markers in the vector data, and deforms vector data representing an outline, thereby Identify contours,
It is characterized by that.
(Claim 13)
The invention according to claim 13 is the image processing apparatus according to claim 11,
Storage means for storing in advance information relating to the shape of the predetermined object;
The specifying unit specifies an outline of the predetermined object based on the positions of the plurality of markers acquired by the acquiring unit and information on the shape of the predetermined object stored in the storage unit.
It is characterized by that.
(Claim 14)
The invention according to claim 14 is the image processing apparatus according to any one of claims 11 to 13,
Display means for displaying a captured image;
Display control means for performing control to display the contour of the predetermined object in the captured image specified by the specifying means in an identifiable manner;
Image processing means for performing image processing for removing an image portion within a contour of the predetermined object in the captured image specified by the specifying means;
Further comprising
It is characterized by that.
(Claim 15)
The invention according to claim 15 is the image processing apparatus according to any one of claims 11 to 14,
Receiving means for receiving, via the captured image, information related to the shape of the marker transmitted by light emission;
The specifying unit specifies an outline of the predetermined object based on a plurality of positions acquired by the acquiring unit and information on a shape of the predetermined object received by the receiving unit;
It is characterized by that.
(Claim 16)
The invention described in claim 16
An image processing method in an image processing apparatus including an imaging unit,
When a rod-shaped object whose one end is attached to the image processing apparatus and whose other end is gripped by a user is reflected in a captured image captured by the imaging unit, the rod-shaped object Processing for obtaining the position of the object in the captured image;
A process of removing an image portion of the rod-shaped object in the captured image based on the position of the rod-shaped object in the acquired captured image;
It is characterized by including.
(Claim 17)
The invention described in claim 17
For a computer of an image processing apparatus provided with an imaging means,
When a rod-shaped object whose one end is attached to the image processing apparatus and whose other end is gripped by a user is reflected in a captured image captured by the imaging unit, the rod-shaped object A function of acquiring the position of the object in the captured image;
A function of removing an image portion of the rod-shaped object in the captured image based on the position of the rod-shaped object in the acquired captured image;
It is a program for realizing.
(Claim 18)
The invention described in claim 18
An image processing method in an image processing apparatus including an imaging unit,
A process of acquiring the positions of the plurality of markers in the captured image when markers arranged at different positions of the predetermined object are reflected in the captured image captured by the imaging unit;
A process of specifying an outline of the predetermined object in the captured image based on a plurality of positions acquired by the acquisition unit and information on the shape of the predetermined object;
It is characterized by including.
(Claim 19)
The invention according to claim 19 is
For a computer of an image processing apparatus provided with an imaging means,
A function of acquiring the positions of the plurality of markers in the captured image when markers arranged at different positions of the predetermined object are reflected in the captured image captured by the imaging unit;
A function for specifying an outline of the predetermined object in the captured image based on a plurality of positions acquired by the acquisition unit and information on the shape of the predetermined object;
It is a program for realizing.

1 デジタルカメラ
2 セルフィースティック
M1 メインマーカ
M2 サブマーカ
M11、 M12、 M13 マーカ
T 物体形状テーブル
11、21 制御部
13、23 記憶部
13a プログラムメモリ
15 撮像部
16 表示部
17、26 通信部
27 受光素子
DESCRIPTION OF SYMBOLS 1 Digital camera 2 Selfie M1 Main marker M2 Sub marker M11, M12, M13 Marker T Object shape table 11, 21 Control part 13, 23 Storage part 13a Program memory 15 Imaging part 16 Display part 17, 26 Communication part 27 Light receiving element

Claims (19)

撮像手段を備える画像処理装置であって、
一方の端部が当該画像処理装置に装着され、他方の端部が使用者により把持される棒状の物体が、前記撮像手段によって撮像された撮像画像内に写り込んでいる場合に、前記棒状の物体の該撮像画像内における位置を取得する取得手段と、
前記取得手段により取得された前記撮像画像内における前記棒状の物体の位置に基づき、その撮像画像内における前記棒状の物体の画像部分を除去する画像処理を行う画像処理手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus comprising an imaging means,
When a rod-shaped object whose one end is attached to the image processing apparatus and whose other end is gripped by a user is reflected in a captured image captured by the imaging unit, the rod-shaped object Obtaining means for obtaining a position of the object in the captured image;
Image processing means for performing image processing based on the position of the rod-shaped object in the captured image acquired by the acquisition means to remove an image portion of the rod-shaped object in the captured image;
An image processing apparatus comprising:
前記取得手段は、前記棒状の物体に予め配置されているマーカの撮像画像内における位置を、その棒状の物体の該撮像画像内における位置として取得する、
ことを特徴とする請求項1に記載の画像処理装置。
The acquisition means acquires a position in a captured image of a marker arranged in advance on the rod-shaped object as a position in the captured image of the rod-shaped object.
The image processing apparatus according to claim 1.
前記取得手段は、前記棒状の物体の異なる複数の位置に配置されている各マーカの前記撮像画像内における位置を取得し、
前記画像処理手段は、前記取得手段により取得される複数のマーカの位置関係に基づき、その撮像画像内での前記棒状の物体の輪郭を特定して、その輪郭を基に棒状の物体の画像部分を除去する画像処理を行う、
ことを特徴とする請求項2に記載の画像処理装置。
The acquisition means acquires the position in the captured image of each marker arranged at a plurality of different positions of the rod-shaped object,
The image processing unit specifies an outline of the rod-like object in the captured image based on a positional relationship of the plurality of markers acquired by the acquisition unit, and an image portion of the rod-like object based on the outline Image processing to remove,
The image processing apparatus according to claim 2.
前記取得手段は、前記棒状の物体の1個所に配置されているマーカの前記撮像画像内における位置を取得し、
前記画像処理手段は、前記取得手段により取得されるマーカの位置と、前記棒状の物体の一方の端部に装着されている当該画像処理装置との連結点の位置関係に基づき、その撮像画像内での前記棒状の物体の輪郭を特定して、その輪郭を基に当該棒状の物体の画像部分を除去する画像処理を行う、
ことを特徴とする請求項2に記載の画像処理装置。
The acquisition means acquires a position in the captured image of a marker arranged at one place of the rod-shaped object,
The image processing means is based on a positional relationship between a marker position acquired by the acquisition means and a connection point between the image processing apparatus attached to one end of the rod-shaped object. Identify the outline of the rod-shaped object at, and perform image processing to remove the image portion of the rod-shaped object based on the outline,
The image processing apparatus according to claim 2.
前記取得手段は、前記撮像手段を構成するレンズの焦点距離と、被写体までの距離と、前記棒状の物体の実サイズとを更に取得し、
前記画像処理手段は、前記取得手段により取得される撮像画像内におけるマーカの位置と、前記レンズの焦点距離、被写体までの距離、及び棒状の物体の実サイズに基づき、前記棒状の物体の輪郭を特定して、その輪郭を基に当該棒状の物体の画像部分を除去する画像処理を行う、
ことを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。
The acquisition means further acquires the focal length of the lens constituting the imaging means, the distance to the subject, and the actual size of the rod-shaped object,
The image processing means calculates the contour of the bar-shaped object based on the position of the marker in the captured image acquired by the acquisition means, the focal length of the lens, the distance to the subject, and the actual size of the bar-shaped object. Identify and perform image processing to remove the image portion of the rod-shaped object based on the contour,
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記撮像画像を解析する画像解析手段を、更に備え、
前記画像処理手段は、前記取得手段により取得される撮像画像内におけるマーカの位置と、前記画像解析手段により解析される結果と、に基づき、前記棒状の物体の輪郭を特定して、その輪郭を基に当該棒状の物体の画像部分を除去する画像処理を行う、
ことを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。
Image analysis means for analyzing the captured image is further provided,
The image processing means identifies the outline of the rod-shaped object based on the marker position in the captured image acquired by the acquisition means and the result analyzed by the image analysis means, and determines the outline. Based on the image processing to remove the image portion of the rod-shaped object based on,
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記画像処理手段は、前記取得手段により取得された複数のマーカの位置を結ぶ直線を撮像画像内の端まで延長した線分の長さを略長半径とする楕円を生成し、この楕円領域に基づいて、前記棒状の物体の輪郭を特定して、その輪郭を基に当該棒状の物体の画像部分を除去する画像処理を行う、
ことを特徴とする請求項2、3、5、6のいずれか1項に記載の画像処理装置。
The image processing means generates an ellipse having a substantially long radius as a length of a line segment obtained by extending a straight line connecting the positions of the plurality of markers acquired by the acquiring means to the end in the captured image, and in this elliptical area Based on the outline of the rod-shaped object, based on the contour, to perform image processing to remove the image portion of the rod-shaped object,
The image processing apparatus according to any one of claims 2, 3, 5, and 6.
前記画像処理手段によって特定された前記撮像画像内における前記棒状の物体の輪郭を識別可能にライブビュー画像として表示する表示手段を更に備える、
ことを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。
A display unit configured to display an outline of the rod-shaped object in the captured image specified by the image processing unit as a live view image so as to be identifiable;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記マーカが遮蔽されたか否かを判別する判別手段と、
前記判別手段によりマーカが遮蔽されたと判別されたことを契機として撮像画像から撮影画像を生成する処理を行う撮影画像生成手段と、
を更に備え、
前記撮影画像生成手段は、前記画像処理手段により前記棒状の物体の画像部分が除去された撮像画像から撮影画像を生成する処理を行う、
ことを特徴とする請求項2乃至8のいずれか1項に記載の画像処理装置。
Determining means for determining whether or not the marker is shielded;
A captured image generating means for performing a process of generating a captured image from the captured image triggered by the determination that the marker has been shielded;
Further comprising
The captured image generation means performs processing for generating a captured image from a captured image from which the image portion of the rod-like object has been removed by the image processing means.
The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記画像処理手段は、前記判別手段によりマーカが遮蔽されたと判別されたことを契機として、前記棒状の物体を除去する画像処理を行う、
ことを特徴とする請求項9に記載の画像処理装置。
The image processing means performs image processing to remove the rod-like object when it is determined that the marker is shielded by the determination means.
The image processing apparatus according to claim 9.
撮像手段を備える画像処理装置であって、
所定の物体の異なる複数の位置に配置されたマーカが前記撮像手段によって撮像された撮像画像内に写り込んでいる場合に、前記複数のマーカの前記撮像画像内における位置を取得する取得手段と、
前記取得手段により取得される複数の位置と、前記所定の物体の形状に関する情報と、に基づき、前記撮像画像内における前記所定の物体の輪郭を特定する特定手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus comprising an imaging means,
An acquisition unit configured to acquire positions of the plurality of markers in the captured image when markers arranged at different positions of the predetermined object are reflected in the captured image captured by the imaging unit;
Identification means for identifying an outline of the predetermined object in the captured image based on a plurality of positions acquired by the acquisition means and information on the shape of the predetermined object;
An image processing apparatus comprising:
前記所定の物体の形状に関する情報は、その輪郭を表現するベクトルデータと、そのベクトルデータ内における複数のマーカの位置データであり、
前記特定手段は、前記取得手段により取得される複数の位置と、前記ベクトルデータ内における複数のマーカの位置とを対応させて、輪郭を表現するベクトルデータを変形させることで、前記所定の物体の輪郭を特定する、
ことを特徴とする請求項11に記載の画像処理装置。
The information related to the shape of the predetermined object is vector data representing the contour, and position data of a plurality of markers in the vector data,
The specifying unit associates the plurality of positions acquired by the acquiring unit with the positions of the plurality of markers in the vector data, and deforms vector data representing an outline, thereby Identify contours,
The image processing apparatus according to claim 11.
前記所定の物体の形状に関する情報を予め記憶する記憶手段を更に備え、
前記特定手段は、前記取得手段により取得される複数のマーカの位置と、前記記憶手段に記憶されている所定の物体の形状に関する情報と、に基づき、前記所定の物体の輪郭を特定する、
ことを特徴とする請求項11に記載の画像処理装置。
Storage means for storing in advance information relating to the shape of the predetermined object;
The specifying unit specifies an outline of the predetermined object based on the positions of the plurality of markers acquired by the acquiring unit and information on the shape of the predetermined object stored in the storage unit.
The image processing apparatus according to claim 11.
撮像画像を表示する表示手段と、
前記特定手段により特定される撮像画像内における前記所定の物体の輪郭を識別可能に表示する制御を行う表示制御手段と、
前記特定手段により特定される撮像画像における前記所定の物体における輪郭内の画像部分を除去する画像処理を行う画像処理手段と、
を更に備える、
ことを特徴とする請求項11乃至13のいずれか1項に記載の画像処理装置。
Display means for displaying a captured image;
Display control means for performing control to display the contour of the predetermined object in the captured image specified by the specifying means in an identifiable manner;
Image processing means for performing image processing for removing an image portion within a contour of the predetermined object in the captured image specified by the specifying means;
Further comprising
The image processing apparatus according to claim 11, wherein the image processing apparatus is an image processing apparatus.
前記マーカが発光により送信する自身の形状に関する情報を、前記撮像画像を介して受信する受信手段を更に備え、
前記特定手段は、前記取得手段により取得される複数の位置と、前記受信手段により受信される所定の物体の形状に関する情報と、に基づき、前記所定の物体の輪郭を特定する、
ことを特徴とする請求項11乃至14のいずれか1項に記載の画像処理装置。
Receiving means for receiving, via the captured image, information related to the shape of the marker transmitted by light emission;
The specifying unit specifies an outline of the predetermined object based on a plurality of positions acquired by the acquiring unit and information on a shape of the predetermined object received by the receiving unit;
The image processing apparatus according to claim 11, wherein the image processing apparatus is an image processing apparatus.
撮像手段を備える画像処理装置における画像処理方法であって、
一方の端部が当該画像処理装置に装着され、他方の端部が使用者により把持される棒状の物体が、前記撮像手段によって撮像された撮像画像内に写り込んでいる場合に、前記棒状の物体の該撮像画像内における位置を取得する処理と、
前記取得された前記撮像画像内における前記棒状の物体の位置に基づき、その撮像画像内における前記棒状の物体の画像部分を除去する処理と、
を含むことを特徴とする画像処理方法。
An image processing method in an image processing apparatus including an imaging unit,
When a rod-shaped object whose one end is attached to the image processing apparatus and whose other end is gripped by a user is reflected in a captured image captured by the imaging unit, the rod-shaped object Processing for obtaining the position of the object in the captured image;
A process of removing an image portion of the rod-shaped object in the captured image based on the position of the rod-shaped object in the acquired captured image;
An image processing method comprising:
撮像手段を備える画像処理装置のコンピュータに対して、
一方の端部が当該画像処理装置に装着され、他方の端部が使用者により把持される棒状の物体が、前記撮像手段によって撮像された撮像画像内に写り込んでいる場合に、前記棒状の物体の該撮像画像内における位置を取得する機能と、
前記取得された前記撮像画像内における前記棒状の物体の位置に基づき、その撮像画像内における前記棒状の物体の画像部分を除去する機能と、
を実現させるためのプログラム。
For a computer of an image processing apparatus provided with an imaging means,
When a rod-shaped object whose one end is attached to the image processing apparatus and whose other end is gripped by a user is reflected in a captured image captured by the imaging unit, the rod-shaped object A function of acquiring the position of the object in the captured image;
A function of removing an image portion of the rod-shaped object in the captured image based on the position of the rod-shaped object in the acquired captured image;
A program to realize
撮像手段を備える画像処理装置における画像処理方法であって、
所定の物体の異なる複数の位置に配置されたマーカが前記撮像手段によって撮像された撮像画像内に写り込んでいる場合に、前記複数のマーカの前記撮像画像内における位置を取得する処理と、
前記取得手段により取得される複数の位置と、前記所定の物体の形状に関する情報と、に基づき、前記撮像画像内における前記所定の物体の輪郭を特定する処理と、
を含むことを特徴とする画像処理方法。
An image processing method in an image processing apparatus including an imaging unit,
A process of acquiring the positions of the plurality of markers in the captured image when markers arranged at different positions of the predetermined object are reflected in the captured image captured by the imaging unit;
A process of specifying an outline of the predetermined object in the captured image based on a plurality of positions acquired by the acquisition unit and information on the shape of the predetermined object;
An image processing method comprising:
撮像手段を備える画像処理装置のコンピュータに対して、
所定の物体の異なる複数の位置に配置されたマーカが前記撮像手段によって撮像された撮像画像内に写り込んでいる場合に、前記複数のマーカの前記撮像画像内における位置を取得する機能と、
前記取得手段により取得される複数の位置と、前記所定の物体の形状に関する情報と、に基づき、前記撮像画像内における前記所定の物体の輪郭を特定する機能と、
を実現させるためのプログラム。
For a computer of an image processing apparatus provided with an imaging means,
A function of acquiring the positions of the plurality of markers in the captured image when markers arranged at different positions of the predetermined object are reflected in the captured image captured by the imaging unit;
A function for specifying an outline of the predetermined object in the captured image based on a plurality of positions acquired by the acquisition unit and information on the shape of the predetermined object;
A program to realize
JP2015103346A 2015-05-21 2015-05-21 Image processing apparatus, image processing method and program Pending JP2016220051A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015103346A JP2016220051A (en) 2015-05-21 2015-05-21 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015103346A JP2016220051A (en) 2015-05-21 2015-05-21 Image processing apparatus, image processing method and program

Publications (2)

Publication Number Publication Date
JP2016220051A true JP2016220051A (en) 2016-12-22
JP2016220051A5 JP2016220051A5 (en) 2018-06-14

Family

ID=57581683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015103346A Pending JP2016220051A (en) 2015-05-21 2015-05-21 Image processing apparatus, image processing method and program

Country Status (1)

Country Link
JP (1) JP2016220051A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106791449A (en) * 2017-02-27 2017-05-31 努比亚技术有限公司 Method, photo taking and device
WO2018156321A1 (en) * 2017-02-27 2018-08-30 Thomson Licensing Method, system and apparatus for visual effects
JP2018190335A (en) * 2017-05-11 2018-11-29 株式会社コロプラ Method for providing virtual space, program for implementing that method in computer, and information processor for executing that program
CN113744126A (en) * 2021-08-06 2021-12-03 Oppo广东移动通信有限公司 Image processing method and device, computer readable medium and electronic device
WO2023005298A1 (en) * 2021-07-27 2023-02-02 荣耀终端有限公司 Image content masking method and apparatus based on multiple cameras

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010081357A (en) * 2008-09-26 2010-04-08 Olympus Corp Image processing apparatus, image processing method, image processing program, and imaging device
JP2013109696A (en) * 2011-11-24 2013-06-06 Toyota Motor Corp Attitude estimation device, attitude estimation method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010081357A (en) * 2008-09-26 2010-04-08 Olympus Corp Image processing apparatus, image processing method, image processing program, and imaging device
JP2013109696A (en) * 2011-11-24 2013-06-06 Toyota Motor Corp Attitude estimation device, attitude estimation method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106791449A (en) * 2017-02-27 2017-05-31 努比亚技术有限公司 Method, photo taking and device
WO2018156321A1 (en) * 2017-02-27 2018-08-30 Thomson Licensing Method, system and apparatus for visual effects
CN106791449B (en) * 2017-02-27 2020-02-11 努比亚技术有限公司 Photo shooting method and device
JP2018190335A (en) * 2017-05-11 2018-11-29 株式会社コロプラ Method for providing virtual space, program for implementing that method in computer, and information processor for executing that program
WO2023005298A1 (en) * 2021-07-27 2023-02-02 荣耀终端有限公司 Image content masking method and apparatus based on multiple cameras
CN113744126A (en) * 2021-08-06 2021-12-03 Oppo广东移动通信有限公司 Image processing method and device, computer readable medium and electronic device

Similar Documents

Publication Publication Date Title
JP2016220051A (en) Image processing apparatus, image processing method and program
EP2395474A2 (en) Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method
JP5769032B2 (en) Imaging apparatus, imaging method, and program
JP5255789B2 (en) Image processing program and image processing apparatus
WO2020261927A1 (en) Presentation system, presentation device, and presentation method
US20160065863A1 (en) Image capturing apparatus and image capturing method
KR20170074742A (en) Image processing device, image processing method amd program
US20160191797A1 (en) Image Processing Device and Image Playback Device Which Control Display Of Wide-Range Image
WO2015159775A1 (en) Image processing apparatus, communication system, communication method, and image-capturing device
JP7148855B2 (en) PROJECTION CONTROL DEVICE, PROJECTION DEVICE, PROJECTION METHOD AND PROGRAM
WO2016011861A1 (en) Method and photographing terminal for photographing object motion trajectory
JP2003345819A5 (en)
JP2008085555A (en) Information display device, display control method and display control program
JP6065477B2 (en) Image processing apparatus and program
JP6388115B2 (en) Imaging apparatus, imaging control method, and program
JP2014178146A (en) Image processing apparatus and method
JP2013236660A (en) Golf club head trajectory analysis system, method of the same, and imaging stand
CN109974531B (en) Video accurate target reading system and video accurate target reading method
JP7059680B2 (en) Shooting equipment, shooting method, program
JP6508730B2 (en) Light emission marker device, marker detection device, transmission system, marker light emission method, marker detection method, and program
JP2016062336A (en) Operation instruction system, operation instruction method, attached terminal, and operation instruction management server
JP2010170035A (en) Camera and camera system
JP2005257869A (en) Imaging apparatus
JP2015106111A (en) Projection system
JP6507281B2 (en) Informing device and informing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190726