JP2017207972A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2017207972A
JP2017207972A JP2016100669A JP2016100669A JP2017207972A JP 2017207972 A JP2017207972 A JP 2017207972A JP 2016100669 A JP2016100669 A JP 2016100669A JP 2016100669 A JP2016100669 A JP 2016100669A JP 2017207972 A JP2017207972 A JP 2017207972A
Authority
JP
Japan
Prior art keywords
mark
image
image processing
size
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016100669A
Other languages
Japanese (ja)
Other versions
JP6736348B2 (en
JP2017207972A5 (en
Inventor
太一 松井
Taichi Matsui
太一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016100669A priority Critical patent/JP6736348B2/en
Priority to US15/588,355 priority patent/US10475221B2/en
Publication of JP2017207972A publication Critical patent/JP2017207972A/en
Publication of JP2017207972A5 publication Critical patent/JP2017207972A5/ja
Priority to US16/653,304 priority patent/US10922864B2/en
Application granted granted Critical
Publication of JP6736348B2 publication Critical patent/JP6736348B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device, image processing method, and program, which can easily correct the number of detected target objects.SOLUTION: An image processing device 100 includes a display processing unit 205 configured to display on a display unit an image as well as marks that correspond to target objects detected in the image by a detection unit 203, and a counting unit 204 configured to count the number of marks displayed on the display unit. The counting unit adds or removes the marks in accordance with a user's correction manipulation through a reception unit 201. A file processing unit 206 outputs the number of marks after the addition or removal.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、画像から人体等を検知する物体検知装置が知られている。物体検知装置は、例えば、スタジアムにいる観客の人数を計測したり、遊園地の来客数の人数を計測したりするのに用いられる。特許文献1には、混雑の度合いに関わらず、画像における特定の物体の個数を計測する技術が開示されている。   Conventionally, an object detection device that detects a human body or the like from an image is known. The object detection device is used, for example, to measure the number of spectators in a stadium or to measure the number of visitors in an amusement park. Patent Document 1 discloses a technique for measuring the number of specific objects in an image regardless of the degree of congestion.

特開2014−6586号公報JP 2014-6586 A

しかしながら、物体検知においては、誤検知や未検知が生じ得る。誤検知等が生じた場合には、人手により検知された個体数を訂正しなければならないという問題があった。   However, in object detection, erroneous detection or non-detection may occur. When a false detection occurs, there is a problem that the number of individuals detected manually must be corrected.

本発明はこのような問題点に鑑みなされたもので、検知された検知対象の個数を容易に訂正することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to easily correct the number of detected objects.

そこで、本発明は、画像処理装置であって、画像を表示手段に表示させ、さらに前記画像から検知された検知対象に対応させてマークを前記表示手段に表示させる表示制御手段と、前記表示手段に表示される前記マークの数を出力する出力手段とを有し、前記表示制御手段は、ユーザ操作に応じて、前記マークを追加又は削除し、前記出力手段は、前記追加の後又は削除の後の前記マークの数を出力することを特徴とする。   Therefore, the present invention is an image processing apparatus, which displays an image on a display unit, and further displays a mark on the display unit in correspondence with a detection target detected from the image, and the display unit Output means for outputting the number of marks displayed on the display, the display control means adds or deletes the mark in accordance with a user operation, and the output means The number of subsequent marks is output.

本発明によれば、検知された検知対象の個数を容易に訂正することができる。   According to the present invention, the number of detected objects to be detected can be easily corrected.

画像処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an image processing apparatus. 画像処理装置のソフトウェア構成を示す図である。It is a figure which shows the software structure of an image processing apparatus. 検知処理を示すフローチャートである。It is a flowchart which shows a detection process. 対象画像の一例を示す図である。It is a figure which shows an example of a target image. 画面遷移を示す図である。It is a figure which shows a screen transition. ユーザ操作の説明図である。It is explanatory drawing of user operation. 変更例の説明図である。It is explanatory drawing of the example of a change. 変更例の説明図である。It is explanatory drawing of the example of a change.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施形態に係る画像処理装置100のハードウェア構成の一例を示す図である。画像処理装置100は、CPU101、ROM102、RAM103、ハードディスクドライブ(HDD)204、ディスクドライブ105、通信部106、入力部107、及び表示部108を有する。   FIG. 1 is a diagram illustrating an example of a hardware configuration of the image processing apparatus 100 according to the present embodiment. The image processing apparatus 100 includes a CPU 101, ROM 102, RAM 103, hard disk drive (HDD) 204, disk drive 105, communication unit 106, input unit 107, and display unit 108.

CPU101は、画像処理装置100を統括制御する制御装置である。ROM102は、CPU101が画像処理装置100を制御するためのプログラムを記憶する。なお、ROM102に代えて、2次記憶装置を設けてもよい。RAM103は、CPU101がROM102から読み出したプログラムを展開し、処理を実行するためのメモリである。また、RAM103は、一時記憶メモリとして各種処理の対象となるデータを一時記憶するための記憶領域としても使用される。HDD104は、画像処理装置100の画像処理の対象となる画像ファイル等、各種情報を格納する。CPU101には、HDD104から画像ファイルが入力される。なお、画像ファイルは、HDD104ではなく、ディスクドライブ105又は通信部106からCPU101に入力されてもよく、この場合、CPU101は、HDD104を有さなくともよい。後述する画像処理装置100の機能や処理は、CPU101がROM102又はHDD104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。   The CPU 101 is a control device that performs overall control of the image processing apparatus 100. The ROM 102 stores a program for the CPU 101 to control the image processing apparatus 100. Note that a secondary storage device may be provided instead of the ROM 102. The RAM 103 is a memory for developing a program read from the ROM 102 by the CPU 101 and executing processing. The RAM 103 is also used as a storage area for temporarily storing data to be subjected to various processes as a temporary storage memory. The HDD 104 stores various types of information such as image files that are targets of image processing of the image processing apparatus 100. An image file is input from the HDD 104 to the CPU 101. Note that the image file may be input from the disk drive 105 or the communication unit 106 to the CPU 101 instead of the HDD 104. In this case, the CPU 101 does not need to have the HDD 104. Functions and processes of the image processing apparatus 100 described later are realized by the CPU 101 reading a program stored in the ROM 102 or the HDD 104 and executing the program.

ディスクドライブ105は、CD、DVD、ブルーレイディスク、又はフレキシブルディスク内の画像ファイルを読み出し、CPU101はディスクドライブ105を介して画像ファイルを入力する。なお、CPU101が画像ファイルをHDD104又は通信部106から入力する場合には、ディスクドライブ105は必ずしもなくてもよい。   The disk drive 105 reads an image file in a CD, DVD, Blu-ray disc, or flexible disk, and the CPU 101 inputs the image file via the disk drive 105. When the CPU 101 inputs an image file from the HDD 104 or the communication unit 106, the disk drive 105 is not necessarily required.

通信部106は、ネットワーク120を介して通信を行う回路である。CPU101は、ネットワーク120を介して画像ファイルを入力する。CPU101が画像ファイルをHDD104又はディスクドライブ105から入力する場合には、通信部106は必ずしもなくてもよい。表示部108は、画像や領域枠を表示するディスプレイ等のデバイスである。入力部107は、数値入力用のキーボード、表示部108の表示領域の表示位置を指示するためのポインティングデバイス、マウス、及びタッチパネル等を有する。   The communication unit 106 is a circuit that performs communication via the network 120. The CPU 101 inputs an image file via the network 120. When the CPU 101 inputs an image file from the HDD 104 or the disk drive 105, the communication unit 106 is not necessarily required. The display unit 108 is a device such as a display that displays images and area frames. The input unit 107 includes a numerical input keyboard, a pointing device for instructing the display position of the display area of the display unit 108, a mouse, a touch panel, and the like.

図2は、画像処理装置100のソフトウェア構成を示す図である。画像処理装置100は、受付部201と、選択部202と、検知部203と、計測部204と、表示処理部205と、ファイル処理部206と、を有している。受付部201は、入力部107を介してユーザにより入力された各種指示を受け付ける。選択部202は、HDD104等の記憶部に記憶されている複数の画像の中から、受付部201が受け付けたユーザからの選択指示に従い、処理対象の画像を選択する。以下、処理対象の画像を対象画像と称する。なお、対象画像は、静止画でもよく動画でもよい。   FIG. 2 is a diagram illustrating a software configuration of the image processing apparatus 100. The image processing apparatus 100 includes a reception unit 201, a selection unit 202, a detection unit 203, a measurement unit 204, a display processing unit 205, and a file processing unit 206. The accepting unit 201 accepts various instructions input by the user via the input unit 107. The selection unit 202 selects a processing target image from a plurality of images stored in a storage unit such as the HDD 104 according to a selection instruction from the user received by the reception unit 201. Hereinafter, an image to be processed is referred to as a target image. The target image may be a still image or a moving image.

検知部203は、対象画像において画像解析を行い、所定の画像を検知する。本実施形態においては、人物を検知する場合を例に説明するが、検知対象は、人物に限定されるものではなく、例えば、車等の移動体等所定の物体であってもよい。さらに、検知対象は物体に限定されるものではなく、車のナンバー等物体に描かれた文字や記号等であってもよい。このように、検知対象は、画像から検知可能なものであればよく、その種類は実施形態に限定されるものではない。検知部203はさらに、検知した人物の位置や大きさをRAM103等の記憶部に記録する。なお、画像から人物を検知するための方法は、特に限定されるものではない。例えば、人物の顔を認識することにより人物を認識する方法や、人物の頭部の大きさから人物を認識する方法、肩の傾きから人物を認識する方法等が挙げられる。   The detection unit 203 performs image analysis on the target image and detects a predetermined image. In the present embodiment, a case where a person is detected will be described as an example. However, the detection target is not limited to a person, and may be a predetermined object such as a moving body such as a car. Furthermore, the detection target is not limited to an object, and may be a character or a symbol drawn on an object such as a car number. As described above, the detection target may be anything that can be detected from the image, and the type thereof is not limited to the embodiment. The detection unit 203 further records the detected position and size of the person in a storage unit such as the RAM 103. A method for detecting a person from an image is not particularly limited. For example, there are a method for recognizing a person by recognizing the face of the person, a method for recognizing a person from the size of the head of the person, a method for recognizing a person from the inclination of the shoulder, and the like.

計測部204は、検知部203により対象画像から検知された人物の数(人数)を計測する。表示処理部205は、各種情報を表示部108に表示するよう制御する。表示処理部205は、表示部108への各種情報の表示を制御する。表示処理部205は、例えば、対象画像を表示部108に表示するよう制御する。表示処理部205はさらに、検知部203による検知結果を表示部108に表示するよう制御する。ファイル処理部206は、対象画像と、対象画像から得られた検知結果としての人数等の情報を含む結果ファイルを作成、保存する。ファイル処理部206は、また、結果ファイルを適宜外部装置等に出力する。   The measurement unit 204 measures the number (number of people) of persons detected from the target image by the detection unit 203. The display processing unit 205 controls to display various information on the display unit 108. The display processing unit 205 controls display of various types of information on the display unit 108. For example, the display processing unit 205 controls to display the target image on the display unit 108. The display processing unit 205 further controls the detection unit 203 to display the detection result on the display unit 108. The file processing unit 206 creates and saves a result file including information about the target image and the number of people as a detection result obtained from the target image. The file processing unit 206 also outputs the result file to an external device or the like as appropriate.

ユーザは、表示処理部205により表示部108に表示された検知結果から、人物以外が人物として検知されている領域、人物が存在するにも関わらず検知されていない領域等を確認することができる。そして、ユーザは、適宜、簡単なユーザ操作により、検知結果を訂正するための指示を入力することができる。計測部204は、このユーザから訂正のための指示を受け付けると、この指示に従い、計測結果としての人数を変更(訂正)する。なお、本処理については、図3、図4等を参照しつつ、後に詳述する。   From the detection result displayed on the display unit 108 by the display processing unit 205, the user can confirm an area where a person other than a person is detected as a person, an area where a person is present but not detected, and the like. . And the user can input the instruction | indication for correcting a detection result suitably by simple user operation. When the measurement unit 204 receives an instruction for correction from the user, the measurement unit 204 changes (corrects) the number of people as a measurement result according to the instruction. This process will be described later in detail with reference to FIGS.

図3は、画像処理装置100による検知処理を示すフローチャートである。以下、図4に示す対象画像400と、図5に示す画面遷移を参照しつつ、検知処理について説明する。図4に示す対象画像400には、9人の人物401が写っている。ここでは、説明の便宜上、左下から右下の人物を順に人物A、人物B、人物C、人物Dと称することとする。さらに、左上から右上の人物を順に、人物E、人物F、人物G、人物H、人物Iと称することとする。本実施形態においては、画像処理装置100は、例えば、壁や柱等により設置された監視カメラにより撮影された画像を処理対象とするものとする。このため、処理対象の画像は、人物を上から斜め方向に撮影した画像となり、画像の下側の人物は画像の上側の人物に比べて大きく写っている。   FIG. 3 is a flowchart showing detection processing by the image processing apparatus 100. Hereinafter, the detection process will be described with reference to the target image 400 illustrated in FIG. 4 and the screen transition illustrated in FIG. 5. In the target image 400 shown in FIG. 4, nine persons 401 are shown. Here, for convenience of explanation, the persons from the lower left to the lower right are referred to as person A, person B, person C, and person D in order. Further, the persons from the upper left to the upper right are referred to as person E, person F, person G, person H, and person I in order. In the present embodiment, the image processing apparatus 100 is assumed to process, for example, an image captured by a surveillance camera installed by a wall, a pillar, or the like. Therefore, the image to be processed is an image obtained by photographing a person in an oblique direction from above, and the person on the lower side of the image is larger than the person on the upper side of the image.

図3に戻り、S300において、選択部202は、受付部201が受け付けた、画像の選択指示に従い、処理対象とする対象画像を選択する。選択部202は、例えば、対象画像が静止画である場合には、静止画ファイルを指定する。また、選択部202は、対象画像が動画である場合には、動画ファイルの中の対象となる場面(フレーム)を選択する。例えば、表示部108は、ライブ動画や録画動画を再生表示し、所望の場面が表示されたときに、ユーザがこの場面を指定するユーザ操作を行う。これに対し、受付部201は、フレームが指定された選択指示を受け付ける。   Returning to FIG. 3, in step S300, the selection unit 202 selects a target image to be processed in accordance with an image selection instruction received by the reception unit 201. For example, when the target image is a still image, the selection unit 202 specifies a still image file. In addition, when the target image is a moving image, the selection unit 202 selects a target scene (frame) in the moving image file. For example, the display unit 108 reproduces and displays a live video or a recorded video, and when a desired scene is displayed, the user performs a user operation for designating the scene. On the other hand, the reception unit 201 receives a selection instruction in which a frame is specified.

次に、S301において、検知部203は、人物検知を行う。検知部203は、例えば、撮像画像全体、撮像画像の中心を基準とした所定の領域等予め指定された平空間を検知対象領域として人物検知を行う。そして、計測部204は、検知部203により検知された人物の数(人数)を計測する。なお、計測部204は、受付部201が、ユーザ操作に応じて計測指示を受け付けた場合に、人数計測を開始することとしてもよい。   Next, in S301, the detection unit 203 performs person detection. For example, the detection unit 203 performs person detection using a pre-designated flat space such as a predetermined area based on the entire captured image and the center of the captured image as a detection target area. Then, the measurement unit 204 measures the number of persons (number of people) detected by the detection unit 203. Note that the measuring unit 204 may start counting people when the receiving unit 201 receives a measurement instruction in response to a user operation.

次に、S302において、表示処理部205は、修正ウインドウを表示するよう制御する。本処理は、表示制御処理の一例である。図5(a)は、修正ウインドウ500の一例を示す図である。修正ウインドウ500には、対象画像が表示される。さらに、対象画像上には、人物が検知された各領域上に検知枠501〜509が重畳表示されている。ここで、検知枠501〜509は、検知対象に対応して表示されるマークの一例である。例えば、人物Aに対し、検知枠501が重畳して表示されている。   Next, in S302, the display processing unit 205 controls to display a correction window. This process is an example of a display control process. FIG. 5A is a diagram illustrating an example of the correction window 500. In the correction window 500, the target image is displayed. Further, detection frames 501 to 509 are superimposed and displayed on each region where a person is detected on the target image. Here, the detection frames 501 to 509 are examples of marks displayed corresponding to detection targets. For example, a detection frame 501 is superimposed on the person A and displayed.

なお、図5(a)の修正ウインドウ500においては、対象画像において、人物Bが人物として検知されず、また、人物Cと人物Dの間において、誤って人物が検知された場合の検知結果が示されている。すなわち、人物Bに対して検知枠が表示されておらず、また、人物Cと人物Dの間に検知枠503が表示されている。   In the correction window 500 of FIG. 5A, the detection result when the person B is not detected as a person in the target image and a person is detected by mistake between the person C and the person D is shown. It is shown. That is, the detection frame is not displayed for the person B, and the detection frame 503 is displayed between the person C and the person D.

さらに、修正ウインドウ500の上部には、人数ラベル520が表示されている。人数ラベル520には、計測部204により計測された人数が表示される。また、修正ウインドウ500の右下には保存ボタン523が表示されている。保存ボタン523は、計測結果としての人数を対象画像とともに保存する保存指示を受け付けるためのユーザインタフェースである。   Further, a number label 520 is displayed at the top of the correction window 500. The number of people measured by the measuring unit 204 is displayed on the number of people label 520. A save button 523 is displayed at the lower right of the correction window 500. The save button 523 is a user interface for receiving a save instruction for saving the number of people as a measurement result together with the target image.

修正ウインドウ500の左上には、追加モードボタン521と、削除モードボタン522とが表示されている。各ボタン521、522は、対応するモードの開始指示を受け付けるためのユーザインタフェースである。追加モード及び削除モードは、検知部203により検知された人物の数を訂正する動作モードである。追加モードでは、ユーザ操作に応じて、検知結果に対して、検出されなかった人物を追加することができ、削除モードでは、ユーザ操作に応じて、検知結果から誤検出に係る人物(人物以外の物体)を削除することができる。   An add mode button 521 and a delete mode button 522 are displayed on the upper left of the correction window 500. Each button 521, 522 is a user interface for accepting a corresponding mode start instruction. The addition mode and the deletion mode are operation modes for correcting the number of persons detected by the detection unit 203. In the addition mode, a person who has not been detected can be added to the detection result according to a user operation. In the deletion mode, a person (other than a person) related to a false detection is detected from the detection result according to the user operation. Object) can be deleted.

なお、本実施形態においては、検知された人物を示すマークとして、検知された人物を囲む、囲み線を表示することとしたが、マークの形状やサイズ等は実施形態に限定されるものではない。また、本実施形態においては、対象画像上において、人物が検知された領域上にマークを表示することとしたが、マークは、検知された領域との対応関係をユーザが視認可能に表示すればよく、必ずしも検知された領域上に表示されなくともよい。他の例としては、対象画像としての人物を指す矢印を表示してもよい。また、他の例としては、対象画像と異なる領域に、検知された領域の座標を表示してもよい。   In this embodiment, as a mark indicating the detected person, a surrounding line surrounding the detected person is displayed. However, the shape and size of the mark are not limited to the embodiment. . In the present embodiment, the mark is displayed on the area where the person is detected on the target image. However, if the mark displays the correspondence with the detected area so that the user can visually recognize the mark. It is not always necessary to display on the detected area. As another example, an arrow indicating a person as a target image may be displayed. As another example, the coordinates of the detected area may be displayed in a different area from the target image.

図3に戻り、S302の処理の後、CPU101は、処理をS303へ進める。S303において、CPU101は、受付部201がユーザ入力に応じて指示を受け付けると、指示内容を確認する。CPU101は、指示内容が、追加モードの選択指示であった場合には(S303で追加モードの選択指示)、処理をS304へ進める。CPU101は、指示内容が、削除モードの選択指示であった場合には(S303で削除モードの選択指示)、処理をS307へ進める。CPU101は、指示内容が保存指示であった場合には(S303で保存指示)、処理をS310へ進める。   Returning to FIG. 3, after the process of S302, the CPU 101 advances the process to S303. In step S <b> 303, when the reception unit 201 receives an instruction according to a user input, the CPU 101 confirms the instruction content. If the instruction content is an instruction to select an additional mode (addition instruction to select an additional mode in S303), the CPU 101 advances the process to S304. If the instruction content is a deletion mode selection instruction (deletion mode selection instruction in S303), the CPU 101 advances the process to S307. If the instruction content is a save instruction (a save instruction in S303), the CPU 101 advances the process to S310.

S304において、受付部201は、ユーザ操作に応じて、新たな検知枠の追加指示を受け付ける。追加指示は、追加する検知枠の位置及びサイズを指定する情報を含んでいる。以下、ユーザ操作により新たに追加される検知枠を追加検知枠と称する。図6は、追加検知枠の位置及びサイズを指定するためのユーザ操作の説明図である。ユーザは、修正ウインドウ500において、検知枠を追加したい領域をドラッグすることにより、追加検知枠の位置及びサイズを指定することができる。ユーザが、点601でマウスダウンし、点602でマウスアップしたとする。この場合、受付部201は、点601及び点602を対角とする長方形を特定し、特定した長方形に内接する楕円603の位置及びサイズを含む追加指示を受け付ける。   In step S304, the reception unit 201 receives an instruction to add a new detection frame in response to a user operation. The addition instruction includes information specifying the position and size of the detection frame to be added. Hereinafter, a detection frame newly added by a user operation is referred to as an additional detection frame. FIG. 6 is an explanatory diagram of a user operation for designating the position and size of the additional detection frame. The user can specify the position and size of the additional detection frame by dragging an area where the detection frame is to be added in the correction window 500. Assume that the user mouses down at point 601 and mouse up at point 602. In this case, the receiving unit 201 specifies a rectangle whose diagonal is the point 601 and the point 602, and receives an additional instruction including the position and size of the ellipse 603 inscribed in the specified rectangle.

次に、S305において、表示処理部205は、追加指示に係る追加検知枠を修正ウインドウ500に表示する。ここで、追加検知枠は、追加マークの一例である。次に、S306において、計測部204は、計測結果に対し、修正ウインドウ500に追加された追加検知枠の数だけ人数を増加する。そして、表示処理部205は、追加後の検知枠の数、すなわち訂正後の人物の数を人数ラベル520に表示する。CPU101は、その後処理をS303へ進める。   In step S <b> 305, the display processing unit 205 displays an additional detection frame related to the addition instruction on the correction window 500. Here, the additional detection frame is an example of an additional mark. In step S <b> 306, the measurement unit 204 increases the number of persons by the number of additional detection frames added to the correction window 500 with respect to the measurement result. Then, the display processing unit 205 displays the number of detection frames after addition, that is, the number of corrected people on the number of people label 520. After that, the CPU 101 advances the process to S303.

例えば、図5(a)の修正ウインドウ500において、ユーザが追加モードボタン521を押下し、人物Bを囲む矩形を指定したとする。この場合、図5(b)に示すように、人物Bの周りに追加検知枠530が追加される。さらに、図5(b)に示すように、人数ラベル520の人数は、図5(a)の「9」人から「10」人に増加する。   For example, it is assumed that the user presses the add mode button 521 and designates a rectangle surrounding the person B in the correction window 500 of FIG. In this case, an additional detection frame 530 is added around the person B as shown in FIG. Furthermore, as shown in FIG. 5B, the number of people in the number label 520 increases from “9” people in FIG. 5A to “10” people.

図3に戻り、S307において、受付部201は、ユーザ操作に応じて、修正ウインドウ500に表示されている検知枠の削除指示を受け付ける。削除指示は、修正ウインドウ500に表示される検知枠のうち、削除対象の検知枠を指定する情報を含んでいる。例えば、ユーザは、図5(b)の修正ウインドウ500に表示中の検知枠503の中にカーソルを移動してクリックする。これに対し、受付部201は、クリックした点を含む検知枠503を削除対象として指定し、指定した検知枠503の削除指示を受け付ける。なお、クリックした点が複数の検知枠の中になる場合には、この複数の検知枠すべてが削除対象として指定される。   Returning to FIG. 3, in step S <b> 307, the reception unit 201 receives an instruction to delete the detection frame displayed in the correction window 500 in response to a user operation. The deletion instruction includes information for designating a detection frame to be deleted among the detection frames displayed in the correction window 500. For example, the user moves the cursor into the detection frame 503 being displayed in the correction window 500 in FIG. On the other hand, the reception unit 201 specifies the detection frame 503 including the clicked point as a deletion target, and receives an instruction to delete the specified detection frame 503. When the clicked point is in a plurality of detection frames, all of the plurality of detection frames are designated as deletion targets.

次に、S308において、表示処理部205は、削除指示に係る検知枠を修正ウインドウ500から削除する。次に、S309において、計測部204は、計測結果に対し、修正ウインドウ500から削除された検知枠の数だけ人数を減らす。そして、表示処理部205は、減らした後の検知枠の数、すなわち訂正後の人物の数を人数ラベル520に表示する。CPU101は、その後処理をS303へ進める。例えば、図5(b)の修正ウインドウ500において検知枠503が指定されると、図5(c)に示すように検知枠503が削除される。さらに、人数ラベル520の人数は、図5(b)の「10」から「9」人に減少する。   In step S <b> 308, the display processing unit 205 deletes the detection frame related to the deletion instruction from the correction window 500. In step S <b> 309, the measurement unit 204 reduces the number of people by the number of detection frames deleted from the correction window 500 with respect to the measurement result. Then, the display processing unit 205 displays the number of detection frames after reduction, that is, the number of corrected persons on the number of persons label 520. After that, the CPU 101 advances the process to S303. For example, when the detection frame 503 is designated in the correction window 500 of FIG. 5B, the detection frame 503 is deleted as shown in FIG. Further, the number of people in the number of people label 520 decreases from “10” in FIG. 5B to “9”.

また、S310において、ファイル処理部206は、修正ウインドウ500に表示されている、検知枠が重畳された重畳画像と、人数ラベル520に表示される人数と、を結果ファイルとしてHDD104等の記憶部に保存する。以上で、検知処理が終了する。なお、ファイル処理部206は、結果ファイルを外部に出力することもできる。なお、ファイル処理部206は、少なくとも検知された人数(訂正された場合には訂正後の人数)を含む結果ファイルを保存すればよい。ファイル処理部206は、例えば、対象画像と、検知枠の位置を示す情報と、検知された人数と、を結果ファイルとして保存してもよい。   In step S310, the file processing unit 206 stores the superimposed image displayed on the correction window 500 on which the detection frame is superimposed and the number of people displayed on the number of people label 520 as a result file in a storage unit such as the HDD 104. save. This completes the detection process. The file processing unit 206 can also output the result file to the outside. Note that the file processing unit 206 may store a result file including at least the detected number of people (if corrected, the number of people after correction). For example, the file processing unit 206 may store the target image, information indicating the position of the detection frame, and the number of detected people as a result file.

以上のように、本実施形態に係る画像処理装置100は、人物の検知結果の表示画面において、ユーザ操作に応じて、検知枠の追加、削除等の訂正処理を行い、訂正処理の結果を反映した検知対象の数を保存、出力することができる。すなわち、画像処理装置100は、ユーザによる煩雑な操作を要することなく、検知された検知対象の個数を容易に訂正することができる。   As described above, the image processing apparatus 100 according to the present embodiment performs correction processing such as addition or deletion of a detection frame in accordance with a user operation on the human detection result display screen, and reflects the result of the correction processing. The number of detected objects can be saved and output. That is, the image processing apparatus 100 can easily correct the number of detected detection targets without requiring a complicated operation by the user.

実施形態に係る画像処理装置100の変更例について説明する。追加モードにおいて、追加検知枠の位置及びサイズを決めるための処理は、実施形態に限定されるものではない。例えば、ユーザは、位置及びサイズに替えて、位置のみを指定する追加指示を入力してもよい。図7を参照しつつ、人物Bに対して検知枠を追加したい場合を例に具体的に説明する。ユーザは、人物Bの中心点701をクリックする。なお、中心点701は、中心付近の点であればよい。これに対し、表示処理部205は、中心点701を位置として指定した追加指示を受け付ける。さらに、この場合、表示処理部205は、自動的に追加検知枠のサイズを決定する。サイズを決めるための処理としては、以下に示すものが挙げられる。なお、本処理は、サイズ決定処理の一例である。   A modification example of the image processing apparatus 100 according to the embodiment will be described. In the addition mode, the process for determining the position and size of the additional detection frame is not limited to the embodiment. For example, the user may input an additional instruction specifying only the position instead of the position and the size. A case where a detection frame is desired to be added to the person B will be specifically described with reference to FIG. The user clicks the center point 701 of the person B. The center point 701 may be a point near the center. In response to this, the display processing unit 205 accepts an addition instruction specifying the center point 701 as a position. Further, in this case, the display processing unit 205 automatically determines the size of the additional detection frame. Examples of the process for determining the size include the following. This process is an example of a size determination process.

1つ目は、所定のサイズを追加検知枠のサイズとする処理である。すなわち、表示処理部205は、追加指示に係る位置に、予め定められたサイズの検知枠を追加検知枠として表示する。   The first is processing for setting a predetermined size to the size of the additional detection frame. That is, the display processing unit 205 displays a detection frame of a predetermined size as an additional detection frame at a position related to the addition instruction.

2つ目は、指定された位置に最も近い位置に存在する検知枠と同じサイズを追加検知枠のサイズとする処理である。表示処理部205は、追加指示に係る位置と、周囲の追加検知枠それぞれの中心点との距離を特定する。そして、表示処理部205は、最も近い位置に存在する検知枠のサイズと同じサイズの追加検知枠を表示する。   The second is processing for setting the size of the additional detection frame to the same size as the detection frame existing at the position closest to the designated position. The display processing unit 205 specifies the distance between the position related to the addition instruction and the center point of each of the surrounding additional detection frames. Then, the display processing unit 205 displays an additional detection frame having the same size as the detection frame existing at the closest position.

3つ目は、指定された位置から所定の距離範囲内に中心点が存在する検知枠のサイズの平均値を追加検知枠のサイズとする処理である。表示処理部205は、追加指示に係る位置から所定の距離範囲内に中心点が存在する検知枠を特定する。そして、表示処理部205は、特定した検知枠のサイズの平均値を求め、この平均値のサイズの追加検知枠を表示する。例えば、図7の例では、所定の距離範囲である基準範囲710内に中心点が存在するのは、人物A及び人物Cの検知枠501、502である。そこで、表示処理部205は、検知枠501、502のサイズの平均値のサイズの追加検知枠700を表示する。   The third is processing for setting the average value of the size of the detection frame in which the center point exists within a predetermined distance range from the designated position as the size of the additional detection frame. The display processing unit 205 identifies a detection frame in which the center point exists within a predetermined distance range from the position related to the addition instruction. Then, the display processing unit 205 obtains an average value of the sizes of the specified detection frames, and displays an additional detection frame of the average value size. For example, in the example of FIG. 7, it is the detection frames 501 and 502 of the person A and the person C that have a center point in the reference range 710 that is a predetermined distance range. Therefore, the display processing unit 205 displays the additional detection frame 700 having the average size of the detection frames 501 and 502.

4つ目は、対象画像中の複数の検知枠のサイズの傾向に合わせて追加検知枠のサイズを決める処理である。例えば、図8の例のように、人物Bの中心点801が指定された場合、表示処理部205は、まず修正ウインドウ500に表示されるすべての検知枠のサイズを特定し、サイズに応じて検知枠をグループ化する。例えば、表示処理部205は、複数の検知枠それぞれのサイズの分布からグループの数を求め、各グループに属する検知枠を特定する。そして、各グループに属する検知枠の中心点を結ぶ線を特定する。本処理は、線特定処理の一例である。そして、表示処理部205は、特定した線の中から、指定された位置からの距離が距離閾値以下となる線を選択し、選択した線で結ばれる検知枠のサイズの平均値を追加検知枠のサイズとして決定する。このように、表示処理部205は、特定した線と指定された位置との位置関係に基づいて一の線を選択し、選択した線で結ばれる検知枠のサイズに基づいて、追加検知枠のサイズを決定する。   The fourth is processing for determining the size of the additional detection frame in accordance with the tendency of the sizes of the plurality of detection frames in the target image. For example, as shown in the example of FIG. 8, when the center point 801 of the person B is designated, the display processing unit 205 first specifies the sizes of all detection frames displayed in the correction window 500, and according to the sizes. Group detection frames. For example, the display processing unit 205 obtains the number of groups from the size distribution of each of the plurality of detection frames, and identifies the detection frames belonging to each group. Then, a line connecting the center points of the detection frames belonging to each group is specified. This process is an example of a line specifying process. Then, the display processing unit 205 selects a line whose distance from the specified position is equal to or less than the distance threshold from the specified lines, and adds an average value of the sizes of the detection frames connected by the selected lines. Determine as the size. In this way, the display processing unit 205 selects one line based on the positional relationship between the specified line and the specified position, and based on the size of the detection frame connected by the selected line, the additional detection frame Determine the size.

図8の例では、検知枠501、502、503、504がグループ化され、各検知枠501、502、503、504の中心点を通る直線811が特定される。また、検知枠505、506、507、508、509がグループ化され、各検知枠505、506、507、508、509の中心点を通る直線812が特定される。指定された位置(中心点801)は、直線811から所定距離以下であるとする。また、検知枠505、506、507、508、509のサイズの平均値が「5」であるのに対し、検知枠501、502、503、504のサイズの平均値が「10」であるとする。この場合、表示処理部205は、追加検知枠のサイズを「10」に決定する。   In the example of FIG. 8, the detection frames 501, 502, 503, and 504 are grouped, and a straight line 811 that passes through the center point of each of the detection frames 501, 502, 503, and 504 is specified. Further, the detection frames 505, 506, 507, 508, and 509 are grouped, and a straight line 812 that passes through the center point of each of the detection frames 505, 506, 507, 508, and 509 is specified. The designated position (center point 801) is assumed to be a predetermined distance or less from the straight line 811. Further, the average value of the sizes of the detection frames 505, 506, 507, 508, and 509 is “5”, whereas the average value of the sizes of the detection frames 501, 502, 503, and 504 is “10”. . In this case, the display processing unit 205 determines the size of the additional detection frame as “10”.

さらにこの場合、表示処理部205は、ユーザが指定した位置から、直線811上の位置(線上の位置)に移動した位置を、追加検知枠の中心点として決定してもよい。この場合、表示処理部205は、決定した、直線811上の位置を中心点とし、サイズ「10」の追加検知枠800を表示する。また、他の例としては、他の人物との位置関係等を考慮した場合に、中心点が直線811上に位置することがないことがわかっている場合がある。このような場合には、表示処理部205は、できるだけ直線811と中心点との距離が短くなるような位置を、追加検知枠の中心点として決定してもよい。この場合も、表示処理部205は、決定した位置を中心点として、追加検知枠800を表示する。   Further, in this case, the display processing unit 205 may determine the position moved from the position designated by the user to the position on the straight line 811 (position on the line) as the center point of the additional detection frame. In this case, the display processing unit 205 displays the additional detection frame 800 of size “10” with the determined position on the straight line 811 as the center point. As another example, there is a case where it is known that the center point is not positioned on the straight line 811 in consideration of the positional relationship with another person. In such a case, the display processing unit 205 may determine a position where the distance between the straight line 811 and the center point is as short as possible as the center point of the additional detection frame. Also in this case, the display processing unit 205 displays the additional detection frame 800 with the determined position as the center point.

さらに、表示処理部205は、直線811に応じて、追加検知枠800の表示をアニメーション等により移動させてもよい。例えば、表示処理部205は、まずユーザが指定した位置にサイズ「10」の追加検知枠800を表示する。そして、表示処理部205は、追加検知枠800を、ユーザが指定した位置から、直線811上の位置、又は直線811との距離が短くなるような位置まで移動させる。   Further, the display processing unit 205 may move the display of the additional detection frame 800 by animation or the like according to the straight line 811. For example, the display processing unit 205 first displays the additional detection frame 800 of size “10” at the position designated by the user. Then, the display processing unit 205 moves the additional detection frame 800 from the position designated by the user to a position on the straight line 811 or a position where the distance from the straight line 811 becomes short.

以上、上述した各実施形態によれば、検知された検知対象の個数を容易に訂正することができる。   As mentioned above, according to each embodiment mentioned above, the number of detected detection objects can be corrected easily.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 画像処理装置
101 CPU
107 入力部
108 表示部
203 検知部
205 表示処理部
100 Image processing apparatus 101 CPU
107 Input unit 108 Display unit 203 Detection unit 205 Display processing unit

Claims (19)

画像を表示手段に表示させ、さらに前記画像から検知された検知対象に対応させてマークを前記表示手段に表示させる表示制御手段と、
前記表示手段に表示される前記マークの数を出力する出力手段と
を有し、
前記表示制御手段は、ユーザ操作に応じて、前記マークを追加又は削除し、
前記出力手段は、前記追加の後又は削除の後の前記マークの数を出力することを特徴とする画像処理装置。
Display control means for displaying an image on a display means, and further displaying a mark on the display means in correspondence with a detection target detected from the image;
Output means for outputting the number of marks displayed on the display means;
The display control means adds or deletes the mark according to a user operation,
The image processing apparatus, wherein the output means outputs the number of marks after the addition or deletion.
前記表示制御手段は、前記マークの数を前記表示手段に表示させることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display control unit displays the number of marks on the display unit. 前記表示制御手段は、前記画像上の検知対象に対応する位置に前記マークが重畳された重畳画像を前記表示手段に表示させることを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display control unit causes the display unit to display a superimposed image in which the mark is superimposed at a position corresponding to a detection target on the image. 前記表示制御手段は、ユーザ操作に応じて、前記マークの追加指示を受け付けた場合に、新たに追加マークを表示させることを特徴とする請求項1乃至3何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display control unit newly displays an additional mark when an instruction to add the mark is received in response to a user operation. . 前記表示制御手段は、ユーザ操作に応じて、前記マークのサイズが指定された前記追加指示を受け付けた場合に、指定されたサイズの前記追加マークを表示させることを特徴とする請求項4に記載の画像処理装置。   5. The display control unit according to claim 4, wherein the display control unit displays the additional mark having the designated size when receiving the addition instruction in which the size of the mark is designated in response to a user operation. 6. Image processing apparatus. 前記表示制御手段は、ユーザ操作に応じて、前記マークの追加指示を受け付けた場合に、予め定められたサイズの前記追加マークを表示させることを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the display control unit displays the additional mark having a predetermined size when an instruction to add the mark is received in response to a user operation. ユーザ操作に応じて、前記画像上の位置が指定された前記追加指示を受け付けた場合に、前記指定された位置に最も近い位置に存在するマークのサイズを前記追加マークのサイズとして決定するサイズ決定手段をさらに有し、
前記表示制御手段は、前記サイズ決定手段により決定されたサイズの前記追加マークを表示させることを特徴とする請求項4乃至6何れか1項に記載の画像処理装置。
Size determination for determining the size of a mark present at a position closest to the designated position as the size of the additional mark when the addition instruction with the designated position on the image is received in response to a user operation Further comprising means,
The image processing apparatus according to claim 4, wherein the display control unit displays the additional mark having a size determined by the size determination unit.
ユーザ操作に応じて、前記画像上の位置が指定された前記追加指示を受け付けた場合に、前記指定された位置を基準とした基準範囲に存在するマークのサイズに基づいて、前記追加マークのサイズを決定するサイズ決定手段をさらに有し、
前記表示制御手段は、前記サイズ決定手段により決定されたサイズの前記追加マークを表示させることを特徴とする請求項4乃至6何れか1項に記載の画像処理装置。
The size of the additional mark based on the size of the mark existing in the reference range with the designated position as a reference when the addition instruction with the designated position on the image is received in response to a user operation Further comprising size determining means for determining
The image processing apparatus according to claim 4, wherein the display control unit displays the additional mark having a size determined by the size determination unit.
前記サイズ決定手段は、前記基準範囲に存在するマークのサイズの平均値を前記追加マークのサイズとして決定することを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the size determination unit determines an average value of the sizes of the marks existing in the reference range as the size of the additional mark. 前記画像中のマークを、前記マークのサイズに応じてグループ化し、各グループのマークを結ぶ線を特定する線特定手段と、
ユーザ操作に応じて、前記画像上の位置が指定された前記追加指示を受け付けた場合に、前記指定された位置と、前記線と、の位置関係に基づいて一の線を選択し、選択した線で結ばれるマークのサイズを前記追加マークのサイズとして決定するサイズ決定手段と
をさらに有し、
前記表示制御手段は、前記サイズ決定手段により決定されたサイズの前記追加マークを表示させることを特徴とする請求項4乃至6何れか1項に記載の画像処理装置。
A line specifying means for grouping marks in the image according to the size of the mark and specifying a line connecting the marks of each group;
In response to a user operation, when the additional instruction in which the position on the image is designated is received, one line is selected based on the positional relationship between the designated position and the line, and the selected line is selected. Size determining means for determining the size of the mark connected by a line as the size of the additional mark;
The image processing apparatus according to claim 4, wherein the display control unit displays the additional mark having a size determined by the size determination unit.
前記表示制御手段は、前記サイズ決定手段により選択された線上の位置を前記追加マークの中心点の位置として決定し、前記中心点の位置に基づいて、前記追加マークを表示させることを特徴とする請求項10に記載の画像処理装置。   The display control means determines the position on the line selected by the size determination means as the position of the center point of the additional mark, and displays the additional mark based on the position of the center point. The image processing apparatus according to claim 10. 前記表示制御手段は、前記サイズ決定手段により選択された線との距離が、ユーザ操作に応じて定まる位置に比べて短くなるような位置を前記追加マークの中心点の位置として決定し、前記中心点の位置に基づいて、前記追加マークを表示させることを特徴とする請求項10に記載の画像処理装置。   The display control means determines, as the position of the center point of the additional mark, a position where the distance from the line selected by the size determination means is shorter than a position determined according to a user operation, The image processing apparatus according to claim 10, wherein the additional mark is displayed based on a position of a point. 前記表示制御手段は、ユーザ操作に応じて、前記画像上の位置が指定された前記追加指示を受け付けた場合に、指定された位置に対応させて前記追加マークを表示させることを特徴とする請求項4乃至12何れか1項に記載の画像処理装置。   The display control means displays the additional mark in correspondence with the designated position when the addition instruction with the designated position on the image is received in response to a user operation. Item 13. The image processing device according to any one of Items 4 to 12. 前記表示制御手段は、ユーザ操作に応じて、表示中のマークが指定された削除指示を受け付けた場合に、指定された前記マークを削除することを特徴とする請求項1乃至13何れか1項に記載の画像処理装置。   14. The display control unit according to any one of claims 1 to 13, wherein the display control unit deletes the specified mark when receiving a delete instruction specifying the mark being displayed in response to a user operation. An image processing apparatus according to 1. 前記画像から前記検知対象を検知する検知手段をさらに有し、
前記表示制御手段は、前記検知手段により検知された前記検知対象に対応させて前記マークを表示させることを特徴とする請求項1乃至14何れか1項に記載の画像処理装置。
It further has a detection means for detecting the detection target from the image,
The image processing apparatus according to claim 1, wherein the display control unit displays the mark in correspondence with the detection target detected by the detection unit.
前記検知対象は、物体であることを特徴とする請求項1乃至15何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the detection target is an object. 前記検知対象は、人物であることを特徴とする請求項16に記載の画像処理装置。   The image processing apparatus according to claim 16, wherein the detection target is a person. 画像処理装置が実行する画像処理方法であって、
画像を表示手段に表示させ、さらに前記画像から検知された検知対象に対応させてマークを前記表示手段に表示させる表示制御ステップと、
前記表示手段に表示される前記マークの数を出力する出力ステップと
を含み、
前記表示制御ステップでは、ユーザ操作に応じて、前記マークを追加又は削除し、
前記出力ステップでは、前記追加の後又は削除の後の前記マークの数を出力することを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus,
A display control step of displaying an image on a display unit, and further displaying a mark on the display unit in correspondence with a detection target detected from the image;
Outputting the number of the marks displayed on the display means,
In the display control step, the mark is added or deleted according to a user operation,
In the output step, the number of marks after the addition or deletion is output.
コンピュータを、
画像を表示手段に表示させ、さらに前記画像から検知された検知対象に対応させてマークを前記表示手段に表示させる表示制御手段と、
前記表示手段に表示される前記マークの数を出力する出力手段と
して機能させ、
前記表示制御手段は、ユーザ操作に応じて、前記マークを追加又は削除し、
前記出力手段は、前記追加の後又は削除の後の前記マークの数を出力することを特徴とするプログラム。
Computer
Display control means for displaying an image on a display means, and further displaying a mark on the display means in correspondence with a detection target detected from the image;
Function as output means for outputting the number of marks displayed on the display means;
The display control means adds or deletes the mark according to a user operation,
The output means outputs the number of marks after the addition or deletion.
JP2016100669A 2016-05-19 2016-05-19 Image processing apparatus, image processing method and program Active JP6736348B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016100669A JP6736348B2 (en) 2016-05-19 2016-05-19 Image processing apparatus, image processing method and program
US15/588,355 US10475221B2 (en) 2016-05-19 2017-05-05 Image processing device, image processing method and program for detected objects
US16/653,304 US10922864B2 (en) 2016-05-19 2019-10-15 Image processing device, image processing method and program, for object detection in an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016100669A JP6736348B2 (en) 2016-05-19 2016-05-19 Image processing apparatus, image processing method and program

Publications (3)

Publication Number Publication Date
JP2017207972A true JP2017207972A (en) 2017-11-24
JP2017207972A5 JP2017207972A5 (en) 2019-06-20
JP6736348B2 JP6736348B2 (en) 2020-08-05

Family

ID=60417295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016100669A Active JP6736348B2 (en) 2016-05-19 2016-05-19 Image processing apparatus, image processing method and program

Country Status (1)

Country Link
JP (1) JP6736348B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113903036A (en) * 2021-11-10 2022-01-07 北京百度网讯科技有限公司 Text recognition method and device, electronic equipment, medium and product
CN114356189A (en) * 2021-12-16 2022-04-15 苏州镁伽科技有限公司 Editing method and device for panel image to be detected, electronic equipment and storage medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281605A (en) * 1996-04-15 1997-10-31 Fuji Photo Film Co Ltd Image recorder
JP2006304090A (en) * 2005-04-22 2006-11-02 Fuji Photo Film Co Ltd Photo movie generating device and program
JP2009060291A (en) * 2007-08-30 2009-03-19 Canon Inc Image processing apparatus, image processing method and program
JP2010086429A (en) * 2008-10-01 2010-04-15 Canon Inc Image processor and image processing method
JP2010193254A (en) * 2009-02-19 2010-09-02 Sanyo Electric Co Ltd Imaging apparatus and group photographing support program
JP2012160950A (en) * 2011-02-01 2012-08-23 Nikon Corp Image processing device, imaging device, and display device
JP2013093639A (en) * 2010-03-03 2013-05-16 Panasonic Corp Vehicle periphery monitoring device
US20160078323A1 (en) * 2014-09-17 2016-03-17 Samsung Electronics Co., Ltd. Method and apparatus for counting person
WO2016147653A1 (en) * 2015-03-19 2016-09-22 日本電気株式会社 Object detection device, object detection method, and recording medium

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281605A (en) * 1996-04-15 1997-10-31 Fuji Photo Film Co Ltd Image recorder
JP2006304090A (en) * 2005-04-22 2006-11-02 Fuji Photo Film Co Ltd Photo movie generating device and program
JP2009060291A (en) * 2007-08-30 2009-03-19 Canon Inc Image processing apparatus, image processing method and program
JP2010086429A (en) * 2008-10-01 2010-04-15 Canon Inc Image processor and image processing method
JP2010193254A (en) * 2009-02-19 2010-09-02 Sanyo Electric Co Ltd Imaging apparatus and group photographing support program
JP2013093639A (en) * 2010-03-03 2013-05-16 Panasonic Corp Vehicle periphery monitoring device
JP2012160950A (en) * 2011-02-01 2012-08-23 Nikon Corp Image processing device, imaging device, and display device
US20160078323A1 (en) * 2014-09-17 2016-03-17 Samsung Electronics Co., Ltd. Method and apparatus for counting person
WO2016147653A1 (en) * 2015-03-19 2016-09-22 日本電気株式会社 Object detection device, object detection method, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113903036A (en) * 2021-11-10 2022-01-07 北京百度网讯科技有限公司 Text recognition method and device, electronic equipment, medium and product
CN113903036B (en) * 2021-11-10 2023-11-03 北京百度网讯科技有限公司 Text recognition method and device, electronic equipment, medium and product
CN114356189A (en) * 2021-12-16 2022-04-15 苏州镁伽科技有限公司 Editing method and device for panel image to be detected, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP6736348B2 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
US8578292B2 (en) Simultaneous document zoom and centering adjustment
US10237494B2 (en) Display control apparatus and display control method
US10796543B2 (en) Display control apparatus, display control method, camera system, control method for camera system, and storage medium
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6311764B2 (en) Automatic measurement of objects in images
US20150050006A1 (en) Content-based video segmentation
US10291843B2 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
JP6959495B2 (en) Information processing equipment, information processing methods, programs
US20170039430A1 (en) Setting apparatus and setting method
KR20070059313A (en) Multimedia system capable of scaling application, application scaling method and recording medium storing program for performing the method
US20160353021A1 (en) Control apparatus, display control method and non-transitory computer readable medium
US10930068B2 (en) Estimation apparatus, estimation method, and non-transitory computer-readable storage medium for storing estimation program
JP6736348B2 (en) Image processing apparatus, image processing method and program
CN111986229A (en) Video target detection method, device and computer system
JP5446700B2 (en) Information processing apparatus, information processing method, and program
JP6765884B2 (en) Information processing equipment, information processing methods and programs
US9196068B2 (en) Projector system, and method for drawings
US10922864B2 (en) Image processing device, image processing method and program, for object detection in an image
US9805245B2 (en) Image resolution recognition device, method for recognizing image resolution and image resolution recognition program
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
KR102273198B1 (en) Method and device for recognizing visually coded patterns
JP6723822B2 (en) Image processing apparatus, image processing method and program
KR101911676B1 (en) Apparatus and Method for Presentation Image Processing considering Motion of Indicator
US10372297B2 (en) Image control method and device
JP2020135609A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200715

R151 Written notification of patent or utility model registration

Ref document number: 6736348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151