JP2009088868A - Photographed image processing system and display image creation program - Google Patents

Photographed image processing system and display image creation program Download PDF

Info

Publication number
JP2009088868A
JP2009088868A JP2007254665A JP2007254665A JP2009088868A JP 2009088868 A JP2009088868 A JP 2009088868A JP 2007254665 A JP2007254665 A JP 2007254665A JP 2007254665 A JP2007254665 A JP 2007254665A JP 2009088868 A JP2009088868 A JP 2009088868A
Authority
JP
Japan
Prior art keywords
indicator
image
camera
captured image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007254665A
Other languages
Japanese (ja)
Other versions
JP4854033B2 (en
Inventor
Katsuyoshi Komatsu
克佳 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SKY Co Ltd
Original Assignee
SKY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SKY Co Ltd filed Critical SKY Co Ltd
Priority to JP2007254665A priority Critical patent/JP4854033B2/en
Publication of JP2009088868A publication Critical patent/JP2009088868A/en
Application granted granted Critical
Publication of JP4854033B2 publication Critical patent/JP4854033B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display an arbitrary area of a photographed subject on a monitor without carrying out optical control of a camera from a photographed image. <P>SOLUTION: A photographed image processing system consists of an image processing device 1 which transfers a display image to monitors 6a, 7, which is processed and created from the photographed image acquired by a camera 2 which takes in the photographed subject 3. The image processing device 1 includes: an indication body area detection unit 20 which detects an indication body area which is an area of the indication body 4a arranged between the photographed body and the camera from the photographed image acquired by the camera; an indication body three-dimensional position calculation unit 30 which calculates a three-dimensional position of the indication body using detected information of the indication body area; a specifying unit 40A which specifies the photographed image of a specific part in the photographed image based on the three-dimensional position of the indication body; a display image creation unit 40B which creates the photographed image of the specific part as the display image; and a display image transfer unit 50 which transfers the display image to the monitors. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、被写体を撮影するカメラによって取得された撮影画像を適宜処理して生成された表示画像をモニタに転送する画像処理技術に関する。   The present invention relates to an image processing technique for transferring a display image generated by appropriately processing a captured image acquired by a camera that captures a subject to a monitor.

従来より、被写体を撮影して表示する装置において、ユーザが何らかの指示を行うことにより被写体の表示形態を制御する技術の検討が行われてきている。例えば、書画等を被写体とし、被写体上の2点を指示ペンにより指定することで、指定された2点を対角線とする矩形領域を注目領域として決定し、注目領域を所定サイズに拡大表示するためにカメラのパン、チルト、ズーム等を制御する装置が知られている(特許文献1)。また、被写体の撮影時に、被写体(人物)が有しているリモコンの発光部を被写体と共に撮影し、撮影画面においてこの発光部が所定位置となるように、少なくとも撮影画面内に収まるように、カメラの画角を制御(ズーミング)する技術も知られている(特許文献2)。この装置によれば、被写体である人物は被撮影時に手にしているリモコンを上下左右に移動させることでカメラの画角を変更することができる。さらに、原稿のマーカ指定された領域のみを拡大/縮小して複写することのできるデジタル複写機(特許文献3)や、プロジェクタによる投影像の上にレーザポインタにより所定の形状を照射し、カメラによりその形状を認識し、プロジェクタの投影像を制御する装置(特許文献4)なども知られている。   2. Description of the Related Art Conventionally, in an apparatus that captures and displays a subject, a technique for controlling the display form of the subject by a user giving some instruction has been studied. For example, in order to determine a rectangular area having a designated two points as a diagonal line as an attention area by specifying a document or the like as an object and specifying two points on the object with an instruction pen, and to enlarge and display the attention area to a predetermined size. A device for controlling pan, tilt, zoom and the like of a camera is also known (Patent Document 1). Also, when shooting the subject, the remote control of the subject (person) is shot together with the subject, and the camera is at least within the shooting screen so that the light emitting portion is in a predetermined position on the shooting screen. A technique for controlling (zooming) the angle of view is also known (Patent Document 2). According to this apparatus, the person who is the subject can change the angle of view of the camera by moving the remote control in his / her hand up / down / left / right when shooting. Furthermore, a digital copying machine (Patent Document 3) capable of enlarging / reducing and copying only a marker-designated area of a document, or irradiating a predetermined shape with a laser pointer on an image projected by a projector, An apparatus that recognizes the shape and controls the projection image of the projector (Patent Document 4) is also known.

特開平08−125921(段落番号0010−0011、図1)JP 08-125921 (paragraph number 0010-0011, FIG. 1) 特開2003−289464(要約、図3)JP 2003-289464 (Abstract, FIG. 3) 特開2004−221898(段落番号0006)JP2004-221898 (paragraph number 0006) 特開2004−078682(要約、図1)JP 2004-078682 (Summary, FIG. 1)

しかしながら、特許文献1の技術は、撮影位置を変更するには再度2点を指定する必要があり、表示領域を頻繁に変更する場合には操作が煩雑になる。また、カメラに対するリモートコントロール系が必要となる。特許文献2の技術は、撮影画面における被写体が所持しているリモコンの発光部が撮影画面の所定位置にくるようにカメラ画角を調整するだけであり、被写体に関係付けられる1つの点の撮影画面における位置を制御できるとしても、被写体に関係付けられる1つのエリアを自在に表示させるといった技術には無関係であるし、カメラ光学機構に対するリモートコントロール系が必要となる。特許文献3の技術は、原稿に直接マーカにより指示を行うため、直感的な操作を行うことができる。しかし、原稿に直接書き込んでいるために、容易に指示領域を変更することができず、操作性に問題がある。また、特許文献4の技術は、プロジェクタの投影像上のレーザポインタによる照射図形を認識して、投影光学系を制御する必要があり、さらにその認識精度が環境の影響を受けやすいという問題がある。   However, in the technique of Patent Document 1, it is necessary to designate two points again to change the shooting position, and the operation becomes complicated when the display area is frequently changed. In addition, a remote control system for the camera is required. The technique of Patent Document 2 only adjusts the angle of view of the camera so that the light emitting unit of the remote control that the subject on the shooting screen has is located at a predetermined position on the shooting screen, and the shooting of one point related to the subject is performed. Even if the position on the screen can be controlled, it is irrelevant to the technique of freely displaying one area related to the subject, and a remote control system for the camera optical mechanism is required. Since the technique of Patent Document 3 directly instructs a manuscript with a marker, an intuitive operation can be performed. However, since the writing is directly performed on the document, the instruction area cannot be easily changed, and there is a problem in operability. Further, the technique of Patent Document 4 has a problem that it is necessary to control the projection optical system by recognizing the irradiation figure by the laser pointer on the projection image of the projector, and the recognition accuracy is easily affected by the environment. .

上記実状に鑑み、本発明の課題は、被写体を撮影して得られた撮影画像から、カメラを光学制御することなしに、被写体における任意のエリアを自在にモニタに表示することを可能にする画像処理技術を提供することである。   In view of the above situation, an object of the present invention is to provide an image that allows an arbitrary area of a subject to be freely displayed on a monitor from a photographed image obtained by photographing the subject without optically controlling the camera. To provide processing technology.

上記課題を解決するため、被写体を撮影するカメラとこのカメラによって取得された撮影画像を処理して生成された表示画像をモニタに転送する画像処理装置とからなる、本発明による撮影画像処理システムは、任意の位置に配置される指示体、前記カメラによって取得された撮影画像から前記指示体の領域である指示体領域を検出する指示体領域検出部、少なくとも前記指示体領域の検出情報を用いて前記指示体の3次元位置を演算する指示体3次元位置演算部、前記指示体の3次元位置に基づいて前記撮影画像における特定部分撮影画像を特定する特定部、前記特定部分撮影画像を前記表示画像として生成する表示画像生成部、及び前記表示画像を前記モニタに転送する表示画像転送部から構成されている。   In order to solve the above problems, a captured image processing system according to the present invention includes a camera that captures a subject and an image processing device that processes a captured image acquired by the camera and transfers a display image generated to the monitor. A pointer disposed at an arbitrary position, a pointer region detection unit that detects a pointer region that is a region of the pointer from a captured image acquired by the camera, and at least using detection information of the pointer region A pointer three-dimensional position calculation unit that calculates a three-dimensional position of the pointer, a specific unit that specifies a specific partial captured image in the captured image based on the three-dimensional position of the pointer, and the display of the specific partial captured image The display image generating unit generates an image, and the display image transfer unit transfers the display image to the monitor.

上記構成による撮影画像処理システムでは、操作者は任意の位置に指示体を配置することができ、指示体が被写体とカメラの間に配置された場合には、指示体の3次元位置が演算され、この指示体の3次元位置に基づいて撮影画像における特定のエリアが特定部分撮影画像としてモニタに表示される。特定部分撮影画像をモニタに表示する際、特定部分撮影画像はモニタ、又はモニタ画面に設定された画像表示領域の表示解像度や表示サイズなどの表示特性に適合する表示画像に変換される。指示体のX−Y座標位置に基づいて撮影画像における特定部分撮影画像の切り出し基準位置が、そして指示体のZ座標位置に基づいて特定部分撮影画像の切り出しサイズが決定され、撮影画像から切り出された特定部分撮影画像が表示画像としてモニタに表示される。つまり、指示体を動かすことにより指示体のX−Y座標位置が変化すると撮影画像から取り出される特定部分撮影画像の位置が変化し、指示体のZ座標位置が変化すると撮影画像から取り出される特定部分撮影画像の大きさが変化する。従って、本発明によれば、操作者が被写体とカメラの間で指示体を所望の位置にもってくることにより、被写体の所望のエリアの被写体画像をモニタに表示することが可能となる。   In the captured image processing system configured as described above, the operator can place the indicator at an arbitrary position, and when the indicator is placed between the subject and the camera, the three-dimensional position of the indicator is calculated. Based on the three-dimensional position of the indicator, a specific area in the captured image is displayed on the monitor as a specific partial captured image. When the specific partial captured image is displayed on the monitor, the specific partial captured image is converted into a display image suitable for display characteristics such as the display resolution and display size of the monitor or the image display area set on the monitor screen. Based on the X-Y coordinate position of the indicator, the cutout reference position of the specific partial shot image in the shot image is determined, and on the basis of the Z coordinate position of the pointer, the cutout size of the specific partial shot image is determined and cut out from the shot image. The specific partial captured image is displayed on the monitor as a display image. That is, when the XY coordinate position of the indicator changes by moving the indicator, the position of the specific portion captured image taken out from the photographed image changes, and when the Z coordinate position of the indicator changes, the specific portion taken out from the photographed image. The size of the captured image changes. Therefore, according to the present invention, the operator can display the subject image of the desired area of the subject on the monitor by bringing the indicator between the subject and the camera to the desired position.

前記指示体3次元位置演算部の好適な構成の1つでは、前記撮影画像における前記指示体領域の大きさから前記指示体のカメラ光軸に沿ったZ軸座標を算定し、前記Z軸座標におけるカメラ光軸横断面でのX−Y軸座標を前記撮影画像における前記指示体領域の位置から算定することにより、指示体の3次元位置が求められる。この指示体3次元位置演算部の構成では、カメラによって取得された撮影画像を画像解析するだけで指示体の3次元位置(X−Y−Z軸座標)を求めることができるので、装置の簡素化に有効である。   In one preferred configuration of the indicator three-dimensional position calculation unit, a Z-axis coordinate along a camera optical axis of the indicator is calculated from a size of the indicator region in the captured image, and the Z-axis coordinate is calculated. The three-dimensional position of the pointer is obtained by calculating the XY axis coordinates in the cross section of the optical axis of the camera from the position of the pointer area in the captured image. In this configuration of the indicator three-dimensional position calculation unit, the three-dimensional position (XYZ axis coordinates) of the indicator can be obtained only by image analysis of the captured image acquired by the camera. It is effective for conversion.

もちろん、物体の位置を測定するデバイスは数多く流通しており、物体までの距離を測定する測距計は、レーザー測距計や超音波測距計などのように非接触で高精度であるので、特にカメラと指示体までの距離を測定するためにこれを利用することも可能である。そのような実施形態の1つでは、前記カメラと前記指示体との間の距離を測距計で測定し、指示体距離を取得する指示体距離取得部がさらに備えられ、かつ、前記指示体3次元位置演算部は、前記指示体距離から前記指示体のカメラ光軸に沿ったZ座標を算定し、前記Z軸座標におけるカメラ光軸横断面でのX−Y軸座標を前記撮影画像における前記指示体領域の位置から算定するように構成されている。この構成では、モニタにおける被写体の表示エリア、実際的には被写体のモニタ表示拡大率を決定づける指示体のZ軸座標を高速かつ正確に行うことができるので、拡大縮小表示の操作がスムーズとなる。   Of course, there are many devices that measure the position of an object, and rangefinders that measure the distance to an object are non-contact and highly accurate, such as laser rangefinders and ultrasonic rangefinders. In particular, it can be used to measure the distance between the camera and the indicator. In one such embodiment, the indicator is further provided with a pointer distance acquisition unit that measures the distance between the camera and the indicator with a rangefinder and acquires the indicator distance, and the indicator The three-dimensional position calculation unit calculates a Z coordinate along the camera optical axis of the indicator from the indicator distance, and calculates an XY axis coordinate in a cross section of the camera optical axis in the Z axis coordinate in the captured image. The position is calculated from the position of the indicator region. In this configuration, the display area of the subject on the monitor, and in fact, the Z-axis coordinate of the indicator that determines the monitor display enlargement ratio of the subject can be performed at high speed and accurately, and the operation of enlargement / reduction display becomes smooth.

上述した本発明による撮影画像処理システムの技術的特徴は、このシステムに用いられる撮影表示方法や、このシステムの画像処理装置に用いられる表示画像生成プログラムにも適用可能である。例えば、被写体とカメラの間に指示体を配置した状態で前記カメラによって前記被写体と前記指示体とを撮影して得られた撮影画像を処理して生成された表示画像をモニタに転送する画像処理装置ための、本発明による表示画像生成プログラムは、前記カメラから送られてきた前記撮影画像をメモリに記録する機能と、前記カメラによって取得された撮影画像から前記指示体の領域である指示体領域を検出する機能と、少なくとも前記指示体領域の検出情報を用いて前記指示体の3次元位置を演算する機能と、前記メモリに展開されている撮影画像から前記指示体の3次元位置に基づいて特定される特定部分撮影画像を切り出す機能と、前記特定部分撮影画像を前記表示画像として生成する機能とをコンピュータに実現させる。当然ながら、このような表示画像生成プログラムも上述した撮影画像処理システムで述べた作用効果を得ることができ、さらにその実施形態例として上述したいくつかの付加的技術を組み込むことも可能である。   The technical features of the photographic image processing system according to the present invention described above can also be applied to the photographic display method used in this system and the display image generation program used in the image processing apparatus of this system. For example, image processing for processing a captured image obtained by photographing the subject and the indicator with the camera in a state where an indicator is arranged between the subject and the camera and transferring a display image generated to the monitor A display image generation program according to the present invention for an apparatus includes a function of recording the captured image sent from the camera in a memory, and an indicator area that is an area of the indicator from the captured image acquired by the camera. Based on the three-dimensional position of the indicator from the photographed image developed in the memory, and the function of calculating the three-dimensional position of the indicator using at least the detection information of the indicator region. A computer is caused to realize a function of cutting out the specified specific captured image and a function of generating the specific partial captured image as the display image. Naturally, such a display image generation program can also obtain the operation and effect described in the above-described captured image processing system, and can also incorporate some additional techniques described above as an example of the embodiment.

さらに、上記課題を解決するため、カメラと、被写体を撮影して取得された被写体撮影画像を処理して生成された表示画像をモニタに転送する画像処理装置とからなる、本発明による撮影画像処理システムは、任意の位置に配置される指示体、前記カメラによって取得された撮影画像から前記指示体の領域である指示体領域を検出する指示体領域検出部を備えると共に、前記指示体領域検出部により前記指示体領域が検出されない場合に、前記被写体画像を記録する画像記録部、前記指示体領域が検出された場合に、少なくとも前記指示体領域の検出情報を用いて前記指示体の3次元位置を演算する指示体3次元位置演算部、前記指示体の3次元位置に基づいて前記画像記録部から読み出された被写体撮影画像における特定部分撮影画像を特定する特定部、前記特定部分撮影画像を前記表示画像として生成する表示画像生成部、及び前記表示画像を前記モニタに転送する表示画像転送部を備えている。この撮影画像処理システムでは、画像記録部に記録されている画像を液晶ディスプレイや大型スクリーンなどのモニタに表示する際に、カメラの前に位置する指示体の位置に応じて、その画像における表示領域を変更することができる。従って操作者がカメラの前で指示体を所望の位置にもってくることにより、被写体撮影画像の所望のエリアをモニタに表示することが可能となる。また、指示体が被写体と重なることにより被写体の一部がカメラから撮影されない場合がある。このような場合には、指示体がカメラの撮影空間外に配置されたときに被写体画像を記録しておき、指示体がカメラの撮影空間に配置された場合には記録された被写体画像を用いて表示画像を生成することにより、指示体の影響を排除することができる。   Furthermore, in order to solve the above-described problem, the captured image processing according to the present invention includes a camera and an image processing device that processes a captured subject image acquired by capturing the subject and transfers a display image generated to the monitor. The system includes a pointer disposed at an arbitrary position, a pointer region detection unit that detects a pointer region that is a region of the pointer from a captured image acquired by the camera, and the pointer region detection unit When the indicator region is not detected by the image recording unit, the image recording unit for recording the subject image, and when the indicator region is detected, at least the three-dimensional position of the indicator using the detection information of the indicator region An indicator three-dimensional position calculation unit for calculating a specific partial captured image in the subject captured image read from the image recording unit based on the three-dimensional position of the indicator. Specifying unit for, a display image generation unit which generates the specified portion captured image as the display image, and a display image transfer unit for transferring the display image on the monitor. In this captured image processing system, when an image recorded in the image recording unit is displayed on a monitor such as a liquid crystal display or a large screen, a display area in the image is displayed according to the position of the indicator located in front of the camera. Can be changed. Therefore, the operator can display a desired area of the photographed subject image on the monitor by bringing the indicator to a desired position in front of the camera. In addition, a part of the subject may not be captured from the camera due to the indicator overlapping the subject. In such a case, the subject image is recorded when the indicator is placed outside the camera shooting space, and the recorded subject image is used when the indicator is placed in the camera shooting space. Thus, the influence of the indicator can be eliminated by generating the display image.

本発明による撮影画像処理システムを学校教育支援システムに適用した例が図1に示されている。図1に示された教育現場では、教壇に立つ先生の周辺には、本発明による画像処理装置1として機能する教師側コンピュータと、この画像処理装置1に接続されているUSBカメラ(以下単にカメラと称する)2が配置されている。カメラ2は机に置かれた教材としての世界地図を被写体3として写している。先生は指示体付き差し棒4を手にしており、この指示体付き差し棒4の先端には球状の指示体4aが設けられている。各生徒の机には、画像処理装置1とネットワーク5を通じて接続された生徒側コンピュータ6が配置されており、生徒側コンピュータ6の液晶ディスプレイ(モニタの一例)6aには、カメラ2で撮影され、画像処理装置1で画像処理された画像が表示可能である。さらにネットワーク5にはプロジェクタ7(モニタの一例)が接続されており、カメラ2で撮影され、画像処理装置1で画像処理された画像を教室正面に掛けられた大型スクリーン7aに表示することができる。なお、先生の机には教師側コンピュータ1に接続された液晶ディスプレイ(モニタの一例)1aも配置されており、先生はこの液晶ディスプレイ1aを通じて生徒側コンピュータ6の液晶ディスプレイ6aやプロジェクタ7によって大型スクリーン7aに表示されている画像を確認することができる。   An example in which the captured image processing system according to the present invention is applied to a school education support system is shown in FIG. In the education site shown in FIG. 1, a teacher computer that functions as the image processing apparatus 1 according to the present invention and a USB camera (hereinafter simply referred to as a camera) connected to the image processing apparatus 1 are located in the vicinity of the teacher standing on the platform. 2) is arranged. The camera 2 takes a world map as a teaching material placed on a desk as a subject 3. The teacher holds the insertion rod 4 with an indicator, and a spherical indicator 4a is provided at the tip of the insertion rod 4 with the indicator. Each student's desk is provided with a student computer 6 connected to the image processing apparatus 1 through the network 5, and is photographed by the camera 2 on a liquid crystal display (an example of a monitor) 6 a of the student computer 6. An image processed by the image processing apparatus 1 can be displayed. Further, a projector 7 (an example of a monitor) is connected to the network 5, and an image photographed by the camera 2 and subjected to image processing by the image processing apparatus 1 can be displayed on a large screen 7 a placed on the front of the classroom. . The teacher's desk is also provided with a liquid crystal display (an example of a monitor) 1a connected to the teacher computer 1, and the teacher uses the liquid crystal display 6a and the projector 7 of the student computer 6 through the liquid crystal display 1a. The image displayed on 7a can be confirmed.

この撮影画像処理システムでは、先生が手にしている指示体付き差し棒4の指示体4aをカメラ2の撮影視野内に入れた場合、被写体3をX−Y軸面としカメラ光軸をZ軸とする撮影空間における、その指示体4aの3次元位置によって、生徒側コンピュータ6の液晶ディスプレイ6aや大型スクリーン7aに表示される撮影画像の領域が変化するように構成されている。つまり、画像処理装置1は、以下に詳しく説明するが、カメラ2が被写体3を撮影することによって得られた、被写体全体を写した撮影画像を指示体4aの3次元位置に基づいて処理して、被写体全体を、もしくは被写体の拡大された任意の部分を示す表示画像を生成し、その表示画像をモニタとして機能している液晶ディスプレイ1aや6a、さらには大型スクリーン7aに表示させる。つまり、カメラ2の撮影空間における指示体4aのX−Y軸座標が撮影画像から表示画像を取り出す際の基点となり、指示体4aのZ軸座標が撮影画像から表示画像のために取り出される領域の大きさを決定するように構成されている。従って、先生が指示体4aを被写体3である世界地図の上方で右から左に移動させると、生徒側コンピュータ6の液晶ディスプレイ6aや大型スクリーン7aに表示される世界地図も右から左に移動するように表示される。また、先生が指示体4aを被写体3である世界地図の方に近づけると、表示される世界地図が拡大され、指示体4aを世界地図から遠ざけると、表示される世界地図が縮小されたように表示される。もちろん、指示体4aの被写体3である世界地図における左右移動と表示の左右移動の関係、及び被写体3に対する遠近移動と表示の拡縮の関係は、先の説明の逆にすることも可能である。   In this photographed image processing system, when the indicator 4a of the insertion rod 4 with the indicator that the teacher is holding is placed in the field of view of the camera 2, the subject 3 is the XY axis plane and the camera optical axis is the Z axis. The area of the photographed image displayed on the liquid crystal display 6a or the large screen 7a of the student computer 6 varies depending on the three-dimensional position of the indicator 4a in the photographing space. That is, as will be described in detail below, the image processing apparatus 1 processes a captured image obtained by capturing the entire subject 3 by the camera 2 based on the three-dimensional position of the indicator 4a. Then, a display image showing the entire subject or an enlarged portion of the subject is generated, and the display image is displayed on the liquid crystal displays 1a and 6a functioning as a monitor, and further on the large screen 7a. That is, the XY axis coordinates of the indicator 4a in the imaging space of the camera 2 serve as a base point when the display image is extracted from the captured image, and the Z axis coordinate of the indicator 4a is an area in which the display image is extracted from the captured image for the display image. It is configured to determine the size. Therefore, when the teacher moves the indicator 4a from the right to the left above the world map as the subject 3, the world map displayed on the liquid crystal display 6a and the large screen 7a of the student computer 6 also moves from right to left. Is displayed. When the teacher moves the indicator 4a closer to the world map as the subject 3, the displayed world map is enlarged. When the teacher is moved away from the world map, the displayed world map is reduced. Is displayed. Of course, the relationship between the left-right movement and the left-right movement of the display on the world map, which is the subject 3 of the indicator 4a, and the relationship between the perspective movement with respect to the subject 3 and the enlargement / reduction of the display can be reversed.

上述した学校教育支援システムに用いられている画像処理装置1の第1実施形態を図2の機能ブロック図を用いて説明する。この実施形態での画像処理装置1は、指示体4aの3次元位置(X−Y−Z軸座標)を、カメラ2によって取得された撮影画像を画像処理することにより求めるように構成されている。   A first embodiment of the image processing apparatus 1 used in the above-described school education support system will be described with reference to the functional block diagram of FIG. The image processing apparatus 1 in this embodiment is configured to obtain the three-dimensional position (XYZ axis coordinates) of the indicator 4a by performing image processing on a captured image acquired by the camera 2. .

この画像処理装置1は、汎用コンピュータによって構成されており、その機能は、標準装備されているハードウエア、標準インストールされているOS、及び特別にインストールされた表示画像生成プログラムによって実現される。この画像処理装置1の重要な働きは、カメラ2で取得された撮影画像を画像入力部10での前処理を経て、メモリ11に展開し、必要な画像処理を施して、表示画像として表示画像転送部50からネットワーク5を通じて、生徒側コンピュータ6やプロジェクタ7に送り出すことである。このため、画像処理装置1には、カメラ2によって取得された撮影画像から当該撮影画像における指示体4aの領域である指示体領域を検出する指示体領域検出部20、この指示体領域検出部20から与えられる指示体領域の検出情報を用いて指示体4aの3次元位置を演算する指示体3次元位置演算部30、求められた指示体4aの3次元位置に基づいて前記撮影画像における特定部分撮影画像を特定する特定部40A、前記特定部分撮影画像を前記表示画像として生成する表示画像生成部40Bが実質的にはソフトウエアの実行を通じて構築される。   The image processing apparatus 1 is configured by a general-purpose computer, and the functions thereof are realized by standard hardware, a standard installed OS, and a specially installed display image generation program. An important function of the image processing apparatus 1 is that a captured image acquired by the camera 2 is pre-processed by the image input unit 10, developed in the memory 11, subjected to necessary image processing, and displayed as a display image. Sending from the transfer unit 50 to the student side computer 6 and the projector 7 through the network 5. For this reason, the image processing apparatus 1 includes a pointer region detection unit 20 that detects a pointer region that is a region of the pointer 4a in the captured image from the captured image acquired by the camera 2, and the pointer region detection unit 20 The indicator three-dimensional position calculation unit 30 that calculates the three-dimensional position of the indicator 4a using the detection information of the indicator region given by A specifying unit 40A for specifying a captured image and a display image generating unit 40B for generating the specified partial captured image as the display image are substantially constructed through execution of software.

指示体領域検出部20は、指示体4aが図3で模式化されているような撮影空間に配置された場合に、カメラ2によって取得されてメモリ11に記録される図4に示すような撮影画像から、指示体4aの画像領域である指示体領域を、物体検出アルゴリズムを通じて検出する。輝度情報からだけで指示体領域を検出し易くするためには、指示体4aを再帰性反射材料で作るとよい。また、指示体4aをLEDなど自己発光体として作製してもよく、そのような自己発光体も含め、カメラによって撮影される表示態様の指標となる物体を、本発明では指示体4aと呼ぶことにしている。   The indicator region detection unit 20 captures images as shown in FIG. 4 which are acquired by the camera 2 and recorded in the memory 11 when the indicator 4a is arranged in an imaging space as schematically illustrated in FIG. From the image, the indicator region that is the image region of the indicator 4a is detected through an object detection algorithm. In order to easily detect the indicator region only from the luminance information, the indicator 4a may be made of a retroreflective material. In addition, the indicator 4a may be manufactured as a self-luminous body such as an LED, and an object that is an indicator of a display mode photographed by the camera including such a self-luminous body is referred to as an indicator 4a in the present invention. I have to.

指示体領域検出部20によって出力される検出情報を用いて指示体4aの3次元位置を演算するために、指示体3次元位置演算部30は、指示体領域の大きさ(面積)を演算するとともにこの指示体領域の大きさからカメラ光軸に沿ったZ軸座標を算定するZ座標演算部32と、前記指示体領域の重心位置といった所定位置を演算するとともにこの所定位置:(x0,y0)と前記Z軸座標とに基づいて、前記指示体4aの前記Z軸座標におけるカメラ光軸横断面でのX−Y軸座標を算定するXY座標演算部31とを備えている。Z座標演算部32は、カメラ2の光学的特性と実際の指示体4aの大きさがわかっていれば、その撮影画像における大きさでカメラ2からの距離を求めること可能であることを利用しており、予めそのZ軸での位置と撮影画像における大きさを測定しておきテーブル化又は関数化しておくと好都合である。例えば、関数化している場合、その指示体領域の大きさをSとすると、Z軸座標:zは、z=f(S)で簡単に求めることができる。また、XY座標演算部31は、カメラ2の光学的特性がわかっていると、算定されたZ軸座標:zと、撮影画像における指示体領域の所定位置:(x0,y0)とから、前記Z軸座標におけるカメラ光軸横断面でのX−Y軸座標:(x=g(x0,y0,z), y=h(x0,y0,z)を求めることができる。これにより、指示体3次元位置演算部30は、検出情報から指示体4aの3次元位置:(x,y,z)を求めて、特定部40Aに与えることができる。   In order to calculate the three-dimensional position of the indicator 4a using the detection information output from the indicator region detector 20, the indicator three-dimensional position calculator 30 calculates the size (area) of the indicator region. At the same time, a Z-coordinate calculation unit 32 for calculating the Z-axis coordinate along the camera optical axis from the size of the indicator region, and a predetermined position such as the center of gravity of the indicator region are calculated and the predetermined position: (x0, y0) ) And the Z-axis coordinate, and an XY coordinate calculation unit 31 for calculating an XY-axis coordinate in the cross section of the camera optical axis in the Z-axis coordinate of the indicator 4a. If the optical characteristics of the camera 2 and the actual size of the indicator 4a are known, the Z coordinate calculation unit 32 can use the fact that the distance from the camera 2 can be obtained by the size in the captured image. It is convenient to measure the position on the Z-axis and the size of the captured image in advance and form a table or a function. For example, in the case of functioning, if the size of the indicator region is S, the Z-axis coordinate: z can be easily obtained by z = f (S). In addition, when the optical characteristics of the camera 2 are known, the XY coordinate calculation unit 31 calculates the above-described Z axis coordinate: z and the predetermined position of the indicator region in the captured image: (x0, y0). It is possible to obtain XY axis coordinates (x = g (x0, y0, z), y = h (x0, y0, z)) in the cross section of the camera optical axis in the Z axis coordinates. The three-dimensional position calculation unit 30 can obtain the three-dimensional position: (x, y, z) of the indicator 4a from the detection information and give it to the specifying unit 40A.

特定部40Aは、指示体3次元位置演算部30から与えられた指示体4aの3次元位置に基づいてメモリ11に展開されている撮影画像から生徒側コンピュータ6の液晶ディスプレイ6aや大型スクリーン7aなどのモニタでの表示画像とするための特定部分撮影画像を特定する。そのために、特定部40Aは、特定部分撮影画像の位置とサイズを含む切り出し情報を生成する切り出し情報生成部41と、この切り出し情報を一時的に記憶する切り出し情報記憶部42とを備えている。表示画像生成部40Bは、特定部40Aから受け取った切り出し情報に基づき、表示画像を生成する。そのため、表示画像生成部40Bは、切り出し情報生成部41から直接受け取った切り出し情報又は切り出し情報記憶部42から読み出した切り出し情報に基づいてメモリ11上の撮影画像から特定部分撮影画像を切り出す特定部分撮影画像切り出し部43と、切り出された特定部分撮影画像を生徒側コンピュータ6の液晶ディスプレイ6aや大型スクリーン7aなどのモニタでの表示画像に適合するように画像変換する画像変換部44とを備えている。   The specifying unit 40A is configured to use the captured image developed in the memory 11 based on the three-dimensional position of the indicator 4a given from the indicator three-dimensional position calculation unit 30, and the liquid crystal display 6a of the student computer 6 and the large screen 7a. A specific partial captured image to be displayed on the monitor is specified. For this purpose, the specifying unit 40A includes a cut-out information generation unit 41 that generates cut-out information including the position and size of the specific partial captured image, and a cut-out information storage unit 42 that temporarily stores the cut-out information. The display image generation unit 40B generates a display image based on the cutout information received from the specifying unit 40A. Therefore, the display image generation unit 40B extracts the specific partial captured image from the captured image on the memory 11 based on the cutout information directly received from the cutout information generation unit 41 or the cutout information read from the cutout information storage unit 42. An image cutout unit 43 and an image conversion unit 44 that converts an image of the cut out specific partial captured image so as to be compatible with a display image on a monitor such as a liquid crystal display 6a or a large screen 7a of the student computer 6 are provided. .

切り出し情報生成部41は、被写体3は日本地図となっている図5で模式的に示されているように、3次元位置:(x,y,z)の値x,y(単位はドット)で定まる点から所定量:Δx,Δyだけオフセットされた位置:(x+Δx,y+Δy)を切り出し基準点Pとし、3次元位置:(x,y,z)の値z(単位はcm)によって導かれる数値:mとn(単位はドット)を撮影画像から切り出される特定部分撮影画像の大きさ、つまり切り出しサイズm×nとする切り出し情報を生成する。特定部分撮影画像は、基準点Pを基点とする横×縦がm×nとなる矩形形状である。また、オフセット量は、任意に設定可能であり、オフセットゼロの場合、指示体領域の所定位置が切り出し基準点となる。値zと数値:nとmの関係は、この実施の形態では、逆比例の関係となっており、図5の(a)では、z=20cmで、m=450、n=300のサイズが示され、図5の(b)では、z=10cmで、m=900、n=600のサイズが示され、図5の(c)では、z=5cmで、m=1800、n=1200のサイズが示されている。従って、指示体4aがカメラ2から遠ざかり、結果的に、指示体4aが被写体3に近づくほど、拡大された被写体3の撮影画像が表示されることになる。このような切り出し情報に基づいて特定部分撮影画像切り出し部43によって、メモリ11上の撮影画像から切り出された特定部分撮影画像は、画像変換部44において、生徒側コンピュータ6の液晶ディスプレイ6aや大型スクリーン7aなどのモニタにおける表示画面特性に合わせて、間引き処理や補間処理などを施されたのち、表示画像として出力される。つまり、生徒側コンピュータ6の液晶ディスプレイ6aや大型スクリーン7aなどのモニタ画面には、撮影画像から切り出された特定部分撮影画像だけが表示されるので、図5から理解できるように、切り出された特定部分撮影画像のサイズが小さいほど、大きな拡大率で拡大された被写体3を表示することになる。この特定部分撮影画像は、先生側のモニタである液晶ディスプレイ1aにも表示されるので、先生はこのモニタ画面を確認しながら指示体4aの位置を動かすことで、被写体3における所望の領域だけが拡大された画像を生徒側コンピュータ6の液晶ディスプレイ6aや大型スクリーン7aに表示させることができる。   The cut-out information generation unit 41 has a three-dimensional position: values (x, y, z) x, y (units are dots) as schematically shown in FIG. 5 where the subject 3 is a map of Japan. A position offset by a predetermined amount: Δx, Δy from a point determined by (x + Δx, y + Δy) is taken as a reference point P, and a three-dimensional position: derived by a value z (unit: cm) of (x, y, z). Numerical values: Cutout information is generated with m and n (in units of dots) as the size of the specific partial shot image cut out from the shot image, that is, the cutout size m × n. The specific partial captured image has a rectangular shape in which horizontal × vertical is m × n with the reference point P as a base point. Further, the offset amount can be arbitrarily set. When the offset is zero, a predetermined position of the indicator region becomes a cut-out reference point. The relationship between the value z and the numerical value: n and m is an inversely proportional relationship in this embodiment. In FIG. 5A, z = 20 cm, m = 450, and n = 300 in size. In FIG. 5B, z = 10 cm, m = 900, and n = 600 are shown. In FIG. 5C, z = 5 cm, m = 1800, and n = 1200. The size is shown. Therefore, as the indicator 4a moves away from the camera 2 and as a result, the closer the indicator 4a is to the subject 3, the larger the captured image of the subject 3 is displayed. The specific partial captured image cut out from the captured image on the memory 11 by the specific partial captured image cutout unit 43 based on the cutout information is converted into a liquid crystal display 6a or a large screen of the student side computer 6 in the image conversion unit 44. The image is output as a display image after being subjected to thinning processing, interpolation processing, or the like in accordance with the display screen characteristics of the monitor such as 7a. That is, since only a specific partial photographed image cut out from the photographed image is displayed on the monitor screen such as the liquid crystal display 6a or the large screen 7a of the student side computer 6, as can be understood from FIG. As the size of the partial captured image is smaller, the subject 3 that is magnified at a larger magnification is displayed. Since this specific partial photographed image is also displayed on the liquid crystal display 1a which is a monitor on the teacher side, the teacher moves the position of the indicator 4a while checking this monitor screen, so that only a desired region in the subject 3 is obtained. The enlarged image can be displayed on the liquid crystal display 6a or the large screen 7a of the student computer 6.

切り出し情報記憶部42には、切り出し情報生成部41で生成された最新の切り出し情報が記憶されているので、もし指示体領域検出部20で撮影画像から指示体領域の検出ができなかった場合には、特定部分撮影画像切り出し部43は、切り出し情報記憶部42から読み出した切り出し情報に基づいて特定部分撮影画像を切り出すように切り換えられる。そして、再び指示体領域が検出されると解除信号が発生され、特定部分撮影画像切り出し部43は、直接切り出し情報生成部41から受け取った切り出し情報に基づいて特定部分撮影画像を切り出すように切り換えられる。この構成により、先生が現状で表示されている画像をそのままの状態で保持したい場合には、指示体4aを素早くカメラ2の撮影視野外に移動させるだけでよい。また、指示体領域の検出の可否にかかわらず現時点の表示画像をそのままにしておきたい場合には、表示保持スイッチ8をON操作することにより、切り出し情報記憶部42に記憶されている切り出し情報を一時的に固定するような構成を採用することも可能である。この場合、従来の状態に復帰するためには、表示保持スイッチ8をOFF操作して、切り出し情報記憶部42における切り出し情報の一時保持を解除する解除信号を強制的に発生させるようにするとよい。表示保持スイッチ8としては、キーボードの特定のキーを割り当てるとよい。解除信号により切り出し情報が消去されることにより、解除信号を発生した際に、指示体4aが検出されなければ、撮影画像がそのまま表示され、一方、指示体4aが検出されると、その指示体4aにより切り出し情報が再設定され、この切り出し情報に基づいて撮影画像から切り出された特定部分撮影画像が表示される。   Since the latest cutout information generated by the cutout information generation unit 41 is stored in the cutout information storage unit 42, if the pointer region detection unit 20 cannot detect the pointer region from the photographed image. The specific partial captured image cutout unit 43 is switched to cut out the specific partial captured image based on the cutout information read from the cutout information storage unit 42. When the indicator region is detected again, a release signal is generated, and the specific partial captured image cutout unit 43 is switched to cut out the specific partial captured image based on the cutout information received from the direct cutout information generation unit 41. . With this configuration, when the teacher wants to keep the currently displayed image as it is, it is only necessary to quickly move the indicator 4a out of the field of view of the camera 2. In addition, when it is desired to leave the current display image as it is regardless of whether or not the indicator region can be detected, the cutout information stored in the cutout information storage unit 42 is displayed by turning on the display holding switch 8. It is also possible to employ a configuration that temporarily fixes. In this case, in order to return to the conventional state, the display holding switch 8 may be turned OFF to forcibly generate a release signal for releasing the temporary holding of the cutout information in the cutout information storage unit 42. As the display holding switch 8, a specific key on the keyboard may be assigned. If the indicator 4a is not detected when the release signal is generated by deleting the cut-out information by the release signal, the captured image is displayed as it is. On the other hand, when the indicator 4a is detected, the indicator is displayed. The cutout information is reset by 4a, and the specific partial shot image cut out from the shot image based on this cutout information is displayed.

以上のように構成された撮影画像処理システムにおける撮影表示制御の流れを図6に示された撮影表示ルーチンを参照しながら説明する。
まず、画像入力部10がカメラ2で取得された、メガピクセルレベルの撮影画像を取り込んでメモリ11に展開する(#02)。メモリ11に展開された撮影画像から、指示体4aの像である指示体領域が検出しやすくなるように輝度変換や色調変換、必要に応じて解像度変換などの前処理を施した指示体検出処理用画像を生成する(#04)。生成された指示体検出処理用画像に対して指示体領域検出処理を行う(#06)。指示体領域検出処理で指示体領域が検出された場合(#08Yes分岐)、指示体3次元位置演算部30は、指示体領域の所定位置(x,y)とその大きさ:Sを求め(#10)、さらに、求められた大きさ:Sから指示体4aのZ軸座標:zを算定し、指示体4aの3次元位置座標(x,y,z)を決定する(#12)。
The flow of shooting display control in the shooting image processing system configured as described above will be described with reference to the shooting display routine shown in FIG.
First, the image input unit 10 captures a megapixel level captured image acquired by the camera 2 and develops it in the memory 11 (# 02). A pointer detection process in which preprocessing such as luminance conversion, tone conversion, and resolution conversion as necessary is performed so that a pointer region that is an image of the pointer 4a is easily detected from the photographed image developed in the memory 11. A business image is generated (# 04). A pointer region detection process is performed on the generated pointer detection processing image (# 06). When the indicator region is detected in the indicator region detection process (# 08 Yes branch), the indicator three-dimensional position calculation unit 30 obtains a predetermined position (x, y) of the indicator region and its size: S ( # 10) Further, the Z axis coordinate: z of the indicator 4a is calculated from the obtained size: S, and the three-dimensional position coordinates (x, y, z) of the indicator 4a are determined (# 12).

切り出し情報作成部41は、決定された3次元位置座標(x,y,z)のx値とy値に基づいて特定部分撮影画像の撮影画像からの切り出し基準点Pを求め(#14)、z値に基づいて切り出しサイズ:m×nを求める(#16)。この切り出し基準点と切り出しサイズとを含む切り出し情報が生成され、この切り出し情報は特定部分撮影画像切り出し部43に与えられ、かつこの切り出し情報を切り出し情報記憶部42に記憶させる(#18)。特定部分撮影画像切り出し部43は、読み出された切り出し情報に基づいて(#19)、メモリ11に記録された撮影画像から特定部分撮影画像を切り出す(#20)。切り出された特定部分撮影画像は、表示モニタの画像階調度に合わせた画像変換を施され(#22)、表示画像として先生側のモニタである液晶ディスプレイ1a、及び生徒側コンピュータ6の液晶ディスプレイ6aや大型スクリーン7aに転送され、そこで表示される(#24)。   The cutout information creation unit 41 obtains a cutout reference point P from the captured image of the specific partial captured image based on the x value and the y value of the determined three-dimensional position coordinates (x, y, z) (# 14). Based on the z value, a cut size: m × n is obtained (# 16). Cutout information including the cutout reference point and cutout size is generated, the cutout information is given to the specific partial captured image cutout unit 43, and the cutout information is stored in the cutout information storage unit 42 (# 18). The specific partial shot image cutout unit 43 cuts out the specific partial shot image from the shot image recorded in the memory 11 (# 20) based on the read cutout information (# 19). The cut-out specific partial captured image is subjected to image conversion in accordance with the image gradation of the display monitor (# 22), and the liquid crystal display 1a which is the teacher side monitor and the liquid crystal display 6a of the student side computer 6 are displayed as display images. Or transferred to the large screen 7a and displayed there (# 24).

指示体領域検出部20で指示体領域が検出されなかった場合(#08No分岐)、まず解除信号の発生により直前画像の表示維持が強制的に解除されたかどうかをチェックし、解除されない限り(#26No分岐)、切り出し情報記憶部42から切り出し情報を読み出し(#28)、ステップ#20に移行して、特定部分撮影画像が切り出される。直前画像の表示維持が解除されると(#26Yes分岐)、メモリ11に展開されている撮影画像がそのまま表示画像に画像変換され(#30)、ステップ#20に移行する。   When the indicator region is not detected by the indicator region detecting unit 20 (# 08 No branch), first, it is checked whether or not the display maintenance of the immediately preceding image is forcibly released due to the generation of the release signal, unless it is released (# 26 No branch), the cut-out information is read out from the cut-out information storage unit 42 (# 28), the process proceeds to step # 20, and the specific partial captured image is cut out. When the display maintenance of the immediately preceding image is canceled (# 26 Yes branch), the captured image developed in the memory 11 is converted into a display image as it is (# 30), and the process proceeds to step # 20.

上述したステップ#02から#30の処理が表示終了コマンドが入るまで続行され、先生が被写体3の上方に差し出す差し棒4の指示体4aの3次元位置によって特定される領域の被写体画像が、生徒側コンピュータ6の液晶ディスプレイ6aや大型スクリーン7aに表示され、生徒に対する教材の表示が効率的に行われる。   The processes of steps # 02 to # 30 described above are continued until a display end command is input, and the subject image in the region specified by the three-dimensional position of the indicator 4a of the insertion rod 4 that the teacher puts above the subject 3 is the student. It is displayed on the liquid crystal display 6a and the large screen 7a of the side computer 6, and the teaching materials are efficiently displayed to the students.

なお、ステップ#08で指示体領域が検出されているにもかかわらず、直前の表示画像を維持したいという要望を満たすためには、図7のフローチャートで示すように、追加されているステップ#09でさらに表示維持モードが設定されたかどうかがチェックされ、表示維持モードが設定されていると(#09Yes分岐)、切り出し情報記憶部42から読み出された直前の切り出し情報を一時的にバッファしておいて、以後このバッファから切り出し情報が表示維持モードが非設定となるまでバッファされた切り出し情報が読み出されて(#29)、ステップ#20に移行して、特定部分撮影画像切り出し部43に利用されるようにしておくとよい。表示維持モードの設定と解除は、表示保持スイッチ8などによって行ってもよいし、差し棒4に設けたスイッチを利用してもよい。   In order to satisfy the desire to maintain the previous display image even though the indicator region is detected in step # 08, as shown in the flowchart of FIG. 7, added step # 09 is added. It is checked whether or not the display maintenance mode is further set, and if the display maintenance mode is set (# 09 Yes branch), the previous cutout information read from the cutout information storage unit 42 is temporarily buffered. After that, the cutout information buffered until the display maintenance mode is not set is read from this buffer (# 29), the process proceeds to step # 20, and the specific partial captured image cutout unit 43 receives the cutout information. It should be used. The setting and release of the display maintenance mode may be performed by the display holding switch 8 or the like, or a switch provided on the insertion rod 4 may be used.

図8には、上述した学校教育支援システムに用いられている画像処理装置1の第2実施形態における機能ブロック図が示されている。この実施形態での画像処理装置1は、指示体4aの3次元位置(X−Y−Z軸座標)のうちX−Y軸座標はカメラ2によって取得された撮影画像を画像処理することにより求められ、Z軸座標はカメラ2の周辺部に設けられた測距計9によって求められる。測距計9としては、レーザー測距計や超音波測距計として知られている非接触測距計が好都合であるが、指示体4aは、X−Y軸方向に所定の範囲で移動するので、広範囲の測距ビーム幅を持つものか、あるいは測距ビームをスキャニングさせるものが好ましい。測距計9で得られた指示体4aの測距データは、画像処理装置1の測距データ入力部12に転送され、ここで所定のデータ形式に変換され、指示体3次元位置演算部30に与えられる。従って、この実施形態でのZ座標演算部32は、単に測距データ入力部12から受け取った測距データからz値を読み取る機能を有する。XY座標演算部31は、第1実施形態と同様であり、指示体領域検出部20から出力された検出情報における指示体領域の所定位置を演算するとともにこの所定位置:(x,y)を指示体4aのX−Y軸座標として算定する。表示画像生成部40Bや表示画像転送部50の構成は第1実施形態と同じである。   FIG. 8 shows a functional block diagram of the second embodiment of the image processing apparatus 1 used in the above-described school education support system. In the image processing apparatus 1 in this embodiment, the XY axis coordinates of the three-dimensional position (X, Y, Z axis coordinates) of the indicator 4a are obtained by performing image processing on a captured image acquired by the camera 2. The Z-axis coordinates are obtained by a distance meter 9 provided in the peripheral part of the camera 2. As the rangefinder 9, a non-contact rangefinder known as a laser rangefinder or an ultrasonic rangefinder is convenient, but the indicator 4a moves within a predetermined range in the XY axis direction. Therefore, it is preferable to have a wide ranging beam width or scan a ranging beam. The distance measurement data of the indicator 4a obtained by the distance meter 9 is transferred to the distance measurement data input unit 12 of the image processing apparatus 1, where it is converted into a predetermined data format, and the indicator three-dimensional position calculation unit 30 is converted. Given to. Accordingly, the Z coordinate calculation unit 32 in this embodiment has a function of simply reading the z value from the distance measurement data received from the distance measurement data input unit 12. The XY coordinate calculation unit 31 is the same as in the first embodiment, calculates a predetermined position of the indicator region in the detection information output from the indicator region detection unit 20, and indicates this predetermined position: (x, y) It is calculated as the XY axis coordinates of the body 4a. The configurations of the display image generation unit 40B and the display image transfer unit 50 are the same as those in the first embodiment.

上述した実施の形態では、指示体領域が検出されない場合、切り出し情報記憶部42に記憶されている切り出し情報を用い、表示画像が維持される構成を採用しているが、これに代え、指示体領域が検出されない場合、切り出し情報を用いずに、撮影画像をそのまま表示画像とする構成を採用してもよい。   In the above-described embodiment, when the indicator region is not detected, a configuration is adopted in which the display image is maintained using the cutout information stored in the cutout information storage unit 42. Instead, the indicator is used. When the area is not detected, a configuration in which the captured image is used as it is without using the cutout information may be employed.

上述した実施の形態では、指示体4aは被写体3と同じ撮影画像に写されているので、指示体4aの位置によっては、最終的に生成される表示画像において指示体4aの像が邪魔になる場合がある。このような問題を避けるために、指示体4aを可視光を透過させて非可視光を反射させる特性の材料で構成し、カメラ2は可視光撮影画像と非可視光撮影画像を取得するものとして構成し、指示体領域検出部20は非可視光撮影画像を用いて生成された指示体検出処理用画像を用いて指示体4aの3次元位置を求めるようにしてもよい。   In the above-described embodiment, the indicator 4a is captured in the same photographed image as the subject 3. Therefore, depending on the position of the indicator 4a, the image of the indicator 4a becomes an obstacle in the finally generated display image. There is a case. In order to avoid such a problem, the indicator 4a is made of a material that transmits visible light and reflects invisible light, and the camera 2 acquires a visible light image and an invisible light image. The pointer region detection unit 20 may be configured to obtain the three-dimensional position of the pointer 4a using the pointer detection processing image generated using the non-visible light image.

図9には、本発明による撮影画像処理システムの別な実施形態での機能ブロック図が示されている。この別な実施形態は先の実施形態と較べ、予め画像記録部60に記録されている被写体撮影画像を指示体4の3次元位置に基づいて拡縮表示することで異なっている。つまり、この実施形態では、以下の処理が行われる。指示体4aが撮影空間外に配置され、指示体領域検出部20により指示体4aが検出されない場合には、カメラ2により撮影された画像は、被写体撮影画像(被写体のみが撮影された画像)として画像記録部60に記録される。一方、指示体4aが撮影空間内に配置され、指示体領域検出部20により指示体4aが検出された場合には、指示体領域の検出情報が取得されると共に以下の処理が行われる。先ず、カメラ2からの撮影画像は指示体撮影画像(被写体および指示体4a又は指示体4aのみが撮影された画像)として画像入力部10を通じてメモリ11に転送され、画像記録部60に記録されている被写体3の被写体撮影画像は、この画像記録部60から画像入力部10を通じてメモリ11に転送される。画像記録部60は、被写体撮影画像を記録しているものであれば何でもよく、例えば、DVD、CD−ROM、ハードディスク、半導体メモリなどが代表的なものとして挙げられる。また、画像記録部60に記録される被写体撮影画像のフォーマットは静止画でも動画でもよい。次に、指示体3次元位置演算部30により、上述の指示体領域検出部20の処理により取得された指示体領域の検出情報を用いて、指示体4aの3次元位置が算出される。さらに、この算出された指示体4aの3次元位置に基づいて、特定部40Aの切り出し情報生成部41により作成された切り出し情報により特定部分撮影画像が特定される。さらに、表示画像生成部40Bの特定部分撮影画像切り出し部43により、前記切り出し情報に基づき、メモリ11に転送されている被写体撮影画像から特定部分撮影画像が切り出され、画像変換部44により表示画像が生成される。このようにして生成された表示画像は、表示画像転送部50によりモニタに転送される。この実施形態では、画像記録部60に記録されている画像を液晶ディスプレイ6aや大型スクリーン7aに表示する際に、カメラ2の前に位置する指示体4aの位置に応じて、その画像における表示領域、結果的にはその画像の拡縮表示状態が決定される。   FIG. 9 is a functional block diagram of another embodiment of the captured image processing system according to the present invention. This other embodiment is different from the previous embodiment in that the subject photographed image recorded in advance in the image recording unit 60 is enlarged and reduced based on the three-dimensional position of the indicator 4. That is, in this embodiment, the following processing is performed. When the indicator 4a is arranged outside the shooting space and the indicator 4a is not detected by the indicator region detection unit 20, the image shot by the camera 2 is a subject shot image (an image obtained by shooting only the subject). It is recorded in the image recording unit 60. On the other hand, when the indicator 4a is arranged in the photographing space and the indicator 4a is detected by the indicator region detector 20, the detection information of the indicator region is acquired and the following processing is performed. First, a photographed image from the camera 2 is transferred to the memory 11 through the image input unit 10 as a pointer photographed image (an image in which only the subject and the indicator 4a or the indicator 4a is photographed), and is recorded in the image recording unit 60. The captured subject image of the subject 3 is transferred from the image recording unit 60 to the memory 11 through the image input unit 10. The image recording unit 60 may be anything as long as it records a subject photographed image. Typical examples thereof include a DVD, a CD-ROM, a hard disk, and a semiconductor memory. The format of the subject photographed image recorded in the image recording unit 60 may be a still image or a moving image. Next, the three-dimensional position of the indicator 4a is calculated by the indicator three-dimensional position calculating unit 30 using the detection information of the indicator region acquired by the processing of the indicator region detecting unit 20 described above. Furthermore, based on the calculated three-dimensional position of the indicator 4a, the specific partial captured image is specified by the cutout information generated by the cutout information generation unit 41 of the specifying unit 40A. Further, the specific partial captured image clipping unit 43 of the display image generation unit 40B extracts a specific partial captured image from the subject captured image transferred to the memory 11 based on the clipping information, and the image conversion unit 44 converts the display image into a display image. Generated. The display image generated in this way is transferred to the monitor by the display image transfer unit 50. In this embodiment, when an image recorded in the image recording unit 60 is displayed on the liquid crystal display 6a or the large screen 7a, the display area in the image is displayed according to the position of the indicator 4a located in front of the camera 2. As a result, the scaled display state of the image is determined.

指示体4aの3次元位置を求める方法として、上述した方法以外に、コンピュータビジョンの分野で使われているステレオ画像を用いた3次元位置演算法を採用してもよい。つまり、被写体3に照準を合わせたカメラ2以外にもう1台のカメラを用意し、この2つの撮影画像をステレオ画像として指示体4aの3次元位置を演算する、それ自体は公知のアルゴリズムを指示体3次元位置演算部30に組み込むことで指示体4aの3次元位置を求める構成が実現できる。   As a method for obtaining the three-dimensional position of the indicator 4a, a three-dimensional position calculation method using a stereo image used in the field of computer vision may be employed in addition to the method described above. In other words, in addition to the camera 2 aiming at the subject 3, another camera is prepared, and the three-dimensional position of the indicator 4a is calculated using these two captured images as stereo images. A configuration for obtaining the three-dimensional position of the indicator 4a can be realized by being incorporated in the body three-dimensional position calculation unit 30.

上述した上述した実施の形態では、本発明による撮影画像処理システムを学校教育支援システムに適用した例で説明しているが、もちろんこの撮影画像処理システムは学校教育の場に限られず、画像を表示する種々の分野に適用可能である。   In the above-described embodiment, an example in which the captured image processing system according to the present invention is applied to a school education support system has been described. Of course, the captured image processing system is not limited to a school education place, and displays an image. It can be applied to various fields.

本発明による撮影画像処理システムを学校教育支援システムに適用した際の概要全体図Overview of overview when the image processing system according to the present invention is applied to a school education support system 学校教育支援システムに用いられている画像処理装置1の機能ブロック図Functional block diagram of the image processing apparatus 1 used in the school education support system 撮影空間の模式図Schematic diagram of the shooting space メモリに展開された撮影画像の一例を説明する説明図Explanatory drawing explaining an example of the picked-up image developed to memory 指示体の位置と撮影画像から切り出される特定部分撮影画像との関係を説明する説明図Explanatory drawing explaining the relationship between the position of an indicator and the specific partial picked-up image cut out from a picked-up image 撮影表示制御の流れの一例を示すフローチャートFlow chart showing an example of the flow of shooting display control 撮影表示制御の流れの変形例を示すフローチャートFlowchart showing a variation of the flow of shooting display control 学校教育支援システムに用いられている画像処理装置1の第2実施形態における機能ブロック図Functional block diagram in the second embodiment of the image processing apparatus 1 used in the school education support system 本発明による撮影画像処理システムの別な実施形態における画像処理装置1の機能ブロック図The functional block diagram of the image processing apparatus 1 in another embodiment of the picked-up image processing system by this invention.

符号の説明Explanation of symbols

1:画像処理装置(先生側のコンピュータ)
2:カメラ
3:被写体
4:差し棒
4a:指示体
5:ネットワーク
6a:生徒側のコンピュータの液晶ディスプレイ(モニタ)
7:プロジェクタ(モニタ)
8:表示保持スイッチ
9:測距計
20:指示体領域検出部
30:指示体3次元位置演算部
31:XY座標演算部
32:Z座標演算部
40A:特定部
41:切り出し情報生成部
42:切り出し情報記憶部
40B:表示画像生成部
43:特定部分撮影画像切り出し部
44:画像変換部
50:表示画像転送部
60:画像記録部
1: Image processing device (teacher computer)
2: Camera 3: Subject 4: Insertion rod 4a: Indicator 5: Network 6a: Student computer's liquid crystal display (monitor)
7: Projector (monitor)
8: Display holding switch 9: Distance meter 20: Indicator region detection unit 30: Indicator three-dimensional position calculation unit 31: XY coordinate calculation unit 32: Z coordinate calculation unit 40A: Identification unit 41: Cutout information generation unit 42: Cutout information storage unit 40B: Display image generation unit 43: Specific partial captured image cutout unit 44: Image conversion unit 50: Display image transfer unit 60: Image recording unit

Claims (5)

被写体を撮影するカメラとこのカメラによって取得された撮影画像を処理して生成された表示画像をモニタに転送する画像処理装置とからなる撮影画像処理システムにおいて、
指示体、
前記カメラによって取得された撮影画像から前記指示体の領域である指示体領域を検出する指示体領域検出部、
少なくとも前記指示体領域の検出情報を用いて前記指示体の3次元位置を演算する指示体3次元位置演算部、
前記指示体の3次元位置に基づいて前記撮影画像における特定部分撮影画像を特定する特定部、
前記特定部分撮影画像を前記表示画像として生成する表示画像生成部、及び
前記表示画像を前記モニタに転送する表示画像転送部が備えられている撮影画像処理システム。
In a captured image processing system comprising a camera that captures a subject and an image processing device that processes a captured image acquired by the camera and transfers a display image generated to the monitor.
Indicator,
A pointer region detection unit that detects a pointer region that is a region of the pointer from a captured image acquired by the camera;
A pointer three-dimensional position calculator that calculates a three-dimensional position of the pointer using at least detection information of the pointer region;
A specifying unit that specifies a specific partial captured image in the captured image based on a three-dimensional position of the indicator;
A photographic image processing system comprising: a display image generation unit that generates the specific partial captured image as the display image; and a display image transfer unit that transfers the display image to the monitor.
前記指示体3次元位置演算部は、前記撮影画像における前記指示体領域の大きさから前記指示体のカメラ光軸に沿ったZ軸座標を算定し、前記Z軸座標におけるカメラ光軸横断面でのX−Y軸座標を前記撮影画像における前記指示体領域の位置から算定することを特徴とする請求項1に記載の撮影画像処理システム。 The indicator three-dimensional position calculation unit calculates a Z-axis coordinate along the camera optical axis of the indicator from the size of the indicator region in the captured image, and the camera optical axis cross section at the Z-axis coordinate. 2. The photographed image processing system according to claim 1, wherein the X-Y axis coordinates are calculated from the position of the indicator region in the photographed image. 前記カメラと前記指示体との間の距離を測距計で測定し、指示体距離を取得する指示体距離取得部がさらに備えられ、かつ、前記指示体3次元位置演算部は、前記指示体距離から前記指示体のカメラ光軸に沿ったZ座標を算定し、前記Z軸座標におけるカメラ光軸横断面でのX−Y軸座標を前記撮影画像における前記指示体領域の位置から算定することを特徴とする請求項1に記載の撮影画像処理システム。 An indicator distance acquisition unit that measures a distance between the camera and the indicator with a rangefinder and acquires an indicator distance is further provided, and the indicator three-dimensional position calculation unit includes the indicator The Z coordinate along the camera optical axis of the indicator is calculated from the distance, and the XY axis coordinate in the cross section of the camera optical axis in the Z axis coordinate is calculated from the position of the indicator region in the captured image. The captured image processing system according to claim 1. 被写体とカメラの間に指示体を配置した状態で前記カメラによって前記被写体と前記指示体とを撮影して得られた撮影画像を処理して生成された表示画像をモニタに転送する撮影画像処理システムための表示画像生成プログラムにおいて、
前記カメラから送られてきた前記撮影画像をメモリに記録する機能と、
前記カメラによって取得された撮影画像から前記指示体の領域である指示体領域を検出する機能と、
少なくとも前記指示体領域の検出情報を用いて前記指示体の3次元位置を演算する機能と、
前記メモリに展開されている撮影画像から前記指示体の3次元位置に基づいて特定される特定部分撮影画像を切り出す機能と、
前記特定部分撮影画像を前記表示画像として生成する機能と、
をコンピュータに実現させる表示画像生成プログラム。
A captured image processing system for processing a captured image obtained by capturing the subject and the indicator with the camera in a state where an indicator is disposed between the subject and the camera and transferring a display image generated to the monitor. In the display image generation program for
A function of recording the captured image sent from the camera in a memory;
A function of detecting a pointer region that is a region of the pointer from a captured image acquired by the camera;
A function of calculating a three-dimensional position of the indicator using at least detection information of the indicator region;
A function of cutting out a specific partial photographed image identified based on the three-dimensional position of the indicator from the photographed image developed in the memory;
A function of generating the specific partial captured image as the display image;
Display image generation program for causing a computer to realize the above.
カメラと、被写体を撮影して取得された被写体撮影画像を処理して生成された表示画像をモニタに転送する画像処理装置とからなる撮影画像処理システムにおいて、
指示体、
前記カメラによって取得された撮影画像から前記指示体の領域である指示体領域を検出する指示体領域検出部、
前記指示体領域検出部により前記指示体領域が検出されない場合に、前記被写体撮影画像を記録する画像記録部、
前記指示体領域が検出された場合に、少なくとも前記指示体領域の検出情報を用いて前記指示体の3次元位置を演算する指示体3次元位置演算部、
前記指示体の3次元位置に基づいて前記画像記録部から読み出された被写体撮影画像における特定部分撮影画像を特定する特定部、
前記特定部分撮影画像を前記表示画像として生成する表示画像生成部、及び
前記表示画像を前記モニタに転送する表示画像転送部が備えられている撮影画像処理システム。
In a captured image processing system comprising a camera and an image processing apparatus that processes a captured subject image obtained by capturing a subject and transfers a display image generated to the monitor,
Indicator,
A pointer region detection unit that detects a pointer region that is a region of the pointer from a captured image acquired by the camera;
An image recording unit that records the subject captured image when the indicator region is not detected by the indicator region detection unit;
A pointer three-dimensional position calculation unit that calculates a three-dimensional position of the pointer using at least detection information of the pointer region when the pointer region is detected;
A specifying unit for specifying a specific partial captured image in the subject captured image read from the image recording unit based on the three-dimensional position of the indicator;
A photographic image processing system comprising: a display image generation unit that generates the specific partial captured image as the display image; and a display image transfer unit that transfers the display image to the monitor.
JP2007254665A 2007-09-28 2007-09-28 Captured image processing system and display image generation program Expired - Fee Related JP4854033B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007254665A JP4854033B2 (en) 2007-09-28 2007-09-28 Captured image processing system and display image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007254665A JP4854033B2 (en) 2007-09-28 2007-09-28 Captured image processing system and display image generation program

Publications (2)

Publication Number Publication Date
JP2009088868A true JP2009088868A (en) 2009-04-23
JP4854033B2 JP4854033B2 (en) 2012-01-11

Family

ID=40661721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007254665A Expired - Fee Related JP4854033B2 (en) 2007-09-28 2007-09-28 Captured image processing system and display image generation program

Country Status (1)

Country Link
JP (1) JP4854033B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08125921A (en) * 1994-10-26 1996-05-17 Canon Inc Writing-and-drawing camera apparatus
JP2003259183A (en) * 2002-03-04 2003-09-12 Hitachi Ltd Presentation system
JP2005123707A (en) * 2003-10-14 2005-05-12 Casio Comput Co Ltd Image projection apparatus and image projection system, and display image generating apparatus and display image generating method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08125921A (en) * 1994-10-26 1996-05-17 Canon Inc Writing-and-drawing camera apparatus
JP2003259183A (en) * 2002-03-04 2003-09-12 Hitachi Ltd Presentation system
JP2005123707A (en) * 2003-10-14 2005-05-12 Casio Comput Co Ltd Image projection apparatus and image projection system, and display image generating apparatus and display image generating method

Also Published As

Publication number Publication date
JP4854033B2 (en) 2012-01-11

Similar Documents

Publication Publication Date Title
JP4537557B2 (en) Information presentation system
US6829372B2 (en) Information-inputting device inputting contact point of object on recording surface as information
CN100461834C (en) Rotary zoom camera controller
JP2008134793A (en) Electronic handwriting input device
US20150317070A1 (en) Mobile handheld instruments and methods
US20180204387A1 (en) Image generation device, image generation system, and image generation method
JP2022097699A (en) Input device, input method of input device, output device and output method of output device
US20170268871A1 (en) Three-dimensional measurement system and three-dimensional measurement method
KR102186597B1 (en) Target size measurement system and method
JP4377247B2 (en) Projector projection control system and projector projection control method
JP5461782B2 (en) Camera image simulator program
US10073614B2 (en) Information processing device, image projection apparatus, and information processing method
JP4854033B2 (en) Captured image processing system and display image generation program
JP2007205915A (en) Projection device, program, and information storage medium
JP2007208905A (en) Information presenting apparatus
JP2006018444A (en) Image processing system and additional information indicating device
JPH07160412A (en) Pointed position detecting method
Gunn et al. Using sticky light technology for projected guidance
JP7044331B2 (en) Image processing systems, image processing methods and programs for efficiently inspecting structures such as bridges
JP2002344963A (en) Photographing information attaching device
JP2021166322A (en) Information processing device, program, and information processing system
JP2009199247A (en) Object recognition apparatus, indicating device and program
JP2017068468A (en) Information processing device, information processing method, and program
JP4839858B2 (en) Remote indication system and remote indication method
JP2003203216A (en) Image measuring device part program generating device and image forming device part program generating program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111020

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111021

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4854033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees