JP2016111521A - Information processing device, information processing program and information processing method - Google Patents

Information processing device, information processing program and information processing method Download PDF

Info

Publication number
JP2016111521A
JP2016111521A JP2014247255A JP2014247255A JP2016111521A JP 2016111521 A JP2016111521 A JP 2016111521A JP 2014247255 A JP2014247255 A JP 2014247255A JP 2014247255 A JP2014247255 A JP 2014247255A JP 2016111521 A JP2016111521 A JP 2016111521A
Authority
JP
Japan
Prior art keywords
image
information processing
cutout
range
installation angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014247255A
Other languages
Japanese (ja)
Inventor
金司 山本
Kinji Yamamoto
金司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014247255A priority Critical patent/JP2016111521A/en
Publication of JP2016111521A publication Critical patent/JP2016111521A/en
Pending legal-status Critical Current

Links

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

CONSTITUTION: An information processing device (10) containing CPU (12) includes: a determination means to determine a first clipping range 42 to clip a part of a photographed image 40 photographed with a camera (26) based on an installation angle of a cabinet (36) under an instruction of the CPU (12); and a clipping means to generate a clipped image 44 in which an image of the first clipping range 42 is clipped from the photographed image 40.EFFECT: A required portion may be easily and properly clipped from a photographed image.SELECTED DRAWING: Figure 4

Description

この発明は、情報処理装置、情報処理プログラムおよび情報処理方法に関し、特にたとえば、他の情報処理装置との間で画像データを送受信可能な通信手段を有し、筐体に設けられたカメラを用いて撮像された撮影画像等をディスプレイに表示または他の情報処理装置に送信する、情報処理装置、情報処理プログラムおよび情報処理方法に関する。   The present invention relates to an information processing apparatus, an information processing program, and an information processing method, and in particular, for example, using a camera provided with a housing having communication means capable of transmitting and receiving image data to and from another information processing apparatus. The present invention relates to an information processing apparatus, an information processing program, and an information processing method for displaying a captured image or the like captured on the display or transmitting the image to another information processing apparatus.

タブレット端末などの情報処理装置の中には、内蔵カメラが固定的に設けられるものがある。また、内蔵カメラは、当該内蔵カメラの角度(中心画角)がディスプレイに対して垂直に設けられることがある。このような情報処理装置は、スタンド等に立てかけて固定し、内蔵カメラで撮像した画像を用いて、テレビ会議などを行うことが可能である。   Some information processing apparatuses such as tablet terminals have a built-in camera fixedly provided. Further, the built-in camera may be provided such that the angle (center angle of view) of the built-in camera is perpendicular to the display. Such an information processing apparatus can be fixed on a stand or the like, and can be used for a video conference using an image captured by a built-in camera.

しかしながら、テレビ会議を行う際には、ユーザは、ディスプレイを見やすいようにユーザ自身の目線に合わせた角度に調整するので、ユーザの顔より上側を多く撮影してしまい、不要な部分(不要領域)を多く含む画像が撮像されてしまう。   However, when performing a video conference, the user adjusts the angle to match the user's own line of sight so that the display is easy to see. An image including a large amount of images will be captured.

一方、特許文献1には、ユーザがキー入力部に含まれる角度調整用のキーを操作することで、部分画像の切り出し角度が変更され、画面データの一部を撮影対象として切り出す切出し手段を有する撮像装置が開示されている。   On the other hand, Patent Document 1 includes a clipping unit that cuts out a part of screen data as a shooting target by changing a clipping angle of a partial image when a user operates a key for angle adjustment included in a key input unit. An imaging device is disclosed.

特開2009−201158号公報JP 2009-201158 A

しかしながら、特許文献1の技術を背景技術のような情報処理装置に適用することも考えられるが、ユーザが自身で必要なサイズを切り出す必要があるので、手間がかかり、使い勝手が悪い。   However, although it is conceivable to apply the technique of Patent Document 1 to an information processing apparatus such as the background art, it is necessary for the user to cut out a necessary size by himself / herself, which is troublesome and unusable.

それゆえに、この発明の主たる目的は、新規な、情報処理装置、情報処理プログラムおよび情報処理方法を提供することである。   Therefore, a main object of the present invention is to provide a novel information processing apparatus, information processing program, and information processing method.

この発明の他の目的は、撮影画像から必要な部分を簡単かつ適切に切り出すことができる、情報処理装置、情報処理プログラムおよび情報処理方法を提供することである。   Another object of the present invention is to provide an information processing apparatus, an information processing program, and an information processing method capable of easily and appropriately cutting out a necessary part from a captured image.

第1の発明は、所定の設置角度で設置される筐体に設けられ、利用者に対して画像データを含む表示情報を表示する表示手段、表示手段の表示面の前方を撮像する撮像手段、筐体の設置角度を検出する角度検出手段、少なくとも角度検出手段により検出された設置角度に基づいて、撮像手段により撮像された撮影画像の一部を切り出す第1切出し範囲を決定する第1決定手段、および第1切出し範囲の画像を撮影画像から切り出した切出し画像を生成する切出し手段を備える。   1st invention is provided in the housing | casing installed by a predetermined installation angle, The display means which displays the display information containing image data with respect to a user, The imaging means which images the front of the display surface of a display means, Angle detection means for detecting the installation angle of the housing, and first determination means for determining a first cutout range for cutting out a part of the photographed image taken by the imaging means based on at least the installation angle detected by the angle detection means. And a cutting means for generating a cut image obtained by cutting an image of the first cut range from the photographed image.

第1の発明によれば、筐体の設置角度に基づいて、撮像手段により撮像された撮影画像の一部を切り出す第1切出し範囲を決定し、第1切出し範囲の画像を撮影画像から切り出した切出し画像を生成する。このため、ユーザ自身で必要なサイズを切り出す必要が無くなり、撮影画像から必要な部分を簡単かつ適切に切り出すことができる。   According to the first invention, based on the installation angle of the housing, the first cutout range for cutting out a part of the shot image taken by the imaging means is determined, and the image of the first cutout range is cut out from the shot image. A cut image is generated. For this reason, it is not necessary for the user to cut out the necessary size, and the necessary portion can be cut out easily and appropriately from the captured image.

第2の発明は、第1の発明に従属する情報処理装置であって、第1決定手段は、設置角度と、撮像手段の垂直方向の画角とに基づいて第1切出し範囲を決定する。   A second invention is an information processing apparatus according to the first invention, wherein the first determining means determines the first cutout range based on the installation angle and the angle of view in the vertical direction of the imaging means.

第2の発明よれば、第1決定手段が、設置角度と、撮像手段の垂直方向の画角とに基づいて第1切出し範囲を決定するので、複数のパラメータで第1切出し範囲を決定するので、撮影画像から必要な部分をより適切に切り出すことができる。   According to the second invention, since the first determination unit determines the first cutout range based on the installation angle and the vertical angle of view of the imaging unit, the first cutout range is determined by a plurality of parameters. Therefore, a necessary part can be more appropriately cut out from the captured image.

第3の発明は、第1の発明に従属する情報処理装置であって、第1決定手段は、設置角度と、表示手段の解像度とサイズとを含む表示仕様情報に基づいて設定される視認距離とに基づいて第1切出し範囲を決定する。   A third invention is an information processing apparatus according to the first invention, wherein the first determining means is a viewing distance set based on display specification information including an installation angle and a resolution and size of the display means. Based on the above, the first cutout range is determined.

第3の発明よれば、第1決定手段が、設置角度と、視認距離とに基づいて第1切出し範囲を決定するので、複数のパラメータで第1切出し範囲を決定するので、撮影画像から必要な部分をより適切に切り出すことができる。   According to the third invention, since the first determination unit determines the first cutout range based on the installation angle and the viewing distance, the first cutout range is determined using a plurality of parameters. The part can be cut out more appropriately.

第4の発明は、第2の発明に従属する情報処理装置であって、第1決定手段は、設置角度と、撮像手段の垂直方向の画角と、表示手段の解像度とサイズとを含む表示仕様情報に基づいて設定される視認距離とに基づいて第1切出し範囲を決定する。   A fourth invention is an information processing apparatus according to the second invention, wherein the first determining means includes an installation angle, a vertical angle of view of the imaging means, and a resolution and size of the display means The first cutout range is determined based on the viewing distance set based on the specification information.

第4の発明によれば、第1決定手段が、設置角度と、撮像手段の垂直方向の画角と、視認距離とに基づいて第1切出し範囲を決定するので、複数のパラメータで第1切出し範囲を決定するので、撮影画像から必要な部分をより適切に切り出すことができる。   According to the fourth aspect of the invention, the first determination unit determines the first extraction range based on the installation angle, the vertical angle of view of the imaging unit, and the viewing distance. Since the range is determined, a necessary part can be more appropriately cut out from the captured image.

第5の発明は、第1ないし第4のいずれかの発明に従属する情報処理装置であって、第1切出し範囲の画像から顔画像を検出する顔検出手段、および顔検出手段により検出された顔画像の範囲に基づいて、第1切出し範囲の画像の一部をさらに切り出した第2切出し範囲を決定する第2決定手段を備え、切出し手段は、顔検出手段により顔画像が検出された場合、第2切出し範囲の画像を撮影画像から切り出して切出し画像を生成する。   A fifth invention is an information processing apparatus according to any one of the first to fourth inventions, and is detected by a face detection means for detecting a face image from an image in the first cutout range, and the face detection means When a face image is detected by the face detecting means, the second determining means for determining a second cutout range obtained by further cutting out a part of the image of the first cutout area based on the face image range is provided. Then, an image in the second cutout range is cut out from the captured image to generate a cutout image.

第5の発明によれば、顔検出手段により検出された顔画像の範囲に基づいて、第1切出し範囲をさらに切り出した第2切出し範囲を決定するので、撮影画像から必要な部分をより適切に切り出すことができる。   According to the fifth aspect of the invention, since the second cutout range obtained by further cutting out the first cutout range is determined based on the range of the face image detected by the face detection means, the necessary portion is more appropriately selected from the photographed image. Can be cut out.

第6の発明は、所定の設置角度で設置される筐体に設けられ、利用者に対して画像データを含む表示情報を表示する表示手段、表示手段の表示面の前方を撮像する撮像手段、および筐体の設置角度を検出する角度検出手段を備えた情報処理装置の情報処理プログラムであって、情報処理装置のコンピュータを、少なくとも検出手段により検出された設置角度に基づいて、撮像手段により撮像された撮影画像の一部を切り出す切出し範囲を決定する決定手段、および切出し範囲の画像を撮影画像から切り出した切出し画像を生成する切出し手段として機能させる。   6th invention is provided in the housing | casing installed with a predetermined installation angle, The display means which displays the display information containing image data with respect to a user, The imaging means which images the front of the display surface of a display means, And an information processing program for an information processing apparatus provided with an angle detection means for detecting an installation angle of a housing, wherein the computer of the information processing apparatus is imaged by an imaging means based on at least the installation angle detected by the detection means And determining means for determining a cutout range for cutting out a part of the captured image, and a cutout means for generating a cutout image obtained by cutting out the image in the cutout range from the shot image.

第7の発明は、所定の設置角度で設置される筐体、撮像手段、および筐体の設置角度を検出する角度検出手段を備えた情報処理装置の情報処理方法であって、情報処理装置のコンピュータは、撮像手段により撮像された撮影画像を取得し、角度検出手段により検出された筐体の設置角度を取得し、少なくとも設置角度に基づいて、撮像手段により撮像された撮影画像の一部を切り出す切出し範囲を決定し、そして切出し範囲の画像を撮影画像から切り出した切出し画像を生成する。   A seventh invention is an information processing method of an information processing apparatus including a casing installed at a predetermined installation angle, an imaging unit, and an angle detection unit that detects an installation angle of the casing. The computer acquires a captured image captured by the imaging unit, acquires an installation angle of the housing detected by the angle detection unit, and at least a part of the captured image captured by the imaging unit based on the installation angle. A cutout range to be cut out is determined, and a cutout image in which an image in the cutout range is cut out from the captured image is generated.

第6および第7の各発明においても、第1の発明と同様に、撮影画像から必要な部分を簡単かつ適切に切り出すことができる。   In each of the sixth and seventh inventions, a necessary portion can be easily and appropriately cut out from the photographed image, as in the first invention.

この発明によれば、撮影画像から必要な部分を簡単かつ適切に切り出すことができる。   According to the present invention, a necessary portion can be easily and appropriately cut out from a captured image.

図1はこの発明の第1実施例の情報処理装置の外観を示す斜視図である。FIG. 1 is a perspective view showing the appearance of the information processing apparatus according to the first embodiment of the present invention. 図2は図1の情報処理装置の電気的な構成を示すブロック図である。FIG. 2 is a block diagram showing an electrical configuration of the information processing apparatus of FIG. 図3(A)は情報処理装置において設置角度が傾いている場合のカメラの撮像範囲とユーザの位置関係を示す図解図である。図3(B)は情報処理装置において設置角度が垂直に近い場合のカメラの撮像範囲とユーザの位置関係を示す図解図である。FIG. 3A is an illustrative view showing a positional relationship between the imaging range of the camera and the user when the installation angle is inclined in the information processing apparatus. FIG. 3B is an illustrative view showing a positional relationship between the imaging range of the camera and the user when the installation angle is nearly vertical in the information processing apparatus. 図4(A)は切り出し前の撮影画像の一例を示す図解図である。図4(B)は第1切出し画像の一例を示す図解図である。FIG. 4A is an illustrative view showing an example of a photographed image before cutting out. FIG. 4B is an illustrative view showing one example of a first cut-out image. 図5は切出し範囲の決定式に用いる各寸法を示す図解図である。FIG. 5 is an illustrative view showing each dimension used in the determination formula of the cutout range. 図6は図1に示すRAMのメモリマップの一例を示す図解図である。FIG. 6 is an illustrative view showing one example of a memory map of the RAM shown in FIG. 図7は図1に示すCPUの切出し処理の一例を示すフロー図である。FIG. 7 is a flowchart showing an example of the cutting process of the CPU shown in FIG. 図8は第2実施例における切出し範囲決定テーブルの一例を示す図解図である。FIG. 8 is an illustrative view showing one example of a cutout range determination table in the second embodiment. 図9は第2実施例におけるCPUの切出し処理の他の一例を示すフロー図である。FIG. 9 is a flowchart showing another example of the CPU cut-out process in the second embodiment. 図10(A)は第3実施例における顔画像の範囲を用いた第1切出し範囲42の一例を示す図解図である。図10(B)は第2切出し範囲46で切り出した切出し画像44の一例を示す図解図である。FIG. 10A is an illustrative view showing one example of a first cutout range 42 using a face image range in the third embodiment. FIG. 10B is an illustrative view showing an example of a cutout image 44 cut out in the second cutout range 46. 図11は第3実施例におけるCPUの切出し処理の一例を示すフロー図である。FIG. 11 is a flowchart showing an example of the CPU cut-out process in the third embodiment.

[第1実施例]
図1を参照して、この発明の第1実施例である情報処理装置10は、基本的な構成として、筐体36を備え、筐体36の表面にディスプレイ22が設けられ、筐体36の中央上部にカメラ26が内蔵され、筐体36の適宜の位置に加速度センサ32が内蔵されている。
[First embodiment]
Referring to FIG. 1, information processing apparatus 10 according to the first embodiment of the present invention includes a housing 36 as a basic configuration, and display 22 is provided on the surface of housing 36. A camera 26 is built in the upper center portion, and an acceleration sensor 32 is built in an appropriate position of the housing 36.

この第1実施例では、情報処理装置10が携帯型のタブレット端末に適用される場合について説明するが、タブレット端末のみならず、スマートフォン、およびノートPCなどの情報機器ないし電子機器に適用される。   In the first embodiment, a case where the information processing apparatus 10 is applied to a portable tablet terminal will be described. However, the information processing apparatus 10 is applied not only to a tablet terminal but also to an information device or an electronic device such as a smartphone and a notebook PC.

ディスプレイ22は、利用者に対してカメラ26で撮像された撮影画像を含む画像データ等の表示情報を表示する表示手段である。このディスプレイ22としては、たとえばLCDやEL(Electro-Luminescence)ディスプレイなどを用いることができる。   The display 22 is display means for displaying display information such as image data including a captured image captured by the camera 26 to the user. As the display 22, for example, an LCD or an EL (Electro-Luminescence) display can be used.

また、この第1実施例では、ディスプレイ22の表示面(表示領域)上にタッチパネル20が設けられる。タッチパネル20は、汎用のタッチパネルであり、静電容量方式、電磁誘導方式、抵抗膜方式、赤外線方式など、任意の方式のものを用いることができる。なお、この第1実施例では、入力手段の一例として、タッチパネル20が用いられる場合について説明するが、タッチパネル20以外の入力手段として、たとえばタッチパッドを用いてもよい。また、情報処理装置10には、他の入力手段として、タッチパネル20とは別に、操作パネルのようなハードウェアキーが設けられたり、ハードウェアのキーボードが接続されたりすることがある。   In the first embodiment, the touch panel 20 is provided on the display surface (display area) of the display 22. The touch panel 20 is a general-purpose touch panel, and an arbitrary system such as an electrostatic capacity system, an electromagnetic induction system, a resistance film system, and an infrared system can be used. In the first embodiment, a case where the touch panel 20 is used as an example of an input unit will be described. However, as an input unit other than the touch panel 20, for example, a touch pad may be used. In addition to the touch panel 20, the information processing apparatus 10 may be provided with a hardware key such as an operation panel or a hardware keyboard as an input means.

カメラ26は、ディスプレイ22の前方を撮像する撮像手段である。このカメラ26は、撮像素子(イメージセンサ)および位置の調節が可能なフォーカスレンズを有し、撮像素子から取り込んだ可視光としての撮像光を、電気信号へと変換することにより撮像を行う。この撮像素子の例としては、CCD(Charge Coupled Device)イメージセンサ、またはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子が挙げられる。   The camera 26 is an imaging unit that images the front of the display 22. The camera 26 has an imaging element (image sensor) and a focus lens capable of adjusting the position, and performs imaging by converting imaging light as visible light taken from the imaging element into an electric signal. As an example of this image sensor, a solid-state image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor can be cited.

また、カメラ26は、その画角の中心(画角中心)がディスプレイ22に対して垂直になるように設けられており、筐体36に対して角度調整できないように固定的に設けられている。したがって、第1実施例における情報処理装置10のカメラ26の画角中心は、ディスプレイ22の傾き、つまり、筐体36の設置角度に依存する。   The camera 26 is provided so that the center of the angle of view (angle of view angle) is perpendicular to the display 22, and is fixedly provided so that the angle cannot be adjusted with respect to the housing 36. . Therefore, the center of the angle of view of the camera 26 of the information processing apparatus 10 in the first embodiment depends on the inclination of the display 22, that is, the installation angle of the housing 36.

加速度センサ32は、後述するCPU12(図2参照)と協働して筐体36の設置角度を検出する角度検出手段である。この加速度センサ32は、情報処理装置10の筐体36の縦方向(y軸方向)、横方向(x軸方向)および前後方向(z軸方向)の3軸の各々で加速度を検出して出力する。加速度センサ32で検出された加速度は、CPU12に入力され、当該加速度に基づいて、CPU12において筐体36の設置角度が算出される。ここで、この第1実施例では、筐体36の設置角度とは、縦方向(y軸方向)、つまり、垂直方向における角度(傾き)を指す。   The acceleration sensor 32 is an angle detection unit that detects an installation angle of the housing 36 in cooperation with a CPU 12 (see FIG. 2) described later. The acceleration sensor 32 detects and outputs acceleration in each of the three axes of the longitudinal direction (y-axis direction), the lateral direction (x-axis direction), and the front-rear direction (z-axis direction) of the housing 36 of the information processing apparatus 10. To do. The acceleration detected by the acceleration sensor 32 is input to the CPU 12, and the installation angle of the housing 36 is calculated by the CPU 12 based on the acceleration. Here, in the first embodiment, the installation angle of the housing 36 refers to the vertical direction (y-axis direction), that is, the angle (tilt) in the vertical direction.

この加速度センサ32は、典型的には、静電容量式の加速度センサであるが、他の方式のものを用いるようにしてもよい。たとえば、センサに加えて角度算出回路を含み、検出した加速度に基づいて角度を算出できる加速度センサユニットを用いてもよい。この場合、CPU12には筐体36の設置角度が直接入力される。また、加速度センサ32に代えて、筐体36の設置角度が検出可能なものであれば、ジャイロセンサ等の他のセンサを用いることもできる。   The acceleration sensor 32 is typically a capacitance type acceleration sensor, but other types may be used. For example, an acceleration sensor unit that includes an angle calculation circuit in addition to the sensor and can calculate the angle based on the detected acceleration may be used. In this case, the installation angle of the housing 36 is directly input to the CPU 12. Further, instead of the acceleration sensor 32, other sensors such as a gyro sensor may be used as long as the installation angle of the housing 36 can be detected.

また、情報処理装置10がテレビ会議等に使用される場合には、筐体36は、スタンド38(図3参照)に立てかけられて所定の設置角度で設置される。なお、筐体36は、スタンド38に立てかけられることに限定されず、たとえば壁などに立てかけられてもよい。   Further, when the information processing apparatus 10 is used for a video conference or the like, the housing 36 is set against a stand 38 (see FIG. 3) and installed at a predetermined installation angle. Note that the housing 36 is not limited to be leaned against the stand 38, and may be leaned against a wall, for example.

図2はこの発明の第1実施例である情報処理装置10の電気的な構成を示すブロック図である。   FIG. 2 is a block diagram showing an electrical configuration of the information processing apparatus 10 according to the first embodiment of the present invention.

図2を参照して、この発明の第1実施例である情報処理装置10はCPU12を含む。CPU12には、バス30を介してRAM14、タッチパネル制御回路16、画像制御回路18、カメラ制御回路24、HDD(ハードディスクドライブ)28、加速度センサ32および通信回路34が接続される。また、タッチパネル制御回路16にはタッチパネル20が接続され、画像制御回路18にはディスプレイ22が接続され、カメラ制御回路24にはカメラ26が接続される。   Referring to FIG. 2, information processing apparatus 10 according to the first embodiment of the present invention includes a CPU 12. A RAM 14, a touch panel control circuit 16, an image control circuit 18, a camera control circuit 24, an HDD (hard disk drive) 28, an acceleration sensor 32, and a communication circuit 34 are connected to the CPU 12 via a bus 30. A touch panel 20 is connected to the touch panel control circuit 16, a display 22 is connected to the image control circuit 18, and a camera 26 is connected to the camera control circuit 24.

CPU12は、情報処理装置10の全体的な制御を司る。RAM14は、CPU12のワーク領域およびバッファ領域として用いられる。たとえば、CPU12は、HDD28に記憶されたオペレーティングシステムや各種のアプリケーションソフトを起動する場合には、当該システムやソフトのデータをRAM14に一時的に読み出して実行する。   The CPU 12 governs overall control of the information processing apparatus 10. The RAM 14 is used as a work area and a buffer area for the CPU 12. For example, when starting the operating system and various application software stored in the HDD 28, the CPU 12 temporarily reads the system and software data into the RAM 14 and executes the data.

タッチパネル制御回路16は、タッチパネル20に必要な電圧などを付与するとともに、タッチパネル20のタッチ有効範囲内でのタッチ操作(タッチ入力)を検出して、そのタッチ入力の位置を示すタッチ座標データをCPU12に出力する。そして、CPU12は、タッチ座標データおよびタッチ入力に応じて、所定の入力を受け付けたり、アプリケーションソフトの実行、または、当該アプリケーションソフトのデータの保存、コピー、カット、ペースト、削除等の処理を行う。   The touch panel control circuit 16 applies necessary voltage and the like to the touch panel 20, detects a touch operation (touch input) within the touch effective range of the touch panel 20, and outputs touch coordinate data indicating the position of the touch input to the CPU 12. Output to. Then, the CPU 12 accepts a predetermined input in accordance with the touch coordinate data and the touch input, executes application software, or performs processing such as saving, copying, cutting, pasting, and deleting the data of the application software.

画像制御回路18は、GPUおよびVRAMなどを含んでおり、CPU12の指示の下、GPUは、RAM14に記憶された画像データを用いてディスプレイ22に画面を表示するための表示画像データをVRAMに生成し、生成した表示画像データをディスプレイ22に出力する。   The image control circuit 18 includes a GPU, a VRAM, and the like. Under the instruction of the CPU 12, the GPU generates display image data for displaying a screen on the display 22 using the image data stored in the RAM 14 in the VRAM. The generated display image data is output to the display 22.

カメラ制御回路24は、CPU12の指示の下、カメラ26に含まれる撮像素子またはフォーカスレンズの位置(フォーカス)を調節するとともに、撮像素子から取り込んだ光学像を電気信号に変換し、動画データとして出力する機能を有する。   Under the instruction of the CPU 12, the camera control circuit 24 adjusts the position (focus) of the image sensor or focus lens included in the camera 26, converts an optical image captured from the image sensor into an electrical signal, and outputs it as moving image data. It has the function to do.

カメラ機能が実行されると、被写体のリアルタイム動画像つまりスルー画像(プレビュー画像)をディスプレイ22に表示するべく、CPU12は、カメラ制御回路24を起動させ、露光動作および指定された読み出し領域に対応する電荷読み出し動作を、カメラ制御回路24に命令する。   When the camera function is executed, the CPU 12 activates the camera control circuit 24 to display a real-time moving image of the subject, that is, a through image (preview image) on the display 22, corresponding to the exposure operation and the designated readout area. The camera control circuit 24 is commanded to perform a charge reading operation.

カメラ制御回路24は、撮像素子の撮像面の露光と、当該露光によって生成された電荷の読み出しとを実行する。この結果、画像信号が撮像素子から出力される。また、カメラ制御回路24は、撮像素子から出力された画像信号を色分離、白バランス調整などの処理を施して動画データとして生成する。そして、カメラ制御回路24から生成された動画データが出力される。カメラ制御回路24から出力された動画データは、CPU12によってRAM14に格納(一時記憶)される。このとき、CPU12は、読み出し命令を画像制御回路18に発行する。そして、画像制御回路18は、CPU12にから発行された読み出し命令に従って、RAM14に格納された動画データをディスプレイ22に出力する。また、情報処理装置10がテレビ会議などに使用される場合は、CPU12は、カメラ制御回路24により生成された動画データを、通信回路34を介して他の情報処理装置10に送信する。   The camera control circuit 24 executes exposure of the image pickup surface of the image pickup device and reading of electric charges generated by the exposure. As a result, an image signal is output from the image sensor. In addition, the camera control circuit 24 performs processing such as color separation and white balance adjustment on the image signal output from the image sensor to generate moving image data. Then, the moving image data generated from the camera control circuit 24 is output. The moving image data output from the camera control circuit 24 is stored (temporarily stored) in the RAM 14 by the CPU 12. At this time, the CPU 12 issues a read command to the image control circuit 18. Then, the image control circuit 18 outputs the moving image data stored in the RAM 14 to the display 22 in accordance with a read command issued from the CPU 12. When the information processing apparatus 10 is used for a video conference or the like, the CPU 12 transmits the moving image data generated by the camera control circuit 24 to another information processing apparatus 10 via the communication circuit 34.

HDD28は、不揮発性のメモリであり、情報処理装置10のオペレーティングシステムや各種のアプリケーションソフトを記憶したり、各種のデータを記憶したりする。この第1実施例では、HDD28が情報処理装置10に内蔵される場合について示してあるが、HDD28は情報処理装置10の外部に通信可能に設けてもよい。また、HDD28は、情報処理装置10に通信可能に接続されるホストコンピュータに内蔵されてもよい。また、HDD28に代えて、フラッシュメモリのような他の不揮発性のメモリを設けるようにしてもよい。この場合、メモリカードやメモリスティックのような記憶媒体やCDまたはDVDなどのディスク記憶媒体を用いることもできる。   The HDD 28 is a non-volatile memory, and stores the operating system of the information processing apparatus 10 and various application software, and stores various data. In the first embodiment, the HDD 28 is built in the information processing apparatus 10. However, the HDD 28 may be provided outside the information processing apparatus 10 so as to be communicable. The HDD 28 may be built in a host computer that is communicably connected to the information processing apparatus 10. Further, in place of the HDD 28, another nonvolatile memory such as a flash memory may be provided. In this case, a storage medium such as a memory card or a memory stick, or a disk storage medium such as a CD or a DVD can be used.

通信回路34は、有線または無線で接続されるネットワーク(通信網、電話網)を介して、他の情報処理装置10と画像データ(カメラ制御回路24により生成された動画データ等)の送受信を含む通信を行う。   The communication circuit 34 includes transmission / reception of image data (moving image data generated by the camera control circuit 24) with another information processing apparatus 10 via a wired or wireless network (communication network, telephone network). Communicate.

図3(A)は情報処理装置において筐体36の設置角度が傾いている場合のカメラの撮像範囲とユーザの位置関係を示す図解図である。図3(B)は情報処理装置において筐体36の設置角度が垂直に近い場合のカメラの撮像範囲とユーザの位置関係を示す図解図である。   FIG. 3A is an illustrative view showing a positional relationship between the imaging range of the camera and the user when the installation angle of the housing 36 is inclined in the information processing apparatus. FIG. 3B is an illustrative view showing a positional relationship between the imaging range of the camera and the user when the installation angle of the housing 36 is nearly vertical in the information processing apparatus.

上述のように、ディスプレイ22の前方を撮像するカメラ26を備えるタブレット端末をテレビ会議などに使用する場合、ユーザは、当該タブレット端末の筐体36をスタンド38に立てかけて、所定の設置角度で設置する。この際、ユーザは、ディスプレイ22を見やすいようにユーザ自身の目線に合わせた角度に筐体36の設置角度を調整する。したがって、ユーザの顔が撮影画像の下側に映り、撮影画像におけるユーザの頭頂部よりも上側が不要な部分(不要領域)になってしまうという問題がある。   As described above, when a tablet terminal including the camera 26 that images the front of the display 22 is used for a video conference or the like, the user sets the casing 36 of the tablet terminal against the stand 38 and installs the tablet terminal at a predetermined installation angle. To do. At this time, the user adjusts the installation angle of the housing 36 to an angle that matches the user's own line of sight so that the display 22 is easy to see. Therefore, there is a problem in that the user's face appears on the lower side of the captured image, and the upper side of the user's top of the captured image becomes an unnecessary portion (unnecessary region).

また、上述したように、カメラ26の画角中心は筐体36の設置角度に依存するので、図3(A)(B)に示すように、カメラ26の画角中心も筐体36の設置角度によって変化する。したがって、設置角度が変化する(回転する)筐体36に対し、ユーザは垂直方向(上下方向)に動くので、筐体36の設置角度の傾きが大きい場合(図3(A)参照)には、筐体36の設置角度が垂直に近い場合(図3(B)参照)と比較して、ユーザは、相対的にカメラ26の画角中心よりも下側に移動する。つまり、筐体36の設置角度が傾いた場合には、筐体36の設置角度が垂直に近い場合よりも撮影画像の上側の不要領域が大きくなってしまう。   As described above, since the center of the angle of view of the camera 26 depends on the installation angle of the housing 36, the center of the angle of view of the camera 26 is also installed on the housing 36 as shown in FIGS. Varies with angle. Accordingly, since the user moves in the vertical direction (up and down direction) with respect to the housing 36 whose installation angle changes (rotates), when the inclination of the installation angle of the housing 36 is large (see FIG. 3A). Compared with the case where the installation angle of the housing 36 is close to the vertical (see FIG. 3B), the user moves relatively below the center of the field angle of the camera 26. That is, when the installation angle of the housing 36 is inclined, the unnecessary area on the upper side of the captured image becomes larger than when the installation angle of the housing 36 is nearly vertical.

したがって、この第1実施例では、筐体36の設置角度に基づいて、撮影画像40から切り出す範囲を変化させることができるようにしてある。以下、具体的に説明する。   Therefore, in the first embodiment, the range to be cut out from the captured image 40 can be changed based on the installation angle of the housing 36. This will be specifically described below.

簡単に説明すると、この第1実施例では、筐体36の設置角度に基づいて、カメラ26により撮像された撮影画像40の一部を切り出す第1切出し範囲42を決定し、第1切出し範囲42の画像を撮影画像40から切り出した切出し画像44を生成するようにしてある。   Briefly, in the first embodiment, based on the installation angle of the housing 36, the first cutout range 42 for cutting out a part of the captured image 40 picked up by the camera 26 is determined, and the first cutout range 42 is determined. A cut-out image 44 is generated by cutting out the above image from the photographed image 40.

図4(A)は切り出し前の撮影画像40の一例を示す図解図である。図4(B)は切出し画像44の一例を示す図解図である。   FIG. 4A is an illustrative view showing an example of a captured image 40 before being cut out. FIG. 4B is an illustrative view showing an example of the cut-out image 44.

上述したように、ユーザは、ディスプレイ22を見やすいようにユーザ自身の目線に合わせた角度に調整するので、図4(A)に示すように、撮影画像40の上側が不要領域になってしまう。そこで、撮影画像40の不要領域40aを除いて切り出す第1切出し範囲42が決定される。なお、図4(A)では、説明の都合上、不要領域40aを網線、第1切出し範囲42を点線で示しているが、撮影画像40には、これらの網線や点線は表示されない。   As described above, since the user adjusts the angle to match the user's own line of vision so that the display 22 is easy to see, the upper side of the captured image 40 becomes an unnecessary area as shown in FIG. Therefore, the first cutout range 42 to be cut out excluding the unnecessary area 40a of the captured image 40 is determined. In FIG. 4A, for convenience of explanation, the unnecessary area 40a is indicated by a mesh line, and the first cutout range 42 is indicated by a dotted line. However, these mesh lines and dotted lines are not displayed in the captured image 40.

そして、具体的には、第1切出し範囲42は、加速度センサ32で検出された筐体36の設置角度、カメラ26の画角、およびディスプレイ22の表示仕様情報に基づいて決定される。つまり、第1実施例では、筐体36の設置角度、カメラ26の画角、およびディスプレイ22の表示仕様情報を、第1切出し範囲42を決定するための切出し情報として用いる。   Specifically, the first cutout range 42 is determined based on the installation angle of the housing 36 detected by the acceleration sensor 32, the angle of view of the camera 26, and display specification information of the display 22. That is, in the first embodiment, the installation angle of the housing 36, the angle of view of the camera 26, and the display specification information of the display 22 are used as cutout information for determining the first cutout range 42.

この第1実施例では、第1切出し範囲42を決定する切出し範囲決定式に従って、第1切出し範囲42を決定する。この切出し範囲決定式は、上述したように、筐体36の設置角度、カメラ26の画角、および表示仕様情報を含む切出し情報を用いた式である。また、カメラ26の画角は、具体的にはカメラ26の垂直方向の撮像範囲を表す垂直画角であり、カメラ26の仕様により予め決まっている。さらに、表示仕様情報は、ディスプレイ22の解像度とサイズとを含む情報であり、この表示仕様情報に基づいて、ユーザの目とディスプレイ22の表示領域の中心との距離(視認距離)が予め設定される。たとえば、10型WQXGAのディスプレイ22であれば、60〜70cm程度に設定される。なお、ディスプレイ22のサイズが大きければ、視認距離はこれに応じて大きくするのが好ましい。一方、ディスプレイ22の解像度が高ければ、視認距離はこれに応じて小さくするのが好ましい。   In the first embodiment, the first cutout range 42 is determined according to the cutout range determination formula for determining the first cutout range 42. This cutout range determination formula is a formula using cutout information including the installation angle of the housing 36, the angle of view of the camera 26, and display specification information, as described above. In addition, the angle of view of the camera 26 is specifically a vertical angle of view that represents the imaging range of the camera 26 in the vertical direction, and is determined in advance by the specifications of the camera 26. Furthermore, the display specification information is information including the resolution and size of the display 22, and the distance (viewing distance) between the user's eyes and the center of the display area of the display 22 is set in advance based on the display specification information. The For example, in the case of a 10-inch WQXGA display 22, it is set to about 60 to 70 cm. If the size of the display 22 is large, the viewing distance is preferably increased accordingly. On the other hand, if the resolution of the display 22 is high, it is preferable to reduce the viewing distance accordingly.

ここで、切出し範囲決定式の一例を以下の数1〜数5に示す。   Here, an example of the cutting range determination formula is shown in the following equations 1 to 5.

図5は切出し範囲決定式に用いる各寸法を示す図解図である。数1〜数5における各項を、図5を参照して説明する。なお、数1〜数5における距離の単位はcmである。   FIG. 5 is an illustrative view showing dimensions used in the cutout range determination formula. Each term in Equations 1 to 5 will be described with reference to FIG. In addition, the unit of the distance in Formula 1-Formula 5 is cm.

数1において、“A”は視認距離、つまり、ユーザの目とディスプレイ22の表示領域の中心との距離であり、“C”はディスプレイ22における表示領域の中心から筐体36の下端までの表示領域沿いの距離であり、“α”は筐体36の設置角度である。ここで、そして、数1によって算出される“D”は情報処理装置10の載置面S(たとえば机の上面など)からユーザの目までの垂直方向の距離に近似する距離である。   In Equation 1, “A” is the viewing distance, that is, the distance between the user's eyes and the center of the display area of the display 22, and “C” is the display from the center of the display area on the display 22 to the lower end of the housing 36. The distance along the region, and “α” is the installation angle of the housing 36. Here, “D” calculated by Equation 1 is a distance that approximates the vertical distance from the placement surface S (for example, the top surface of the desk) of the information processing apparatus 10 to the user's eyes.

数2によって算出される“E”は情報処理装置10の載置面Sらユーザの頭頂部までの垂直方向の距離である。   “E” calculated by Equation 2 is a vertical distance from the placement surface S of the information processing apparatus 10 to the top of the user's head.

数3において、“B”はディスプレイ22における表示領域の中心から表示領域上端までの表示領域沿いの距離であり、“β”はカメラ26の垂直画角である。そして、数3によって算出される“F”は情報処理装置10の載置面Sからカメラ26の撮像範囲の下端までの垂直方向の距離である。なお、第1実施例では、表示領域は、ユーザの顔の位置を基準としている。   In Equation 3, “B” is the distance along the display area from the center of the display area to the upper end of the display area on the display 22, and “β” is the vertical angle of view of the camera 26. “F” calculated by Equation 3 is a vertical distance from the mounting surface S of the information processing apparatus 10 to the lower end of the imaging range of the camera 26. In the first embodiment, the display area is based on the position of the user's face.

数4によって算出される“G”は情報処理装置10の載置面Sらカメラ26の撮像範囲の上端までの垂直方向の距離である。   “G” calculated by Expression 4 is a vertical distance from the mounting surface S of the information processing apparatus 10 to the upper end of the imaging range of the camera 26.

そして、数5によって算出される“H”が、撮像範囲の必要な領域を示す割合、つまり、第1切出し範囲42を示す値である。第1実施例では、第1切出し範囲42は、撮像範囲の下側の領域を示す割合として算出される。したがって、算出結果が0.40であれば、撮像範囲の下側40%が第1切出し範囲42になる。また、撮像範囲の上側60%が不要領域40aになる。   “H” calculated by Equation 5 is a ratio indicating a necessary area of the imaging range, that is, a value indicating the first cutout range 42. In the first embodiment, the first cutout range 42 is calculated as a ratio indicating the lower region of the imaging range. Therefore, if the calculation result is 0.40, the lower 40% of the imaging range becomes the first cutout range 42. Further, the upper 60% of the imaging range becomes the unnecessary area 40a.

一例として、各寸法が“α”=70°、“β” =60°、“A”=70cm、“B”=12cm、“C”=12cmであった場合、数5によって算出される“H”は、約0.42となる。つまり、第1切出し範囲42が、撮像範囲の下側42%に決定される。   As an example, when each dimension is “α” = 70 °, “β” = 60 °, “A” = 70 cm, “B” = 12 cm, “C” = 12 cm, “H” calculated by Equation 5 "Is about 0.42. That is, the first cutout range 42 is determined as the lower 42% of the imaging range.

また、数5によって算出される“H”は、第1切出し範囲42の上下方向のサイズを示す値である。この第1実施例では、第1切出し範囲42は、切り出し前の撮影画像40の画面アスペクト比と同一であって、撮影画像40から不要領域40aを除いた領域の中央に設定される。したがって、撮影画像40から不要領域40aを除いた領域は、切り出し前の撮影画像40の画面アスペクト比に対して横寸法が大きくなるので、第1切出し範囲42の左右には当該第1切出し範囲42に含まれない不使用領域40bが生じる。   “H” calculated by Equation 5 is a value indicating the vertical size of the first cutout range 42. In the first embodiment, the first cutout range 42 is the same as the screen aspect ratio of the shot image 40 before cutout, and is set at the center of the area obtained by removing the unnecessary area 40a from the shot image 40. Therefore, since the horizontal dimension of the area obtained by removing the unnecessary area 40a from the captured image 40 is larger than the screen aspect ratio of the captured image 40 before being cut out, the first cutout area 42 is located on the left and right of the first cutout area 42. An unused area 40b that is not included is generated.

なお、第1切出し範囲42は、切り出し前の撮影画像40の画面アスペクト比と異なっていてもよく、撮影画像40の上側の不要領域40aを除いた領域をそのまま第1切出し範囲42として設定してもよいし、所定の画面アスペクト比に設定されていてもよい。たとえば、テレビ会議を行う場合には、通信先の情報処理装置の画面アスペクト比に合わせて、第1切出し範囲42が設定されるようにしてもよい。   The first cutout area 42 may be different from the screen aspect ratio of the photographed image 40 before cutout, and the area excluding the unnecessary area 40a above the photographed image 40 is set as the first cutout area 42 as it is. Alternatively, a predetermined screen aspect ratio may be set. For example, when a video conference is performed, the first cutout range 42 may be set in accordance with the screen aspect ratio of the information processing apparatus as the communication destination.

そして、図4(B)に示すように、第1切出し範囲42の画像を撮影画像40から切り出した切出し画像44が生成される。この切出し画像44は、情報処理装置10の用途に応じて使用される。たとえば、テレビ会議に用いる場合には、通信回路34を介して他の情報処理装置に送信される。また、テレビ会議に用いる場合には、他の情報処理装置に対して切出し画像44の画像データを送信する際に切出し画像44をディスプレイ22に表示させて、ユーザが第1切出し範囲42を確認できるようにしてもよい。この場合、ユーザの入力操作に応じて、第1切出し範囲42の修正ができるようにしてもよい。   Then, as illustrated in FIG. 4B, a cutout image 44 obtained by cutting out the image of the first cutout range 42 from the captured image 40 is generated. The cut image 44 is used according to the use of the information processing apparatus 10. For example, when used for a video conference, it is transmitted to another information processing apparatus via the communication circuit 34. Further, when used in a video conference, when the image data of the cut image 44 is transmitted to another information processing apparatus, the cut image 44 is displayed on the display 22 so that the user can confirm the first cut range 42. You may do it. In this case, the first cutout range 42 may be corrected in accordance with a user input operation.

情報処理装置10の上記のような動作は、CPU12がRAM14に記憶された情報処理プログラムを実行することにより実現される。具体的な処理については、後でフロー図を用いて説明する。   The above-described operation of the information processing apparatus 10 is realized by the CPU 12 executing the information processing program stored in the RAM 14. Specific processing will be described later with reference to a flowchart.

図6は図1に示したRAM14のメモリマップ50の一例を示す。   FIG. 6 shows an example of the memory map 50 of the RAM 14 shown in FIG.

図6に示すように、RAM14は、プログラム記憶領域52およびデータ記憶領域54を含む。プログラム記憶領域52には、入力検出プログラム52a、撮影プログラム52b、表示プログラム52c、切出し範囲決定プログラム52d、切出しプログラム52eおよび通信プログラム52fなどを含む情報処理プログラムが記憶される。   As shown in FIG. 6, the RAM 14 includes a program storage area 52 and a data storage area 54. The program storage area 52 stores information processing programs including an input detection program 52a, an imaging program 52b, a display program 52c, a cutout range determination program 52d, a cutout program 52e, and a communication program 52f.

入力検出プログラム52aは、タッチパネル制御回路16から出力されたタッチパネル20におけるタッチ入力の位置を示すタッチ座標データを取得し、データ記憶領域54に時系列に従って記憶するためのプログラムである。ただし、入力検出プログラム52aは、情報処理装置10に接続されたハードウェアのキーボードや情報処理装置10に設けられたハードウェアの操作パネルないし操作ボタンからの入力を検出するためのプログラムでもある。   The input detection program 52 a is a program for acquiring touch coordinate data indicating the position of the touch input on the touch panel 20 output from the touch panel control circuit 16 and storing it in the data storage area 54 in time series. However, the input detection program 52 a is also a program for detecting an input from a hardware keyboard connected to the information processing apparatus 10 or a hardware operation panel or operation button provided in the information processing apparatus 10.

撮影プログラム52bは、カメラ26を用いて、撮影画像40を撮影するためのプログラムである。また、撮影プログラム52bは、カメラ26に関する入力操作、たとえばズーム操作を取得した場合に、カメラ制御回路24を制御して、カメラ26に含まれるイメージセンサまたはフォーカスレンズの位置を調節するためのプログラムでもある。   The shooting program 52 b is a program for shooting the shot image 40 using the camera 26. The photographing program 52b is also a program for controlling the camera control circuit 24 and adjusting the position of the image sensor or the focus lens included in the camera 26 when an input operation related to the camera 26, for example, a zoom operation is acquired. is there.

表示プログラム52cは、読み出し命令に従って、RAM14に格納された画像データをディスプレイ22に出力するためのプログラムである。   The display program 52c is a program for outputting the image data stored in the RAM 14 to the display 22 in accordance with a read command.

第1切出し範囲決定プログラム52dは、カメラ26により撮像された撮影画像40の一部を切り出す第1切出し範囲42を決定するためのプログラムである。上述したように、第1実施例では、第1切出し範囲決定プログラム52dは、第1切出し範囲42を決定する切出し範囲決定式に従って、第1切出し範囲42を決定する。また、カメラ26の垂直画角は、カメラ26の仕様により予め決まっているが、ズーム操作がされた場合には、当該垂直画角が変化する。したがって、第1切出し範囲決定プログラム52dは、ズーム操作がされた場合には、撮影プログラム52bからズーム倍率を取得して、当該ズーム倍率に基づいて、カメラ26の垂直画角を算出するためのプログラムでもある。   The first cutout range determination program 52d is a program for determining a first cutout range 42 that cuts out a part of the captured image 40 captured by the camera 26. As described above, in the first embodiment, the first cutout range determination program 52d determines the first cutout range 42 according to the cutout range determination formula for determining the first cutout range 42. The vertical angle of view of the camera 26 is determined in advance according to the specifications of the camera 26. However, when the zoom operation is performed, the vertical angle of view changes. Therefore, when the zoom operation is performed, the first cutout range determination program 52d acquires the zoom magnification from the shooting program 52b, and calculates the vertical angle of view of the camera 26 based on the zoom magnification. But there is.

切出しプログラム52eは、第1切出し範囲決定プログラム52dにより決定された第1切出し範囲42の画像を撮影画像40から切り出した切出し画像44を生成するためのプログラムである。   The cutout program 52e is a program for generating a cutout image 44 obtained by cutting out the image of the first cutout range 42 determined by the first cutout range determination program 52d from the captured image 40.

通信プログラム52fは、他の情報処理装置10やコンピュータ(サーバなど)と、直接またはネットワークを介して通信するためのプログラムである。たとえば、情報処理装置10をテレビ会議に用いる場合には、通信プログラム52fは、他の情報処理装置10に対して切出し画像44を送信するとともに、他の情報処理装置10から送信された画像を受信するためのプログラムである。   The communication program 52f is a program for communicating with another information processing apparatus 10 or a computer (such as a server) directly or via a network. For example, when the information processing apparatus 10 is used for a video conference, the communication program 52 f transmits the cut image 44 to the other information processing apparatus 10 and receives an image transmitted from the other information processing apparatus 10. It is a program to do.

なお、図示は省略するが、プログラム記憶領域52には、各種の機能を選択および実行するためのプログラムなども記憶される。   Although not shown, the program storage area 52 also stores programs for selecting and executing various functions.

データ記憶領域54には、画像生成データ54a、撮影画像データ54b、切出し情報データ54c、および切出し画像データ54dなどが記憶される。   The data storage area 54 stores image generation data 54a, captured image data 54b, cutout information data 54c, cutout image data 54d, and the like.

画像生成データ54aは、タッチ画面100のような各種の画面に対応する画像データを生成するためのポリゴンデータやテクスチャデータなどのデータである。また、画像生成データ54aには、タッチ画面100に表示される各種のアイコンについての画像データも含まれる。   The image generation data 54 a is data such as polygon data and texture data for generating image data corresponding to various screens such as the touch screen 100. The image generation data 54 a also includes image data for various icons displayed on the touch screen 100.

撮影画像データ54bは、カメラ26によって撮像された撮影画像40のデータである。切出し情報データ54cは、加速度センサ32で検出された筐体36の設置角度、ズーム操作がされていない場合のカメラ26の垂直画角、および表示仕様情報を含む切出し情報を示すデータである。切出し画像データ54dは、切出しプログラム52eによって生成された第1切出し範囲42の画像を撮影画像40から切り出した切出し画像44のデータである。   The captured image data 54 b is data of the captured image 40 captured by the camera 26. The cut-out information data 54c is data indicating cut-out information including the installation angle of the casing 36 detected by the acceleration sensor 32, the vertical angle of view of the camera 26 when the zoom operation is not performed, and display specification information. The cutout image data 54d is data of a cutout image 44 obtained by cutting out the image of the first cutout range 42 generated by the cutout program 52e from the captured image 40.

なお、データ記憶領域54には、情報処理プログラムの実行に必要な他のデータや、他の情報処理装置から受信した受信画像データが記憶されたり、情報処理プログラムの実行に必要なタイマ(カウンタ)やレジスタが設けられたりする。   The data storage area 54 stores other data necessary for the execution of the information processing program, received image data received from other information processing apparatuses, and a timer (counter) required for the execution of the information processing program. Or a register.

図7は図1に示すCPU12の切出し処理の一例を示すフロー図である。   FIG. 7 is a flowchart showing an example of the cutting process of the CPU 12 shown in FIG.

CPU12は、カメラ26がオンにされた場合、カメラ26により撮像された撮影画像40の一部を切り出す第1切出し範囲42を決定し、第1切出し範囲42の画像を撮影画像40から切り出した切出し画像44を生成する切出し処理を開始する。   When the camera 26 is turned on, the CPU 12 determines a first cutout range 42 for cutting out a part of the shot image 40 captured by the camera 26, and cut out an image of the first cutout range 42 from the shot image 40. The clipping process for generating the image 44 is started.

図7に示すように、CPU12は、切出し処理を開始すると、ステップS1で、カメラ制御回路24からカメラ26で撮像された撮影画像40を示す撮影画像データ54bを取得する。   As shown in FIG. 7, when starting the cut-out process, the CPU 12 acquires captured image data 54b indicating the captured image 40 captured by the camera 26 from the camera control circuit 24 in step S1.

次に、ステップS3で、加速度センサ32で検出された加速度を取得し、当該加速度に基づいて、筐体36の設置角度を算出(取得)し、ステップS5で、カメラ26の垂直画角を読み出す。ただし、ステップS5では、ズーム操作がされている場合には、カメラ制御回路24からズーム倍率を取得して、当該ズーム倍率に基づいて、カメラ26の垂直画角を算出する。   Next, the acceleration detected by the acceleration sensor 32 is acquired in step S3, the installation angle of the housing 36 is calculated (acquired) based on the acceleration, and the vertical angle of view of the camera 26 is read in step S5. . However, in step S5, when the zoom operation is performed, the zoom magnification is acquired from the camera control circuit 24, and the vertical field angle of the camera 26 is calculated based on the zoom magnification.

そして、ステップS7で、ステップS3で取得した筐体36の設置角度およびステップS5で算出したカメラ26の垂直画角を用いて、撮影画像40における第1切出し範囲42を決定する。具体的には、切出し範囲決定式、つまり。数1〜数5に従って、撮影画像40の下側の領域を示す割合を算出し、算出された撮影画像40の下側の領域の上下方向に合わせた第1切出し範囲42を決定する。   In step S7, the first cutout range 42 in the captured image 40 is determined using the installation angle of the housing 36 acquired in step S3 and the vertical angle of view of the camera 26 calculated in step S5. Specifically, the extraction range determination formula, that is. The ratio indicating the lower region of the photographed image 40 is calculated according to Equations 1 to 5, and the first cutout range 42 is determined according to the vertical direction of the calculated lower region of the photographed image 40.

続いて、ステップS9で、決定された第1切出し範囲42の画像を撮影画像40から切り出した切出し画像44を生成する。ただし、第1切出し範囲42を画面アスペクト比に合わせた場合、算出された撮影画像40の下側の領域は、切り出し前の撮影画像40の画面アスペクト比に対して横寸法が大きくなるので、第1切出し範囲42の左右に生じる不使用領域40bを除いた切出し画像44を生成する。そして、切出し画像44が生成されれば、切出し処理を終了する。   Subsequently, in step S <b> 9, a cut image 44 is generated by cutting the image of the determined first cut range 42 from the captured image 40. However, when the first cutout range 42 is matched to the screen aspect ratio, the lower area of the calculated lower area of the captured image 40 has a larger horizontal dimension than the screen aspect ratio of the captured image 40 before the cutout. A cut-out image 44 excluding the unused areas 40b generated on the left and right of the one cut-out range 42 is generated. When the cut image 44 is generated, the cut process is terminated.

この第1実施例によれば、筐体36の設置角度を含む切出し情報に基づいて、カメラ26により撮像された撮影画像40の一部を切り出す第1切出し範囲42を決定し、第1切出し範囲42の画像を撮影画像40から切り出した切出し画像44を生成するので、カメラ26から必要な部分を簡単かつ適切に切り出すことができる。   According to the first embodiment, based on the cutout information including the installation angle of the housing 36, the first cutout range 42 for cutting out a part of the captured image 40 picked up by the camera 26 is determined, and the first cutout range is obtained. Since the cut image 44 obtained by cutting the 42 images from the captured image 40 is generated, a necessary portion can be cut out easily and appropriately from the camera 26.

また、第1実施例によれば、筐体36の設置角度に加え、カメラ26の撮像範囲を表す垂直方向の垂直画角、およびディスプレイ22の解像度とサイズとを含む表示仕様情報に基づいて設定される視認距離をパラメータとする切出し範囲決定式に従って第1切出し範囲42を決定する。このため、複数のパラメータを考慮して出し範囲42を決定するので、撮影画像40から必要な部分を適切に切り出すことができる。
[第2実施例]
第2実施例の情報処理装置10は、切出し範囲決定テーブルに従って、第1切出し範囲42を決定する以外は、第1実施例の情報処理装置10と同じであるため、第1実施例と異なる内容について説明し、重複した説明については省略することにする。
Further, according to the first embodiment, the setting is based on the display specification information including the vertical angle of view representing the imaging range of the camera 26 and the resolution and size of the display 22 in addition to the installation angle of the housing 36. The first cutout range 42 is determined according to a cutout range determination formula using the viewing distance as a parameter. For this reason, since the extraction range 42 is determined in consideration of a plurality of parameters, a necessary portion can be appropriately cut out from the captured image 40.
[Second Embodiment]
The information processing apparatus 10 according to the second embodiment is the same as the information processing apparatus 10 according to the first embodiment except that the first cutout range 42 is determined according to the cutout range determination table. Therefore, the information processing apparatus 10 is different from the first embodiment. Will be described, and redundant description will be omitted.

図8は第2実施例における切出し範囲決定テーブルの一例を示す図解図である。   FIG. 8 is an illustrative view showing one example of a cutout range determination table in the second embodiment.

また、図示は省略するが、切出し範囲決定テーブルが、RAM14のデータ記憶領域54に記憶される。   Although not shown, the cutout range determination table is stored in the data storage area 54 of the RAM 14.

図8を参照して、CPU12は、第1切出し範囲決定プログラム52dを実行して、筐体36の設置角度に基づいて、第1切出し範囲42を決定する切出し範囲決定テーブルに従って、第1切出し範囲42を決定する。つまり、この第2実施例では、切出し情報は、筐体36の設置角度である。具体的には、筐体36の設置角度が90°〜80°である場合には、第1切出し範囲42が撮像範囲の下側80%に決定される。また、筐体36の設置角度が79°〜70°であれば、第1切出し範囲42が撮像範囲の下側70%に決定され、筐体36の設置角度が69°〜60°であれば、第1切出し範囲42が撮像範囲の下側60%に決定され、筐体36の設置角度が59°〜50°であれば、第1切出し範囲42が撮像範囲の下側50%に決定される。   Referring to FIG. 8, the CPU 12 executes the first cutout range determination program 52d and performs the first cutout range according to the cutout range determination table that determines the first cutout range 42 based on the installation angle of the housing 36. 42 is determined. That is, in this second embodiment, the cutout information is the installation angle of the housing 36. Specifically, when the installation angle of the housing 36 is 90 ° to 80 °, the first cutout range 42 is determined as the lower 80% of the imaging range. If the installation angle of the housing 36 is 79 ° to 70 °, the first cutout range 42 is determined to be 70% below the imaging range, and if the installation angle of the housing 36 is 69 ° to 60 °. If the first cutout range 42 is determined to be 60% below the imaging range and the installation angle of the housing 36 is 59 ° to 50 °, the first cutout range 42 is determined to be 50% below the imaging range. The

一例として、筐体36の設置角度α=75°であった場合、切出し範囲決定テーブルによって決定される第1切出し範囲42は、撮像範囲の下側70%に決定される。   As an example, when the installation angle α of the housing 36 is 75 °, the first cutout range 42 determined by the cutout range determination table is determined as the lower 70% of the imaging range.

なお、上述した切出し範囲決定テーブルは一例であり、これに限定されない。切出し範囲決定テーブルは、情報処理装置10における、カメラ26の撮像範囲を表す垂直方向の垂直画角(カメラ26の仕様情報)、およびディスプレイ22の解像度とサイズとを含む表示仕様情報に基づいて、適宜設定される。   The cutout range determination table described above is an example, and the present invention is not limited to this. The cutout range determination table is based on display specification information including the vertical vertical angle of view (specification information of the camera 26) representing the imaging range of the camera 26 and the resolution and size of the display 22 in the information processing apparatus 10. Set as appropriate.

以下、フロー図を用いて、第2実施例におけるCPU12の切出し処理について説明するが、第1実施例で説明した切出し処理と同じ処理については同じ参照符号を付し、重複した内容については、説明を省略するまたは簡単に説明することにする。   Hereinafter, the cut-out process of the CPU 12 in the second embodiment will be described with reference to the flowchart. The same processes as the cut-out process described in the first embodiment are denoted by the same reference numerals, and redundant contents are described. Will be omitted or briefly described.

図9は第2実施例におけるCPUの切出し処理の一例の一部を示すフロー図である。   FIG. 9 is a flowchart showing a part of an example of the CPU cutting process in the second embodiment.

図9に示すように、第2実施例では、CPU12は、ステップS3で、筐体36の設置角度を算出取得した後に、ステップS31で、ステップS3で取得した筐体36の設置角度を用いて、切出し範囲決定テーブルに従って第1切出し範囲42を読み込んで決定する。続いて、ステップS9で、決定された第1切出し範囲42の画像を撮影画像40から切り出した切出し画像44を生成する。切出し画像44が生成されれば、切出し処理を終了する。なお、ステップS3までの処理は第1実施例の切出し処理と同じであるため、重複した説明は省略する。   As shown in FIG. 9, in the second embodiment, the CPU 12 calculates and acquires the installation angle of the casing 36 in step S3, and then uses the installation angle of the casing 36 acquired in step S3 in step S31. Then, the first cutout range 42 is read and determined according to the cutout range determination table. Subsequently, in step S <b> 9, a cut image 44 is generated by cutting the image of the determined first cut range 42 from the captured image 40. If the cut-out image 44 is generated, the cut-out process is terminated. Note that the processing up to step S3 is the same as the cut-out processing of the first embodiment, and a duplicate description is omitted.

この第2実施例によれば、筐体36の設置角度に基づいて、カメラ26により撮像された撮影画像40の一部を切り出す第1切出し範囲42を決定し、第1切出し範囲42の画像を撮影画像40から切り出した切出し画像44を生成するので、筐体36の設置角度に応じて撮影画像40から必要な部分を簡単に切り出すことができる。   According to the second embodiment, based on the installation angle of the housing 36, the first cutout range 42 for cutting out a part of the captured image 40 taken by the camera 26 is determined, and the image of the first cutout range 42 is determined. Since the cut-out image 44 cut out from the photographed image 40 is generated, a necessary part can be easily cut out from the photographed image 40 according to the installation angle of the housing 36.

また、第2実施例によれば、カメラ26の仕様情報およびディスプレイ22の表示仕様情報に基づいて適宜設定される切出し範囲決定テーブルに従って第1切出し範囲42を読み込んで決定するので、筐体36の設置角度だけで撮影画像40から必要な部分を適切に切り出すことができる。
[第3実施例]
第3実施例の情報処理装置10は、第1切出し範囲42の画像から顔画像を検出して、当該顔画像に基づいて第1切出し範囲42からさらに切り出した第2切出し範囲46を決定する処理をさらに含む。それ以外は、第1実施例の情報処理装置10と同じであるため、異なる内容について説明し、重複した説明については省略することにする。
Further, according to the second embodiment, the first cutout range 42 is read and determined according to the cutout range determination table appropriately set based on the specification information of the camera 26 and the display specification information of the display 22. Necessary portions can be appropriately cut out from the captured image 40 only by the installation angle.
[Third embodiment]
The information processing apparatus 10 according to the third embodiment detects a face image from the image of the first cutout range 42 and determines a second cutout range 46 further cut out from the first cutout range 42 based on the face image. Further included. Other than that, since it is the same as the information processing apparatus 10 of the first embodiment, different contents will be described, and redundant description will be omitted.

図示は省略するが、簡単に説明すると、プログラム記憶領域52に、第1切出し範囲42の画像から顔画像を検出する顔検出プログラムおよび顔検出プログラムにより検出された顔画像の範囲に基づいて、第2切出し範囲46を決定する第2切出し範囲決定プログラムをさらに含む。そして、切出しプログラム52eは、第2切出し範囲決定プログラムにより決定された第2切出し範囲46の画像を撮影画像40から切り出した切出し画像44を生成する。   Although not shown in the drawings, in brief explanation, the program storage area 52 has a face detection program for detecting a face image from an image in the first cutout range 42 and a range of the face image detected by the face detection program. A second cutout range determination program for determining the two cutout range 46 is further included. Then, the cutout program 52e generates a cutout image 44 obtained by cutting out the image of the second cutout range 46 determined by the second cutout range determination program from the captured image 40.

顔検出プログラムは、第1切出し範囲42の画像に対する顔検出処理を実行するためのプログラムである。具体的には、第1切出し範囲決定プログラム52dにより決定された第1切出し範囲42の画像に対して、データ記憶領域54に記憶された顔DBに基づく顔検出処理を施すことによって、ユーザの顔を検出する。この認識ないし検出の結果は、顔情報データとしてデータ記憶領域54に書き込まれる。なお、この第3実施例では、顔検出プログラムは、撮影画像40に一人の顔が含まれる場合のみ顔検出をするようにしてあり、複数人の顔が含まれる場合には、顔検出をしないようにしてある。   The face detection program is a program for executing face detection processing on the image in the first cutout range 42. Specifically, by performing face detection processing based on the face DB stored in the data storage area 54 on the image of the first cutout range 42 determined by the first cutout range determination program 52d, the user's face Is detected. The result of this recognition or detection is written in the data storage area 54 as face information data. In the third embodiment, the face detection program detects the face only when the photographed image 40 includes one face, and does not detect the face when a plurality of faces are included. It is like that.

第2切出し範囲決定プログラムは、第1切出し範囲決定プログラム52dにより決定された第1切出し範囲42を、顔検出プログラムにより検出された顔画像の範囲に基づいて、第2切出し範囲46を再決定する。たとえば、顔画像の範囲を基準にして、切り出し前の撮影画像40の画面アスペクト比に合うように、水平方向および垂直方向の所定寸法の領域を加えて、第2切出し範囲46を再決定する。   The second cutout range determination program re-determines the second cutout range 46 from the first cutout range 42 determined by the first cutout range determination program 52d based on the face image range detected by the face detection program. . For example, the second cutout range 46 is redetermined by adding regions of predetermined dimensions in the horizontal direction and the vertical direction so as to match the screen aspect ratio of the captured image 40 before cutout with reference to the range of the face image.

図10(A)は第3実施例における顔画像の範囲を用いた第1切出し範囲42の一例を示す図解図である。図10(B)は第2切出し範囲46で切り出した切出し画像44の一例を示す図解図である。   FIG. 10A is an illustrative view showing one example of a first cutout range 42 using a face image range in the third embodiment. FIG. 10B is an illustrative view showing an example of a cutout image 44 cut out in the second cutout range 46.

図10(A)に示すように、第1切出し範囲42の画像にユーザの顔が含まれており、顔検出プログラムが当該顔を認識できた場合、顔検出プログラムは、顔画像を検出する。そして、第2切出し範囲決定プログラムは、検出された顔画像の範囲に基づいて、第2切出し範囲46を決定する。ただし、第2切出し範囲決定プログラムは、少なくとも顔画像の範囲が第2切出し範囲46に含まれるように、第2切出し範囲46を決定する。   As shown in FIG. 10A, when the face of the user is included in the image of the first cutout range 42 and the face detection program can recognize the face, the face detection program detects the face image. Then, the second cutout range determination program determines the second cutout range 46 based on the detected face image range. However, the second cutout range determination program determines the second cutout range 46 so that at least the range of the face image is included in the second cutout range 46.

そして、図10(B)に示すように、第2切出し範囲46の画像を第1切出し範囲42の画像から切り出した切出し画像44が生成される。なお、第3実施例では、図10(A)に示す第1切出し範囲42の画像は、第2切出し範囲決定プログラムによる処理に用いるための画像であるので、ディスプレイ22には表示されないし、通信回路34を介して他の情報処理装置10に送信されることもない。   Then, as illustrated in FIG. 10B, a cut image 44 is generated by cutting the image of the second cut range 46 from the image of the first cut range 42. In the third embodiment, the image of the first cutout range 42 shown in FIG. 10A is an image used for processing by the second cutout range determination program, and therefore is not displayed on the display 22 and communicated. It is not transmitted to another information processing apparatus 10 via the circuit 34.

以下、フロー図を用いて、第3実施例におけるCPU12の切出し処理について説明するが、第1実施例で示した切出し処理と同じ処理については同じ参照符号を付し、重複した内容については、説明を省略するまたは簡単に説明することにする。   Hereinafter, the cutting process of the CPU 12 in the third embodiment will be described with reference to the flowchart. The same processes as the cutting process shown in the first embodiment are denoted by the same reference numerals, and redundant contents are described. Will be omitted or briefly described.

図11は第3実施例におけるCPUの切出し処理の一例の一部を示すフロー図である。   FIG. 11 is a flowchart showing a part of an example of CPU cut-out processing in the third embodiment.

図11に示すように、第3実施例では、CPU12は、ステップS7で、ステップS3で取得した筐体36の設置角度、およびステップS5で算出したカメラ26の画角を用いて、数1〜数5に従って第1切出し範囲42を決定する。続いて、ステップS51で、第1切出し範囲42の画像にユーザの顔が含まれていた場合、顔検出プログラムにより当該顔を認識できたかどうかを判断する。   As shown in FIG. 11, in the third embodiment, the CPU 12 uses the installation angle of the housing 36 acquired in step S3 and the angle of view of the camera 26 calculated in step S5 in step S7. The first cutout range 42 is determined according to Equation 5. Subsequently, in step S51, when the user's face is included in the image of the first cutout range 42, it is determined whether or not the face can be recognized by the face detection program.

ステップS51で“YES”であれば、つまり、顔検出プログラムにより第1切出し範囲42の画像から顔画像を認識できた場合は、ステップS53で、顔画像を検出し、続くステップS55で、顔画像の範囲を検出する。具体的には、ステップS55で、検出された顔画像をすべて含む四角形の範囲を、顔画像の範囲として検出する。   If “YES” in the step S51, that is, if the face image can be recognized from the image in the first cutout range 42 by the face detection program, the face image is detected in a step S53, and the face image is detected in a succeeding step S55. Detect the range. Specifically, in step S55, a rectangular area including all detected face images is detected as a face image range.

続いて、ステップS57で、ステップS55で検出された顔画像の範囲に基づいて、第2切出し範囲46を決定する。そして、ステップS59で、ステップS57で決定された第2切出し範囲46の画像を撮影画像40から切り出した切出し画像44を生成する。   Subsequently, in step S57, the second cutout range 46 is determined based on the range of the face image detected in step S55. In step S59, a cutout image 44 is generated by cutting out the image of the second cutout range 46 determined in step S57 from the captured image 40.

一方、ステップS51で“NO”であれば、つまり、顔検出プログラムにより第1切出し範囲42の画像から顔画像を認識できない場合は、ステップS59に進み、ステップS7で決定された第1切出し範囲42の画像を撮影画像40から切り出した切出し画像44を生成する。切出し画像44が生成されれば、切出し処理を終了する。   On the other hand, if “NO” in the step S51, that is, if the face image cannot be recognized from the image in the first cutout range 42 by the face detection program, the process proceeds to a step S59, and the first cutout range 42 determined in the step S7. A cut-out image 44 obtained by cutting out the image from the captured image 40 is generated. If the cut-out image 44 is generated, the cut-out process is terminated.

なお、ステップS7までの処理は第1実施例の切出し処理と同じであるため、重複した説明は省略する。   Note that the processing up to step S7 is the same as the cut-out processing of the first embodiment, and a duplicate description is omitted.

また、第3実施例では、第1切出し範囲42を決定する際に、第1実施例で説明した切出し範囲決定式を用いた例で説明したが、第2実施例で説明した切出し範囲決定テーブルを用いて第1切出し範囲42を決定してもよい。   In the third embodiment, the first cutout range 42 is determined by using the cutout range determination formula described in the first embodiment when determining the first cutout range 42. However, the cutout range determination table described in the second embodiment is used. The first cutout range 42 may be determined using

この第3実施例によれば、顔検出プログラムにより検出された顔画像の範囲に基づいて、第1切出し範囲42からさらに切り出した第2切出し範囲46を決定するので、撮影画像40から必要な部分をより適切に切り出すことができる。   According to the third embodiment, since the second cutout range 46 further cut out from the first cutout range 42 is determined based on the range of the face image detected by the face detection program, a necessary portion from the captured image 40 is determined. Can be cut out more appropriately.

なお、第1実施例および第2実施例に示した態様は、それぞれ第3実施例と同時に採用することも可能である。   It should be noted that the modes shown in the first embodiment and the second embodiment can be employed simultaneously with the third embodiment.

また、上述の実施例で挙げた具体的な数値、画面構成等は一例であり、実際の製品に応じて適宜変更することが可能である。   In addition, the specific numerical values, screen configurations, and the like given in the above-described embodiments are merely examples, and can be appropriately changed according to actual products.

10 …情報処理装置
12 …CPU
14 …RAM
16 …タッチパネル制御回路
18 …画像制御回路
20 …タッチパネル
22 …ディスプレイ
26 …カメラ
10 ... Information processing device 12 ... CPU
14 ... RAM
DESCRIPTION OF SYMBOLS 16 ... Touch panel control circuit 18 ... Image control circuit 20 ... Touch panel 22 ... Display 26 ... Camera

Claims (7)

所定の設置角度で設置される筐体に設けられ、利用者に対して画像データを含む表示情報を表示する表示手段、
前記表示手段の表示面の前方を撮像する撮像手段、
前記筐体の設置角度を検出する角度検出手段、
少なくとも前記角度検出手段により検出された前記設置角度に基づいて、前記撮像手段により撮像された撮影画像の一部を切り出す第1切出し範囲を決定する第1決定手段、および
前記第1切出し範囲の画像を前記撮影画像から切り出した切出し画像を生成する切出し手段を備える、情報処理装置。
A display means provided in a casing installed at a predetermined installation angle, for displaying display information including image data for a user;
Imaging means for imaging the front of the display surface of the display means;
An angle detection means for detecting an installation angle of the housing;
First determination means for determining a first cutout range for cutting out a part of the photographed image picked up by the image pickup means based on at least the installation angle detected by the angle detection means, and an image of the first cutout range An information processing apparatus comprising: a cutout unit that generates a cutout image cut out from the captured image.
前記第1決定手段は、前記設置角度と、前記撮像手段の垂直方向の画角とに基づいて前記第1切出し範囲を決定する、請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the first determination unit determines the first cutout range based on the installation angle and a vertical field angle of the imaging unit. 前記第1決定手段は、前記設置角度と、前記表示手段の解像度とサイズとを含む表示仕様情報に基づいて設定される視認距離とに基づいて前記第1切出し範囲を決定する、請求項1記載の情報処理装置。   The said 1st determination means determines the said 1st extraction range based on the viewing angle set based on the said installation angle and the display specification information containing the resolution and size of the said display means. Information processing device. 前記第1決定手段は、前記設置角度と、前記撮像手段の垂直方向の画角と、前記表示手段の解像度とサイズとを含む表示仕様情報に基づいて設定される視認距離とに基づいて前記第1切出し範囲を決定する、請求項2記載の情報処理装置。   The first determining means is based on the installation angle, the viewing angle in the vertical direction of the imaging means, and the viewing distance set based on display specification information including the resolution and size of the display means. The information processing apparatus according to claim 2, wherein one cut-out range is determined. 前記第1切出し範囲の画像から顔画像を検出する顔検出手段、および
前記顔検出手段により検出された顔画像の範囲に基づいて、前記第1切出し範囲の画像の一部をさらに切り出す第2切出し範囲を決定する第2決定手段を備え、
前記切出し手段は、前記顔検出手段により顔画像が検出された場合、前記第2切出し範囲の画像を前記撮影画像から切り出して前記切出し画像を生成する、請求項1ないし4のいずれかに記載の情報処理装置。
A face detection unit for detecting a face image from the image in the first cutout range; and a second cutout for further cutting out a part of the image in the first cutout range based on the range of the face image detected by the face detection unit. A second determining means for determining a range;
5. The cutout unit according to claim 1, wherein when a face image is detected by the face detection unit, the cutout unit cuts out an image in the second cutout range from the captured image and generates the cutout image. 6. Information processing device.
所定の設置角度で設置される筐体に設けられ、利用者に対して画像データを含む表示情報を表示面に表示する表示手段、前記表示面の前方を撮像する撮像手段、および前記筐体の設置角度を検出する検出手段を備えた情報処理装置の情報処理プログラムであって、
前記情報処理装置のコンピュータを、
少なくとも前記検出手段により検出された前記設置角度に基づいて、前記撮像手段により撮像された撮影画像の一部を切り出す切出し範囲を決定する決定手段、および
前記切出し範囲の画像を前記撮影画像から切り出した切出し画像を生成する切出し手段として機能させる、情報処理プログラム。
Display means provided on a casing installed at a predetermined installation angle and displaying display information including image data to a user on a display surface, imaging means for imaging the front of the display surface, and An information processing program for an information processing apparatus provided with a detecting means for detecting an installation angle,
A computer of the information processing apparatus;
Based on at least the installation angle detected by the detection means, a determination means for determining a cutout range for cutting out a part of the photographed image picked up by the image pickup means, and an image of the cutout range cut out from the picked-up image An information processing program for causing a cutting unit to generate a cut image.
所定の設置角度で設置される筐体、撮像手段、および前記筐体の設置角度を検出する検出手段を備えた情報処理装置の情報処理方法であって、
前記情報処理装置のコンピュータは、
(a)前記撮像手段により撮像された撮影画像を取得し、
(b)前記検出手段により検出された前記筐体の設置角度を取得し、
(c)少なくとも前記設置角度に基づいて、前記撮像手段により撮像された撮影画像の一部を切り出す切出し範囲を決定し、そして
(d)前記切出し範囲の画像を前記撮影画像から切り出した切出し画像を生成する、情報処理方法。
An information processing method for an information processing apparatus including a casing installed at a predetermined installation angle, an imaging unit, and a detection unit that detects an installation angle of the casing,
The computer of the information processing apparatus
(A) acquiring a captured image captured by the imaging means;
(B) obtaining an installation angle of the casing detected by the detection means;
(C) Based on at least the installation angle, a cutout range for cutting out a part of the shot image picked up by the image pickup means is determined, and (d) a cutout image obtained by cutting out the image of the cutout range from the shot image. An information processing method to be generated.
JP2014247255A 2014-12-05 2014-12-05 Information processing device, information processing program and information processing method Pending JP2016111521A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014247255A JP2016111521A (en) 2014-12-05 2014-12-05 Information processing device, information processing program and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014247255A JP2016111521A (en) 2014-12-05 2014-12-05 Information processing device, information processing program and information processing method

Publications (1)

Publication Number Publication Date
JP2016111521A true JP2016111521A (en) 2016-06-20

Family

ID=56125048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014247255A Pending JP2016111521A (en) 2014-12-05 2014-12-05 Information processing device, information processing program and information processing method

Country Status (1)

Country Link
JP (1) JP2016111521A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020065122A (en) * 2018-10-15 2020-04-23 パナソニックIpマネジメント株式会社 Image processing system, intercom system, image processing method, and program
US11140314B2 (en) 2019-11-29 2021-10-05 Seiko Epson Corporation Imaging display device, imaging display system, and control method of imaging display device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020065122A (en) * 2018-10-15 2020-04-23 パナソニックIpマネジメント株式会社 Image processing system, intercom system, image processing method, and program
JP7122629B2 (en) 2018-10-15 2022-08-22 パナソニックIpマネジメント株式会社 Image processing system, intercom system, image processing method and program
US11140314B2 (en) 2019-11-29 2021-10-05 Seiko Epson Corporation Imaging display device, imaging display system, and control method of imaging display device

Similar Documents

Publication Publication Date Title
CN113454982B (en) Electronic device for stabilizing image and method of operating the same
KR102114377B1 (en) Method for previewing images captured by electronic device and the electronic device therefor
KR102423175B1 (en) An apparatus for editing images using depth map and a method thereof
CN106605403B (en) Shooting method and electronic equipment
KR102251483B1 (en) Electronic device and method for processing image
EP3188467A1 (en) Method for image capturing using unmanned image capturing device and electronic device supporting the same
KR20190021138A (en) Electronic device which stores depth information associating with image in accordance with Property of depth information acquired using image and the controlling method thereof
EP3062286B1 (en) Optical distortion compensation
KR102661614B1 (en) Screen providing method and electronic device supporting the same
EP3718296B1 (en) Electronic device and method for controlling autofocus of camera
US11582391B2 (en) Electronic device capable of controlling image display effect, and method for displaying image
KR20210010148A (en) Foldable electronic device and method for photographing picture using a plurality of cameras in the foldable electronic device
KR102423295B1 (en) An apparatus for composing objects using depth map and a method thereof
KR102661185B1 (en) Electronic device and method for obtaining images
US9921054B2 (en) Shooting method for three dimensional modeling and electronic device supporting the same
EP4096218A1 (en) Video recording method using plurality of cameras, and device therefor
CN114982213B (en) Electronic device for providing camera preview and method thereof
WO2021238564A1 (en) Display device and distortion parameter determination method, apparatus and system thereof, and storage medium
KR20190085787A (en) Electronic device and method for processing image of the same
US10122937B2 (en) Method and apparatus for processing image obtained by camera
JP2016111521A (en) Information processing device, information processing program and information processing method
KR102457559B1 (en) Electronic device and method for correcting image based on object included image
CN108476290B (en) Electronic device for providing panoramic image and control method thereof
KR102614026B1 (en) Electronic device having a plurality of lens and controlling method thereof
KR20220005283A (en) Electronic device for image improvement and camera operation method of the electronic device