JP2019120853A - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP2019120853A
JP2019120853A JP2018001741A JP2018001741A JP2019120853A JP 2019120853 A JP2019120853 A JP 2019120853A JP 2018001741 A JP2018001741 A JP 2018001741A JP 2018001741 A JP2018001741 A JP 2018001741A JP 2019120853 A JP2019120853 A JP 2019120853A
Authority
JP
Japan
Prior art keywords
image
mask
display device
movement
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018001741A
Other languages
Japanese (ja)
Other versions
JP2019120853A5 (en
JP7066414B2 (en
Inventor
光 内舘
Hikaru Uchidate
光 内舘
剛志 岩佐
Tsuyoshi Iwasa
剛志 岩佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018001741A priority Critical patent/JP7066414B2/en
Publication of JP2019120853A publication Critical patent/JP2019120853A/en
Publication of JP2019120853A5 publication Critical patent/JP2019120853A5/ja
Application granted granted Critical
Publication of JP7066414B2 publication Critical patent/JP7066414B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To enable providing video that gives less discomfort to a user.SOLUTION: An image processing apparatus comprises: determination means (14) that determines a mask area for masking an image on the basis of movement of a display device (1) and an optical characteristic of a display optical system (111) which the display device (1) has; first correction means (152) that performs first correction processing according to the movement of the display device (1) for an input image; and second correction means (151) that performs second correction processing according to the optical characteristic of the display optical system (111) after mask processing according to the mask area is performed for the image in which the first correction processing is performed.SELECTED DRAWING: Figure 1

Description

本発明は、表示光学系を有した表示装置に表示する画像を処理する技術に関する。   The present invention relates to a technology for processing an image to be displayed on a display device having a display optical system.

近年、現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の一つに、ビデオシースルーHMDを装着したユーザの瞳位置から観察される被写体と略一致する被写体をビデオカメラ等で撮像し、その撮像画像にCGを重畳した映像を、HMD内の表示パネルを通してユーザに提示する技術が知られている。なお、HMDはHead Mounted Displayの略称であり、CGはComputer Graphicsの略称である。   In recent years, so-called MR (Mixed Reality) technology is known as a technology for seamlessly fusing the real world and the virtual world in real time. One of the MR techniques, a video camera etc. picks up an object that almost matches the subject observed from the pupil position of the user wearing the video see-through HMD, and displays the image in which CG is superimposed on the picked up image in the HMD Techniques are known for presenting to users through panels. HMD is an abbreviation for Head Mounted Display, and CG is an abbreviation for Computer Graphics.

これらHMDとビデオカメラからなるシステムでは、ビデオカメラで撮影した撮像画像に対して描画するCGをレンダリングにより生成し、その生成したCGを撮像画像に重畳した映像を、HMD内の表示パネルに表示するようになされている。ただし、このようなシステムでは、撮影からCGレンダリング、さらに重畳等までの一連の処理を行う演算時間が必要になるため、画像が撮影された時間と、演算後の画像がHMDに表示されるまでの時間との間に、遅延(レイテンシ)が生じる。このため、例えばHMDを装着したユーザが頭を動かしたような場合、頭を動かした瞬間ではHMDを通してユーザが観ている画像に変化はみられず、演算による遅延時間が経過した後に、HMDの表示パネル上の表示画像が動き出すことになる。このような映像の遅延は、HMDを通して映像を観ているユーザにとって大きな違和感となる。   In a system consisting of these HMDs and video cameras, CG to be drawn on an image captured by a video camera is generated by rendering, and an image in which the generated CG is superimposed on the captured image is displayed on a display panel in the HMD. It is done like that. However, since such a system requires an operation time for performing a series of processes from shooting to CG rendering and further superposition, etc., the time when the image was shot and the image after the operation are displayed on the HMD. There is a delay (latency) between the time of. Therefore, for example, when the user wearing the HMD moves his head, no change is seen in the image viewed by the user through the HMD at the moment the head is moved, and the delay time due to the calculation elapses. The display image on the display panel starts to move. Such video delay is a great discomfort for the user viewing the video through the HMD.

この問題に対し、遅延時間とHMDの動作予測値とを基に、現実世界と表示映像とのずれを補正する技術が提案されている。例えば特許文献1では、フレームメモリに記憶された広画角の撮像映像から、回転角センサで検出されたユーザの頭部情報に基づいて、ユーザが観るべき表示画像をフレームメモリから切り出し、ディスプレイに表示するHMDが開示されている。また、特許文献2においては、表示部を有した頭部装着型装置において、ユーザの頭部動作に応じて表示部に表示する映像を移動するHMDが開示されている。   To address this problem, a technique has been proposed for correcting the deviation between the real world and the display image based on the delay time and the motion prediction value of the HMD. For example, according to Patent Document 1, a display image to be viewed by the user is cut out from the frame memory based on the head information of the user detected by the rotation angle sensor from the wide angle video image stored in the frame memory The HMD to be displayed is disclosed. Further, Patent Document 2 discloses an HMD which moves an image to be displayed on a display unit in accordance with the user's head movement in a head-mounted apparatus having a display unit.

特開平8−191419号公報JP-A-8-191419 特開2004−109994号公報JP, 2004-109994, A

ここで、表示光学系を有するHMDの場合、その表示光学系により生ずる歪み等を補正可能な処理を施した画像を、HMD内の表示パネルに表示するような光学系画像補正が行われることがある。しかしながら、表示光学系を有するHMDにおいて、前述した遅延時間に対する補正処理によって画像の切り出しや移動等が行われると、本来表示すべきではない画像が、HMD内の表示パネルに表示されてしまうことがある。この場合、HMDを通して映像を観ているユーザに違和感のある映像が提示されてしまうことになる。   Here, in the case of an HMD having a display optical system, optical system image correction may be performed such that an image subjected to processing capable of correcting distortion or the like caused by the display optical system is displayed on a display panel in the HMD. is there. However, in the HMD having a display optical system, when clipping or moving of an image is performed by the correction processing for the delay time described above, an image that should not be displayed originally may be displayed on the display panel in the HMD. is there. In this case, the user who is watching the video through the HMD will be presented with a video having a sense of discomfort.

そこで、本発明は、ユーザにとって違和感の少ない映像を提供可能にすることを目的とする。   Then, an object of the present invention is to make it possible to provide an image with less discomfort to the user.

本発明に係る画像処理装置は、表示装置の動きと前記表示装置が有する表示光学系の光学特性とに基づいて、画像をマスクするためのマスク領域を決定する決定手段と、入力された画像に対し、前記表示装置の動きに応じた第1の補正処理を行う第1の補正手段と、前記第1の補正処理がなされた画像に対して前記マスク領域に応じたマスク処理を行った後、前記表示光学系の光学特性に応じた第2の補正処理を行う第2の補正手段と、を有することを特徴とする。   An image processing apparatus according to the present invention comprises: determining means for determining a mask area for masking an image based on the movement of the display device and the optical characteristics of the display optical system possessed by the display device; On the other hand, first correction means for performing a first correction process according to the movement of the display device, and a mask process for the image subjected to the first correction process according to the mask area And second correction means for performing a second correction process according to the optical characteristics of the display optical system.

本発明によれば、ユーザにとって違和感の少ない映像の提供が可能となる。   According to the present invention, it is possible to provide an image with less discomfort to the user.

第1実施形態に係るシステム構成例を示すブロック図である。It is a block diagram showing an example of system composition concerning a 1st embodiment. HMDを装着したユーザの頭部の動作を説明する図である。It is a figure explaining operation of a user's head equipped with HMD. 表示光学系補正部におけるアスペクト変換を説明する図である。It is a figure explaining aspect conversion in a display optical system amendment part. 表示光学系の歪曲収差を説明する図である。It is a figure explaining the distortion aberration of a display optical system. 表示光学系補正部における歪曲収差補正を説明する図である。It is a figure explaining distortion aberration correction in a display optical system amendment part. 表示光学系補正部におけるマスク処理を説明する図である。It is a figure explaining the mask process in a display optical system correction | amendment part. HMDを装着したユーザの頭部の動きによる映像変化を示す図である。It is a figure which shows the imaging | video change by the motion of the head of the user who mounted | worn HMD. 画像受信部に入力される画像の例を示す図である。It is a figure which shows the example of the image input into an image receiving part. 第1実施形態における効果を説明する図である。It is a figure explaining the effect in a 1st embodiment. 第1実施形態における演算部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the calculating part in 1st Embodiment. 第2実施形態に係るシステム構成例を示すブロック図である。It is a block diagram showing an example of system composition concerning a 2nd embodiment. 第2実施形態における演算部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the calculating part in 2nd Embodiment. 第3実施形態に係るシステム構成例を示すブロック図である。It is a block diagram showing an example of system composition concerning a 3rd embodiment.

以下、添付図面を参照して本発明の好適な実施形態について説明する。
<第1実施形態>
図1は、第1実施形態の画像表示装置と画像処理装置からなる表示システムの概略的な構成例を示した図である。
本実施形態のシステムは、画像表示装置(1)と画像処理装置15を有して構成されている。本実施形態の場合、画像表示装置(1)は頭部装着型画像表示装置(ヘッドマウントディスプレイ、以下、HMD1とする。)であり、使用者であるユーザの頭部に装着される。画像処理装置15は、ケーブル又は無線によりHMD1と接続可能となされており、受信により入力された画像に対して後述する画像処理を行ってHMD1に送信する。なお、本実施形態では、HMD1と画像処理装置15が別々の構成となされた例を挙げているが、これらHMD1と画像処理装置15は一体化されて一つの頭部装着型画像表示装置を構成していても良い。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
First Embodiment
FIG. 1 is a view showing a schematic configuration example of a display system including an image display device and an image processing device according to the first embodiment.
The system of the present embodiment is configured to include an image display device (1) and an image processing device 15. In the case of the present embodiment, the image display device (1) is a head mounted image display device (head mounted display, hereinafter referred to as HMD 1), and is mounted on the head of the user who is the user. The image processing apparatus 15 is connectable to the HMD 1 by cable or wireless, performs image processing to be described later on an image input by reception, and transmits the image to the HMD 1. In the present embodiment, an example in which the HMD 1 and the image processing device 15 are separately configured is given, but the HMD 1 and the image processing device 15 are integrated to configure one head-mounted image display device You may

HMD1は、表示部11、光学特性記憶部12、動作検知部13、演算部14を有して構成されている。表示部11は、表示光学系111と表示素子112とを含む。HMD1を装着しているユーザ(装着者)は、表示部11の表示素子112に表示される画像を、表示光学系111を通して観ることにより映像を観察可能となる。表示光学系111は、レンズや複数の反射面を有するプリズム型の光学素子等によって構成されている。表示光学系111は、表示素子112に表示された画像を光学的に拡大等させることにより、HMDとして最適な表示画像を、HMD1のユーザに提示する。   The HMD 1 is configured to include a display unit 11, an optical characteristic storage unit 12, an operation detection unit 13, and a calculation unit 14. The display unit 11 includes a display optical system 111 and a display element 112. The user (wearer) wearing the HMD 1 can observe the image by viewing the image displayed on the display element 112 of the display unit 11 through the display optical system 111. The display optical system 111 is configured of a lens, a prism type optical element having a plurality of reflecting surfaces, or the like. The display optical system 111 presents a display image optimal as an HMD to the user of the HMD 1 by optically enlarging the image displayed on the display element 112 or the like.

光学特性記憶部12は、表示部11の光学特性を表す情報を記憶する。光学特性を表す情報とは、例えば表示光学系111の歪みや収差、F値などの光学系単体の性能を示す値や、表示光学系111と表示素子112との相対関係で決まる焦点や倍率の値である。本実施形態の場合、光学特性記憶部12に記憶されている光学特性を表す情報には、後述するアスペクト比、解像度、マスク幅(Vt,Vb,Hl,Hr)などの値も含まれる。光学特性記憶部12に記憶された光学特性の情報は、後述する表示光学系補正処理などに使用される。   The optical characteristic storage unit 12 stores information representing the optical characteristic of the display unit 11. The information representing the optical characteristic is, for example, a value indicating the performance of the single optical system such as distortion or aberration of the display optical system 111 or F value, or a focus or magnification determined by the relative relationship between the display optical system 111 and the display element 112 It is a value. In the case of the present embodiment, the information indicating the optical characteristics stored in the optical characteristic storage unit 12 also includes values such as an aspect ratio, resolution, and mask width (Vt, Vb, Hl, Hr) described later. The information of the optical characteristic stored in the optical characteristic storage unit 12 is used for display optical system correction processing and the like to be described later.

動作検知部13は、現実世界に存在するHMD1の、三次元空間内における位置や向き、姿勢等を検知することによって、HMD1を装着しているユーザの頭部の位置や向き、姿勢を検出し、またそれらの変化から動きを検出する。以下、HMD1を装着しているユーザの頭部の位置、向き、姿勢等の動きを、単に、ユーザの頭部の動作と表記する。動作検知部13は、加速度センサ、角速度センサなどを用いて構成される。   The motion detection unit 13 detects the position, orientation, and posture of the head of the user wearing the HMD 1 by detecting the position, orientation, posture, and the like in the three-dimensional space of the HMD 1 existing in the real world. Also detect motion from those changes. Hereinafter, the movement of the position, orientation, posture, and the like of the head of the user wearing the HMD 1 will be simply referred to as the movement of the head of the user. The motion detection unit 13 is configured using an acceleration sensor, an angular velocity sensor, and the like.

図2には、HMD1を装着しているユーザ2の頭部の動作を説明する概念図を示す。
本実施形態では、HMD1がユーザ2の頭部に装着されている場合の、当該ユーザ2の頭部に対して、図2に示すような、ロール(Roll)軸R、ピッチ(Pitch)軸P、ヨー(Yaw)軸Yをそれぞれ定義する。ロール軸Rは、ユーザ2が顔を向けている方向(例えば視線方向)に対応した軸である。本実施形態では、ユーザ2がロール軸Rを回転軸として頭部を傾ける動作をロール動作と定義する。ピッチ軸Pは、ユーザ2が頭部を縦に振る(頭部を垂直方向に上下に振る、例えばうなずく動作)場合の回転軸に相当する。本実施形態では、ユーザ2がピッチ軸Pを回転軸として頭部を縦に振る動作をピッチ動作と定義する。ヨー軸Yは、ユーザ2が頭部を横に振る(頭部を水平方向に左右に振る、例えば首を横に振る動作)場合の回転軸に相当する。本実施形態では、ユーザ2がヨー軸Yを回転軸として頭部を横に振る動作をヨー動作と定義する。
FIG. 2 is a conceptual diagram illustrating the operation of the head of the user 2 wearing the HMD 1.
In the present embodiment, when the HMD 1 is attached to the head of the user 2, the roll axis R and the pitch axis P as shown in FIG. 2 with respect to the head of the user 2. And Yaw axes Y are respectively defined. The roll axis R is an axis corresponding to the direction in which the user 2 faces the face (for example, the line of sight direction). In the present embodiment, an operation in which the user 2 tilts the head with the roll axis R as the rotation axis is defined as a roll operation. The pitch axis P corresponds to a rotation axis in the case where the user 2 shakes the head vertically (shakes the head vertically in the vertical direction, for example, a nod operation). In the present embodiment, an operation in which the user 2 shakes the head vertically with the pitch axis P as a rotation axis is defined as a pitch operation. The yaw axis Y corresponds to a rotation axis in the case where the user 2 shakes his head horizontally (shakes his head horizontally, for example, shakes his head horizontally). In the present embodiment, an operation in which the user 2 shakes the head with the yaw axis Y as the rotation axis is defined as the yaw operation.

動作検知部13は、HMD1を装着したユーザ2の頭部がロール動作、ピッチ動作、ヨー動作する場合に、ロール軸R、ピッチ軸P、ヨー軸Yの各軸方向の加速度や回転の加速度などのデータを検知し、その検知結果をHMD1の動作検知データとして出力する。   When the head of the user 2 wearing the HMD 1 performs a roll operation, a pitch operation, and a yaw operation, the motion detection unit 13 accelerates and rotates the roll axis R, the pitch axis P, and the yaw axis Y in each axial direction. Data of the HMD 1 is detected, and the detection result is output as operation detection data of the HMD 1.

演算部14は、動作検知部13で検出したHMD1の動きに応じて、画像のフレーム間で、画像をどの程度移動させるかを表す画像移動量を計算し、また、画像をどの程度変形させるかを表す画像変形量を計算する。なお、本実施形態において、画像の変形には画像の拡大・縮小、回転も含まれるとする。そして、演算部14は、それら画像移動量と画像変形量の情報を疑似遅延補正部152へと出力する。また、演算部14は、光学特性記憶部12より読み込んだ光学特性情報を基に表示光学系補正量を計算して表示光学系補正部151へと出力する。なお、図1では、HMD1の中に演算部14が設けられている例を挙げたが、演算部14は画像処理装置15の中に設けられていても良い。演算部14の詳細な動作については後述する。   Arithmetic unit 14 calculates an image movement amount representing how much the image is moved between the frames of the image in accordance with the movement of HMD 1 detected by motion detection unit 13 and also how much the image is deformed Calculate the amount of image deformation that represents. In the present embodiment, the deformation of the image includes enlargement / reduction and rotation of the image. Then, the calculation unit 14 outputs the information on the image movement amount and the image deformation amount to the pseudo delay correction unit 152. In addition, the calculation unit 14 calculates a display optical system correction amount based on the optical property information read from the optical property storage unit 12 and outputs the calculated amount to the display optical system correction unit 151. Although FIG. 1 shows an example in which the calculation unit 14 is provided in the HMD 1, the calculation unit 14 may be provided in the image processing apparatus 15. The detailed operation of the calculation unit 14 will be described later.

画像処理装置15は、画像受信部153、疑似遅延補正部152、表示光学系補正部151を有しており、表示素子112に表示するための画像を生成する。
画像受信部153は、画像データを受信する。本実施形態において、画像受信部153が受信する画像データは、例えば、不図示のビデオカメラにより撮像された撮像画像に、同じく不図示のパーソナルコンピュータ(以下、PCとする。)にてCG画像が重畳等された画像データであるとする。また本実施形態において、ビデオカメラは、HMD1を装着しているユーザ2の瞳位置から観察される被写体と略一致する被写体を撮影しているとする。したがって、本実施形態において、画像受信部153は、ビデオカメラが撮像した撮像画像に対してCG画像等が重畳されたMR体験画像の画像データを受信する。
The image processing device 15 includes an image reception unit 153, a pseudo delay correction unit 152, and a display optical system correction unit 151, and generates an image to be displayed on the display element 112.
The image reception unit 153 receives image data. In the present embodiment, the image data received by the image reception unit 153 is, for example, a CG image taken by a personal computer (not shown) (hereinafter referred to as a PC), with an image taken by a video camera (not shown). It is assumed that the image data is superimposed or the like. Further, in the present embodiment, it is assumed that the video camera captures an object that substantially matches the object observed from the pupil position of the user 2 wearing the HMD 1. Therefore, in the present embodiment, the image reception unit 153 receives image data of an MR experience image in which a CG image or the like is superimposed on a captured image captured by a video camera.

疑似遅延補正部152は、システムで生ずる画像遅延(システムレイテンシ)を、HMD1の演算部14による演算結果に基づいて疑似的に補正する疑似遅延補正処理を行う。表示光学系補正部151は、HMD1の表示光学系111における後述する収差や周辺光量低下等の光学特性に対応した画像補正処理を行う。   The pseudo delay correction unit 152 performs pseudo delay correction processing to pseudo correct the image delay (system latency) generated in the system based on the calculation result by the calculation unit 14 of the HMD 1. The display optical system correction unit 151 performs an image correction process corresponding to optical characteristics such as an aberration and a decrease in peripheral light amount, which will be described later in the display optical system 111 of the HMD 1.

ここで、一般的に、光学系を介して得られる画像は、光学系の光軸中心付近と周辺付近とで結像倍率が異なったり、光の波長によって結像倍率が異なったりするため、歪曲収差や倍率色収差、周辺光量低下といった影響を受けて画質が低下することがある。表示光学系補正部151は、こういった光学系を介して発生する画質への影響を補正するための画像補正処理を行う機能を有している。画像補正の内容としては、シェーディング補正や歪曲収差補正、アスペクト変換、解像度変換などがある。表示光学系補正部151は、HMD1の光学特性記憶部12より読み込んだ表示光学系111の光学特性情報を基に画像補正処理を行う。これにより、ユーザ2がHMD1を通して観察する画像は、光学系により発生する画質低下が補正された画像となる。   Here, in general, the image obtained through the optical system is distorted because the imaging magnification differs between the vicinity of the optical axis center and the periphery of the optical system or the imaging magnification differs depending on the wavelength of light. Image quality may be degraded under the influence of aberration, lateral chromatic aberration, and peripheral light amount reduction. The display optical system correction unit 151 has a function of performing an image correction process for correcting the influence on the image quality generated through such an optical system. The contents of image correction include shading correction, distortion correction, aspect conversion, resolution conversion, and the like. The display optical system correction unit 151 performs image correction processing based on the optical characteristic information of the display optical system 111 read from the optical characteristic storage unit 12 of the HMD 1. Thus, the image observed by the user 2 through the HMD 1 is an image in which the image quality deterioration generated by the optical system is corrected.

本実施形態では、表示光学系111は、アナモルフィック光学系を使用した前提で説明する。表示光学系111に使用されるアナモルフィック光学系は、当該表示光学系111の光軸に対する垂直方向と水平方向とで焦点距離が異なる光学系であり、水平方向の焦点距離が短くなされている。このため、アナモルフィック光学系を介した画像は、水平方向が広く拡大された画像となり、これによりHMD1を装着しているユーザは、臨場感のある画像を観察できる。   In the present embodiment, the display optical system 111 will be described on the premise that an anamorphic optical system is used. The anamorphic optical system used for the display optical system 111 is an optical system having different focal lengths in the vertical direction and the horizontal direction with respect to the optical axis of the display optical system 111, and the focal length in the horizontal direction is made short. . For this reason, the image through the anamorphic optical system is an image in which the horizontal direction is enlarged widely, whereby a user wearing the HMD 1 can observe an image with a sense of reality.

またアナモルフィック光学系を使用した場合、表示素子112のアスペクト比とユーザが観察する画像のアスペクト比とは異なるため、表示光学系補正部151は、画像のアスペクト変換を行う。
アスペクト変換の様子を図3(a)〜図3(c)を用いて説明する。図3(a)は、表示素子112のアスペクト比が例えば4:3である場合に、表示光学系補正部151に供給される入力画像301の一例を示している。このときの入力画像301は、表示素子112と同じアスペクト比4:3である。表示光学系補正部151は、この入力画像を光学特性記憶部12の光学特性情報に基づいてアスペクト変換し、図3(b)のように垂直方向にのみ拡大した画像302を生成する。そして、この図3(b)の画像302を表示素子112に表示して、アナモルフィック光学系である表示光学系111を介した画像は、図3(c)のような16:10の画像303となる。したがって、HMD1を装着しているユーザは、図3(c)のような16:10の画像303を観察できることになる。このように、アナモルフィック光学系を使用する場合は、縦長の画像を表示素子112に表示させることによって、HMD1のユーザに対して適切なアスペクト比の体験画像を提示することができる。
When an anamorphic optical system is used, the display optical system correction unit 151 performs aspect conversion of the image because the aspect ratio of the display element 112 is different from the aspect ratio of the image observed by the user.
Aspects of aspect conversion will be described using FIGS. 3A to 3C. FIG. 3A shows an example of the input image 301 supplied to the display optical system correction unit 151 when the aspect ratio of the display element 112 is, for example, 4: 3. The input image 301 at this time has the same aspect ratio of 4: 3 as that of the display element 112. The display optical system correction unit 151 aspect-converts the input image based on the optical characteristic information of the optical characteristic storage unit 12, and generates an image 302 enlarged only in the vertical direction as shown in FIG. 3B. Then, the image 302 of FIG. 3B is displayed on the display element 112, and the image passing through the display optical system 111 which is an anamorphic optical system is an image of 16:10 as shown in FIG. 3C. It becomes 303. Accordingly, the user wearing the HMD 1 can observe the 16:10 image 303 as shown in FIG. 3C. As described above, when using an anamorphic optical system, by displaying a vertically long image on the display element 112, it is possible to present an experience image of an appropriate aspect ratio to the user of the HMD 1.

次に、表示光学系111の歪曲収差補正処理について、図4(a)〜図4(c)を用いて説明する。ここでは、表示光学系111が歪曲収差を有する場合を例に挙げて説明する。
表示素子112に例えば図4(a)のような画像401を表示し、歪曲収差を有する表示光学系111を介して観察した場合、図4(b)のように糸巻き型に歪んだ画像402が見えることになる。これは、表示光学系111が歪曲収差を有するためである。このような歪みを改善するため、表示光学系補正部151は、光学特性記憶部12の光学特性情報に基づいて、画像402の糸巻き型の歪みとは逆に歪ませた画像、つまり図4(c)に示すような画像403を作成する。この図4(c)の画像403を表示素子112に表示し、さらに表示光学系111を介して観察すると、歪みが低減された画像が観察されることになる。
Next, distortion aberration correction processing of the display optical system 111 will be described with reference to FIGS. 4 (a) to 4 (c). Here, a case where the display optical system 111 has distortion will be described as an example.
For example, when an image 401 as shown in FIG. 4A is displayed on the display element 112 and observed through the display optical system 111 having distortion, a pincushioned image 402 as shown in FIG. 4B is displayed. It will be visible. This is because the display optical system 111 has distortion. In order to improve such distortion, the display optical system correction unit 151 generates a distorted image contrary to the pincushion distortion of the image 402 based on the optical property information of the optical property storage unit 12, that is, FIG. Create an image 403 as shown in c). When the image 403 of FIG. 4C is displayed on the display element 112 and observed through the display optical system 111, an image with reduced distortion is observed.

次に、表示光学系111がアナモルフィック光学系であり、且つ歪曲収差特性を持つ光学系であった場合の画像補正について、図5(a)〜図5(c)を用いて説明する。このように表示光学系111がアナモルフィック光学系で且つ歪曲収差特性を持つ光学系である場合、画像補正としては、アスペクト変換と歪曲収差補正を行う必要がある。   Next, image correction when the display optical system 111 is an anamorphic optical system and an optical system having distortion aberration characteristics will be described using FIGS. 5A to 5C. As described above, when the display optical system 111 is an anamorphic optical system and an optical system having distortion characteristics, it is necessary to perform aspect conversion and distortion correction as image correction.

図5(a)は入力画像501の一例を示している。ここで、図5(a)の入力画像501に対してアスペクト変換処理と歪曲収差補正処理を行った場合、当該入力画像501は図5(b)のような画像502となる。この図5(b)の画像502を表示素子112に表示し、表示光学系111を通して観察した場合、図5(c)のような画像503が観察されることになり、この画像503は入力画像501のような矩形ではない歪んだ画像となる。このように、アスペクト変換処理と歪曲収差補正処理の両処理を行った場合、入力画像501が矩形であるのに対して、観察される画像503は、境界部分の形状が矩形にならず歪んだ形状になり、ユーザにとって違和感のある画像になってしまう。またこの場合、図3(b)のようにアスペクト変換を実施する際に観察領域内には表示されないはずの画像が、観察領域内に表示されてしまうことがある。   FIG. 5A shows an example of the input image 501. Here, when the aspect conversion process and the distortion aberration correction process are performed on the input image 501 of FIG. 5A, the input image 501 becomes an image 502 as shown in FIG. 5B. When the image 502 of FIG. 5B is displayed on the display element 112 and observed through the display optical system 111, an image 503 as shown in FIG. 5C is observed, and this image 503 is an input image. It is a distorted image that is not rectangular like 501. As described above, when both the aspect conversion process and the distortion correction process are performed, the input image 501 is rectangular, but the image 503 to be observed is distorted because the shape of the boundary portion does not become rectangular. It becomes a shape, and it becomes an image with a sense of incongruity for the user. In this case, as shown in FIG. 3B, an image which should not be displayed in the observation area when performing aspect conversion may be displayed in the observation area.

このため、表示光学系111がアナモルフィック光学系であり、且つ歪曲収差特性を持つ光学系である場合、図6(a)〜図6(d)で示すような画像補正が行われる。   For this reason, when the display optical system 111 is an anamorphic optical system and an optical system having distortion aberration characteristics, the image correction as shown in FIGS. 6A to 6D is performed.

図6(a)は入力画像601の一例を示しており、図5(a)の入力画像501と同じ画像であるとする。この図6(a)の入力画像601に対しては、アスペクト変換と歪曲収差補正を実施する前に、図6(b)のように上下に黒画像を重畳し、画像として表示する必要のない領域をマスクする処理が行われることより画像602が生成される。そして、マスクされた画像602に対して、アスペクト変換と歪曲収差補正が実施される。これにより、図6(b)に示した画像602は、図6(c)のような画像603として表示素子112に表示され、さらに表示光学系111を通して観察されることになる。その結果、表示光学系111を通して観察される画像は、図6(d)のような画像604になる。すなわち、ユーザにより観察される画像604は、境界部分が矩形の画像として観察されることになる。   FIG. 6A shows an example of the input image 601, and it is assumed that the image is the same as the input image 501 of FIG. 5A. It is not necessary to superimpose a black image vertically on the input image 601 shown in FIG. 6 (a) as shown in FIG. 6 (b) before performing aspect conversion and distortion correction, and displaying the image as an image. An image 602 is generated by performing the process of masking the area. Then, aspect conversion and distortion correction are performed on the masked image 602. Thus, the image 602 shown in FIG. 6B is displayed on the display element 112 as an image 603 as shown in FIG. 6C, and is further observed through the display optical system 111. As a result, the image observed through the display optical system 111 is an image 604 as shown in FIG. That is, in the image 604 observed by the user, the boundary portion is observed as a rectangular image.

図1の例では、HMD1の表示部11が一つであることを前提として説明したが、HMD1の構成はこの例には限定されず、表示部11は複数から構成されても良い。例えば、HMDのような頭部装着型装置の場合は、表示部11は両目に合わせて二つにより構成されていることが多い。また、前述の例では、アスペクト変換と歪曲収差補正を例に挙げたが、解像度変換の場合には、表示光学系補正部151において光学特性に基づく解像度変換が行われる。   Although the example of FIG. 1 is described on the assumption that the display unit 11 of the HMD 1 is one, the configuration of the HMD 1 is not limited to this example, and the display unit 11 may be configured of a plurality. For example, in the case of a head-mounted device such as an HMD, the display unit 11 is often configured by two for both eyes. Further, in the above-described example, the aspect conversion and the distortion aberration correction are taken as an example, but in the case of the resolution conversion, the display optical system correction unit 151 performs the resolution conversion based on the optical characteristics.

次に、疑似遅延補正部152について詳細に説明する。
疑似遅延補正部152は、システムにより生ずる遅延(システムレイテンシ)を疑似的に補正するために、演算部14より入力された画像移動量と画像変形量の情報を基に、画像受信部153より入力された画像に画像変換を行う。システムレイテンシの疑似的補正のための画像変換は、例えば水平方向の移動、垂直方向の移動、画像の回転、画像の拡大縮小などである。画像変換の方法としては、フレームバッファやラインバッファを用い、画像変換アルゴリズム(バイリニアやバイキュービックなど)などの計算を行う方法や、映像の同期信号をずらすことで疑似的に映像をずらす方法などが該当する。このような画像変換を行い、システムレイテンシによる画像遅延を疑似的に補正することによって、HMD1を装着しているユーザが画像を観る際に感ずる違和感を低減(緩和)することが可能になる。
Next, the pseudo delay correction unit 152 will be described in detail.
The pseudo delay correction unit 152 is input from the image reception unit 153 based on the image movement amount and image deformation amount information input from the calculation unit 14 in order to artificially correct the delay (system latency) caused by the system. Perform image conversion on the selected image. Image conversion for pseudo correction of system latency is, for example, horizontal movement, vertical movement, image rotation, image scaling, and the like. As a method of image conversion, a method of calculating an image conversion algorithm (bilinear, bicubic, etc.) using a frame buffer or a line buffer, a method of pseudo shifting a video by shifting a video synchronization signal, etc. Applicable By performing such image conversion and correcting the image delay due to the system latency in a pseudo manner, it is possible to reduce (relieve) the sense of incongruity felt when the user wearing the HMD 1 views the image.

以下、図7(a)〜図7(e)を参照しながら、例えばビデオシースルー方式のHMD1を用いた場合における疑似遅延補正部152による疑似遅延補正処理の効果について説明する。
図7(a)はHMD1を装着したユーザ2が頭部を動かす動作を行っていない頭部動作なしの場合における、画像と現実世界及びユーザの状態とを表した図である。図7(a)において、画像701aは表示部11を介してユーザ2が観察している画像を示している。状態702aは画像701aを観察中のユーザ2を頭上から見た現実世界の様子を、状態703aは画像701aを観察中のユーザ2を横から見た様子、状態704aは画像701aを観察中のユーザ2を正面から見た様子をそれぞれ示している。
図7(b)はHMD1を装着したユーザ2が頭部をヨー動作した場合の、画像と現実世界及びユーザの状態とを表した図である。以下同様に、図7(c)はユーザ2が頭部をピッチ動作した場合、図7(d)はユーザ2が頭部をロール動作した場合、図7(e)はユーザ2が頭部を前後に動作した場合の、各画像と現実世界及びユーザ2の状態とを表した図である。これら図7(b)〜図7(e)において、画像701b〜701e、状態702b〜702e、状態703b〜703e、状態704b〜704eは、それぞれ図7(a)の画像701a、状態702a、状態703a、状態704aと同様に表されている。
Hereinafter, with reference to FIGS. 7A to 7E, the effect of the pseudo delay correction process by the pseudo delay correction unit 152 in the case of using, for example, the video see-through HMD 1 will be described.
FIG. 7A is a view showing the image, the real world, and the state of the user in the case where there is no head movement in which the user 2 wearing the HMD 1 does not move the head. In FIG. 7A, an image 701a indicates an image observed by the user 2 through the display unit 11. State 702a is a view of the real world from overhead of user 2 viewing image 701a, state 703a is a view of user 2 viewing image 701a from the side, and state 704a is a user viewing image 701a It shows the appearance when 2 is seen from the front.
FIG. 7B is a diagram showing an image and a state of the real world and the user when the user 2 wearing the HMD 1 performs a yaw operation on the head. Likewise, in FIG. 7 (c), when the user 2 pitches his head, FIG. 7 (d), when the user 2 rolls his head, FIG. 7 (e) shows the user 2 It is a figure showing each image, the state of the real world, and the user 2 at the time of operating back and front. In FIGS. 7B to 7E, the images 701b to 701e, the states 702b to 702e, the states 703b to 703e, and the states 704b to 704e are the image 701a, the state 702a, and the state 703a in FIG. , Similar to state 704a.

ここで、図7(a)で示すようにユーザ2が頭部を動かしていない頭部動作なしの場合、HMD1の表示部11には、撮像画角Aθの範囲内の画像701aが、解像度H×Vの範囲内に表示されている。なお、図7(a)において、解像度H×VのHは水平方向の表示画素数、Vは垂直方向の表示画素数を表している。   Here, as shown in FIG. 7A, when there is no head movement in which the user 2 does not move the head, the image 701a within the range of the imaging angle of view Aθ has a resolution H on the display unit 11 of the HMD 1 It is displayed within the range of × V. In FIG. 7A, H in the resolution H × V represents the number of display pixels in the horizontal direction, and V represents the number of display pixels in the vertical direction.

図7(b)に示すようにユーザ2が頭部をヨー動作(頭部の横振り動作)した場合、演算部14は、ヨー動作時の角速度Yωとシステムの遅延量Dtとから、ヨー角Yθを求める。つまり、ヨー動作がシステムの遅延時間分続いたことにより生ずる水平方向の角度変化分を表すヨー角Yθを求める。さらに、演算部14は、ヨー角Yθと基準となる距離Lとの関係から、画像の水平移動量Hdを求める。この場合、疑似遅延補正部152は、水平移動量Hdに基づいて、画像を水平方向にずらすような遅延補正処理を行う。これにより、表示部11には、水平移動量Hdに応じた分だけ水平方向にずれた画像701bが表示される。したがって、ユーザ2に対しては、頭部のヨー動作(横振り動作)に略々リアルタイムに応答した違和感のない(少ない)画像701bを提示することが可能となる。なお、基準となる距離Lは、例えば、予め決められた距離や、撮像されている被写体までの距離のような計測可能な距離などを用いることができる。   As shown in FIG. 7 (b), when the user 2 performs a yaw motion (swing motion of the head) of the head, the calculation unit 14 determines the yaw angle from the angular velocity Yω during the yaw motion and the delay Dt of the system. Determine Yθ. That is, a yaw angle Yθ that represents a change in the horizontal angle caused by the continuation of the yaw operation for the delay time of the system is determined. Further, the calculation unit 14 obtains the horizontal movement amount Hd of the image from the relationship between the yaw angle Yθ and the reference distance L. In this case, the pseudo delay correction unit 152 performs a delay correction process to shift the image in the horizontal direction based on the horizontal movement amount Hd. As a result, the display unit 11 displays the image 701b shifted in the horizontal direction by an amount corresponding to the horizontal movement amount Hd. Therefore, it is possible to present, to the user 2, an image 701 b without a sense of incongruity (little) which has responded substantially in real time to the yaw motion (swing motion) of the head. The reference distance L may be, for example, a predetermined distance or a measurable distance such as the distance to the subject being imaged.

図7(c)に示すようにユーザ2が頭部をピッチ動作(頭部の縦振り動作)した場合、演算部14は、ピッチ動作時の角速度Pωとシステムの遅延量Dtとからピッチ角Pθを求める。さらに、演算部14は、ピッチ角Pθと基準となる距離Lとの関係から、画像の垂直移動量Vdを求める。この場合、疑似遅延補正部152は、垂直移動量Vdに基づいて、画像を垂直方向にずらすような遅延補正処理を行う。これにより、表示部11には、垂直移動量Vdに応じた分だけ垂直方向にずれた画像701cが表示される。したがって、ユーザ2に対しては、頭部のピッチ動作(縦振り動作)に略々リアルタイムに応答した違和感のない(少ない)画像701cを提示することが可能となる。   As shown in FIG. 7C, when the user 2 performs a pitch motion (longitudinal motion of the head) of the head, the computing unit 14 determines the pitch angle Pθ from the angular velocity Pω during the pitch motion and the delay amount Dt of the system. Ask for Further, the calculation unit 14 obtains the vertical movement amount Vd of the image from the relationship between the pitch angle Pθ and the reference distance L. In this case, the pseudo delay correction unit 152 performs a delay correction process to shift the image in the vertical direction based on the vertical movement amount Vd. As a result, the display unit 11 displays the image 701c shifted in the vertical direction by an amount corresponding to the vertical movement amount Vd. Therefore, it is possible to present, to the user 2, an image 701c without discomfort (little), which has responded in substantially real time to the pitch movement (longitudinal movement movement) of the head.

図7(d)に示すようにユーザ2が頭部をロール動作した場合、演算部14は、ロール動作時の角速度Rωと遅延量Dtとからロール角Rθを求める。さらに、演算部14は、ロール角Rθから画像の回転角Θdを求める。この場合、疑似遅延補正部152は、この回転角Θdに基づいて画像を回転させるような遅延補正処理を行う。これにより、表示部11には画像701dが表示される。したがって、ユーザ2に対しては、頭部のロール動作に略々リアルタイムに応答した違和感のない(少ない)画像701dを提示することが可能となる。   As shown in FIG. 7D, when the user 2 rolls the head, the calculation unit 14 obtains the roll angle Rθ from the angular velocity Rω and the delay amount Dt during the roll operation. Furthermore, the calculation unit 14 obtains the rotation angle Θd of the image from the roll angle Rθ. In this case, the pseudo delay correction unit 152 performs a delay correction process to rotate the image based on the rotation angle Θd. Thereby, the image 701 d is displayed on the display unit 11. Therefore, it is possible to present, to the user 2, an image 701 d which does not have a sense of incongruity (a small amount) in response to the roll operation of the head substantially in real time.

図7(e)に示すようにユーザ2が頭部を前後に移動する動作(ロール軸方向への移動動作)を行った場合、演算部14は、ロール軸方向の加速度Raと遅延量Dtとからロール軸方向の移動量RMを求める。さらに、演算部14は、ロール軸方向の移動量RMと撮像画角Aθの関係から画像の拡大率Edを求める。なお、拡大率Edが1より大きい場合には画像が拡大され、拡大率Edが1未満である場合には画像が縮小されることになる。この場合、疑似遅延補正部152は、この拡大率Edに基づいて画像を拡大又は縮小させるような遅延補正処理を行う。これにより、表示部11には画像701eが表示される。したがって、ユーザ2に対しては、頭部を前後に移動させる動作に略々リアルタイムに応答した違和感のない(少ない)画像701eを提示することが可能となる。   When the user 2 moves the head back and forth (moving operation in the roll axis direction) as shown in FIG. 7E, the calculation unit 14 calculates the acceleration Ra in the roll axis direction and the delay amount Dt. From this, the movement amount RM in the roll axis direction is determined. Further, the calculation unit 14 obtains the enlargement ratio Ed of the image from the relationship between the movement amount RM in the roll axis direction and the imaging angle of view Aθ. When the enlargement ratio Ed is larger than 1, the image is enlarged, and when the enlargement ratio Ed is less than 1, the image is reduced. In this case, the pseudo delay correction unit 152 performs a delay correction process to enlarge or reduce the image based on the enlargement ratio Ed. Thereby, the image 701 e is displayed on the display unit 11. Therefore, it is possible to present, to the user 2, an image 701 e which does not have a sense of incongruity (a small amount) which responds approximately in real time to an operation of moving the head back and forth.

以上説明したように、画像処理装置15では、HMD1の動作検知部13により検知された動作に基づく疑似遅延補正処理が行われることによって、システムの遅延(システムレイテンシ)で生ずる画像遅延を疑似的に補正する。これにより、ユーザに対して違和感が少ない画像を提示することが可能となる。   As described above, in the image processing apparatus 15, the pseudo delay correction processing based on the operation detected by the operation detection unit 13 of the HMD 1 is performed to artificially reduce the image delay caused by the system delay (system latency). to correct. This makes it possible to present an image with less discomfort to the user.

次に、疑似遅延補正部152と表示光学系補正部151の両処理を実行した場合の動作について説明する。
本実施形態のようなHMD1の使用例としては、例えばPC上で起動したアプリケーションソフトウェアが生成したMR体験画像を表示部11に表示することで、ユーザ2にMR体験を提供するというような使われ方が一般的である。また本実施形態の場合、MR体験画像は、HMD1を装着しているユーザ2の瞳位置から観察される被写体と略一致する被写体をビデオカメラで撮像し、さらにPCが当該撮像画像にCG画像等を重畳して生成されるとする。以下、このような体験画像生成アプリケーションソフトウェアを、体験画像生成アプリと呼ぶことにする。
Next, an operation when both processing of the pseudo delay correction unit 152 and the display optical system correction unit 151 are executed will be described.
As an example of use of the HMD 1 as in this embodiment, for example, the MR experience image generated by application software activated on a PC is displayed on the display unit 11 to provide the user 2 with an MR experience. Is more common. Further, in the case of the present embodiment, the MR experience image is imaged with a video camera with an object substantially corresponding to the object observed from the pupil position of the user 2 wearing the HMD 1 and the PC further generates a CG image etc. Is generated by superimposing. Hereinafter, such experience image generation application software will be referred to as a experience image generation application.

ここで、体験画像生成アプリによっては、HMD1の表示部11に適したアスペクト比の画像を生成することで、HMD1のパフォーマンスを最適化するようなものも存在する。図8(a)はアスペクト比が例えば4:3の一般的なPCのデスクトップ画面801を示した図である。体験画像生成アプリは、HMD1に適したMR体験画像として、アスペクト比16:10の画像802を生成する。すなわち、体験画像生成アプリは、図8(b)に示すように、アスペクト比4:3の一般的なPCのデスクトップ画面801上に、HMD1に適したアスペクト比16:10の画像802を描画する。画像処理装置15の画像受信部153は、図8(b)に示すように、PCのデスクトップ画面801上にアスペクト比16:10の画像802が描画された画像データを受信する。   Here, some experience image generation applications may optimize the performance of the HMD 1 by generating an image with an aspect ratio suitable for the display unit 11 of the HMD 1. FIG. 8A shows a desktop screen 801 of a general PC with an aspect ratio of, for example, 4: 3. The experience image generation application generates an image 802 having an aspect ratio of 16: 10 as an MR experience image suitable for the HMD 1. That is, as shown in FIG. 8B, the experience-image generation application draws an image 802 with an aspect ratio 16:10 suitable for the HMD 1 on the desktop screen 801 of a general PC with an aspect ratio 4: 3. . As shown in FIG. 8B, the image reception unit 153 of the image processing apparatus 15 receives the image data in which the image 802 of the aspect ratio 16: 10 is drawn on the desktop screen 801 of the PC.

以下、図8(b)に示した画像が画像処理装置15に入力されてからHMD1で表示されてユーザにより観察されるまでの画像処理について、図9(a)〜図9(c)を用いて説明する。
図9(a)は、HMD1を装着したユーザが頭部を動かす動作を行っていない頭部動作なしの場合において、PCにて生成される画像901aからHMD1に表示される画像904aまでを表した図である。図9(a)において、画像901aは、画像受信部153で受信されて疑似遅延補正部152に入力し、当該疑似遅延補正部152から出力される画像を示している。画像902aは、疑似遅延補正部152から出力された画像901aに対し、表示光学系補正部151によって前述したように上下に黒画像を重畳するマスク処理を行った後の画像を示している。画像903aは、表示光学系補正部151において、画像902aに対してアスペクト変換及び歪曲収差補正を行った後の画像を示している。そして、画像904aは、画像903aの画像を、HMDの表示素子112に表示し、さらに表示光学系111を介することでユーザに提示される画像を示している。
Hereinafter, the image processing shown in FIG. 8 (b) is input to the image processing apparatus 15, is displayed on the HMD 1 and is observed by the user using FIGS. 9 (a) to 9 (c). Explain.
FIG. 9A shows an image 901 a generated by the PC to an image 904 a displayed on the HMD 1 when the user wearing the HMD 1 does not move the head and there is no head movement. FIG. In FIG. 9A, an image 901 a is an image received by the image reception unit 153 and input to the pseudo delay correction unit 152, which is an image output from the pseudo delay correction unit 152. An image 902 a is an image after the mask processing of superimposing a black image vertically on the image 901 a output from the pseudo delay correction unit 152 as described above by the display optical system correction unit 151. The image 903a shows an image after the aspect conversion and distortion correction have been performed on the image 902a in the display optical system correction unit 151. The image 904 a indicates an image presented to the user by displaying the image of the image 903 a on the display element 112 of the HMD and further via the display optical system 111.

また、図9(b)は、HMD1を装着したユーザが頭部を例えばピッチ動作した場合において、PCにて生成される画像901bからHMD1に表示される画像904bまでを表した図である。同様に、図9(c)は、HMD1を装着したユーザが頭部を例えばピッチ動作した場合において、PCにて生成される画像901cからHMD1に表示される画像904cまでを表した図である。ただし、図9(c)は、本実施形態において、後述するように、黒画像でマスク処理される領域(マスク領域とする。)を可変することにより、ユーザに対して違和感の少ない画像を提供可能にする場合の例を示している。一方、図9(b)は、本実施形態のように黒画像でマスク処理されるマスク領域を可変しない従来の手法の場合の例を示している。なお、図9(b)と図9(c)において、画像901bと901c、画像902bと902c、画像903bと903c、画像904bと904cは、それぞれ図9(a)の画像901a、画像902a、画像903a、画像904aと同様に表されている。   FIG. 9B is a diagram showing an image 901 b generated by the PC to an image 904 b displayed on the HMD 1 when the user wearing the HMD 1 performs a pitch operation on the head, for example. Similarly, FIG. 9C is a diagram showing an image 901c generated by the PC to an image 904c displayed on the HMD 1 when the user wearing the HMD 1 performs a pitch operation on the head, for example. However, FIG. 9C provides an image with less sense of incongruity to the user by varying the area to be masked with a black image (referred to as a mask area) in the present embodiment, as will be described later. An example of enabling is shown. On the other hand, FIG. 9B shows an example in the case of the conventional method in which the mask area to be masked with the black image is not varied as in the present embodiment. In FIGS. 9B and 9C, the images 901b and 901c, the images 902b and 902c, the images 903b and 903c, and the images 904b and 904c are the image 901a, the image 902a, and the image in FIG. 9A, respectively. 903a and the image 904a are represented similarly.

図9(a)に示したように、HMD1を装着したユーザが頭部を動かしていない頭部動作なしの場合、ここまでで説明した通り、ユーザに対しては違和感のない体験画像を提示できる。
一方、ユーザが頭部を例えばピッチ動作した場合において、後述するようなマスク領域の可変を行わない場合、ピッチ動作に応じて画像を垂直方向にずらすと、図9(b)の画像902bに示すように、マスク領域外に不必要な画像905が現れることになる。マスク領域外に現れる不必要な画像905は、例えばPC画面(デスクトップ画像)の一部などである。当該不必要な画像905が現れている場合、表示光学系補正部151の処理後の画像903bにも不必要な画像905が残り、さらには表示部11の画像904bにも不必要な画像905が残り、ユーザにとって違和感のある画像が提示されてしまう。
As shown in FIG. 9A, when the user wearing the HMD 1 does not move the head and there is no head movement, as described above, it is possible to present a experience image that does not make the user feel uncomfortable. .
On the other hand, when the user performs a pitch operation on the head, for example, when the mask area is not changed as described later, the image is vertically shifted according to the pitch operation, as shown in an image 902b of FIG. Thus, unnecessary images 905 appear outside the mask area. The unnecessary image 905 appearing outside the mask area is, for example, a part of a PC screen (desktop image). When the unnecessary image 905 appears, the unnecessary image 905 remains in the image 903 b after the processing of the display optical system correction unit 151, and the unnecessary image 905 also in the image 904 b of the display unit 11. Remaining, an image having a sense of incongruity for the user is presented.

そこで、本実施形態においては、HMD1を装着しているユーザの頭部の動作に応じて、黒画像によるマスク領域を可変することにより、不必要な画像が表示されてしまうことを防止し、ユーザに違和感の無い画像を提示可能とする。すなわちユーザが頭部を例えばピッチ動作した場合、疑似遅延補正処理により画像を垂直方向にずらすとマスク領域外に不必要な画像905が現れるが、本実施形態では、図9(c)の画像902cのように、マスク領域を可変して不必要な画像905を隠す。これにより、図9(c)に示すように、表示光学系補正部151の処理後の画像903c、さらには表示部11の画像904cにも不必要な画像905は現れず、ユーザにとって違和感の少ない画像を提示可能となる。なお、この例では、HMD1を装着したユーザ2が頭部をピッチ動作した場合を挙げているが、ヨー動作等の他の動作の場合も前述同様に、その動作に応じてマスク領域を可変することにより、ユーザにとって違和感の少ない画像の提示が可能となる。例えばヨー動作の場合には、マスク領域を横方向(水平方向)に可変すれば良い。   Therefore, in the present embodiment, by changing the mask area by the black image according to the operation of the head of the user wearing the HMD 1, it is possible to prevent an unnecessary image from being displayed. It is possible to present an image with no sense of incongruity. That is, when the user moves the head, for example, by pitch operation, when the image is shifted in the vertical direction by pseudo delay correction processing, an unnecessary image 905 appears out of the mask area, but in this embodiment, the image 902c of FIG. , Mask regions are changed to hide unnecessary images 905. As a result, as shown in FIG. 9C, the unnecessary image 905 does not appear in the image 903c processed by the display optical system correction unit 151 and further in the image 904c of the display unit 11, and the user feels less discomfort. Images can be presented. In this example, the case where the user 2 wearing the HMD 1 performs the pitch operation of the head is mentioned, but in the case of other operations such as the yaw operation as well, the mask area is varied according to the operation. This makes it possible to present an image with less discomfort to the user. For example, in the case of the yawing operation, the mask area may be varied in the lateral direction (horizontal direction).

以下、本実施形態において、ユーザの頭部の動作に応じて黒画像のマスク領域を可変できるようにする処理について、図10のフローチャートを用いて説明する。図10に示すフローチャートの処理は、演算部14により行われる。なお、以下の説明では、図10のフローチャートの各処理ステップS101〜ステップS115をS101〜S115と略記する。この図10のフローチャートの処理は、ソフトウェア構成により実行されても良いし、ハードウェア構成により実現されてもよく、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により処理が実行される場合、例えばROM等に記憶されている本実施形態に係るプログラムをCPU等が実行することにより実現される。本実施形態に係るプログラムは、ROM等に予め用意されていてもよく、着脱可能な半導体メモリ等から読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりしてもよい。これらのことは、後述する他のフローチャートにおいても同様であるとする。   Hereinafter, in the present embodiment, processing for enabling the mask area of the black image to be variable according to the operation of the head of the user will be described using the flowchart of FIG. The processing of the flowchart illustrated in FIG. 10 is performed by the calculation unit 14. In the following description, each processing step S101 to step S115 of the flowchart of FIG. 10 is abbreviated as S101 to S115. The process of the flowchart of FIG. 10 may be executed by a software configuration or a hardware configuration, or a part may be a software configuration and the rest may be implemented by a hardware configuration. When the process is executed by the software configuration, it is realized, for example, by the CPU or the like executing a program according to the present embodiment stored in the ROM or the like. The program according to the present embodiment may be prepared in advance in a ROM or the like, may be read from a removable semiconductor memory or the like, or may be downloaded from a network such as the Internet (not shown). The same applies to the other flowcharts described later.

先ずS101において、演算部14は、HMD1を装着しているユーザ2の頭部の動きを動作検知部13が検知した頭部動作情報(Q)を取得する。前述したように、頭部動作情報(Q)は、加速度センサ、角速度センサなどのセンサを用いて計測されるセンサデータであり、頭部の動き(首ふりや移動)を数値化した動作検知データである。   First, in S101, the calculation unit 14 acquires head movement information (Q) in which the movement detection unit 13 detects the movement of the head of the user 2 wearing the HMD 1. As described above, the head movement information (Q) is sensor data measured using a sensor such as an acceleration sensor or an angular velocity sensor, and is movement detection data obtained by digitizing head movement (swinging or movement) It is.

次にS102において、演算部14は、システムの遅延量Dtを取得する。システムの遅延量Dtとは、例えば現実空間を撮像した画像を、表示光学系111を介してユーザが観察するまでの間の各種演算や処理等により生ずる遅延(レイテンシ)分に相当する値である。遅延量Dtは、固定値として保存されている値を使用しても良いし、リアルタイムに変動する遅延量を反映した値であっても良い。   Next, in S102, the operation unit 14 acquires the delay amount Dt of the system. The delay amount Dt of the system is, for example, a value corresponding to a delay (latency) caused by various operations, processing, and the like until the user observes an image obtained by imaging the physical space through the display optical system 111. . The delay amount Dt may use a value stored as a fixed value, or may reflect a delay amount that fluctuates in real time.

次にS103において、演算部14は、頭部動作情報(Q)から頭部の動作はピッチ動作(縦振り動作)若しくはヨー動作(横振り動作)であるかを判定する処理を行う。本実施形態では、頭部のピッチ動作若しくはヨー動作を判定する方法の一例として、水平方向(横方向、ヨー方向)の角速度と垂直方向(縦方向、ピッチ方向)の角速度を基に判定する方法を用いる。ここで、演算部14は、水平方向の角速度Yωが一定値以上の場合には頭部のヨー動作であると判定し、垂直方向の角速度Pωが一定値以上の場合には頭部のピッチ動作であると判定する。そして、演算部14は、頭部のピッチ動作若しくはヨー動作であると判定した場合にはS104に処理を進める。一方、演算部14は、頭部のピッチ動作若しくはヨー動作の何れでもないと判定した場合にはS105に処理を進める。   Next, in S103, the calculation unit 14 performs a process of determining from the head movement information (Q) whether the movement of the head is a pitch movement (vertical movement) or a yaw movement (horizontal movement). In this embodiment, as an example of a method of determining the pitch motion or yaw motion of the head, a method of determining based on the angular velocity in the horizontal direction (horizontal direction, yaw direction) and the angular velocity in the vertical direction (longitudinal direction, pitch direction) Use Here, the calculation unit 14 determines that the head yawing operation is performed when the horizontal angular velocity Yω is equal to or greater than a predetermined value, and the head pitch operation when the vertical angular velocity Pω is equal to or greater than a predetermined value. It is determined that Then, when it is determined that the operation is the pitch operation or the yaw operation of the head, the operation unit 14 proceeds the processing to S104. On the other hand, when it is determined that the operation unit 14 is neither the pitch operation nor the yaw operation of the head, the process proceeds to S105.

S104に進んだ場合、演算部14は、頭部動作情報(Q)と遅延量(Dt)とを基に画像の水平移動量(Hd)と垂直移動量(Vd)を算出する。一方、S105に進んだ場合、演算部14は、画像の水平移動量(Hd)と垂直移動量(Vd)をそれぞれ0に設定する。これらS104又はS105の後、演算部14は、S106に処理を進める。   When the process proceeds to S104, the calculation unit 14 calculates the horizontal movement amount (Hd) and the vertical movement amount (Vd) of the image based on the head movement information (Q) and the delay amount (Dt). On the other hand, when the process proceeds to S105, the calculation unit 14 sets the horizontal movement amount (Hd) and the vertical movement amount (Vd) of the image to 0, respectively. After S104 or S105, the operation unit 14 proceeds to S106.

S106に進むと、演算部14は、頭部動作情報(Q)から頭部の傾きを判定する処理を行う。本実施形態では、頭部の傾きを判定する方法の一例として、ロール方向の角速度を基に判定する方法を用いる。そして、演算部14は、ロール方向の角速度Rωが一定値以上の場合には頭部を傾けたと判定してS107に処理を進め、ロール方向の角速度Rωが一定値以上でない場合(一定値未満の場合)には頭部の傾きではないと判定してS108に処理を進める。   In S106, the calculation unit 14 performs a process of determining the tilt of the head from the head movement information (Q). In this embodiment, as an example of a method of determining the inclination of the head, a method of determining based on the angular velocity in the roll direction is used. Then, the calculation unit 14 determines that the head is inclined when the angular velocity Rω in the roll direction is equal to or more than a predetermined value and proceeds to S107, and the angular velocity Rω in the roll direction is not equal to or more than a predetermined value (less than the predetermined value In the case of (1), it is determined that the head is not tilted, and the process proceeds to S108.

S107に進んだ場合、演算部14は、頭部動作情報(Q)と遅延量(Dt)とを基に画像の回転角(Θd)を算出する。一方、S108に進んだ場合、演算部14は、画像の回転角(Θd)を0に設定する。これらS107、S108の後、演算部14は、S109に処理を進める。   When the process proceeds to S107, the calculation unit 14 calculates the rotation angle (Θd) of the image based on the head movement information (Q) and the delay amount (Dt). On the other hand, when the process proceeds to S108, the calculation unit 14 sets the rotation angle (Θ d) of the image to 0. After these steps S107 and S108, the operation unit 14 proceeds the process to step S109.

S109において、演算部14は、頭部動作情報(Q)から頭部の前後移動(ロール軸R方向への移動)を判定する処理を行う。本実施形態では、頭部の前後移動を判定する手法の一例として、ロール軸方向の加速度情報から判定する方法を用いる。演算部14は、ロール軸方向の加速度Raが一定値以上の場合には頭部が前後移動をしたと判定してS110に処理を進め、ロール軸方向の加速度Raが一定値以上でない(一定値未満)の場合には頭部が前後移動していないと判定してS111に処理を進める。   In S109, the calculation unit 14 performs processing to determine the back and forth movement of the head (movement in the roll axis R direction) from the head movement information (Q). In this embodiment, a method of determining from the acceleration information in the roll axis direction is used as an example of a method of determining the back and forth movement of the head. If the acceleration Ra in the roll axis direction is a predetermined value or more, the calculation unit 14 determines that the head has moved back and forth and proceeds to S110, and the acceleration Ra in the roll axis direction is not a predetermined value or more (a constant value In the case of (<)), it is determined that the head has not moved back and forth, and the process proceeds to S111.

S110に進んだ場合、演算部14は、頭部動作情報(Q)と遅延量(Dt)とを基に画像の倍率(Ed)を算出する。一方、S111に進んだ場合、演算部14は、画像の拡大率(Ed)を0に設定する。これらS110、S111の後、演算部14は、S112に処理を進める。   When the process proceeds to S110, the calculation unit 14 calculates the magnification (Ed) of the image based on the head movement information (Q) and the delay amount (Dt). On the other hand, when the process proceeds to step S111, the calculation unit 14 sets the enlargement ratio (Ed) of the image to zero. After these steps S110 and S111, the operation unit 14 proceeds the process to step S112.

S112に進むと、演算部14は、光学特性記憶部12からの光学特性情報であるマスク幅(Vt,Vb,Hl,Hr)を取得する。マスク幅Vtは画像の上側に黒画像を重畳するマスク領域の幅であり、以下同様に、マスク幅Vbは画像の下側のマスク領域の幅、マスク幅Hlは画像の左側のマスク領域の幅、マスク幅Hrは画像の右側のマスク領域の幅である。本実施形態において、それぞれのマスク幅(Vt,Vb,Hl,Hr)は、図6(b)に示すように、光学特性によって変化するアスペクト変換の変換量によって決定される。   In step S112, the calculation unit 14 acquires mask widths (Vt, Vb, Hl, and Hr) that are optical characteristic information from the optical characteristic storage unit 12. The mask width Vt is the width of the mask area where the black image is superimposed on the upper side of the image, and similarly, the mask width Vb is the width of the mask area below the image, and the mask width Hl is the width of the mask area on the left side of the image The mask width Hr is the width of the mask area on the right side of the image. In the present embodiment, the respective mask widths (Vt, Vb, Hl, Hr) are determined by the conversion amount of aspect conversion which changes according to the optical characteristics as shown in FIG. 6 (b).

次にS113において、演算部14は、光学特性記憶部12から読み出されたマスク幅(Vt,Vb,Hl,Hr)、前述の水平移動量(Hd)、垂直移動量(Vd)、画像の回転角(Θd)、画像の拡大率(Ed)を基に、マスク領域(B)を決定する。演算部14は、水平移動・垂直移動の場合には移動量のオフセットを考慮してマスク領域(B)を決定し、回転・拡大・縮小の場合には回転角・拡大率の変形分を考慮してマスク領域(B)を決定する。   Next, in S113, the calculation unit 14 reads the mask width (Vt, Vb, Hl, Hr) read from the optical characteristic storage unit 12, the aforementioned horizontal movement amount (Hd), the vertical movement amount (Vd), The mask area (B) is determined based on the rotation angle (Θd) and the enlargement ratio (Ed) of the image. In the case of horizontal movement / vertical movement, the operation unit 14 determines the mask area (B) in consideration of the offset of the movement amount, and in the case of rotation / enlargement / reduction consider the deformation of the rotation angle / enlargement ratio To determine the mask area (B).

次に、S114において、演算部14は、前述のように計算した画像の水平移動量(Hd)、垂直移動量(Vd)、回転角(Θd)、拡大率(Ed)の情報を疑似遅延補正部152に送る。また、S115において、演算部14は、マスク領域(B)の情報を表示光学系補正部151へ送る。このようにして、演算部14は、光学特性記憶部12と動作検知部13より受信した情報から、表示光学系補正部151と疑似遅延補正部152においてそれぞれ補正処理を行う際に用いられる補正値を生成して送信する。   Next, in S114, the calculation unit 14 performs pseudo delay correction on the information of the horizontal movement amount (Hd), the vertical movement amount (Vd), the rotation angle (Θd), and the enlargement ratio (Ed) of the image calculated as described above. Send to section 152. Further, in S115, the calculation unit 14 sends the information of the mask area (B) to the display optical system correction unit 151. In this manner, the calculation unit 14 uses the information received from the optical characteristic storage unit 12 and the operation detection unit 13 to use the correction values used when the display optical system correction unit 151 and the pseudo delay correction unit 152 respectively perform correction processing. Generate and send

前述した図9(b)の例のように、マスク領域を可変しない場合、HMD1を装着しているユーザ2の頭部の例えばピッチ動作に応じて画像を垂直方向にずらした影響で、マスク領域外に不必要な画像が表示されてしまうことがある。これに対し、本実施形態の場合、演算部14は、S104において頭部の例えばピッチ動作に応じて垂直移動量(Vd)を決定している。その後、演算部14は、S113において、垂直移動量Vdとマスク幅Vtを考慮して、上側のマスク幅Vt'をVt+Vd=Vt'の演算により求め、また、下側のマスク幅Vb'を本来のマスク幅Vbから求めて、マスク領域(B)を決定する。これにより、表示光学系補正部151では、演算部14にて決定されたマスク領域(B)により、疑似遅延補正部152から入力される画像901cに対し、図9(c)の画像902cのようにマスクする処理を行う。なお、図9(b)のようにマスク領域を可変しない場合には、画像902bに示すように、この段階で不必要な画像905(デスクトップ画像の一部)が残ってしまうが、図9(c)の画像902cでは不必要な画像を含めてマスクされている。このように、本実施形態においては、HMD1を装着しているユーザ2に対し、図9(c)の画像904cのように、不必要な画像905を含めてマスクがなされた違和感のないMR体験画像を提供できる。すなわち本実施形態によれば、表示光学系111を有するHMD1において、表示光学系の補正と共に、遅延補正のための映像移動や変形、切り出し等を行った場合においても、不要な画像を生じることなく、ユーザに違和感のない映像を提供することができる。   As in the example of FIG. 9 (b) described above, when the mask area is not varied, the mask area is affected by shifting the image in the vertical direction according to, for example, the pitch movement of the head of the user 2 wearing the HMD1. Unnecessary images may be displayed outside. On the other hand, in the case of the present embodiment, the computing unit 14 determines the vertical movement amount (Vd) according to, for example, the pitch movement of the head in S104. Thereafter, in S113, the calculation unit 14 obtains the upper mask width Vt 'by calculation of Vt + Vd = Vt' in consideration of the vertical movement amount Vd and the mask width Vt, and the lower mask width Vb 'originally The mask area (B) is determined from the mask width Vb of Thus, in the display optical system correction unit 151, the image 901c input from the pseudo delay correction unit 152 is displayed as shown by the image 902c in FIG. 9C by the mask region (B) determined by the calculation unit 14. Do the process of masking. In the case where the mask area is not variable as shown in FIG. 9B, unnecessary image 905 (a part of the desktop image) remains at this stage as shown in the image 902b. The image 902c of c) is masked including unnecessary images. As described above, in this embodiment, the user 2 wearing the HMD 1 has a sense of incongruent MR experience masked as in the image 904 c of FIG. 9C including the unnecessary image 905. Can provide images. That is, according to the present embodiment, in the HMD 1 having the display optical system 111, even when image movement, deformation, clipping, etc. for delay correction is performed together with the correction of the display optical system, unnecessary images are not generated. Thus, it is possible to provide the user with an image without discomfort.

<第2実施形態>
次に、第2実施形態について説明する。
図11は第2実施形態におけるシステム構成例を示した図である。図11の構成において、前述の図1と同じ参照符号が付されている各構成要素では概ね前述同様の動作・処理が行われ、以降では異なる処理・動作について説明する。第2実施形態のシステム構成では、マスク処理を2段階に分けて行うことにより、演算部14の負荷を低減可能とする。
Second Embodiment
Next, a second embodiment will be described.
FIG. 11 is a diagram showing an example of a system configuration in the second embodiment. In the configuration of FIG. 11, the same operations and processes as described above are generally performed on the components given the same reference numerals as those of FIG. 1 described above, and different processes and operations will be described hereinafter. In the system configuration of the second embodiment, the load on the operation unit 14 can be reduced by dividing the mask processing into two steps.

第2実施形態において、第1実施形態と異なるのは、2段階に分けられたマスク処理のうち、前段のマスク処理を行うための構成としてのマスク処理部1101が、画像受信部153と疑似遅延補正部152との間に実装されている点である。第2実施形態の場合、演算部14は、光学特性記憶部12から読み出されたマスク幅(Vt,Vb,Hl,Hr)の情報を、表示光学系補正部151とマスク処理部1101へと送る。マスク処理部1101は、画像受信部153から出力された画像に対し、マスク幅に応じたマスク処理を行った後、疑似遅延補正部152に送る。したがって、疑似遅延補正部152では、マスク処理部1101によりマスク処理がなされた後の画像に対し、移動・回転・変形などの補正処理を行う。そして、表示光学系補正部151では、マスク幅に応じたマスク処理が再度行われることになる。   The second embodiment differs from the first embodiment in that, of the two stages of mask processing, the mask processing unit 1101 as a configuration for performing the mask processing of the previous stage, the image receiving unit 153 and the pseudo delay It is a point that is mounted between the correction unit 152. In the case of the second embodiment, the calculation unit 14 sends the information of the mask width (Vt, Vb, Hl, Hr) read from the optical characteristic storage unit 12 to the display optical system correction unit 151 and the mask processing unit 1101. send. The mask processing unit 1101 performs mask processing according to the mask width on the image output from the image reception unit 153, and then sends the image to the pseudo delay correction unit 152. Therefore, the pseudo delay correction unit 152 performs correction processing such as movement, rotation, and deformation on the image after the mask processing by the mask processing unit 1101. Then, in the display optical system correction unit 151, mask processing according to the mask width is performed again.

このように、第2実施形態の場合、疑似遅延補正部152による画像の移動・回転・変形より前にマスク処理を行うことによって、マスクされた画像が移動・回転・変形処理されることになる。第2実施形態では、ユーザにより観察される領域以外の画像を予めマスクすることによって、第1の実施形態と同様の効果を得ることができる。   As described above, in the case of the second embodiment, the masked image is moved / rotated / deformed by performing the mask processing prior to the movement / rotation / deformation of the image by the pseudo delay correction unit 152. . In the second embodiment, an effect similar to that of the first embodiment can be obtained by previously masking an image other than the area observed by the user.

前述した第2実施形態における演算部14の動作について図12のフローチャートを用いて説明する。図12のフローチャートにおいて、図11のフローチャートと同じ処理には同じ参照符号を付している。S101〜S112までは図11と同様の処理であり、ここではS121以降の処理についてのみ説明する。   The operation of the calculation unit 14 in the second embodiment described above will be described using the flowchart of FIG. In the flowchart of FIG. 12, the same processing as that of the flowchart of FIG. Steps S101 to S112 are the same processes as those in FIG. 11, and only the processes after S121 will be described here.

図12のフローチャートにおいて、S112の処理後、演算部14は、S121に処理を進める。すなわち、演算部14は、疑似遅延補正部152による移動・回転・拡大量を計算し、マスク幅(Vt,Vb,Hl,Hr)を読み込んだ後は、S121に処理を進める。   In the flowchart of FIG. 12, after the process of S112, the operation unit 14 proceeds with the process to S121. That is, the calculating unit 14 calculates movement, rotation, and enlargement amounts by the pseudo delay correcting unit 152, and after reading the mask widths (Vt, Vb, Hl, Hr), the process proceeds to S121.

S121に進むと、演算部14は、マスク幅(Vt,Vb,Hl,Hr)の情報をマスク処理部1101に送る。これにより、マスク処理部1101では、画像受信部153から出力された画像に対し、マスク幅に応じたマスク処理が行われる。
その後、演算部14は、S114において画像の水平移動量(Hd)、垂直移動量(Vd)、回転角(Θd)、拡大率(Ed)の情報を疑似遅延補正部152に送る。さらに、演算部14は、S115において、マスク幅(Vt,Vb,Hl,Hr)の情報を表示光学系補正部151へ送る。この場合の表示光学系補正部151は、マスク幅(Vt,Vb,Hl,Hr)の情報を基に再度マスク処理を行う。
In step S121, the calculation unit 14 sends information on the mask width (Vt, Vb, Hl, Hr) to the mask processing unit 1101. Thus, the mask processing unit 1101 performs mask processing on the image output from the image reception unit 153 according to the mask width.
After that, the calculation unit 14 sends information on the horizontal movement amount (Hd), the vertical movement amount (Vd), the rotation angle () d), and the enlargement ratio (Ed) of the image to the pseudo delay correction unit 152 in S114. Further, the calculation unit 14 sends information of the mask width (Vt, Vb, Hl, Hr) to the display optical system correction unit 151 in S115. The display optical system correction unit 151 in this case performs the mask process again based on the information of the mask width (Vt, Vb, Hl, Hr).

第2実施形態の場合、演算部14は、前述の図10のS113のようなマスク領域を決定する処理を行わず、マスク幅の情報を出力する。したがって、演算部14の負荷は、前述の第1の実施形態の場合よりも低減されている。このように、第2の実施形態によれば、演算部14の負荷を最小にしつつ、疑似遅延補正部152の前後で同じマスク処理を2段階に分けて行うことで、ユーザへの違和感のない画像の提供を実現している。   In the case of the second embodiment, the computing unit 14 outputs information on the mask width without performing the process of determining the mask area as in S113 of FIG. 10 described above. Therefore, the load on the computing unit 14 is reduced compared to the case of the first embodiment described above. As described above, according to the second embodiment, the same mask processing is performed in two steps before and after the pseudo delay correction unit 152 while minimizing the load on the calculation unit 14, so that there is no sense of discomfort to the user. We have provided images.

<第3実施形態>
次に、第3実施形態について説明する。
図13は第3実施形態におけるシステム構成例を示した図である。図13の構成において、前述の図1と同じ参照符号が付されている各構成要素では概ね前述同様の動作・処理が行われ、以降では異なる処理・動作について説明する。第3実施形態のシステム構成は、生成された画像に応じてマスク処理の実行/非実行(マスク処理の有無)を切り替えることで、演算部14の負荷を低減可能とする。
Third Embodiment
Next, a third embodiment will be described.
FIG. 13 is a diagram showing an example of a system configuration in the third embodiment. In the configuration of FIG. 13, the same operation and processing as described above are generally performed in each component having the same reference numeral as that of FIG. 1 described above, and different processing and operation will be described hereinafter. The system configuration of the third embodiment can reduce the load on the calculation unit 14 by switching execution / non-execution (presence or absence of the mask processing) of the mask processing according to the generated image.

第3実施形態において、第1実施形態と異なるのは、コンピュータ16を有しており、このコンピュータ16の内部には画像生成部161とCG生成部162が含まれている点である。画像生成部161とCG生成部162は、HMD1を装着するユーザ2が体験する画像を生成する体験画像生成アプリをコンピュータ16内のCPUが実行することにより実現される機能部である。CG生成部162は画像生成部161の命令に応じてCG画像をレンダリングし、画像生成部161は、HMD1を装着するユーザ2が体験する画像を生成する。なお、体験画像生成アプリにより画像生成部161が形成され、CG生成部162は別のCG生成アプリケーションソフトウェア等により形成されてもよく、体験画像やCG画像はCPUだけでなくGPUなどにより生成されてもよい。   The third embodiment is different from the first embodiment in that a computer 16 is included, and an image generation unit 161 and a CG generation unit 162 are included in the computer 16. The image generation unit 161 and the CG generation unit 162 are functional units realized by the CPU in the computer 16 executing an experience image generation application for generating an image experienced by the user 2 wearing the HMD 1. The CG generation unit 162 renders a CG image according to an instruction of the image generation unit 161, and the image generation unit 161 generates an image which the user 2 wearing the HMD 1 experiences. Note that the image generation unit 161 may be formed by the experience image generation application, and the CG generation unit 162 may be formed by another CG generation application software or the like, and the experience image or CG image is generated not only by the CPU but by the GPU etc. It is also good.

画像生成部161が生成する画像としては、例えば予め用意されたCGデータを、頭部の動きに応じてレンダリングして提供する際のVR画像であるとか、カメラで撮像した現実映像の上にCG画像が重畳されるMR画像などである。なお、画像生成部161は、コンピュータ16の負荷を低減するために、図8(b)に示したように、HMD1の表示部11に表示可能な範囲の画像のみを生成してもよい。この場合、第1実施形態及び第2実施形態ですでに説明した構成を用いることで、ユーザ2に違和感のない画像を提供できることは前述同様である。   The image generated by the image generation unit 161 may be, for example, a VR image when rendering and providing CG data prepared in advance according to the movement of the head, or CG on a real image captured by a camera. It is an MR image or the like on which an image is superimposed. In order to reduce the load on the computer 16, the image generation unit 161 may generate only an image in a range that can be displayed on the display unit 11 of the HMD 1 as shown in FIG. 8B. In this case, by using the configuration described in the first embodiment and the second embodiment, it is possible to provide the user 2 with an image without discomfort.

一方で、コンピュータ16のスペック(処理能力やメモリ容量等)が十分である場合は、画像生成部161において、HMD1に表示可能な範囲の画像を予めマスクしておくことで、演算部14の処理負荷を低減することができる。この場合、コンピュータ16は、画像生成部161においてHMD1に表示可能な範囲外をマスクする場合にはその旨を演算部14に通知する。そして、その通知を受けた演算部14は、マスク処理をスキップする(マスク処理を非実行とする)ことによって負荷を低減させることが可能となる。   On the other hand, when the specifications (processing capacity, memory capacity, and the like) of the computer 16 are sufficient, the image generation unit 161 masks the image in the range that can be displayed on the HMD 1 in advance, thereby the processing of the operation unit 14 The load can be reduced. In this case, when the image generation unit 161 masks the outside of the displayable range on the HMD 1, the computer 16 notifies the calculation unit 14 to that effect. Then, the computing unit 14 that has received the notification can reduce the load by skipping the mask processing (not performing the mask processing).

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation for practicing the present invention, and the technical scope of the present invention should not be interpreted limitedly by these. That is, the present invention can be implemented in various forms without departing from the technical concept or the main features thereof.

1 HMD、11:表示部、12:光学特性記憶部、13:動作検知部、14:演算部、15:画像処理装置、111:表示光学系、112:表示素子、151:表示光学系補正部、152:疑似遅延補正部、153:画像受信部   DESCRIPTION OF SYMBOLS 1 HMD, 11: Display part, 12: Optical characteristic memory | storage part, 13: Operation | movement detection part, 14: Arithmetic part, 15: Image processing apparatus, 111: Display optical system, 112: Display element, 151: Display optical system correction part , 152: pseudo delay correction unit, 153: image reception unit

Claims (12)

表示装置の動きと前記表示装置が有する表示光学系の光学特性とに基づいて、画像をマスクするためのマスク領域を決定する決定手段と、
入力された画像に対し、前記表示装置の動きに応じた第1の補正処理を行う第1の補正手段と、
前記第1の補正処理がなされた画像に対して前記マスク領域に応じたマスク処理を行った後、前記表示光学系の光学特性に応じた第2の補正処理を行う第2の補正手段と、
を有することを特徴とする画像処理装置。
Determining means for determining a mask area for masking an image based on the movement of the display device and the optical characteristics of the display optical system of the display device;
First correction means for performing a first correction process according to the movement of the display device on the input image;
A second correction unit that performs a second correction process according to an optical characteristic of the display optical system after performing a mask process according to the mask area on the image subjected to the first correction process;
An image processing apparatus comprising:
画像のフレーム間における前記表示装置の前記動きによる移動量と前記マスク領域の幅とは同じであり、前記画像のフレーム間における変形量と前記マスク領域は同じであることを特徴とする請求項1に記載の画像処理装置。   The movement amount of the display device due to the movement between the frames of the image and the width of the mask area are the same, and the deformation amount between the frames of the image and the mask area are the same. The image processing apparatus according to claim 1. 表示装置の動きと前記表示装置が有する表示光学系の光学特性とに基づいて、画像をマスクする際のマスク幅を決定する決定手段と、
入力された画像に対し、前記マスク幅に応じたマスク処理を行う処理手段と、
前記マスク処理が行われた画像に対し、前記表示装置の動きに応じた第1の補正処理を行う第1の補正手段と、
前記第1の補正処理が行われた画像に対して、前記マスク幅に応じたマスク処理を更に行った後、前記表示光学系の光学特性に応じた第2の補正処理を行う第2の補正手段と、
を有することを特徴とする画像処理装置。
A determination unit that determines a mask width at the time of masking an image based on the movement of the display device and the optical characteristic of the display optical system that the display device has;
Processing means for performing mask processing according to the mask width on the input image;
First correction means for performing a first correction process according to the movement of the display device on the image subjected to the mask process;
A second correction process is performed on the image on which the first correction process has been performed, after the mask process according to the mask width is further performed, and then the second correction process according to the optical characteristics of the display optical system is performed. Means,
An image processing apparatus comprising:
前記第2の補正手段は、画像のアスペクト比を変換する処理と、画像の解像度を変換する処理との、少なくとも一つを、前記第2の補正処理として行うことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。   The second correction means is characterized in that at least one of the process of converting the aspect ratio of the image and the process of converting the resolution of the image is performed as the second correction process. The image processing device according to any one of 3. 前記第1の補正手段は、前記表示装置の動きに応じて、画像を移動する処理と、画像を変形させる処理との、少なくとも一つを、前記第1の補正処理として行うことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。   The first correction means is characterized in that at least one of the process of moving the image and the process of deforming the image is performed as the first correction process according to the movement of the display device. The image processing apparatus according to any one of claims 1 to 4. 前記決定手段は、前記表示装置の動きと、固定値の遅延量または変動する遅延量とを基に、前記画像を移動する処理の移動量または前記画像を変形させる処理の変形量を決定することを特徴とする請求項5に記載の画像処理装置。   The determining means determines the movement amount of the process for moving the image or the deformation amount of the process for deforming the image based on the movement of the display device and the delay amount of fixed value or the variable delay amount. The image processing apparatus according to claim 5, characterized in that 前記入力される画像を生成する生成装置からの通知に応じて、前記マスク処理を行うか否が切り替えられることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 6, wherein whether to perform the mask processing is switched according to a notification from a generation apparatus that generates the input image. 前記表示装置と、
請求項1から7のいずれか1項に記載の画像処理装置と、を有することを特徴とする表示システム。
The display device;
A display system comprising: the image processing apparatus according to any one of claims 1 to 7;
前記表示装置は、当該表示装置の動きを検知する検知手段を有し、
前記決定手段は、前記検知手段により検知された表示装置の動きに基づいて前記マスク領域を決定することを特徴とする請求項8に記載の表示システム。
The display device has detection means for detecting the movement of the display device.
9. The display system according to claim 8, wherein the determination unit determines the mask area based on the movement of the display device detected by the detection unit.
表示装置に表示する画像を処理する画像処理装置が実行する画像処理方法であって、
表示装置の動きと前記表示装置が有する表示光学系の光学特性とに基づいて、画像をマスクするためのマスク領域を決定する決定工程と、
入力された画像に対し、前記表示装置の動きに応じた第1の補正処理を行う第1の補正工程と、
前記第1の補正処理がなされた画像に対して前記マスク領域に応じたマスク処理を行った後、前記表示光学系の光学特性に応じた第2の補正処理を行う第2の補正工程と、
を有することを特徴とする画像処理方法。
An image processing method performed by an image processing apparatus that processes an image to be displayed on a display device, the image processing method comprising:
A determining step of determining a mask area for masking an image based on a movement of the display device and an optical characteristic of a display optical system of the display device;
A first correction step of performing a first correction process according to the movement of the display device on the input image;
A second correction process of performing a second correction process according to an optical characteristic of the display optical system after performing a mask process according to the mask area on the image subjected to the first correction process;
An image processing method comprising:
表示装置に表示する画像を処理する画像処理装置が実行する画像処理方法であって、
表示装置の動きと前記表示装置が有する表示光学系の光学特性とに基づいて、画像をマスクする際のマスク幅を決定する決定工程と、
入力された画像に対し、前記マスク幅に応じたマスク処理を行う処理工程と、
前記マスク処理が行われた画像に対し、前記表示装置の動きに応じた第1の補正処理を行う第1の補正工程と、
前記第1の補正処理が行われた画像に対して、前記マスク幅に応じたマスク処理を更に行った後、前記表示光学系の光学特性に応じた第2の補正処理を行う第2の補正工程と、
を有することを特徴とする画像処理方法。
An image processing method performed by an image processing apparatus that processes an image to be displayed on a display device, the image processing method comprising:
A determining step of determining a mask width at the time of masking an image based on a movement of a display device and an optical characteristic of a display optical system of the display device;
A processing step of performing mask processing according to the mask width on the input image;
A first correction process of performing a first correction process according to the movement of the display device on the image subjected to the mask process;
A second correction process is performed on the image on which the first correction process has been performed, after the mask process according to the mask width is further performed, and then the second correction process according to the optical characteristics of the display optical system is performed. Process,
An image processing method comprising:
コンピュータを、請求項1から7のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claim 1 to 7.
JP2018001741A 2018-01-10 2018-01-10 Image processing equipment, display system, image processing method and program Active JP7066414B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018001741A JP7066414B2 (en) 2018-01-10 2018-01-10 Image processing equipment, display system, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001741A JP7066414B2 (en) 2018-01-10 2018-01-10 Image processing equipment, display system, image processing method and program

Publications (3)

Publication Number Publication Date
JP2019120853A true JP2019120853A (en) 2019-07-22
JP2019120853A5 JP2019120853A5 (en) 2021-02-18
JP7066414B2 JP7066414B2 (en) 2022-05-13

Family

ID=67306191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001741A Active JP7066414B2 (en) 2018-01-10 2018-01-10 Image processing equipment, display system, image processing method and program

Country Status (1)

Country Link
JP (1) JP7066414B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216343A (en) * 2007-02-28 2008-09-18 Canon Inc Image display apparatus, program and storage medium
JP2009156992A (en) * 2007-12-25 2009-07-16 Canon Inc Controller, display, control method therefor, augmented reality system, and computer program
WO2014069090A1 (en) * 2012-11-02 2014-05-08 ソニー株式会社 Image display device, image display method, and computer program
US20140268356A1 (en) * 2013-03-15 2014-09-18 University Of Southern California Dynamic field of view throttling as a means of improving user experience in head mounted virtual environments
US20150379772A1 (en) * 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216343A (en) * 2007-02-28 2008-09-18 Canon Inc Image display apparatus, program and storage medium
JP2009156992A (en) * 2007-12-25 2009-07-16 Canon Inc Controller, display, control method therefor, augmented reality system, and computer program
WO2014069090A1 (en) * 2012-11-02 2014-05-08 ソニー株式会社 Image display device, image display method, and computer program
US20140268356A1 (en) * 2013-03-15 2014-09-18 University Of Southern California Dynamic field of view throttling as a means of improving user experience in head mounted virtual environments
US20150379772A1 (en) * 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays

Also Published As

Publication number Publication date
JP7066414B2 (en) 2022-05-13

Similar Documents

Publication Publication Date Title
JP6353214B2 (en) Image generating apparatus and image generating method
JP4578294B2 (en) Stereoscopic image display device, stereoscopic image display method, and computer program
WO2018201652A1 (en) Real-time virtual reality acceleration method and device
JP3450833B2 (en) Image processing apparatus and method, program code, and storage medium
US10754420B2 (en) Method and device for displaying image based on virtual reality (VR) apparatus
EP3572916B1 (en) Apparatus, system, and method for accelerating positional tracking of head-mounted displays
JP7358448B2 (en) Image generation device, head mounted display, and image generation method
JP2015231106A (en) Device and system for head-mounted display
WO2020003860A1 (en) Information processing device, information processing method, and program
JP7150134B2 (en) Head-mounted display and image display method
JP7134060B2 (en) Image generation device and image generation method
CN111652959B (en) Image processing method, near-to-eye display device, computer device, and storage medium
JP6971590B2 (en) Image processing equipment, image processing methods and programs
JP6862210B2 (en) Image processing equipment, image processing system, image processing method and program
US10553164B1 (en) Display latency calibration for liquid crystal display
CN112887646B (en) Image processing method and device, augmented reality system, computer device and medium
JP5645255B2 (en) Image processing apparatus and image processing method
JP2019176402A (en) Image processor
JP7066414B2 (en) Image processing equipment, display system, image processing method and program
JP2017188757A (en) Information processing apparatus, image display apparatus, image display system, and information processing method
JP2013005393A (en) Image processing method having wide-angle distortion correction processing, image processing apparatus and imaging apparatus
JP5682473B2 (en) Image processing method having wide-angle distortion correction processing, image processing apparatus, and imaging apparatus
JPWO2020170456A1 (en) Display device and image display method
CN115616776A (en) Virtual reality simulator and computer-readable recording medium
JP2020106655A (en) Information processor, information processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220427

R151 Written notification of patent or utility model registration

Ref document number: 7066414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151