JP2020178239A - All-sky video processing device and program - Google Patents
All-sky video processing device and program Download PDFInfo
- Publication number
- JP2020178239A JP2020178239A JP2019079317A JP2019079317A JP2020178239A JP 2020178239 A JP2020178239 A JP 2020178239A JP 2019079317 A JP2019079317 A JP 2019079317A JP 2019079317 A JP2019079317 A JP 2019079317A JP 2020178239 A JP2020178239 A JP 2020178239A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sky
- subject
- cut
- sky image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 81
- 238000013507 mapping Methods 0.000 claims abstract description 41
- 238000000034 method Methods 0.000 abstract description 22
- 238000003384 imaging method Methods 0.000 description 24
- 230000010354 integration Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、人が知覚する現実環境をコンピュータにより拡張する技術において、被写体の切り出し映像を全天周映像にマッピングする全天周映像処理装置及びプログラムに関する。 The present invention relates to an all-sky image processing device and a program for mapping a cut-out image of a subject to an all-sky image in a technique for extending a real environment perceived by a person by a computer.
従来、人が知覚する現実環境をコンピュータにより拡張する技術として、AR(Augmented Reality:拡張現実)、MR(Mixed Reality : 複合現実)、VR(Virtual Reality:仮想現実)等が知られており、盛んに研究開発が行われている。以下、AR、MR、VR等を総称して、XR(X Reality:クロス・リアリティ)という。 Conventionally, AR (Augmented Reality), MR (Mixed Reality), VR (Virtual Reality), etc. are known and prosperous as technologies for expanding the real environment perceived by humans by a computer. Research and development is being carried out in. Hereinafter, AR, MR, VR, etc. are collectively referred to as XR (X Reality).
XRに用いるカメラとして、例えば、全方位撮影可能な360度カメラ(例えば特許文献1,2を参照。)、ユーザに装備されるウェアラブル360度カメラ(例えば非特許文献1を参照。)等が知られている。これらのカメラにより撮影された全天周映像を用いて、XRの体験サービスを提供することができる。
As the camera used for the XR, for example, a 360-degree camera capable of omnidirectional shooting (see, for example,
XRに提示する物体を、視点に応じた映像としてARグラスまたはVRゴーグル上に表示するためには、当該物体は、3次元構造(3次元座標及び色を持つ点群または面の構造)を有することが望ましい。以下、ARグラス、VRゴーグル等を総称して、HMD(Head Mounted Display:頭部装着ディスプレイ)という。 In order to display an object presented to XR on AR glasses or VR goggles as an image according to a viewpoint, the object has a three-dimensional structure (point cloud or surface structure having three-dimensional coordinates and colors). Is desirable. Hereinafter, AR glasses, VR goggles, etc. are collectively referred to as HMD (Head Mounted Display).
しかしながら、3次元構造の映像を表現するための3次元カメラ、すなわち屋外または大規模な撮影範囲にも対応し、かつ3次元構造の映像を取得可能な3次元カメラは存在しない。また、3次元構造の映像を生成したとしても、これを編集及び加工することは困難である。 However, there is no three-dimensional camera for expressing an image having a three-dimensional structure, that is, a three-dimensional camera capable of acquiring an image having a three-dimensional structure while supporting an outdoor or large-scale shooting range. Moreover, even if an image having a three-dimensional structure is generated, it is difficult to edit and process the image.
このため、3次元構造の映像の代わりに2次元構造の映像を取得し、これをHMDに投影することで、3次元空間の映像を表現することは、従来から引き続き重要となる。 Therefore, it has been important to express the image of the three-dimensional space by acquiring the image of the two-dimensional structure instead of the image of the three-dimensional structure and projecting the image on the HMD.
例えば、カメラにより撮影された2次元構造の映像から被写体の映像を切り出し、この切り出し映像を全天周映像にマッピングし、切り出し映像の投影位置を自在に変更することができれば、HMDに表現される映像は、XRを実現する際に一層効果的となる。つまり、HMDを用いて、2次元構造の映像を3次元的に提示することで、一層効果的な3次元空間の映像を表現することが可能となる。 For example, if the image of the subject can be cut out from the image of the two-dimensional structure taken by the camera, the cut-out image can be mapped to the all-sky image, and the projection position of the cut-out image can be freely changed, it is expressed in the HMD. The image becomes more effective in realizing XR. That is, by presenting an image having a two-dimensional structure three-dimensionally using an HMD, it is possible to express a more effective image in a three-dimensional space.
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、映像の編集及び加工が容易となり、かつ簡易な手法でXRの3次元映像を疑似的に提示可能な全天周映像処理装置及びプログラムを提供することにある。 Therefore, the present invention has been made to solve the above problems, and an object of the present invention is to make it easy to edit and process an image, and to present a three-dimensional image of XR in a pseudo manner by a simple method. The purpose is to provide a peripheral image processing device and a program.
前記課題を解決するために、請求項1の全天周映像処理装置は、被写体を含む全天周映像を生成する全天周映像処理装置において、複数の撮影装置により撮影された前記被写体を含む複数の映像を入力し、前記複数の映像を統合し、アルファチャンネル付き全天周映像を第一全天周映像として生成する統合部と、前記映像から前記被写体の部分を切り出し、切り出し映像を生成する切り出し部と、前記統合部により生成された前記第一全天周映像に、前記切り出し部により生成された前記切り出し映像をマッピングし、前記第一全天周映像に前記切り出し映像を貼り付けた第二全天周映像を生成するマッピング部と、前記マッピング部により生成された前記第二全天周映像について、前記切り出し映像の部分の各画素のアルファ値に非透過の値を設定し、前記切り出し映像を除く部分のアルファ値に透過の値を設定し、第三全天周映像を生成するアルファ値設定部と、前記アルファ値設定部により生成された前記第三全天周映像の半径に、前記撮影装置から前記被写体までの間の距離を設定し、前記設定された距離に基づいて前記切り出し映像の投影位置を変更した第四全天周映像を生成する半径設定部と、を備えたことを特徴とする。
In order to solve the above problem, the all-sky image processing device according to
また、請求項2の全天周映像処理装置は、被写体を含む全天周映像を生成する全天周映像処理装置において、単眼カメラの撮影装置により撮影された前記被写体を含むアルファチャンネル付き全天周映像を第一全天周映像として入力し、前記第一全天周映像から前記被写体の部分を切り出し、切り出し映像を生成する切り出し部と、前記第一全天周映像に、前記切り出し部により生成された前記切り出し映像をマッピングし、前記第一全天周映像に前記切り出し映像を貼り付けた第二全天周映像を生成するマッピング部と、前記マッピング部により生成された前記第二全天周映像について、前記切り出し映像の部分の各画素のアルファ値に非透過の値を設定し、前記切り出し映像を除く部分のアルファ値に透過の値を設定し、第三全天周映像を生成するアルファ値設定部と、前記アルファ値設定部により生成された前記第三全天周映像の半径に、前記撮影装置から前記被写体までの間の距離を設定し、前記設定された距離に基づいて前記切り出し映像の投影位置を変更した第四全天周映像を生成する半径設定部と、を備えたことを特徴とする。
Further, the all-sky image processing device according to
また、請求項3の全天周映像処理装置は、請求項1または2に記載の全天周映像処理装置において、前記アルファ値設定部は、前記第二全天周映像について、前記切り出し映像の部分の各画素のアルファ値に非透過の値を設定し、前記切り出し映像を除く部分の各画素のアルファ値に透過の値を設定し、前記切り出し映像を除く部分の各画素の画素値に0を設定し、前記第三全天周映像を生成する、ことを特徴とする。
Further, the all-sky image processing device according to
また、請求項4の全天周映像処理装置は、請求項1に記載の全天周映像処理装置において、前記マッピング部が、前記複数の撮影装置のうち予め設定された基準カメラの前記撮影装置のカメラパラメータに含まれる水平角度及び垂直角度を用いて、前記被写体の方向を特定し、前記第一全天周映像における前記被写体の方向に前記切り出し映像をマッピングし、前記第二全天周映像を生成する、ことを特徴とする。
Further, the all-sky image processing apparatus according to
また、請求項5の全天周映像処理装置は、請求項2に記載の全天周映像処理装置において、前記マッピング部が、予め設定された水平角度を用いて、前記被写体の方向を特定し、前記第一全天周映像における前記被写体の方向に前記切り出し映像をマッピングし、前記第二全天周映像を生成する、ことを特徴とする。
Further, in the all-sky video processing apparatus according to
さらに、請求項6のプログラムは、コンピュータを、請求項1から5までのいずれか一項に記載の全天周映像処理装置として機能させることを特徴とする。
Further, the program of claim 6 is characterized in that the computer functions as the all-sky video processing apparatus according to any one of
以上のように、本発明によれば、被写体の切り出し映像を全天周映像にマッピングし、切り出し映像の投影位置を変更するようにした。これにより、映像の編集及び加工が容易となり、かつ簡易な手法でXRの3次元映像を疑似的に提示することができる。 As described above, according to the present invention, the cut-out image of the subject is mapped to the all-sky image, and the projection position of the cut-out image is changed. This facilitates the editing and processing of the image, and the three-dimensional image of the XR can be presented in a pseudo manner by a simple method.
以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明は、透明度を示すアルファチャンネルを有する全天周映像(アルファチャンネル付き全天周映像)に、被写体の切り出し映像をマッピングし、全天周映像のアルファチャンネルの値(アルファ値)を設定し、全天周映像の半径を設定することで、切り出し映像の投影位置を変更することを特徴とする。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In the present invention, a clipped image of a subject is mapped to an all-sky image having an alpha channel indicating transparency (an all-sky image with an alpha channel), and an alpha channel value (alpha value) of the all-sky image is set. It is characterized in that the projection position of the cut-out image is changed by setting the radius of the all-sky image.
これにより、全天周映像に対し、被写体の切り出し映像の投影位置すなわち視聴者からの距離を変更することができる。映像の編集及び加工は、2次元映像である全天周映像及び切り出し映像に対して行えばよいから、編集及び加工作業は容易となる。 As a result, the projection position of the cut-out image of the subject, that is, the distance from the viewer can be changed with respect to the all-sky image. Since the editing and processing of the image may be performed on the all-sky image and the cut-out image which are two-dimensional images, the editing and processing work becomes easy.
また、マッピング処理、アルファ値設定処理及び半径設定処理を行うことで、HMDに用いる全天周映像を得ることができるから、簡易な手法で、XRの3次元映像を疑似的に提示することができる。 Further, since the all-sky image used for the HMD can be obtained by performing the mapping process, the alpha value setting process, and the radius setting process, it is possible to pseudo-present the three-dimensional image of the XR by a simple method. it can.
〔全天周映像処理システム〕
まず、XRの3次元映像を疑似的に提示する全天周映像処理システムについて説明する。図1は、本発明の実施形態による全天周映像処理装置を含む全天周映像処理システムの全体構成例を示す概略図である。全天周映像には、半天周等の映像が含まれるものとする。以下、アルファチャンネル付き全天周映像を、単に全天周映像という。アルファチャンネルは透明度を示すチャンネルであり、画素毎に有している。
[All-sky video processing system]
First, an all-sky video processing system that pseudo-presents a three-dimensional image of XR will be described. FIG. 1 is a schematic view showing an overall configuration example of an all-sky video processing system including an all-sky video processing device according to an embodiment of the present invention. It is assumed that the full-sky image includes an image such as a half-sky image. Hereinafter, the all-sky video with an alpha channel is simply referred to as an all-sky video. The alpha channel is a channel indicating transparency, and is possessed for each pixel.
この全天周映像処理システム1は、n台の撮影装置2−1〜2−n、n台の測距装置3−1〜3−n、全天周映像処理装置4及びHMD5を備えて構成される。nは、1以上の整数である。以下、n台の撮影装置2−1〜2−nを総称して、撮影装置2といい、n台の測距装置3−1〜3−nを総称して、測距装置3という。
The all-sky
撮影装置2は、被写体及びその周囲等を撮影するカメラであり、映像Iを全天周映像処理装置4へ出力する。つまり、撮影装置2−1〜2−nは、それぞれの位置からの撮影にて取得した映像I1〜Inを全天周映像処理装置4へ出力する。
The photographing
測距装置3は、当該測距装置3と被写体との間の距離を測定するセンサーであり、測定した距離を距離データdとして全天周映像処理装置4へ出力する。つまり、測距装置3−1〜3−nは、それぞれの位置からの測定にて取得した距離データd1〜dnを全天周映像処理装置4へ出力する。
The
測距装置3−1〜3−nは、それぞれ撮影装置2−1〜2−nに対応する。距離データd1〜dnは、撮影装置2−1〜2−nと被写体との間の距離に相当する。測距装置3−1〜3−nは、当該測距装置3−1〜3−nと被写体との間の距離が撮影装置2−1〜2−nと被写体との間の距離に一致するように、撮影装置2−1〜2−n付近に設置される。 The distance measuring devices 3-1 to 3 to n correspond to the photographing devices 2-1 to 2 to n, respectively. The distance data d 1 to d n correspond to the distance between the photographing device 2-1 to 2-n and the subject. In the distance measuring device 3-1 to 3 to n, the distance between the distance measuring device 3-1 to 3 to n and the subject corresponds to the distance between the photographing device 2-1 to 2 to n and the subject. As described above, it is installed in the vicinity of the photographing apparatus 2-1 to 2-n.
図1に示す撮影側の装置である撮影装置2−1〜2−n及び測距装置3−1〜3−nからなる構成は、後述する図2(4)に相当する。 The configuration including the photographing device 2-1-2-n and the distance measuring device 3-1 to 3-n, which are the devices on the photographing side shown in FIG. 1, corresponds to FIG. 2 (4) described later.
図2は、撮影側の装置構成例を説明する図である。撮影側の装置は、撮影装置2及び測距装置3からなる。
FIG. 2 is a diagram illustrating an example of a device configuration on the photographing side. The device on the photographing side includes a photographing
図2(1)に示す撮影側の装置は、1台の単眼カメラである撮影装置2及び1台の測距装置3により構成される。
The imaging device shown in FIG. 2 (1) is composed of an
図2(2)に示す撮影側の装置は、2台のステレオカメラである撮影装置2−1,2−2により構成される。この例では、測距装置3が存在しない。
The imaging device shown in FIG. 2 (2) is composed of imaging devices 2-1 and 2-2, which are two stereo cameras. In this example, the ranging
図2(3)に示す撮影側の装置は、4台の多視点カメラである撮影装置2−1〜2−4により構成される。この例では、測距装置3が存在しない。
The imaging device shown in FIG. 2 (3) is composed of imaging devices 2-1 to 2-4, which are four multi-viewpoint cameras. In this example, the ranging
図2(4)に示す撮影側の装置は、4台の多視点カメラである撮影装置2−1〜2−4、及び4台の測距装置3−1〜3−4により構成される。 The imaging device shown in FIG. 2 (4) is composed of four multi-view camera imaging devices 2-1 to 2-4 and four ranging devices 3-1 to 3-4.
図1に戻って、全天周映像処理装置4は、撮影装置2−1〜2−nから映像I1〜Inを入力すると共に、測距装置3−1〜3−nから距離データd1〜dnを入力する。そして、全天周映像処理装置4は、映像I1〜Inを統合(スティッチング)して全天周映像Z1を生成し、映像I1〜Inから被写体を切り出して切り出し映像K1〜Knを生成する。以下、n個の切り出し映像K1〜Knを総称して、切り出し映像Kという。
Returning to FIG. 1, the total Tenshu
全天周映像処理装置4は、全天周映像Z1に切り出し映像Kをマッピングして全天周映像Z2を生成し、全天周映像Z2に含まれる切り出し映像Kの部分のアルファ値及び他の部分のアルファ値をそれぞれ設定して全天周映像Z3を生成する。全天周映像Z3は、例えば被写体の切り出し映像Kのみを含む映像となる。
The all-sky
全天周映像処理装置4は、全天周映像Z3の半径に距離データdを設定して全天周映像Z4を生成する。全天周映像処理装置4は、全天周映像Z4をHMD5に出力する。全天周映像Z4も、例えば被写体の切り出し映像Kのみを含む映像である。全天周映像処理装置4の詳細については後述する。
The all-sky
HMD5は、全天周映像処理装置4から全天周映像Z4を入力し、HMD5のセンサー情報に基づいてユーザの視線方向を特定し、全天周映像Z4から視線方向の映像を切り出し、切り出した映像を表示する。
The HMD5 inputs the all-sky image Z4 from the all-sky
ここで、HMD5が、実物の光線がそのまま網膜に届く光学シースルー型ARゴーグルの場合、HMD5は、全天周映像Z4から切り出した視線方向の映像のみを表示する。後述のように、全天周映像Z4に含まれる被写体の部分が非透過であり、それ以外の部分が透過である場合、HMD5により、実際の背景に対して被写体のみが表示される。
Here, when the HMD5 is an optical see-through type AR goggles in which the actual light rays reach the retina as they are, the HMD5 displays only the image in the line-of-sight direction cut out from the all-sky image Z4. As will be described later, when the portion of the subject included in the all-sky image Z4 is non-transparent and the other portion is transparent, the
また、HMD5が、ゴーグルの前にカメラを備えており、当該カメラの撮影により得られた背景映像を用いるビデオシースルー型ARゴーグルの場合、HMD5は、背景映像に視線方向の映像を合成し、合成映像を表示する。後述のように、全天周映像Z4に含まれる被写体の部分が非透過であり、それ以外の部分が透過である場合、背景映像に被写体のみが合成された合成映像が表示される。 Further, in the case of the video see-through type AR goggles in which the HMD5 is equipped with a camera in front of the goggles and uses the background image obtained by shooting with the camera, the HMD5 synthesizes the image in the line-of-sight direction with the background image and synthesizes the image. Display the image. As will be described later, when the part of the subject included in the all-sky image Z4 is non-transparent and the other part is transparent, a composite image in which only the subject is combined with the background image is displayed.
このように、全天周映像処理装置4による全天周映像Z4の生成処理、及びHMD5による映像表示処理を繰り返すことで、映像I1〜Inに対応した3次元映像を動画として疑似的に表示することができる。
Thus, the total Tenshu generation process of all Tenshu video Z4 by the
〔全天周映像処理装置4〕
次に、図1に示した全天周映像処理装置4について説明する。図3は、全天周映像処理装置4の構成例を示すブロック図であり、図4は、全天周映像処理装置4の処理例を示すフローチャートである。
[All-sky video processing device 4]
Next, the all-sky
この全天周映像処理装置4は、統合部10、切り出し部11、マッピング部12、アルファ値設定部13及び半径設定部14を備えている。
The all-sky
全天周映像処理装置4は、撮影装置2−1〜2−nから映像I1〜Inを入力すると共に(ステップS401)、測距装置3−1〜3−nから距離データd1〜dnを入力する(ステップS402)。
All Tenshu
統合部10は、映像I1〜Inを統合して全天周映像Z1を生成する(ステップS403)。そして、統合部10は、全天周映像Z1をマッピング部12に出力する。
Integrating
具体的には、統合部10は、映像I1〜Inから、予め設定された基準カメラの撮影装置2に対応する映像Iを特定し、特定した映像Iを基準にして映像I1〜Inを統合し、映像Iを基準位置とした全天周映像Z1を生成する。基準カメラの撮影装置2は、撮影装置2−1〜2−nのうち、ユーザにより予め設定されたカメラである。
Specifically, integrating
尚、撮影装置2が図2(1)に示した単眼カメラである場合には、統合部10による統合処理は不要である。単眼カメラにより、全天周映像Z1(例えば半天周映像)が取得される。
When the photographing
図5は、全天周映像処理装置4が入力する映像Iの例を示す概略図であり、撮影装置2が図2(1)に示した単眼カメラである場合を示している。全天周映像処理装置4は、単眼カメラである撮影装置2から、映像I−1,I−2,I−3,I−4をこの順番に入力する。
FIG. 5 is a schematic view showing an example of an image I input by the all-sky
これらの映像I−1,I−2,I−3,I−4は、被写体である人間が遠い位置から撮影装置2へ向かって近づいている時系列の映像である。
These images I-1, I-2, I-3, and I-4 are time-series images in which a human being as a subject is approaching the photographing
図3及び図4に戻って、切り出し部11は、映像I1〜Inから被写体の部分を切り出し、切り出し映像K1〜Knを生成する(ステップS404)。そして、切り出し部11は、切り出し映像K1〜Knをマッピング部12に出力する。
Referring back to FIG. 3 and FIG. 4, cut-out
例えば被写体が人物である場合、切り出し部11は、人物認識処理により、映像Iから人物を切り出す。また、例えば被写体が一般物である場合、切り出し部11は、テンプレートマッチング処理により、映像Iから予め設定された物を切り出す。人物認識処理及びテンプレートマッチング処理は既知であるため、詳細な説明については省略する。
For example, when the subject is a person, the cutting
図6は、切り出し映像Kの例を示す概略図であり、撮影装置2が図2(1)に示した単眼カメラである場合を示している。
FIG. 6 is a schematic view showing an example of the cut-out image K, and shows a case where the photographing
切り出し映像K−1は、図5に示した映像I−1から人物の被写体が切り出された映像であり、切り出し映像K−2は、図5に示した映像I−2から人物の被写体が切り出された映像である。 The cut-out image K-1 is an image in which a person's subject is cut out from the image I-1 shown in FIG. 5, and the cut-out image K-2 is an image in which the person's subject is cut out from the image I-2 shown in FIG. It is a video that was taken.
切り出し映像K−3は、図5に示した映像I−3から人物の被写体が切り出された映像であり、切り出し映像K−4は、図5に示した映像I−4から人物の被写体が切り出された映像である。 The cut-out image K-3 is an image in which a person's subject is cut out from the image I-3 shown in FIG. 5, and the cut-out image K-4 is an image in which the person's subject is cut out from the image I-4 shown in FIG. It is a video that was taken.
切り出し映像K−1,K−2,K−3,K−4は、被写体である人間が遠い位置から撮影装置2へ向かって近づいている映像I−1,I−2,I−3,I−4から切り出された時系列の映像である。
The cut-out images K-1, K-2, K-3, and K-4 are images I-1, I-2, I-3, and I, in which a human being as a subject is approaching the photographing
尚、図4の処理例では、統合部10が映像I1〜Inを統合して全天周映像Z1を生成した後、切り出し部11が映像I1〜Inから切り出し映像K1〜Knを生成するようにした。これに対し、切り出し部11が映像I1〜Inから切り出し映像K1〜Knを生成した後、統合部10が映像I1〜Inを統合して全天周映像Z1を生成するようにしてもよい。
In the processing example of FIG. 4, after the
図3及び図4に戻って、マッピング部12は、統合部10から全天周映像Z1を入力すると共に、切り出し部11から切り出し映像K1〜Knを入力する。
Returning to FIGS. 3 and 4, the
マッピング部12は、切り出し映像K1〜Knのうち、予め設定された基準カメラの撮影装置2に対応する切り出し映像Kを特定し、全天周映像Z1内の所定位置に切り出し映像Kをマッピングし、全天周映像Z2を生成する(ステップS405)。そして、マッピング部12は、全天周映像Z2をアルファ値設定部13に出力する。予め設定された基準カメラの撮影装置2に対応する切り出し映像Kとは、基準カメラの撮影装置2により取得された映像Iから切り出された映像である。
The
これにより、切り出し映像Kが全天周映像Z1の所定位置に貼り付けられ、後述する半径設定部14にて後述する全天周映像Z3の半径が設定されるから、切り出し映像Kの被写体は、実空間のサイズに調整される。
As a result, the cutout image K is pasted at a predetermined position of the all-sky image Z1, and the radius of the all-sky image Z3 described later is set by the
図7は、単眼カメラの場合のマッピング例(ステップS405)を説明する図である。撮影装置2が単眼カメラである場合、マッピング部12は、例えば予め設定された水平角度を用いて、全天周映像Z1の中心から見た被写体の方向を特定する。予め設定された水平角度は、ユーザにより指定される。
FIG. 7 is a diagram illustrating a mapping example (step S405) in the case of a monocular camera. When the photographing
そして、マッピング部12は、全天周映像Z1の中心から見た被写体の方向の位置に切り出し映像Kをマッピングすることで、全天周映像Z1に切り出し映像Kを貼り付け、全天周映像Z2を生成する。
Then, the
図8は、多視点カメラの場合のマッピング例(ステップS405)を説明する図である。撮影装置2が多視点カメラである場合、マッピング部12は、予め設定された基準カメラの撮影装置2(本例の場合は撮影装置2−2)のカメラパラメータに含まれる水平角度及び垂直角度を用いて、全天周映像Z1の中心から見た被写体の方向を特定する。カメラパラメータは、撮影装置2が設置されることにより、一義的に決定される。
FIG. 8 is a diagram illustrating a mapping example (step S405) in the case of a multi-view camera. When the photographing
そして、マッピング部12は、全天周映像Z1の中心から見た被写体の方向の位置に切り出し映像Kをマッピングすることで、全天周映像Z1に切り出し映像Kを貼り付け、全天周映像Z2を生成する。
Then, the
図3及び図4に戻って、アルファ値設定部13は、マッピング部12から全天周映像Z2を入力する。そして、アルファ値設定部13は、全天周映像Z2のうち、切り出し映像Kがマッピングされた部分(貼り付けられた部分)の各画素のアルファ値に255を設定する。また、アルファ値設定部13は、全天周映像Z2のうち、切り出し映像Kがマッピングされていない部分(切り出し映像Kを除く部分)の各画素のアルファ値に0を設定する。
Returning to FIGS. 3 and 4, the alpha value setting unit 13 inputs the all-sky video Z2 from the
アルファ値に255を設定することは、非透過の値に設定することを意味し、当該部分は、画素値が反映された非透過の映像となり、HMD5において表示されることとなる。また、アルファ値に0を設定することは、透過の値に設定することを意味し、当該部分は、画素値が反映されない透過の映像となり、HMD5において表示されることはない。
Setting the alpha value to 255 means setting it to a non-transparent value, and the portion becomes a non-transparent image reflecting the pixel value and is displayed on the
これにより、切り出し映像Kの部分の画素は、全天周映像Z2内で非透過となるように設定され、切り出し映像K以外の部分の画素は、全天周映像Z2内で透過となるように設定される。 As a result, the pixels of the portion of the cutout image K are set to be non-transparent in the all-sky image Z2, and the pixels of the portion other than the cutout image K are set to be transparent in the all-sky image Z2. Set.
アルファ値設定部13は、切り出し映像Kの部分の各画素値を反映し、それ以外の部分の画素値を反映しない全天周映像Z3を生成する(ステップS406)。そして、アルファ値設定部13は、全天周映像Z3を半径設定部14に出力する。
The alpha value setting unit 13 generates an all-sky image Z3 that reflects each pixel value of the cutout image K portion and does not reflect the pixel values of the other portions (step S406). Then, the alpha value setting unit 13 outputs the all-sky video Z3 to the
尚、アルファ値設定部13は、全天周映像Z2のうち、切り出し映像Kがマッピングされた部分の各画素のアルファ値に128を設定するようにしてもよい。この場合、切り出し映像Kの部分は、全天周映像Z2内で半透明となる。 The alpha value setting unit 13 may set 128 to the alpha value of each pixel of the portion of the all-sky video Z2 to which the cutout video K is mapped. In this case, the portion of the cut-out image K becomes translucent in the all-sky image Z2.
図9は、全天周映像Z3の例を示す概略図である。この全天周映像Z3−4は、図5に示した映像I−4及び図6に示した切り出し映像K−4に対応する映像である。 FIG. 9 is a schematic view showing an example of the all-sky image Z3. The all-sky image Z3-4 is an image corresponding to the image I-4 shown in FIG. 5 and the cut-out image K-4 shown in FIG.
切り出し映像K−4の部分のアルファ値に255が設定されることで、当該部分は非透過となり、それ以外の部分のアルファ値に0が設定されることで、当該部分は透過となる。つまり、全天周映像Z3−4において、切り出し映像K−4の部分は非透過となり、その他の部分は透過となる。 By setting the alpha value of the portion of the cut-out video K-4 to 255, the portion becomes non-transparent, and by setting the alpha value of the other portion to 0, the portion becomes transparent. That is, in the all-sky image Z3-4, the portion of the cut-out image K-4 is non-transparent, and the other portion is transparent.
したがって、全天周映像Z3−4は、切り出し映像K−4の部分については図示しない全天周映像Z2の画素値がそのまま反映された映像となり、切り出し映像K−4以外の部分についてはその画素値が反映されない映像となる。 Therefore, the all-sky image Z3-4 is an image in which the pixel value of the all-sky image Z2 (not shown) is reflected as it is for the part of the cut-out image K-4, and the pixels of the part other than the cut-out image K-4. The image will not reflect the value.
図3及び図4に戻って、半径設定部14は、アルファ値設定部13から全天周映像Z3を入力すると共に、測距装置3−1〜3−nから距離データd1〜dnを入力する。そして、半径設定部14は、距離データd1〜dnのうち、予め設定された基準カメラの撮影装置2に対応する距離データdを特定する。予め設定された基準カメラの撮影装置2に対応する距離データdとは、基準カメラの撮影装置2に対応する測距装置3により取得された距離データである。
Returning to FIGS. 3 and 4, the
半径設定部14は、全天周映像Z3の半径に距離データdを設定することで、全天周映像Z3の半径を変更し、全天周映像Z4を生成する(ステップS407)。そして、半径設定部14は、全天周映像Z4を出力する(ステップS408)。全天周映像Z4は、例えば圧縮符号化され、符号化信号としてインターネットを介して、または放送波として送信される。
The
これにより、全天周映像Z3の半径の変更に伴い、全天周映像Z3に含まれる被写体のサイズも変更される。半径が短くなればなるほど、被写体のサイズは小さくなり、半径が大きくなればなるほど、被写体のサイズは大きくなる。 As a result, as the radius of the all-sky image Z3 is changed, the size of the subject included in the all-sky image Z3 is also changed. The shorter the radius, the smaller the size of the subject, and the larger the radius, the larger the size of the subject.
つまり、マッピング部12により、ステップS405にて切り出し映像Kが全天周映像Z1にマッピングされる。そして、半径設定部14により、ステップS407にて全天周映像Z3の半径に距離データdが設定される。これにより、全天周映像Z3に含まれる被写体に対し、そのサイズを直接変更する処理を行う必要がない。
That is, the
したがって、全天周映像Z3の半径を変更することで、被写体のサイズも変更されるから、簡易な処理にて、実空間内で適切な被写体のサイズが反映された全天周映像Z4を得ることができる。 Therefore, since the size of the subject is also changed by changing the radius of the all-sky image Z3, the all-sky image Z4 that reflects the appropriate size of the subject in the real space can be obtained by a simple process. be able to.
尚、全天周映像Z3の半径を変形するために用いる距離データdは、予め設定された基準カメラの撮影装置2に対応する測距装置3から被写体の代表点までの距離であってもよいし、被写体の複数点までの距離の平均または中央値であってもよい。
The distance data d used to change the radius of the all-sky image Z3 may be the distance from the
このように、距離データdは、例えば被写体の代表点までの距離であればよく、または、平均等の簡易な処理にて求めた距離であればよいから、処理時間を大幅に短縮することができる。 As described above, the distance data d may be, for example, the distance to the representative point of the subject, or the distance obtained by simple processing such as averaging, so that the processing time can be significantly shortened. it can.
また、図2(2)及び図2(3)に示した構成例のように、撮影側の装置に測距装置3を含まない場合には、例えば2台の撮影装置2−1,2−2により取得された映像I1,I2に基づいたステレオマッチングの手法により、距離データdを求めるようにしてもよい。
Further, as in the configuration example shown in FIGS. 2 (2) and 2 (3), when the
図10は、半径設定処理例(ステップS407)を説明する図であり、図11は、全天周映像Z4の例を示す概略図である。図11に示す全天周映像Z4は、図5に示した映像I−4、図6に示した切り出し映像K−4及び図9に示した全天周映像Z3−4に対応する映像である。 FIG. 10 is a diagram for explaining a radius setting processing example (step S407), and FIG. 11 is a schematic diagram showing an example of the all-sky image Z4. The all-sky image Z4 shown in FIG. 11 is an image corresponding to the image I-4 shown in FIG. 5, the cut-out image K-4 shown in FIG. 6, and the all-sky image Z3-4 shown in FIG. ..
図10に示すように、全天周映像Z3の半径に距離データdが設定されることで、全天周映像Z3の半径が変更され(図10の例では、半径が短くなり)、被写体の切り出し映像Kのサイズを小さくした全天周映像Z4が生成される。 As shown in FIG. 10, by setting the distance data d to the radius of the all-sky image Z3, the radius of the all-sky image Z3 is changed (in the example of FIG. 10, the radius becomes short), and the subject An all-sky video Z4 with a reduced size of the cut-out video K is generated.
同様に、図9に示した全天周映像Z3−4に対し、図11に示すように、被写体である人物のサイズを小さくした全天周映像Z4−4が生成される。 Similarly, as shown in FIG. 11, the all-sky image Z4-4 in which the size of the person who is the subject is reduced is generated with respect to the all-sky image Z3-4 shown in FIG.
以上のように、本発明の実施形態の全天周映像処理装置4によれば、統合部10は、映像I1〜Inを統合して全天周映像Z1を生成し、切り出し部11は、映像I1〜Inから被写体の部分を切り出して切り出し映像K1〜Knを生成する。
As described above, according to the total Tenshu
マッピング部12は、切り出し映像K1〜Knのうち、基準となる切り出し映像Kを特定し、全天周映像Z1内で被写体の方向を特定し、その方向に切り出し映像Kをマッピングして全天周映像Z2を生成する。
The
例えば、単眼カメラを用いた場合、マッピング部12は、予め設定された水平角度を用いて被写体の方向を特定する。また、多視点カメラを用いた場合、マッピング部12は、基準となるカメラパラメータに含まれる水平角度及び垂直角度を用いて被写体の方向を特定する。
For example, when a monocular camera is used, the
アルファ値設定部13は、全天周映像Z2のうち、切り出し映像Kがマッピングされた部分のアルファ値に255を設定し、その他の部分のアルファ値に0を設定し、全天周映像Z3を生成する。これにより、全天周映像Z3の切り出し映像Kの部分は、非透過となって画素値が反映された映像となり、その他の部分は、透過となって画素値が反映されない映像となる。 The alpha value setting unit 13 sets the alpha value of the portion of the all-sky video Z2 to which the cutout video K is mapped to 255, sets the alpha value of the other portion to 0, and sets the all-sky video Z3. Generate. As a result, the portion of the cut-out image K of the all-sky image Z3 becomes a non-transparent image in which the pixel value is reflected, and the other part becomes a transparent image in which the pixel value is not reflected.
半径設定部14は、距離データd1〜dnのうち、基準となる距離データdを特定し、全天周映像Z3の半径に距離データdを設定することで、全天周映像Z3の半径を変更し、全天周映像Z4を生成する。これにより、被写体は、全天周映像Z3の半径に対応したサイズとなる。
The
このように、被写体の切り出し映像Kを全天周映像Z1にマッピングし、全天周映像のアルファ値を設定し、全天周映像Z3の半径を設定することで、切り出し映像Kの投影位置を変更した全天周映像Z4を生成するようにした。 In this way, by mapping the cut-out image K of the subject to the all-sky image Z1, setting the alpha value of the all-sky image, and setting the radius of the all-sky image Z3, the projection position of the cut-out image K can be set. The modified all-sky image Z4 is generated.
これにより、映像の編集及び加工は、2次元映像である全天周映像Z4及び切り出し映像Kに対して行えばよいから、3次元映像に比べて、編集及び加工が容易となり、現存のルールを用いることができる。 As a result, the editing and processing of the image may be performed on the all-sky image Z4 and the cut-out image K, which are two-dimensional images, so that the editing and processing become easier than the three-dimensional image, and the existing rules can be adopted. Can be used.
また、マッピング処理、アルファ値設定処理及び半径設定処理を行うことで、HMD5に用いる全天周映像Z4を得ることができるから、簡易な手法でXRの3次元映像を疑似的に提示することができる。つまり、HMD5を用いるユーザの視点位置を原点として、全天周映像Z4の半径に従い、被写体を擬似的に3次元映像のように提示することができる。
Further, since the all-sky image Z4 used for the
また、切り出し部11は、2次元映像である映像Iから被写体の部分を切り出すようにしたから、現行の枠のある映像でなく、枠のない映像を得ることができ、HMD5において、より実在感のある映像を提示することができる。
Further, since the
また、HMD5により、全天周映像Z4が右目用及び左目用の映像に変換されて表示されるため、両眼視差のある映像を提示することができる。HMD5により、視点の移動に伴った見え方にて、被写体を変化させることができる。
Further, since the all-sky image Z4 is converted into an image for the right eye and an image for the left eye and displayed by the
また、VRのバーチャル空間またはバーチャルチャット等において、測定した物体の距離を全天周映像Z4の半径に反映することで、所定の奥行きの位置に物体が提示される。これにより、手前にある物体が背後にある物体を隠して見えないようにするオクルージョン(見え隠れ)を加味した映像提示が可能となる。 Further, in the virtual space of VR, virtual chat, etc., the object is presented at a predetermined depth position by reflecting the measured distance of the object in the radius of the all-sky image Z4. This makes it possible to present an image with occlusion (visible and hidden) that hides the object in the foreground and hides the object in the foreground.
HMD5がARグラスの場合、例えば市販されている両眼視差を利用することで、ユーザから数m程度の奥行きの移動を表現することができる。 When the HMD5 is an AR glass, for example, by using a commercially available binocular parallax, it is possible to express a movement with a depth of about several meters from the user.
奥行きの分解能としては、10mまでの距離を1mm単位で表す場合は10,000通りを表す必要があり、符号化のためには14ビットのビット長が必要となる。ビットレートは、映像Iのフレーム速度が90fpsの場合、14×90=1,260bpsとなり、映像Iのビットレートと比較すれば、拡張による増加分は非常に小さくなる。 As the resolution of the depth, when the distance up to 10 m is expressed in 1 mm units, it is necessary to express 10,000 ways, and a bit length of 14 bits is required for coding. When the frame speed of the video I is 90 fps, the bit rate is 14 × 90 = 1,260 bps, and the increase due to the expansion is very small as compared with the bit rate of the video I.
以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば前記実施形態では、撮影側の装置の構成例として図2(1)〜(4)を挙げて説明した。これらの構成は例示であり、本発明は他の構成例にも適用がある。 Although the present invention has been described above with reference to embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the technical idea. For example, in the above-described embodiment, FIGS. 2 (1) to 2 (4) have been described as a configuration example of the apparatus on the photographing side. These configurations are examples, and the present invention is applicable to other configuration examples.
また、前記実施形態では、図3に示した通り、全天周映像処理装置4は、統合部10、切り出し部11、マッピング部12、アルファ値設定部13及び半径設定部14を備えるようにした。
Further, in the above-described embodiment, as shown in FIG. 3, the all-sky
これに対し、撮影装置2が単眼カメラである場合、全天周映像処理装置4は、切り出し部11、マッピング部12、アルファ値設定部13及び半径設定部14を備える。この場合、切り出し部11は、単眼カメラの撮影装置2から全天周映像Z1を入力し、全天周映像Z1から被写体の部分を切り出し、切り出し映像Kを生成する。マッピング部12は、単眼カメラの撮影装置2から全天周映像Z1を入力し、全天周映像Z1に、切り出し部11により生成された切り出し映像Kをマッピングする。
On the other hand, when the photographing
また、前記実施形態では、全天周映像処理装置4のアルファ値設定部13は、全天周映像Z2について、切り出し映像Kの部分のアルファ値に255を設定することで、当該部分を非透過に設定するようにした。また、アルファ値設定部13は、切り出し映像Kを除く部分のアルファ値に0を設定することで、当該部分を透過に設定するようにした。
Further, in the above-described embodiment, the alpha value setting unit 13 of the all-sky
これに対し、アルファ値設定部13は、全天周映像Z2について、さらに、切り出し映像Kを除く部分の各画素の画素値(RGBの値)に0を設定するようにしてもよい。これにより、全天周映像処理装置4が、後段の半径設定部14により生成された全天周映像Z4を圧縮符号化して送信する際に、符号化効率を向上させることができ、送信データ量を少なくすることができる。
On the other hand, the alpha value setting unit 13 may further set 0 for the pixel value (RGB value) of each pixel of the portion excluding the cutout image K for the all-sky image Z2. As a result, when the all-sky
尚、本発明の実施形態による全天周映像処理装置4のハードウェア構成としては、通常のコンピュータを使用することができる。全天周映像処理装置4は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。
As the hardware configuration of the all-sky
全天周映像処理装置4に備えた統合部10、切り出し部11、マッピング部12、アルファ値設定部13及び半径設定部14の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
Each function of the
これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。 These programs are stored in the storage medium, read by the CPU, and executed. In addition, these programs can be stored and distributed in storage media such as magnetic disks (floppy (registered trademark) disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), semiconductor memories, etc., and can be distributed via a network. You can also send and receive.
1 全天周映像処理システム
2 撮影装置
3 測距装置
4 全天周映像処理装置
5 HMD(Head Mounted Display:頭部装着ディスプレイ)
10 統合部
11 切り出し部
12 マッピング部
13 アルファ値設定部
14 半径設定部
I 映像
K 切り出し映像
Z1,Z2,Z3,Z4 全天周映像
d 距離データ
1 All-sky
10
Claims (6)
複数の撮影装置により撮影された前記被写体を含む複数の映像を入力し、前記複数の映像を統合し、アルファチャンネル付き全天周映像を第一全天周映像として生成する統合部と、
前記映像から前記被写体の部分を切り出し、切り出し映像を生成する切り出し部と、
前記統合部により生成された前記第一全天周映像に、前記切り出し部により生成された前記切り出し映像をマッピングし、前記第一全天周映像に前記切り出し映像を貼り付けた第二全天周映像を生成するマッピング部と、
前記マッピング部により生成された前記第二全天周映像について、前記切り出し映像の部分の各画素のアルファ値に非透過の値を設定し、前記切り出し映像を除く部分のアルファ値に透過の値を設定し、第三全天周映像を生成するアルファ値設定部と、
前記アルファ値設定部により生成された前記第三全天周映像の半径に、前記撮影装置から前記被写体までの間の距離を設定し、前記設定された距離に基づいて前記切り出し映像の投影位置を変更した第四全天周映像を生成する半径設定部と、
を備えたことを特徴とする全天周映像処理装置。 In an all-sky image processing device that generates an all-sky image including a subject
An integrated unit that inputs a plurality of images including the subject taken by a plurality of photographing devices, integrates the plurality of images, and generates an all-sky image with an alpha channel as a first all-sky image.
A cutout portion that cuts out the part of the subject from the video and generates a cutout video,
The first all-sky image generated by the integrated unit is mapped to the cut-out image generated by the cut-out unit, and the cut-out image is pasted on the first all-sky image. The mapping part that generates the image and
For the second all-sky image generated by the mapping unit, a non-transparent value is set for the alpha value of each pixel of the cut-out image portion, and a transparent value is set for the alpha value of the portion other than the cut-out image. Alpha value setting unit that sets and generates the third all-sky image,
The distance between the photographing device and the subject is set in the radius of the third all-sky image generated by the alpha value setting unit, and the projection position of the cutout image is set based on the set distance. The radius setting part that generates the changed fourth all-sky image, and
An all-sky video processing device characterized by being equipped with.
単眼カメラの撮影装置により撮影された前記被写体を含むアルファチャンネル付き全天周映像を第一全天周映像として入力し、前記第一全天周映像から前記被写体の部分を切り出し、切り出し映像を生成する切り出し部と、
前記第一全天周映像に、前記切り出し部により生成された前記切り出し映像をマッピングし、前記第一全天周映像に前記切り出し映像を貼り付けた第二全天周映像を生成するマッピング部と、
前記マッピング部により生成された前記第二全天周映像について、前記切り出し映像の部分の各画素のアルファ値に非透過の値を設定し、前記切り出し映像を除く部分のアルファ値に透過の値を設定し、第三全天周映像を生成するアルファ値設定部と、
前記アルファ値設定部により生成された前記第三全天周映像の半径に、前記撮影装置から前記被写体までの間の距離を設定し、前記設定された距離に基づいて前記切り出し映像の投影位置を変更した第四全天周映像を生成する半径設定部と、
を備えたことを特徴とする全天周映像処理装置。 In an all-sky image processing device that generates an all-sky image including a subject
An all-sky image with an alpha channel including the subject taken by a shooting device of a monocular camera is input as a first all-sky image, and a part of the subject is cut out from the first all-sky image to generate a cut-out image. Cut out part and
A mapping unit that maps the cutout image generated by the cutout portion to the first all-sky image and generates a second all-sky image in which the cutout image is pasted on the first all-sky image. ,
For the second all-sky image generated by the mapping unit, a non-transparent value is set for the alpha value of each pixel of the cut-out image portion, and a transparent value is set for the alpha value of the portion other than the cut-out image. Alpha value setting unit that sets and generates the third all-sky image,
The distance between the photographing device and the subject is set in the radius of the third all-sky image generated by the alpha value setting unit, and the projection position of the cutout image is set based on the set distance. The radius setting part that generates the changed fourth all-sky image, and
An all-sky video processing device characterized by being equipped with.
前記アルファ値設定部は、
前記第二全天周映像について、前記切り出し映像の部分の各画素のアルファ値に非透過の値を設定し、前記切り出し映像を除く部分の各画素のアルファ値に透過の値を設定し、前記切り出し映像を除く部分の各画素の画素値に0を設定し、前記第三全天周映像を生成する、ことを特徴とする全天周映像処理装置。 In the all-sky video processing apparatus according to claim 1 or 2.
The alpha value setting unit
For the second all-sky image, a non-transparent value is set for the alpha value of each pixel of the cutout image portion, and a transparent value is set for the alpha value of each pixel of the portion other than the cutout image. An all-sky image processing device characterized in that a pixel value of each pixel of a portion excluding a cut-out image is set to 0 to generate the third all-sky image.
前記マッピング部は、
前記複数の撮影装置のうち予め設定された基準カメラの前記撮影装置のカメラパラメータに含まれる水平角度及び垂直角度を用いて、前記被写体の方向を特定し、前記第一全天周映像における前記被写体の方向に前記切り出し映像をマッピングし、前記第二全天周映像を生成する、ことを特徴とする全天周映像処理装置。 In the all-sky video processing apparatus according to claim 1,
The mapping unit
The direction of the subject is specified by using the horizontal angle and the vertical angle included in the camera parameters of the photographing device of the reference camera set in advance among the plurality of photographing devices, and the subject in the first all-sky image. An all-sky image processing device characterized in that the cut-out image is mapped in the direction of the above and the second all-sky image is generated.
前記マッピング部は、
予め設定された水平角度を用いて、前記被写体の方向を特定し、前記第一全天周映像における前記被写体の方向に前記切り出し映像をマッピングし、前記第二全天周映像を生成する、ことを特徴とする全天周映像処理装置。 In the all-sky video processing apparatus according to claim 2.
The mapping unit
Using a preset horizontal angle, the direction of the subject is specified, the cutout image is mapped to the direction of the subject in the first all-sky image, and the second all-sky image is generated. An all-sky video processing device characterized by.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019079317A JP7336871B2 (en) | 2019-04-18 | 2019-04-18 | All-dome video processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019079317A JP7336871B2 (en) | 2019-04-18 | 2019-04-18 | All-dome video processing device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020178239A true JP2020178239A (en) | 2020-10-29 |
JP7336871B2 JP7336871B2 (en) | 2023-09-01 |
Family
ID=72936067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019079317A Active JP7336871B2 (en) | 2019-04-18 | 2019-04-18 | All-dome video processing device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7336871B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015187797A (en) * | 2014-03-27 | 2015-10-29 | シャープ株式会社 | Image data generation device and image data reproduction device |
JP2016082328A (en) * | 2014-10-14 | 2016-05-16 | 日本放送協会 | Image composition device and program for the same |
US20190058836A1 (en) * | 2017-08-18 | 2019-02-21 | Samsung Electronics Co., Ltd. | Apparatus for composing objects using depth map and method for the same |
-
2019
- 2019-04-18 JP JP2019079317A patent/JP7336871B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015187797A (en) * | 2014-03-27 | 2015-10-29 | シャープ株式会社 | Image data generation device and image data reproduction device |
JP2016082328A (en) * | 2014-10-14 | 2016-05-16 | 日本放送協会 | Image composition device and program for the same |
US20190058836A1 (en) * | 2017-08-18 | 2019-02-21 | Samsung Electronics Co., Ltd. | Apparatus for composing objects using depth map and method for the same |
Also Published As
Publication number | Publication date |
---|---|
JP7336871B2 (en) | 2023-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11010958B2 (en) | Method and system for generating an image of a subject in a scene | |
US11379948B2 (en) | Mixed reality system with virtual content warping and method of generating virtual content using same | |
US20180268519A1 (en) | Mixed reality system with color virtual content warping and method of generating virtual content using same | |
AU2018326807B2 (en) | Generating a new frame using rendered content and non-rendered content from a previous perspective | |
CN103747236A (en) | 3D (three-dimensional) video processing system and method by combining human eye tracking | |
JP2022183177A (en) | Head-mounted display device | |
US11922602B2 (en) | Virtual, augmented, and mixed reality systems and methods | |
CN107209949B (en) | Method and system for generating magnified 3D images | |
JP2014010805A (en) | Image processing device, image processing method and image processing program | |
JP6166985B2 (en) | Image generating apparatus and image generating program | |
US20230251710A1 (en) | Virtual, augmented, and mixed reality systems and methods | |
US11818325B2 (en) | Blended mode three dimensional display systems and methods | |
JP7336871B2 (en) | All-dome video processing device and program | |
US20220232201A1 (en) | Image generation system and method | |
KR102174465B1 (en) | Method for rendering virtual reality contents based on focus angle | |
KR20240057994A (en) | Method and apparatus for generating stereoscopic display contents | |
KR20150061236A (en) | Method for providing movement parallax of partial image in multiview stereoscopic display and apparatus using thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190426 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230728 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7336871 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |