JP2023552538A - Image processing methods and devices, electronic devices, storage media, and computer programs - Google Patents
Image processing methods and devices, electronic devices, storage media, and computer programs Download PDFInfo
- Publication number
- JP2023552538A JP2023552538A JP2023533782A JP2023533782A JP2023552538A JP 2023552538 A JP2023552538 A JP 2023552538A JP 2023533782 A JP2023533782 A JP 2023533782A JP 2023533782 A JP2023533782 A JP 2023533782A JP 2023552538 A JP2023552538 A JP 2023552538A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- image
- dimensional image
- pixel
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 21
- 238000004590 computer program Methods 0.000 title claims description 18
- 238000000034 method Methods 0.000 claims abstract description 108
- 238000012545 processing Methods 0.000 claims abstract description 43
- 238000010606 normalization Methods 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000002452 interceptive effect Effects 0.000 abstract description 13
- 238000010276 construction Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 56
- 238000010586 diagram Methods 0.000 description 22
- 230000009466 transformation Effects 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 2
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 2
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 2
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010348 incorporation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/08—Projecting images onto non-planar surfaces, e.g. geodetic screens
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
本開示の実施例によれば、画像処理のための方法、装置、機器、記憶媒体及びプログラム製品を提供する。画像処理のための方法は、二次元画像に対する、少なくとも二次元画像の深度情報を含む入力情報を取得することと、二次元画像及び入力情報を利用して、二次元画像の各画素に対応する三次元点群を取得することと、目標二次元画素に対応する三次元点群中の点、及び目標二次元画素に隣接する一組の画素の対応する三次元点群における隣接点集合に基づいて、二次元画像に対する三次元画像を生成することと、を含む。このように、二次元写真により三次元モデルの構築を実現することができ、良好な普遍性及び汎用性を有し、これによりユーザの没入型及び対話型体験を大幅に向上させることができる。According to embodiments of the present disclosure, methods, apparatus, apparatus, storage media, and program products for image processing are provided. A method for image processing includes acquiring input information for a two-dimensional image, including at least depth information of the two-dimensional image, and processing corresponding to each pixel of the two-dimensional image using the two-dimensional image and the input information. Based on obtaining a 3D point cloud and a point in the 3D point cloud corresponding to the target 2D pixel, and a set of neighboring points in the corresponding 3D point cloud of a set of pixels adjacent to the target 2D pixel. and generating a three-dimensional image for the two-dimensional image. In this way, the construction of a three-dimensional model can be realized by two-dimensional photographs, which has good universality and versatility, which can greatly improve the immersive and interactive experience of users.
Description
(関連出願のクロス援用)
本願は、出願番号が202111056671.6であり、名称が「画像処理ための方法、装置、機器、記憶媒体及びプログラム製品」であり、出願日が2021年9月9日である中国発明特許出願の優先権を主張し、この援用により該出願全体を本明細書に組み込む。
(Cross-incorporation of related applications)
This application is a Chinese invention patent application whose application number is 202111056671.6 and whose name is "Method, apparatus, equipment, storage medium and program product for image processing" and whose filing date is September 9, 2021. Priority is claimed and the entire application is incorporated herein by this reference.
本開示の実施例は主にコンピュータの分野に関し、より具体的には、画像処理方法及び装置、機器、記憶媒体ならびにプログラム製品に関する。 TECHNICAL FIELD Embodiments of the present disclosure relate primarily to the field of computers, and more particularly to image processing methods and apparatus, equipment, storage media, and program products.
画像の二次元表示は、現在最も主要な画像表示形式である。二次元画像とは、一般に平面画像である。二次元画像は左、右、上、下の四つの方向のみがあり、前後が存在しない。したがって、二次元画像は面積のみがあり、体積がない。一般的に、二次元画像は、RGB画像又はグレースケール画像であってもよい。ユーザがより良好な没入式又は対話型体験を必要とする場合、二次元画像を三次元画像に変換する方法が必要である。 Two-dimensional image display is currently the most common image display format. A two-dimensional image is generally a planar image. A two-dimensional image has only four directions: left, right, top, and bottom, and there is no front or back. Therefore, a two-dimensional image has only area and no volume. Generally, a two-dimensional image may be an RGB image or a grayscale image. When users require a better immersive or interactive experience, a method of converting two-dimensional images to three-dimensional images is needed.
本開示の実施例によれば、画像処理の解決手段を提供する。 According to embodiments of the present disclosure, an image processing solution is provided.
本開示の第一態様において、画像処理方法を提供し、二次元画像に対する、少なくとも二次元画像の深度情報を含む入力情報を取得することと、二次元画像及び入力情報を用いて、二次元画像の各画素に対応する三次元点群を取得することと、目標二次元画素に対応する三次元点群中の点、及び目標二次元画素に隣接する一組の画素の対応する三次元点群における隣接点集合に基づいて、二次元画像に対する三次元画像を生成することと、を含む。 In a first aspect of the present disclosure, an image processing method is provided, which includes acquiring input information including at least depth information of the two-dimensional image, and processing the two-dimensional image using the two-dimensional image and the input information. a point in the three-dimensional point cloud corresponding to the target two-dimensional pixel, and a corresponding three-dimensional point cloud of a set of pixels adjacent to the target two-dimensional pixel; and generating a three-dimensional image for the two-dimensional image based on a set of adjacent points in the image.
本開示の第二態様において、ビデオ処理方法を提供し、本開示の第一態様の方法に基づいて、ビデオストリーム中の各フレームの二次元画像に対して対応する三次元画像を生成することと、生成された三次元画像を利用して、三次元ビデオストリームを生成することと、を含む。 In a second aspect of the disclosure, there is provided a video processing method, comprising: generating a corresponding three-dimensional image for a two-dimensional image of each frame in a video stream based on the method of the first aspect of the disclosure; , and generating a three-dimensional video stream using the generated three-dimensional image.
本開示の第三態様において、画像処理の装置を提供し、二次元画像に対する、少なくとも二次元画像の深度情報を含む入力情報を取得するように構成される入力情報取得モジュールと、二次元画像及び入力情報を用いて、二次元画像の各画素に対応する三次元点群を取得するように構成される三次元点群取得モジュールと、目標二次元画素に対応する三次元点群中の点、及び目標二次元画素に隣接する一組の画素の対応する三次元点群における隣接点集合に基づいて、二次元画像に対する三次元画像を生成するように構成される三次元画像生成モジュールと、を含む。 In a third aspect of the present disclosure, an image processing apparatus is provided, and an input information acquisition module configured to acquire input information including at least depth information of the two-dimensional image with respect to the two-dimensional image; a three-dimensional point cloud acquisition module configured to use input information to acquire a three-dimensional point cloud corresponding to each pixel of a two-dimensional image; a point in the three-dimensional point cloud corresponding to a target two-dimensional pixel; and a three-dimensional image generation module configured to generate a three-dimensional image for the two-dimensional image based on a set of adjacent points in a corresponding three-dimensional point group of a set of pixels adjacent to the target two-dimensional pixel. include.
本開示の第四態様において、ビデオ処理装置を提供し、本開示の第二態様の方法に基づいて、ビデオストリーム中の各フレームの二次元画像に対して対応する三次元画像を生成するように構成される第2の三次元画像生成モジュールと、生成された三次元画像を利用して、三次元ビデオストリームを生成するように構成される三次元ビデオストリーム生成モジュールと、を含む。 In a fourth aspect of the disclosure, there is provided a video processing apparatus, adapted to generate a corresponding three-dimensional image for a two-dimensional image of each frame in a video stream based on the method of the second aspect of the disclosure. and a 3D video stream generation module configured to generate a 3D video stream using the generated 3D image.
本開示の第五態様において、電子機器を提供し、一つ又は複数のプロセッサと、一つ又は複数のプログラムを記憶する記憶装置と、を含み、一つ又は複数のプログラムが一つ又は複数のプロセッサにより実行されることにより、一つ又は複数のプロセッサが本開示の第一態様又は第二態様に係る方法を実現する。 In a fifth aspect of the present disclosure, there is provided an electronic device including one or more processors and a storage device storing one or more programs, the one or more programs being one or more. When executed by the processor, one or more processors implement the method according to the first aspect or the second aspect of the present disclosure.
本開示の第六態様において、コンピュータ可読な記憶媒体を提供し、コンピュータプログラムが記憶され、プログラムがプロセッサにより実行される時に本開示の第一態様又は第二態様に係る方法を実現する。 In a sixth aspect of the present disclosure, a computer readable storage medium is provided, in which a computer program is stored, and when the program is executed by a processor, it implements a method according to the first or second aspect of the present disclosure.
本開示の第七態様において、コンピュータプログラム製品を提供し、プロセッサにより実行される時、本開示の第一態様又は第二態様に係る方法を実行するコンピュータプログラムを含む。 In a seventh aspect of the disclosure, a computer program product is provided, comprising a computer program product which, when executed by a processor, performs a method according to the first or second aspect of the disclosure.
理解すべきことは、発明の内容部分に記述された内容は本開示の実施例のキー又は重要な特徴を限定するものではなく、本開示の範囲を限定するものではない。本開示の他の特徴は、以下の説明により容易に理解されるであろう。 It is to be understood that what is described in the Summary section does not limit the key or important features of the embodiments of the present disclosure and does not limit the scope of the present disclosure. Other features of the disclosure will be readily understood from the following description.
図面を参照しながら以下の詳細な説明を参照し、本開示の各実施例の上記及び他の特徴、利点及び方面はより明らかになる。図面において、同一又は類似の図面は同一又は類似の要素を示す。 These and other features, advantages and aspects of embodiments of the present disclosure will become more apparent with reference to the following detailed description with reference to the drawings. In the drawings, identical or similar drawings indicate identical or similar elements.
以下、本発明の実施例について、図面を参照してより詳細に説明する。図面において本開示のいくつかの実施例を示すが、理解すべきこととして、本開示は様々な形式で実現することができ、かつ説明される実施例に限定されるべきではなく、逆にこれらの実施例を提供することは本開示をより徹底的かつ完全に理解するためである。理解すべきこととして、本開示の図面及び実施例は例示的な作用のみに用いられ、本開示の保護範囲を限定するものではない。 Hereinafter, embodiments of the present invention will be described in more detail with reference to the drawings. Although several embodiments of the disclosure are shown in the drawings, it should be understood that the disclosure may be implemented in various forms and is not limited to the embodiments described, on the contrary. In order that the present disclosure may be more thoroughly and completely understood, it is preferable to provide examples of the present disclosure. It should be understood that the drawings and embodiments of the present disclosure are used for illustrative purposes only and are not intended to limit the protection scope of the present disclosure.
本開示の実施例の説明において、用語「含む」及びその類似用語は、開放的に含み、即ち「含むがこれらに限定されない」と理解すべきである。用語「基づく」は、「少なくとも部分的に基づいて」であると理解すべきである。用語「一つの実施例」又は「該実施例」は、「少なくとも一つの実施例」と理解すべきである。用語「第一」、「第二」などは異なる又は同じ対象を指すことができる。以下にさらに他の明確な及び暗黙的な定義を含む可能性がある。 In describing embodiments of the present disclosure, the term "comprising" and its analogous terms should be understood to include inclusively, ie, "including, but not limited to." The term "based on" is to be understood as "based at least in part." The terms "an embodiment" or "the embodiment" are to be understood as "at least one embodiment." The terms "first", "second", etc. can refer to different or the same object. The following may contain further explicit and implicit definitions.
また、本明細書において、理解すべきこととして、用語「3D」は、「三次元」に相当することができ、用語「2D」は「二次元」に相当することができ、かつ「三次元画像」は「三次元画像モデル」に相当することができる。 Also, as used herein, it should be understood that the term "3D" can correspond to "three dimensions," and the term "2D" can correspond to "two dimensions," and "three dimensions" can correspond to "three dimensions." "image" can correspond to "three-dimensional image model".
前述したように、二次元画像を三次元画像に変換する方法を必要とし、より良好な没入型又は対話型体験を満たす。従来、主に二種類の解決案がある。一態様において、三次元ソフトウェアに基づいて設計することができ、ユーザは例えばBlenderなどの三次元モデルを直接利用して二次元画像を三次元画像に生成することができる。しかしながら、このような方式は既に存在する三次元モデルに依存する必要があり、かつその応用シーンは既知の三次元情報のシーンにしか存在していないので、この解決案の応用範囲は限られている。 As mentioned above, there is a need for a method to convert two-dimensional images into three-dimensional images to satisfy a better immersive or interactive experience. Traditionally, there are mainly two types of solutions. In one embodiment, the design can be based on three-dimensional software, and the user can directly utilize a three-dimensional model such as Blender to generate a two-dimensional image into a three-dimensional image. However, since such a method needs to rely on an already existing 3D model, and its application scene only exists in the scene of known 3D information, the scope of application of this solution is limited. There is.
別の従来の解決案において、一般的に、三角測量原理のハードウェア走査方式に基づいて二次元画像を三次元画像に変換する。しかしながら、このような解決手段は、対応するハードウェアに依存する(構造光、tof等に基づく)必要がある。特定のサイズの測定すべき物体に対して、複数回走査する必要があり、三次元モデル再構成を実現することができる。また、特定の走査ハードウェアに対して、再構成すべき物体のサイズが大きいほど、走査回数が多いほど、対応する計算量も大きくなる;また、該解決案はハードウェアに基づいて実現されるため、三次元モデル再構成された物体に対して現場走査を行う必要があるため、該技術案は使用上に大きな限界性を有する。 In another conventional solution, a two-dimensional image is generally converted into a three-dimensional image based on a hardware scanning method of triangulation principle. However, such solutions have to depend on the corresponding hardware (based on structured light, tof, etc.). An object to be measured of a specific size needs to be scanned multiple times, and three-dimensional model reconstruction can be realized. Also, for a given scanning hardware, the larger the size of the object to be reconstructed and the greater the number of scans, the larger the corresponding computational effort; Therefore, it is necessary to perform on-site scanning of the object whose three-dimensional model has been reconstructed, so this technical proposal has a large limitation in use.
上記問題と他の潜在的な問題を少なくとも部分的に解決するために、本明細書は二次元画像に基づいて三次元画像を生成する解決手段を提供する。該解決手段において、二次元写真を利用して三次元モデルの構築を実現することができ、良好な普遍性及び汎用性を有し、追加のハードウェアに依存せず、現場の走査を必要としない。かつ、三次元点群における点と二次元画像の画素との一対一の対応関係を利用して、三次元画像の色情報及びテクスチャ情報を三次元画像モデルに描画することができる。このようにして、該解決手段を利用して生成された三次元画像の色情報及びテクスチャ情報が失われず、それにより高品質の3Dモデルを生成し、さらにユーザの没入型及び対話型体験を大幅に向上させる。 To at least partially solve the above problems and other potential problems, the present specification provides a solution for generating three-dimensional images based on two-dimensional images. The solution can realize the construction of a 3D model using 2D photographs, has good universality and versatility, does not rely on additional hardware, and does not require on-site scanning. do not. Moreover, the color information and texture information of the three-dimensional image can be drawn on the three-dimensional image model by using the one-to-one correspondence between the points in the three-dimensional point group and the pixels of the two-dimensional image. In this way, the color information and texture information of the 3D images generated using the solution are not lost, thereby generating high-quality 3D models and further improving the immersive and interactive experience of the user. to improve.
以下、本発明の実施例について、図面を参照して具体的に説明する。 Embodiments of the present invention will be specifically described below with reference to the drawings.
図1は、本開示の複数の実施例が実現可能な例示環境100の概略図を示す。該例示環境100において、二次元画像110を計算機器120に入力することができ、計算機器120に対応計算(例えば以下に説明する深度計算及び画像修復など)を行い、三次元画像130を生成する。
FIG. 1 depicts a schematic diagram of an
いくつかの実施例において、二次元画像110は、前述のような平面画像であってもよい。説明すべきものとして、該二次元画像110は前景と背景を有する画像であってもよく、前景を有しないか、又は明らかな前景を有しない画像であってもよい。
In some embodiments, two-
説明すべきことは、二次元画像における前景と背景は、画像技術分野の一般的な概念である。一般的に、画像の前景は視聴者に最も近い視覚平面であり、画像における背景は視聴者から遠い合成における平面である。例えば、人物の一枚の二次元画像において、人物は一般的に画像の前景であり、画像における他の部分は常に背景と呼ばれる。いくつかの画像に対して、例えば青空白雲画像であれば、それは前景又は明らかな前景がなく、これも二次元画像の一種である。 It should be explained that foreground and background in two-dimensional images are common concepts in the field of imaging technology. Generally, the foreground of an image is the visual plane closest to the viewer, and the background in the image is the plane in the composition that is farthest from the viewer. For example, in a two-dimensional image of a person, the person is generally in the foreground of the image, and the other parts of the image are always referred to as the background. For some images, such as a blue sky cloud image, it has no foreground or obvious foreground, which is also a type of two-dimensional image.
本開示の異なる実施例において、異なる種類の二次元画像110に対して計算機器120により異なる処理を行うことができる。このことは、後に詳述する。
In different embodiments of the present disclosure, different types of two-
相応的には、三次元画像130(「三次元画像モデル」とも呼ばれる)は一般的に高さ、幅及び奥行きを有する立体画像を指す。本開示の実施例において、三次元画像130は二次元画像110に基づいて取得されたユーザの没入型及び対話型体験をより向上させることができる画像であってもよい。
Correspondingly, three-dimensional image 130 (also referred to as a "three-dimensional image model") generally refers to a three-dimensional image having a height, width, and depth. In embodiments of the present disclosure, the three-
いくつかの実施例において、計算機器120は、デスクトップコンピュータ、タブレットコンピュータ、パーソナルデジタルアシスタント(PDA)、サーバ、ホストなど、又は有線データ通信又は無線データ通信を行うことができる任意の他のプロセッサイネーブルデバイスを含むことができ、本開示はこれを限定しない。
In some examples,
本開示の実施例が提供する二次元画像に対する三次元画像を生成する解決手段をより明確に理解するために、図2を参照して本開示の実施例をさらに説明する。図2は、本開示の実施例に係る三次元画像を生成する過程200のフローチャートを示す。なお、過程200は、図1の計算機器120によって実現されてもよい。説明を容易にするために、図1を参照して過程200を説明する。
In order to more clearly understand the solution for generating three-dimensional images versus two-dimensional images provided by the embodiments of the present disclosure, the embodiments of the present disclosure will be further described with reference to FIG. 2. FIG. 2 shows a flowchart of a
ブロック210において、二次元画像110に対する入力情報を取得し、入力情報は少なくとも二次元画像110の深度情報を含む。深度情報は二次元画像110の深度画像を含むことができ、深度画像は二次元画像110を深度モデルに入力することにより取得することができる。理解すべきこととして、深度画像の解像度が二次元画像110の解像度と一致している。
At
いくつかの実施例において、深度モデルは、計算機器120に配置されてもよく、計算機器120と異なる他の計算機器に配置されてもよく、必要な深度情報をブロック220の入力として取得できればよく、本開示はこれを制限しない。
In some embodiments, the depth model may be located on
いくつかの実施例において、入力情報はさらに二次元画像110の前景マスク、背景マスク(前景マスク及び背景マスクを「前景背景マスク」と総称することができる)及び修正された画像情報などを含むことができる。
In some embodiments, the input information may further include a foreground mask, a background mask (the foreground mask and the background mask may be collectively referred to as "foreground and background masks"), modified image information, etc. of the two-
このような実施例において、二次元画像110は一般的に明らかな前景と背景を有する。分割モデルにより前景マスク及び背景マスクを取得し、かつ画像修正(inpainting)モデルにより修正された画像(すなわち修正画像情報)を取得することができる。このように、入力情報は、深度画像、修復された画像、前景マスク及び背景マスクを含むことができる。
In such embodiments, the two-
説明すべきこととして、分割モデル及び画像修復モデルは、計算機器120に配置されてもよく、計算機器120と異なる他の計算機器に配置されてもよく、必要な深度情報をブロック220の入力として取得できればよく、本開示はこれを制限しない。
It should be noted that the segmentation model and the image inpainting model may be located on the
ブロック220において、二次元画像110と入力情報を利用して、二次元画像110の各画素に対応する三次元点群を取得する。分かるように、ブロック220において、二次元画像110は入力情報と見なされてもよい。
At
いくつかの実施例において、二次元画像110と入力情報に対して正規化処理を行うことにより、三次元点群を取得することができる。正規化は、計算を簡略化する方式であり、数を(0、1)の間の小数に変更し、又は次元を有する表現式を、変換により、無次元の表現式に変換し、純粋な量になる。このように、データ処理を容易にし、計算量を減少させることができる。
In some embodiments, a three-dimensional point cloud can be obtained by performing a normalization process on the two-
いくつかの実施例において、二次元画像110の画素が位置する平面座標系を三次元座標系に変換し、かつ二次元画像110の画素に基づいて、三次元座標系における三次元点群を生成することができる。平面座標系は、画素座標系又は画像座標系のうちの少なくとも一種を含むことができ、かつ三次元座標系はカメラ座標系又はワールド座標系のうちの少なくとも一種を含む。このようにして、二次元画像110から三次元画像への遷移を迅速に実現することができる。
In some embodiments, a planar coordinate system in which pixels of the two-
以上の前景又は明らかな前景がない二次元画像110の実施例において、直接に深度画像に基づいて三次元変換(例えば数学的射影変換)を行って正規化処理後の三次元点群を生成することができる。説明すべきものとして、上記三次元変換の方式は例示的なものだけであり、二次元から三次元への変換を実現することができる任意の方式はいずれも可能であり、本開示はこれを制限しない。
In the above embodiment of the two-
前景と背景を有する二次元画像110における実施例において、前記のように、入力情報はさらに修正された画像、前景マスク及び背景マスクを含むことができる。以下では、平面座標系を画素座標系とし、三次元座標系をカメラ座標系とすることを例とし、以下の式(1)-(6)の数学的射影変換の方式により二次元画像110の各画素に対応する三次元点群を取得する過程を詳細に説明する。
In the embodiment of a two-
ここで、Zcは深度画像における画素の高さ情報であり、uおよびvはそれぞれ二次元画素座標系における座標位置であり、u0、v0は、画像中心であり、fは、仮想カメラの焦点距離であり、単位がmmであり、dx、dyは、画素サイズである。 Here, Z c is the height information of the pixel in the depth image, u and v are the coordinate positions in the two-dimensional pixel coordinate system, u 0 and v 0 are the image center, and f is the virtual camera is the focal length of , the unit is mm, and d x and dy are pixel sizes.
該実施例において、式(1)及び式(2)の数学的変換により、式(3)及び式(4)に示されるx軸及びy軸での正規化焦点距離fxおよびfyを取得することができる。正規化焦点距離fx及びfyを取得した後に、小孔結像原理に基づいて、式(5)及び式(6)により小孔結像に基づくカメラ座標系における画素のX軸及びY軸の座標Xc及びYcを取得することができる。 In this example, the normalized focal lengths f x and f y in the x and y axes shown in equations (3) and (4) are obtained by mathematical transformation of equations (1) and (2). can do. After obtaining the normalized focal lengths f The coordinates X c and Y c of can be obtained.
なお、式(1)及び式(2)の数学的変換方式は例示的なものだけであり、当業者は、実際の需要に応じて調整することができる。かつ座標Xc及びYcの決定方式も模式的であり、当業者は実際の必要に応じて式(3)及び式(4)を調整して他の方式で正規化焦点距離を決定することができ、本開示はこれを制限しない。 It should be noted that the mathematical conversion methods of equations (1) and (2) are only exemplary, and those skilled in the art can adjust them according to actual needs. In addition, the method for determining the coordinates X c and Y c is also schematic, and those skilled in the art can adjust equations (3) and (4) according to actual needs to determine the normalized focal length using other methods. can be used, and this disclosure does not limit this.
さらに説明する必要があることとして、上記式(5)及び式(6)は、u0、v0を画像中心としてX軸及びY軸の座標Xc及びYcを取得することである。当業者は、他の任意の画素点の位置を用いて関連画素の座標を計算することができ、本開示はこれを制限しない。 What needs further explanation is that the above equations (5) and (6) obtain the coordinates X c and Y c of the X and Y axes with u 0 and v 0 as the center of the image. Those skilled in the art can use any other pixel point location to calculate the coordinates of the relevant pixel, and this disclosure does not limit this.
さらに、仮想カメラの水平及び垂直画角をφh及びφvとすることができれば、以下を取得することができる: Furthermore, if the horizontal and vertical angles of view of the virtual camera can be set to φh and φv, the following can be obtained:
式(7)及び式(8)を結合して、画像画素座標系を小孔撮像に基づくカメラ座標系に変換することができ、即ち特定のレンダリング視野角を設定すれば、二次元画素座標系における画素から、三次元カメラ座標系における点群を生成することができる。深度マップ範囲が0~216-1であるため、普遍性を保証するために、深度マップ範囲を0~1にマッピングする。このようにすれば、上記簡便なステップにより二次元画像110に基づいて三次元画像を取得することができる。ハードウェア走査に基づいて取得された点群の方式に比べて、ハードウェアに不可避的に偏差が存在するため、点群に紛失(NAN値)が存在しやすく、深度学習に基づいて取得された点群に点群欠落問題が存在せず、したがってより高品質の三次元画像モデルを表示することができる。
By combining equations (7) and (8), the image pixel coordinate system can be transformed into the camera coordinate system based on stoma imaging, i.e., by setting a certain rendering viewing angle, the two-dimensional pixel coordinate system A point cloud in a three-dimensional camera coordinate system can be generated from pixels in . Since the depth map range is 0 to 2 16 -1, we map the depth map range to 0 to 1 to ensure universality. In this way, a three-dimensional image can be obtained based on the two-
説明すべきこととして、上記二次元画像110を三次元画像に変換する方式は例示的なものだけであり、当業者は、任意の適切な方式で上記変換を実現することができ、又は上記言及されたパラメータを対応的に調整して上記変換を実現することができ、本開示はこれを制限しない。
It should be noted that the manner of converting the two-
ブロック230において、目標二次元画素に対応する三次元点群中の点、及び目標二次元画素に隣接する一組の画素の対応する三次元点群における隣接点集合に基づいて、二次元画像110に対する三次元画像を生成する。
At
該実施例において、目標二次元画素は、二次元画像110における任意の画素であってもよく、例えば図3に示すような画素Xであってもよい。一組の画素は、目標二次元画素に隣接する画素の集合であり、例えば図3に示すような画素A-Hの集合であってもよい。二次元画素と三次元点群中の点は一対一に対応する関係があるため、理解されるように、目標二次元画素と隣接する一組の画素に対応する三次元点群中の点は空間上に一定の位置関係を有する。目標二次元画素に対応する三次元点群中の点及び隣接する一組の画素に対応する三次元点群中の隣接点集合に基づいて、二次元画像110に対する三次元画像を生成する。
In this embodiment, the target two-dimensional pixel may be any pixel in the two-
以下、図3を参照しながら、ブロック230がさらに実現する例示的なステップを説明する。図3は、本開示のいくつかの実施例に係る点群に基づいて三次元画像を生成する過程300の概略図を示す。図3において、上記のように、目標二次元画素はXであってもよく、目標二次元画素に隣接する一組の画素は画素A-Hの集合であってもよい。それに対応して、隣接点集合は、該一組の画素A-Hが三次元点群で対応する点の集合であってもよい。
Exemplary steps further implemented by
いくつかの実施例において、目標二次元画素Xに対応する三次元点群中の点、及び隣接点集合における少なくとも二つの点に基づいて、前記目標画素と前記一組の画素に対する平面301を取得し、かつ取得された平面グリッド301に基づいて、前記二次元画像110に対する前記三次元画像を生成することができる。
In some embodiments, a
該実施例において、平面グリッド301を生成する過程は、コード化及びシート化過程を含むことができる。すなわち、画素と点群との対応関係に基づいて、三次元座標系における点群を符号化してシート化し、それにより二次元画像に対する三次元画像モデルを生成することができる。このように、平面グリッド301の方式で三次元画像モデリングを実現することができ、即ち一枚の二次元画像で三次元モデリングを完了することができ、追加ハードウェアに依存する必要がなく、現場走査を行う必要がなく、高い実用価値を備える。
In this embodiment, the process of generating the
該実施例において、図3を参照し、一般に平面を決定するために、三つの点のみを必要とし、したがって目標二次元画素Xに対応する三次元点群中の点、及び一組の画素に対応する三次元点群のうちの任意の二つの点に基づいてシート化(すなわち平面化)を実現することができる。この場合、シートは、三角シートであってもよい。それに対応して、平面グリッド301は少なくとも一つの三角グリッドを含むことができる。
In this embodiment, with reference to FIG. 3, in order to determine a plane, generally only three points are required, thus a point in the three-dimensional point cloud corresponding to the target two-dimensional pixel X, and a set of pixels. Sheeting (ie, planarization) can be realized based on any two points of the corresponding three-dimensional point group. In this case, the sheet may be a triangular sheet. Correspondingly,
一つの実施例において、より具体的には、図3を参照すると、三角シートを実現する過程において、選択された隣接点集合のうちの二つの点に対応する二次元画像110中の画素は隣接する。例えば、目標二次元画素Xを決定した後に、隣接する一組の画素における画素Aと画素Bに対応する3D点群内の点を選択し、かつ画素と点群との対応関係に基づいて、画素A、画素X及び画素Bを3D点群でシート化し、三角シート310を取得する。
In one embodiment, more specifically, referring to FIG. 3, in the process of realizing the triangular sheet, pixels in the two-
同様に、画素X、画素B及び画素Cを三角シート化して三角シート320を得て、画素X、画素E及び画素Cを三角シート化して三角シート330を得て、画素X、画素E及び画素Hを三角シート化して三角シート340を得て、画素X、画素G及び画素Hを三角シート化して三角シート350を得て、このように類推して、完全な8つの三角シートで構成された平面グリッド301を得る。さらに、上記方法を二次元画像110の各画素に拡大して、三次元画像モデルを得ることができる。このように、無損失の三次元画像を得ることができ、それによりユーザの対話体験及び没入体験を大幅に向上させる。
Similarly, pixel X, pixel B, and pixel C are made into a triangular sheet to obtain a
説明すべきこととして、上記三角シート化の過程は、例示的なものだけであり、当業者はさらに他の任意の適切な方式で三次元画像モデリングを実現し、本開示はこれを制限しない。例えば、精度要求が相対的に低い場合に、さらに三角シートを採用する必要がなく、上記モデリングを行うことができる。すなわち、一組の画素を選択する時に、隣接する画素を取る必要がなく、このように形成された平面グリッド301は相対的に少ないシートで構成することができる。このように、部分精度を犠牲にするが、計算量を大幅に低減し、いくつかの低精度要求の三次元画像モデルに適用することができる。
It should be noted that the above triangular sheeting process is only an example, and those skilled in the art can further realize three-dimensional image modeling in any other suitable manner, and the present disclosure does not limit the same. For example, when accuracy requirements are relatively low, the above modeling can be performed without the need to further employ a triangular sheet. That is, when selecting a set of pixels, it is not necessary to select adjacent pixels, and the
いくつかの実施例において、図3を参照し、二次元画像110は一般的にテクスチャ情報又は色情報のうちの少なくとも一種の情報を含む。このような実施例において、二次元画像110の画素と三次元点群中点との対応関係に基づいて、テクスチャ情報又は前記色情報のうちの少なくとも一種の情報を平面グリッド301に描画し、かつ描画された平面グリッド301を利用して、二次元画像110に対する三次元画像を表示することができる。テクスチャ情報は画像における同質現象を反映する視覚的特徴であり、テクスチャ情報は、物体表面の緩やかな変化又は周期的変化を有する表面構造組織の配列属性を体現する。階調、色などの画像特徴と異なり、テクスチャは、画素及びその周囲空間近傍の階調分布により表現される。色情報は画像の階調、色などの画像特徴に対応する。
In some embodiments, referring to FIG. 3, two-
該実施例において、二次元画像110に基づく深度画像自体と二次元画像110とは厳密な一対一の対応関係が存在し、すなわち三次元点群とテクスチャ情報及び色情報との間に一対一の対応関係が存在することを意味する。したがって、三次元画像モデルを取得してテクスチャ情報又は色情報のうちの少なくとも一種の情報をレンダリングすることができ、それにより完全な三次元画像モデルを取得する。実際に、該ステップは、テクスチャ情報及び色情報のうちの少なくとも一種の情報を平面グリッド301の対応するシートに貼り付ける過程、即ち三次元画像モデルに対して着色及びレンダリングを行う過程であると理解することができる。
In this embodiment, there is a strict one-to-one correspondence between the depth image itself based on the two-
ハードウェア走査に基づいて点群を取得する解決手段において、ハードウェアは不可避的に偏差が存在するため、点群とテクスチャ情報及び色情報は、一対多の対応関係が存在し、テクスチャ情報と点群情報は完全に一対一に対応する可能性がなく、最終的にテクスチャ品質の低下を引き起こす。該実施例において、このような空間の強い相関関係により、テクスチャ情報及び色情報が失われることがなく、それにより高品質の、二次元画像110の立体化情報を完全に体現できる三次元画像モデルを得る。
In the solution method that acquires point clouds based on hardware scanning, there is an unavoidable deviation in the hardware, so there is a one-to-many correspondence relationship between the point cloud, texture information, and color information, and the texture information and point cloud The information may not have a perfect one-to-one correspondence, ultimately causing a decrease in texture quality. In this embodiment, due to such strong spatial correlation, texture information and color information are not lost, thereby creating a three-dimensional image model that can completely embody the three-dimensional information of the two-
図4は、本開示のいくつかの実施例に係る三次元ビデオストリームを生成する過程400のフローチャートを示す。過程400は、図1に示す計算機器120において実現されてもよく、他の任意の適切な計算機器で実現されてもよい。説明を容易にするために、図1を参照して過程400を説明する。
FIG. 4 shows a flowchart of a
ブロック410では、ビデオストリーム中の各フレームの二次元画像110に対して対応する三次元画像を生成する。いくつかの実施例において、二次元画像110を三次元画像に生成する過程は、図2に示す方法に基づいて実現するか又は他の任意の適切な方法に基づいて実現することができる。理解すべきこととして、ビデオストリームの一部のフレームに三次元画像を生成する必要がある場合、一部の特定のフレームを選択して三次元画像モデリングを行うこともでき、本開示はこれを制限しない。
At
ブロック420において、生成された三次元画像を利用して、三次元ビデオストリームを生成する。このように、三次元画像を生成した上で三次元ビデオストリームを得て、さらにユーザの没入体験及びインタラクティブ体験を向上させることができる。
At
図5は、本開示のいくつかの実施例に係る三次元画像を生成する装置500の模式図を示す。装置500は、入力情報取得モジュール510と、三次元点群取得モジュール520と、三次元画像生成モジュール530とを備える。
FIG. 5 shows a schematic diagram of an
入力情報取得モジュール510は、二次元画像110に対する入力情報を取得するように構成され、前記入力情報は少なくとも二次元画像110の深度情報を含む。前記のように、入力情報はさらに二次元画像の前景マスク、二次元画像の背景マスク、及び二次元画像の修正された画像情報の少なくとも一つを含むことができる。
The input
三次元点群取得モジュール520は、二次元画像110及び入力情報を利用して、二次元画像110の各画素に対応する三次元点群を取得するように構成される。
The three-dimensional point
いくつかの実施例において、三次元点群取得モジュール520は、正規化処理モジュールを含み、正規化処理モジュールは、二次元画像と入力情報に対して正規化処理を行うことにより、三次元点群を得るように構成される。
In some embodiments, the 3D point
いくつかの実施例において、三次元点群取得モジュール520は、さらに、三次元座標系変換モジュール及び三次元点群生成モジュールを含み、三次元座標系変換モジュールは、二次元画像110の画素が位置する平面座標系を三次元座標系に変換するように配置され、かつ三次元点群生成モジュールは、二次元画像110の画素に基づいて、三次元座標系における三次元点群を生成するように構成される。
In some embodiments, the 3D point
いくつかの実施例において、平面座標系は画素座標系又は画像座標系のうちの少なくとも一種を含むことができ、かつ三次元座標系はカメラ座標系又はワールド座標系のうちの少なくとも一種を含むことができる。 In some embodiments, the planar coordinate system can include at least one of a pixel coordinate system or an image coordinate system, and the three-dimensional coordinate system can include at least one of a camera coordinate system or a world coordinate system. I can do it.
三次元画像生成モジュール530は、目標二次元画素に対応する三次元点群中の点、及び目標二次元画素に隣接する一組の画素の対応する三次元点群における隣接点集合に基づいて、二次元画像110に対する三次元画像を生成するように構成される。
The three-dimensional
いくつかの実施例において、三次元画像生成モジュール530はさらに平面グリッド取得モジュール及び三次元画像生成サブモジュールを含み、平面グリッド取得モジュールは、目標二次元画素に対応する三次元点群中の点、及び隣接点集合における少なくとも二つの点に基づいて、目標画素と一組の画素に対する平面グリッドを取得するように構成され、かつ三次元画像生成サブモジュールは、取得された平面グリッドに基づいて、二次元画像110に対する三次元画像を生成するように構成される。
In some embodiments, the three-dimensional
いくつかの実施例において、隣接点集合における少なくとも二つの点に対応する画素は、隣接することができる。 In some embodiments, pixels corresponding to at least two points in the neighbor point set can be adjacent.
いくつかの実施例において、三次元画像生成モジュール530はさらに平面グリッド描画モジュール及び三次元画像表示モジュールを含み、平面グリッド描画モジュールは、二次元画像110の画素と三次元点群における点の対応関係に基づいて、テクスチャ情報又は色情報のうちの少なくとも一種の情報を平面グリッドに描画し、かつ三次元画像表示モジュールは描画された平面グリッドを利用して、二次元画像110に対する三次元画像を表示するように構成される。
In some embodiments, the three-dimensional
図6は、本開示の実施例に係る三次元ビデオストリームを生成する装置600の概略ブロック図である。装置600は、第2の三次元画像生成モジュール610と、三次元ビデオストリーム生成モジュール620とを備える。装置600は、図1に示される計算機器120において実現されてもよく、他の任意の適切な機器において実現されてもよい。説明を容易にするために、図1を参照して過程600を説明する。
FIG. 6 is a schematic block diagram of an
第2の三次元画像生成モジュール610は、ビデオストリーム内の各フレームの二次元画像110に対して、対応する三次元画像を生成するように構成される。三次元画像を生成するステップは、前述したような装置500によって実現されてもよい。
The second three-dimensional
三次元ビデオストリーム生成モジュール620は、生成された三次元画像を利用して、三次元ビデオストリームを生成するように構成される。このように、三次元画像を生成した上で三次元ビデオストリームを得て、さらにユーザの没入体験及びインタラクティブ体験を向上させることができる。
The 3D video
図7は、本開示の複数の実施例を実施可能な計算機器700のブロック図を示している。機器700は、図1の計算機器120を実現するために用いることができる。図に示すように、機器700は、中央処理ユニット(CPU)701を含み、それはリードオンリーメモリ(ROM)702に記憶されたコンピュータプログラム命令又は記憶ユニット708からランダムアクセスメモリ(RAM)703にロードされたコンピュータプログラム命令に基づいて、様々な適切な動作及び処理を実行することができる。RAM703には、さらに機器700の操作に必要な様々なプログラム及びデータを記憶することができる。CPU701、ROM702、およびRAM703は、バス704により相互に接続されている。バス704には、さらに、入出力(I/O)インタフェース705も接続されている。
FIG. 7 depicts a block diagram of a
機器700における複数の部品は、I/Oインタフェース705に接続され、例えばキーボード、マウス等の入力ユニット706と、例えば様々なタイプのディスプレイ、スピーカ等の出力ユニット707と、例えば磁気ディスク、光ディスク等の記憶ユニット708と、例えばネットワークカード、モデム、無線通信トランシーバ等の通信ユニット709と、を含む。通信ユニット709は、機器700がインターネット等のコンピュータネットワーク/各種の電気通信網を介して他の装置と情報/データをやり取りすることを可能にする。
A plurality of components in the
処理ユニット701は、例えば過程200及び過程400のうちの一つ又は複数という上記各方法及び処理を実行する。例えば、いくつかの実施例において、過程200及び過程400のうちの一つ又は複数はコンピュータソフトウェアプログラムとして実現され、それは、例えば記憶ユニット708という機械可読媒体に一時的に含まれる。いくつかの実施例において、コンピュータプログラムの一部又は全部はROM702及び/又は通信ユニット709を介して機器700にロード及び/又はインストールされる。コンピュータプログラムがRAM703にロードされかつCPU701により実行される場合、上記過程200及び過程400のうちの一つ又は複数のステップを実行することができる。代替的に、他の実施例において、CPU701は他の任意の適切な方式(例えば、ファームウェアを介して)により過程200及び過程400のうちの一つ又は複数を実行するように構成されてもよい。
The
本明細書で説明した機能は、少なくとも一部が一つまたは複数のハードウェアロジックによって実行されてもよい。例えば、非限定的に、使用可能な例示的なタイプのハードウェアロジック部品は、フィールドプログラマブルゲートアレイ(FPGA)、専用集積回路(ASIC)、専用標準製品(ASSP)、チップ上システムのシステム(SOC)、ロードプログラマブルロジックデバイス(CPLD)等を含む。 The functionality described herein may be performed at least in part by one or more hardware logic. For example, and without limitation, exemplary types of hardware logic components that may be used include field programmable gate arrays (FPGAs), special purpose integrated circuits (ASICs), special purpose standard products (ASSPs), systems on chips (SOCs), ), load programmable logic devices (CPLDs), etc.
本開示の方法を実施するためのプログラムコードは、一つ又は複数のプログラム言語の任意の組み合わせで作成することができる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ又は他のプログラム可能なデータ処理装置のプロセッサ又はコントローラに提供することができ、それによりプログラムコードはプロセッサ又はコントローラにより実行される時にフローチャート及び/又はブロック図に規定された機能/操作が実施される。プログラムコードは機器に完全に実行され、部分的に機器で実行されてもよく、独立したソフトウェアパッケージ部分として機器で実行されかつ遠隔機器で部分的に実行されるか又は完全に遠隔機器又はサーバで実行される。 Program code for implementing the methods of this disclosure may be written in any combination of one or more programming languages. These program codes may be provided to a processor or controller of a general purpose computer, special purpose computer, or other programmable data processing device such that, when executed by the processor or controller, the program codes may be implemented in flowchart and/or block diagram formats. The functions/operations specified in the above shall be carried out. The program code may be executed entirely on the device, partially executed on the device, executed on the device as part of a separate software package and partially executed on a remote device, or completely executed on a remote device or server. executed.
本開示のコンテキストにおいて、機械可読媒体は有形の媒体であってもよく、それは命令実行システム、装置又は装置の使用又は命令実行システム、装置又は装置と組み合わせて使用されるプログラムを含むか又は記憶することができる。機械可読媒体は機械可読信号媒体又は機械可読記憶媒体であってもよい。機械可読媒体は電子の、磁気的、光学的、電磁的、赤外線の、又は半導体システム、装置又は装置、又は上記内容の任意の適切な組み合わせを含むがそれらに限定されない。機械可読記憶媒体のより具体的な例は一つ以上の線に基づく電気的接続、携帯式コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、便利式コンパクトフラッシュ(登録商標)メモリ(CD-ROM)、光記憶装置、磁気記憶装置、又は上記コンテンツの任意の適切な組み合わせを含む。 In the context of this disclosure, a machine-readable medium may be a tangible medium that contains or stores an instruction execution system, apparatus or use of or a program for use in conjunction with an instruction execution system, apparatus or apparatus. be able to. A machine-readable medium may be a machine-readable signal medium or a machine-readable storage medium. Machine-readable media include, but are not limited to, electronic, magnetic, optical, electromagnetic, infrared, or semiconductor systems, devices, or devices, or any suitable combination of the above. More specific examples of machine-readable storage media include electrical connections based on one or more wires, portable computer disks, hard disks, random access memory (RAM), read-only memory (ROM), and erasable programmable read-only memory. (EPROM or flash memory), fiber optics, compact flash memory (CD-ROM), optical storage, magnetic storage, or any suitable combination of the above content.
また、特定の順序で各操作を描画したが、これは以下のように理解すべきである:このような操作は示された特定の順序又は順序で実行されることが要求され、又は全ての図示の操作が実行されるように要求されて所望の結果を取得することが要求される。一定の環境で、マルチタスク及び並列処理が有利である可能性がある。同様に、上記においていくつかの具体的な実現詳細を含むが、これらは本開示の範囲を限定するものと解釈されるべきではない。個別の実施例のコンテキストに記述されたいくつかの特徴はさらに組み合わせて単一の実現に実現されてもよい。逆に、単一で実現されるコンテキストに記述された様々な特徴は単独で又は任意の適切なサブセットの方式で複数の実現に実現されてもよい。 Also, although we have drawn each operation in a particular order, this should be understood as: such operations are required to be performed in the particular order or order shown, or that all The illustrated operations are required to be performed to obtain the desired results. In certain circumstances, multitasking and parallel processing may be advantageous. Similarly, although some specific implementation details are included above, these should not be construed as limiting the scope of the disclosure. Certain features that are described in the context of separate embodiments may also be implemented in combination in a single implementation. Conversely, various features described in the context of a single implementation may be implemented in multiple implementations singly or in any suitable subset manner.
構造的特徴及び/又は方法の論理動作に特化した言語を用いて本主題を説明したが、添付の特許請求の範囲に限定された主題は必ずしも上記特定の特徴又は動作に限定されるものではないと理解すべきである。逆に、上記特定の特徴及び動作は特許請求の範囲の例示的な形態を実現するだけである。 Although the present subject matter has been described in language specific to structural features and/or methodological operations, the subject matter limited in the appended claims is not necessarily limited to such specific features or operations. It should be understood that there is no such thing. On the contrary, the specific features and acts described above merely implement example forms of the claims.
(関連出願のクロス援用)
本願は、出願番号が202111056671.6であり、名称が「画像処理ための方
法、装置、機器、記憶媒体及びプログラム製品」であり、出願日が2021年9月9日である中国発明特許出願の優先権を主張し、この援用により該出願全体を本明細書に組み込む。(Cross-incorporation of related applications)
This application is a Chinese invention patent application whose application number is 202111056671.6 and whose name is "Method, apparatus, equipment, storage medium and program product for image processing" and whose filing date is September 9, 2021. Priority is claimed and the entire application is incorporated herein by this reference.
本開示の実施例は主にコンピュータの分野に関し、より具体的には、画像処理方法及び装置、電子機器、記憶媒体ならびにコンピュータプログラムに関する。Embodiments of the present disclosure primarily relate to the field of computers, and more particularly to image processing methods and apparatuses, electronic devices, storage media, and computer programs .
画像の二次元表示は、現在最も主要な画像表示形式である。二次元画像とは、一般に平面画像である。二次元画像は左、右、上、下の四つの方向のみがあり、前後が存在しない。したがって、二次元画像は面積のみがあり、体積がない。一般的に、二次元画像は、RGB画像又はグレースケール画像であってもよい。ユーザがより良好な没入式又は対話型体験を必要とする場合、二次元画像を三次元画像に変換する方法が必要である。 Two-dimensional image display is currently the most common image display format. A two-dimensional image is generally a planar image. A two-dimensional image has only four directions: left, right, top, and bottom, and there is no front or back. Therefore, a two-dimensional image has only area and no volume. Generally, a two-dimensional image may be an RGB image or a grayscale image. When users require a better immersive or interactive experience, a method of converting two-dimensional images to three-dimensional images is needed.
本開示の実施例によれば、画像処理の解決手段を提供する。 According to embodiments of the present disclosure, an image processing solution is provided.
本開示の第一態様において、画像処理方法を提供し、二次元画像に対する、少なくとも二次元画像の深度情報を含む入力情報を取得することと、二次元画像及び入力情報を用いて、二次元画像の各画素に対応する三次元点群を取得することと、目標二次元画素に対応する三次元点群中の点、及び目標二次元画素に隣接する一組の画素の対応する三次元点群における隣接点集合に基づいて、二次元画像に対する三次元画像を生成することと、を含む。 In a first aspect of the present disclosure, an image processing method is provided, which includes acquiring input information including at least depth information of the two-dimensional image, and processing the two-dimensional image using the two-dimensional image and the input information. a point in the three-dimensional point cloud corresponding to the target two-dimensional pixel, and a corresponding three-dimensional point cloud of a set of pixels adjacent to the target two-dimensional pixel; and generating a three-dimensional image for the two-dimensional image based on a set of adjacent points in the image.
本開示の第二態様において、ビデオ処理方法を提供し、本開示の第一態様の方法に基づいて、ビデオストリーム中の各フレームの二次元画像に対して対応する三次元画像を生成することと、生成された三次元画像を利用して、三次元ビデオストリームを生成することと、を含む。 In a second aspect of the disclosure, there is provided a video processing method, comprising: generating a corresponding three-dimensional image for a two-dimensional image of each frame in a video stream based on the method of the first aspect of the disclosure; , and generating a three-dimensional video stream using the generated three-dimensional image.
本開示の第三態様において、画像処理の装置を提供し、二次元画像に対する、少なくとも二次元画像の深度情報を含む入力情報を取得するように構成される入力情報取得モジュールと、二次元画像及び入力情報を用いて、二次元画像の各画素に対応する三次元点群を取得するように構成される三次元点群取得モジュールと、目標二次元画素に対応する三次元点群中の点、及び目標二次元画素に隣接する一組の画素の対応する三次元点群における隣接点集合に基づいて、二次元画像に対する三次元画像を生成するように構成される三次元画像生成モジュールと、を含む。 In a third aspect of the present disclosure, an image processing apparatus is provided, and an input information acquisition module configured to acquire input information including at least depth information of the two-dimensional image with respect to the two-dimensional image; a three-dimensional point cloud acquisition module configured to use input information to acquire a three-dimensional point cloud corresponding to each pixel of a two-dimensional image; a point in the three-dimensional point cloud corresponding to a target two-dimensional pixel; and a three-dimensional image generation module configured to generate a three-dimensional image for the two-dimensional image based on a set of adjacent points in a corresponding three-dimensional point group of a set of pixels adjacent to the target two-dimensional pixel. include.
本開示の第四態様において、ビデオ処理装置を提供し、本開示の第二態様の方法に基づいて、ビデオストリーム中の各フレームの二次元画像に対して対応する三次元画像を生成するように構成される第2の三次元画像生成モジュールと、生成された三次元画像を利用して、三次元ビデオストリームを生成するように構成される三次元ビデオストリーム生成モジュールと、を含む。 In a fourth aspect of the disclosure, there is provided a video processing apparatus, adapted to generate a corresponding three-dimensional image for a two-dimensional image of each frame in a video stream based on the method of the second aspect of the disclosure. and a 3D video stream generation module configured to generate a 3D video stream using the generated 3D image.
本開示の第五態様において、電子機器を提供し、一つ又は複数のプロセッサと、一つ又は複数のプログラムを記憶する記憶装置と、を含み、一つ又は複数のプログラムが一つ又は複数のプロセッサにより実行されることにより、一つ又は複数のプロセッサが本開示の第一態様又は第二態様に係る方法を実現する。 In a fifth aspect of the present disclosure, there is provided an electronic device including one or more processors and a storage device storing one or more programs, the one or more programs being one or more. When executed by the processor, one or more processors implement the method according to the first aspect or the second aspect of the present disclosure.
本開示の第六態様において、コンピュータ可読な記憶媒体を提供し、コンピュータプログラムが記憶され、プログラムがプロセッサにより実行される時に本開示の第一態様又は第二態様に係る方法を実現する。 In a sixth aspect of the present disclosure, a computer readable storage medium is provided, in which a computer program is stored, and when the program is executed by a processor, it implements a method according to the first or second aspect of the present disclosure.
本開示の第七態様において、コンピュータプログラムを提供し、プロセッサにより実行される時、本開示の第一態様又は第二態様に係る方法を実行する。 In a seventh aspect of the disclosure, a computer program is provided, which when executed by a processor performs a method according to the first or second aspect of the disclosure .
理解すべきことは、発明の内容部分に記述された内容は本開示の実施例のキー又は重要な特徴を限定するものではなく、本開示の範囲を限定するものではない。本開示の他の特徴は、以下の説明により容易に理解されるであろう。 It is to be understood that what is described in the Summary section does not limit the key or important features of the embodiments of the present disclosure and does not limit the scope of the present disclosure. Other features of the disclosure will be readily understood from the following description.
図面を参照しながら以下の詳細な説明を参照し、本開示の各実施例の上記及び他の特徴、利点及び方面はより明らかになる。図面において、同一又は類似の図面は同一又は類似の要素を示す。 These and other features, advantages and aspects of embodiments of the present disclosure will become more apparent with reference to the following detailed description with reference to the drawings. In the drawings, identical or similar drawings indicate identical or similar elements.
以下、本発明の実施例について、図面を参照してより詳細に説明する。図面において本開示のいくつかの実施例を示すが、理解すべきこととして、本開示は様々な形式で実現することができ、かつ説明される実施例に限定されるべきではなく、逆にこれらの実施例を提供することは本開示をより徹底的かつ完全に理解するためである。理解すべきこととして、本開示の図面及び実施例は例示的な作用のみに用いられ、本開示の保護範囲を限定するものではない。 Hereinafter, embodiments of the present invention will be described in more detail with reference to the drawings. Although several embodiments of the disclosure are shown in the drawings, it should be understood that the disclosure may be implemented in various forms and is not limited to the embodiments described, on the contrary. In order that the present disclosure may be more thoroughly and completely understood, it is preferable to provide examples of the present disclosure. It should be understood that the drawings and embodiments of the present disclosure are used for illustrative purposes only and are not intended to limit the protection scope of the present disclosure.
本開示の実施例の説明において、用語「含む」及びその類似用語は、開放的に含み、即ち「含むがこれらに限定されない」と理解すべきである。用語「基づく」は、「少なくとも部分的に基づいて」であると理解すべきである。用語「一つの実施例」又は「該実施例」は、「少なくとも一つの実施例」と理解すべきである。用語「第一」、「第二」などは異なる又は同じ対象を指すことができる。以下にさらに他の明確な及び暗黙的な定義を含む可能性がある。 In describing embodiments of the present disclosure, the term "comprising" and its analogous terms should be understood to include inclusively, ie, "including, but not limited to." The term "based on" is to be understood as "based at least in part." The terms "an embodiment" or "the embodiment" are to be understood as "at least one embodiment." The terms "first", "second", etc. can refer to different or the same object. The following may contain further explicit and implicit definitions.
また、本明細書において、理解すべきこととして、用語「3D」は、「三次元」に相当することができ、用語「2D」は「二次元」に相当することができ、かつ「三次元画像」は「三次元画像モデル」に相当することができる。 Also, as used herein, it should be understood that the term "3D" can correspond to "three dimensions," and the term "2D" can correspond to "two dimensions," and "three dimensions" can correspond to "three dimensions." "image" can correspond to "three-dimensional image model".
前述したように、二次元画像を三次元画像に変換する方法を必要とし、より良好な没入型又は対話型体験を満たす。従来、主に二種類の解決案がある。一態様において、三次元ソフトウェアに基づいて設計することができ、ユーザは例えばBlenderなどの三次元モデルを直接利用して二次元画像を三次元画像に生成することができる。しかしながら、このような方式は既に存在する三次元モデルに依存する必要があり、かつその応用シーンは既知の三次元情報のシーンにしか存在していないので、この解決案の応用範囲は限られている。 As mentioned above, there is a need for a method to convert two-dimensional images into three-dimensional images to satisfy a better immersive or interactive experience. Traditionally, there are mainly two types of solutions. In one embodiment, the design can be based on three-dimensional software, and the user can directly utilize a three-dimensional model such as Blender to generate a two-dimensional image into a three-dimensional image. However, since such a method needs to rely on an already existing 3D model, and its application scene only exists in the scene of known 3D information, the scope of application of this solution is limited. There is.
別の従来の解決案において、一般的に、三角測量原理のハードウェア走査方式に基づいて二次元画像を三次元画像に変換する。しかしながら、このような解決手段は、対応するハードウェアに依存する(構造光、tof等に基づく)必要がある。特定のサイズの測定すべき物体に対して、複数回走査する必要があり、三次元モデル再構成を実現することができる。また、特定の走査ハードウェアに対して、再構成すべき物体のサイズが大きいほど、走査回数が多いほど、対応する計算量も大きくなる;また、該解決案はハードウェアに基づいて実現されるため、三次元モデル再構成された物体に対して現場走査を行う必要があるため、該技術案は使用上に大きな限界性を有する。 In another conventional solution, a two-dimensional image is generally converted into a three-dimensional image based on a hardware scanning method of triangulation principle. However, such solutions have to depend on the corresponding hardware (based on structured light, tof, etc.). An object to be measured of a specific size needs to be scanned multiple times, and three-dimensional model reconstruction can be realized. Also, for a given scanning hardware, the larger the size of the object to be reconstructed and the greater the number of scans, the larger the corresponding computational effort; Therefore, it is necessary to perform on-site scanning of the object whose three-dimensional model has been reconstructed, so this technical proposal has a large limitation in use.
上記問題と他の潜在的な問題を少なくとも部分的に解決するために、本明細書は二次元画像に基づいて三次元画像を生成する解決手段を提供する。該解決手段において、二次元写真を利用して三次元モデルの構築を実現することができ、良好な普遍性及び汎用性を有し、追加のハードウェアに依存せず、現場の走査を必要としない。かつ、三次元点群における点と二次元画像の画素との一対一の対応関係を利用して、三次元画像の色情報及びテクスチャ情報を三次元画像モデルに描画することができる。このようにして、該解決手段を利用して生成された三次元画像の色情報及びテクスチャ情報が失われず、それにより高品質の3Dモデルを生成し、さらにユーザの没入型及び対話型体験を大幅に向上させる。 To at least partially solve the above problems and other potential problems, the present specification provides a solution for generating three-dimensional images based on two-dimensional images. The solution can realize the construction of a 3D model using 2D photographs, has good universality and versatility, does not rely on additional hardware, and does not require on-site scanning. do not. Moreover, the color information and texture information of the three-dimensional image can be drawn on the three-dimensional image model by using the one-to-one correspondence between the points in the three-dimensional point group and the pixels of the two-dimensional image. In this way, the color information and texture information of the 3D images generated using the solution are not lost, thereby generating high-quality 3D models and further improving the immersive and interactive experience of the user. to improve.
以下、本発明の実施例について、図面を参照して具体的に説明する。 Embodiments of the present invention will be specifically described below with reference to the drawings.
図1は、本開示の複数の実施例が実現可能な例示環境100の概略図を示す。該例示環境100において、二次元画像110を計算機器120に入力することができ、計算機器120に対応計算(例えば以下に説明する深度計算及び画像修復など)を行い、三次元画像130を生成する。 FIG. 1 depicts a schematic diagram of an
いくつかの実施例において、二次元画像110は、前述のような平面画像であってもよい。説明すべきものとして、該二次元画像110は前景と背景を有する画像であってもよく、前景を有しないか、又は明らかな前景を有しない画像であってもよい。 In some embodiments, two-
説明すべきことは、二次元画像における前景と背景は、画像技術分野の一般的な概念である。一般的に、画像の前景は視聴者に最も近い視覚平面であり、画像における背景は視聴者から遠い合成における平面である。例えば、人物の一枚の二次元画像において、人物は一般的に画像の前景であり、画像における他の部分は常に背景と呼ばれる。いくつかの画像に対して、例えば青空白雲画像であれば、それは前景又は明らかな前景がなく、これも二次元画像の一種である。 It should be explained that foreground and background in two-dimensional images are common concepts in the field of imaging technology. Generally, the foreground of an image is the visual plane closest to the viewer, and the background in the image is the plane in the composition that is farthest from the viewer. For example, in a two-dimensional image of a person, the person is generally in the foreground of the image, and the other parts of the image are always referred to as the background. For some images, such as a blue sky cloud image, it has no foreground or obvious foreground, which is also a type of two-dimensional image.
本開示の異なる実施例において、異なる種類の二次元画像110に対して計算機器120により異なる処理を行うことができる。このことは、後に詳述する。 In different embodiments of the present disclosure, different types of two-
相応的には、三次元画像130(「三次元画像モデル」とも呼ばれる)は一般的に高さ、幅及び奥行きを有する立体画像を指す。本開示の実施例において、三次元画像130は二次元画像110に基づいて取得されたユーザの没入型及び対話型体験をより向上させることができる画像であってもよい。 Correspondingly, three-dimensional image 130 (also referred to as a "three-dimensional image model") generally refers to a three-dimensional image having a height, width, and depth. In embodiments of the present disclosure, the three-
いくつかの実施例において、計算機器120は、デスクトップコンピュータ、タブレットコンピュータ、パーソナルデジタルアシスタント(PDA)、サーバ、ホストなど、又は有線データ通信又は無線データ通信を行うことができる任意の他のプロセッサイネーブルデバイスを含むことができ、本開示はこれを限定しない。 In some examples,
本開示の実施例が提供する二次元画像に対する三次元画像を生成する解決手段をより明確に理解するために、図2を参照して本開示の実施例をさらに説明する。図2は、本開示の実施例に係る三次元画像を生成する過程200のフローチャートを示す。なお、過程200は、図1の計算機器120によって実現されてもよい。説明を容易にするために、図1を参照して過程200を説明する。 In order to more clearly understand the solution for generating three-dimensional images versus two-dimensional images provided by the embodiments of the present disclosure, the embodiments of the present disclosure will be further described with reference to FIG. 2. FIG. 2 shows a flowchart of a
ブロック210において、二次元画像110に対する入力情報を取得し、入力情報は少なくとも二次元画像110の深度情報を含む。深度情報は二次元画像110の深度画像を含むことができ、深度画像は二次元画像110を深度モデルに入力することにより取得することができる。理解すべきこととして、深度画像の解像度が二次元画像110の解像度と一致している。 At
いくつかの実施例において、深度モデルは、計算機器120に配置されてもよく、計算機器120と異なる他の計算機器に配置されてもよく、必要な深度情報をブロック220の入力として取得できればよく、本開示はこれを制限しない。 In some embodiments, the depth model may be located on
いくつかの実施例において、入力情報はさらに二次元画像110の前景マスク、背景マスク(前景マスク及び背景マスクを「前景背景マスク」と総称することができる)及び修正された画像情報などを含むことができる。 In some embodiments, the input information may further include a foreground mask, a background mask (the foreground mask and the background mask may be collectively referred to as "foreground and background masks"), modified image information, etc. of the two-
このような実施例において、二次元画像110は一般的に明らかな前景と背景を有する。分割モデルにより前景マスク及び背景マスクを取得し、かつ画像修正(inpainting)モデルにより修正された画像(すなわち修正画像情報)を取得することができる。このように、入力情報は、深度画像、修復された画像、前景マスク及び背景マスクを含むことができる。 In such embodiments, the two-
説明すべきこととして、分割モデル及び画像修復モデルは、計算機器120に配置されてもよく、計算機器120と異なる他の計算機器に配置されてもよく、必要な深度情報をブロック220の入力として取得できればよく、本開示はこれを制限しない。 It should be noted that the segmentation model and the image inpainting model may be located on the
ブロック220において、二次元画像110と入力情報を利用して、二次元画像110の各画素に対応する三次元点群を取得する。分かるように、ブロック220において、二次元画像110は入力情報と見なされてもよい。 At
いくつかの実施例において、二次元画像110と入力情報に対して正規化処理を行うことにより、三次元点群を取得することができる。正規化は、計算を簡略化する方式であり、数を(0、1)の間の小数に変更し、又は次元を有する表現式を、変換により、無次元の表現式に変換し、純粋な量になる。このように、データ処理を容易にし、計算量を減少させることができる。 In some embodiments, a three-dimensional point cloud can be obtained by performing a normalization process on the two-
いくつかの実施例において、二次元画像110の画素が位置する平面座標系を三次元座標系に変換し、かつ二次元画像110の画素に基づいて、三次元座標系における三次元点群を生成することができる。平面座標系は、画素座標系又は画像座標系のうちの少なくとも一種を含むことができ、かつ三次元座標系はカメラ座標系又はワールド座標系のうちの少なくとも一種を含む。このようにして、二次元画像110から三次元画像への遷移を迅速に実現することができる。 In some embodiments, a planar coordinate system in which pixels of the two-
以上の前景又は明らかな前景がない二次元画像110の実施例において、直接に深度画像に基づいて三次元変換(例えば数学的射影変換)を行って正規化処理後の三次元点群を生成することができる。説明すべきものとして、上記三次元変換の方式は例示的なものだけであり、二次元から三次元への変換を実現することができる任意の方式はいずれも可能であり、本開示はこれを制限しない。 In the above embodiment of the two-
前景と背景を有する二次元画像110における実施例において、前記のように、入力情報はさらに修正された画像、前景マスク及び背景マスクを含むことができる。以下では、平面座標系を画素座標系とし、三次元座標系をカメラ座標系とすることを例とし、以下の式(1)-(6)の数学的射影変換の方式により二次元画像110の各画素に対応する三次元点群を取得する過程を詳細に説明する。 In the embodiment of a two-
ここで、Zcは深度画像における画素の高さ情報であり、uおよびvはそれぞれ二次元画素座標系における座標位置であり、u0、v0は、画像中心であり、fは、仮想カメラの焦点距離であり、単位がmmであり、dx、dyは、画素サイズである。Here, Z c is the height information of the pixel in the depth image, u and v are the coordinate positions in the two-dimensional pixel coordinate system, u 0 and v 0 are the image center, and f is the virtual camera is the focal length of , the unit is mm, and d x and dy are pixel sizes.
該実施例において、式(1)及び式(2)の数学的変換により、式(3)及び式(4)に示されるx軸及びy軸での正規化焦点距離fxおよびfyを取得することができる。正規化焦点距離fx及びfyを取得した後に、小孔結像原理に基づいて、式(5)及び式(6)により小孔結像に基づくカメラ座標系における画素のX軸及びY軸の座標Xc及びYcを取得することができる。In this example, the normalized focal lengths f x and f y in the x and y axes shown in equations (3) and (4) are obtained by mathematical transformation of equations (1) and (2). can do. After obtaining the normalized focal lengths f The coordinates X c and Y c of can be obtained.
なお、式(1)及び式(2)の数学的変換方式は例示的なものだけであり、当業者は、実際の需要に応じて調整することができる。かつ座標Xc及びYcの決定方式も模式的であり、当業者は実際の必要に応じて式(3)及び式(4)を調整して他の方式で正規化焦点距離を決定することができ、本開示はこれを制限しない。It should be noted that the mathematical conversion methods of equations (1) and (2) are only exemplary, and those skilled in the art can adjust them according to actual needs. In addition, the method for determining the coordinates X c and Y c is also schematic, and those skilled in the art can adjust equations (3) and (4) according to actual needs to determine the normalized focal length using other methods. can be used, and this disclosure does not limit this.
さらに説明する必要があることとして、上記式(5)及び式(6)は、u0、v0を画像中心としてX軸及びY軸の座標Xc及びYcを取得することである。当業者は、他の任意の画素点の位置を用いて関連画素の座標を計算することができ、本開示はこれを制限しない。What needs further explanation is that the above equations (5) and (6) obtain the coordinates X c and Y c of the X and Y axes with u 0 and v 0 as the center of the image. Those skilled in the art can use any other pixel point location to calculate the coordinates of the relevant pixel, and this disclosure does not limit this.
さらに、仮想カメラの水平及び垂直画角をφh及びφvとすることができれば、以下を取得することができる: Furthermore, if the horizontal and vertical angles of view of the virtual camera can be set to φh and φv, the following can be obtained:
式(7)及び式(8)を結合して、画像画素座標系を小孔撮像に基づくカメラ座標系に変換することができ、即ち特定のレンダリング視野角を設定すれば、二次元画素座標系における画素から、三次元カメラ座標系における点群を生成することができる。深度マップ範囲が0~216-1であるため、普遍性を保証するために、深度マップ範囲を0~1にマッピングする。このようにすれば、上記簡便なステップにより二次元画像110に基づいて三次元画像を取得することができる。ハードウェア走査に基づいて取得された点群の方式に比べて、ハードウェアに不可避的に偏差が存在するため、点群に紛失(NAN値)が存在しやすく、深度学習に基づいて取得された点群に点群欠落問題が存在せず、したがってより高品質の三次元画像モデルを表示することができる。By combining equations (7) and (8), the image pixel coordinate system can be transformed into the camera coordinate system based on stoma imaging, i.e., by setting a certain rendering viewing angle, the two-dimensional pixel coordinate system A point cloud in a three-dimensional camera coordinate system can be generated from pixels in . Since the depth map range is 0 to 2 16 -1, we map the depth map range to 0 to 1 to ensure universality. In this way, a three-dimensional image can be obtained based on the two-
説明すべきこととして、上記二次元画像110を三次元画像に変換する方式は例示的なものだけであり、当業者は、任意の適切な方式で上記変換を実現することができ、又は上記言及されたパラメータを対応的に調整して上記変換を実現することができ、本開示はこれを制限しない。 It should be noted that the manner of converting the two-
ブロック230において、目標二次元画素に対応する三次元点群中の点、及び目標二次元画素に隣接する一組の画素の対応する三次元点群における隣接点集合に基づいて、二次元画像110に対する三次元画像を生成する。 At
該実施例において、目標二次元画素は、二次元画像110における任意の画素であってもよく、例えば図3に示すような画素Xであってもよい。一組の画素は、目標二次元画素に隣接する画素の集合であり、例えば図3に示すような画素A-Hの集合であってもよい。二次元画素と三次元点群中の点は一対一に対応する関係があるため、理解されるように、目標二次元画素と隣接する一組の画素に対応する三次元点群中の点は空間上に一定の位置関係を有する。目標二次元画素に対応する三次元点群中の点及び隣接する一組の画素に対応する三次元点群中の隣接点集合に基づいて、二次元画像110に対する三次元画像を生成する。 In this embodiment, the target two-dimensional pixel may be any pixel in the two-
以下、図3を参照しながら、ブロック230がさらに実現する例示的なステップを説明する。図3は、本開示のいくつかの実施例に係る点群に基づいて三次元画像を生成する過程300の概略図を示す。図3において、上記のように、目標二次元画素はXであってもよく、目標二次元画素に隣接する一組の画素は画素A-Hの集合であってもよい。それに対応して、隣接点集合は、該一組の画素A-Hが三次元点群で対応する点の集合であってもよい。 Exemplary steps further implemented by
いくつかの実施例において、目標二次元画素Xに対応する三次元点群中の点、及び隣接点集合における少なくとも二つの点に基づいて、前記目標画素と前記一組の画素に対する平面301を取得し、かつ取得された平面グリッド301に基づいて、前記二次元画像110に対する前記三次元画像を生成することができる。 In some embodiments, a
該実施例において、平面グリッド301を生成する過程は、コード化及びシート化過程を含むことができる。すなわち、画素と点群との対応関係に基づいて、三次元座標系における点群を符号化してシート化し、それにより二次元画像に対する三次元画像モデルを生成することができる。このように、平面グリッド301の方式で三次元画像モデリングを実現することができ、即ち一枚の二次元画像で三次元モデリングを完了することができ、追加ハードウェアに依存する必要がなく、現場走査を行う必要がなく、高い実用価値を備える。 In this embodiment, the process of generating the
該実施例において、図3を参照し、一般に平面を決定するために、三つの点のみを必要とし、したがって目標二次元画素Xに対応する三次元点群中の点、及び一組の画素に対応する三次元点群のうちの任意の二つの点に基づいてシート化(すなわち平面化)を実現することができる。この場合、シートは、三角シートであってもよい。それに対応して、平面グリッド301は少なくとも一つの三角グリッドを含むことができる。 In this embodiment, with reference to FIG. 3, in order to determine a plane, generally only three points are required, thus a point in the three-dimensional point cloud corresponding to the target two-dimensional pixel X, and a set of pixels. Sheeting (ie, planarization) can be realized based on any two points of the corresponding three-dimensional point group. In this case, the sheet may be a triangular sheet. Correspondingly,
一つの実施例において、より具体的には、図3を参照すると、三角シートを実現する過程において、選択された隣接点集合のうちの二つの点に対応する二次元画像110中の画素は隣接する。例えば、目標二次元画素Xを決定した後に、隣接する一組の画素における画素Aと画素Bに対応する3D点群内の点を選択し、かつ画素と点群との対応関係に基づいて、画素A、画素X及び画素Bを3D点群でシート化し、三角シート310を取得する。 In one embodiment, more specifically, referring to FIG. 3, in the process of realizing the triangular sheet, pixels in the two-
同様に、画素X、画素B及び画素Cを三角シート化して三角シート320を得て、画素X、画素E及び画素Cを三角シート化して三角シート330を得て、画素X、画素E及び画素Hを三角シート化して三角シート340を得て、画素X、画素G及び画素Hを三角シート化して三角シート350を得て、このように類推して、完全な8つの三角シートで構成された平面グリッド301を得る。さらに、上記方法を二次元画像110の各画素に拡大して、三次元画像モデルを得ることができる。このように、無損失の三次元画像を得ることができ、それによりユーザの対話体験及び没入体験を大幅に向上させる。 Similarly, pixel X, pixel B, and pixel C are made into a triangular sheet to obtain a
説明すべきこととして、上記三角シート化の過程は、例示的なものだけであり、当業者はさらに他の任意の適切な方式で三次元画像モデリングを実現し、本開示はこれを制限しない。例えば、精度要求が相対的に低い場合に、さらに三角シートを採用する必要がなく、上記モデリングを行うことができる。すなわち、一組の画素を選択する時に、隣接する画素を取る必要がなく、このように形成された平面グリッド301は相対的に少ないシートで構成することができる。このように、部分精度を犠牲にするが、計算量を大幅に低減し、いくつかの低精度要求の三次元画像モデルに適用することができる。 It should be noted that the above triangular sheeting process is only an example, and those skilled in the art can further realize three-dimensional image modeling in any other suitable manner, and the present disclosure does not limit the same. For example, when accuracy requirements are relatively low, the above modeling can be performed without the need to further employ a triangular sheet. That is, when selecting a set of pixels, it is not necessary to select adjacent pixels, and the
いくつかの実施例において、図3を参照し、二次元画像110は一般的にテクスチャ情報又は色情報のうちの少なくとも一種の情報を含む。このような実施例において、二次元画像110の画素と三次元点群中点との対応関係に基づいて、テクスチャ情報又は前記色情報のうちの少なくとも一種の情報を平面グリッド301に描画し、かつ描画された平面グリッド301を利用して、二次元画像110に対する三次元画像を表示することができる。テクスチャ情報は画像における同質現象を反映する視覚的特徴であり、テクスチャ情報は、物体表面の緩やかな変化又は周期的変化を有する表面構造組織の配列属性を体現する。階調、色などの画像特徴と異なり、テクスチャは、画素及びその周囲空間近傍の階調分布により表現される。色情報は画像の階調、色などの画像特徴に対応する。 In some embodiments, referring to FIG. 3, two-
該実施例において、二次元画像110に基づく深度画像自体と二次元画像110とは厳密な一対一の対応関係が存在し、すなわち三次元点群とテクスチャ情報及び色情報との間に一対一の対応関係が存在することを意味する。したがって、三次元画像モデルを取得してテクスチャ情報又は色情報のうちの少なくとも一種の情報をレンダリングすることができ、それにより完全な三次元画像モデルを取得する。実際に、該ステップは、テクスチャ情報及び色情報のうちの少なくとも一種の情報を平面グリッド301の対応するシートに貼り付ける過程、即ち三次元画像モデルに対して着色及びレンダリングを行う過程であると理解することができる。 In this embodiment, there is a strict one-to-one correspondence between the depth image itself based on the two-
ハードウェア走査に基づいて点群を取得する解決手段において、ハードウェアは不可避的に偏差が存在するため、点群とテクスチャ情報及び色情報は、一対多の対応関係が存在し、テクスチャ情報と点群情報は完全に一対一に対応する可能性がなく、最終的にテクスチャ品質の低下を引き起こす。該実施例において、このような空間の強い相関関係により、テクスチャ情報及び色情報が失われることがなく、それにより高品質の、二次元画像110の立体化情報を完全に体現できる三次元画像モデルを得る。 In the solution method that acquires point clouds based on hardware scanning, there is an unavoidable deviation in the hardware, so there is a one-to-many correspondence relationship between the point cloud, texture information, and color information, and the texture information and point cloud The information may not have a perfect one-to-one correspondence, ultimately causing a decrease in texture quality. In this embodiment, due to such strong spatial correlation, texture information and color information are not lost, thereby creating a three-dimensional image model that can completely embody the three-dimensional information of the two-
図4は、本開示のいくつかの実施例に係る三次元ビデオストリームを生成する過程400のフローチャートを示す。過程400は、図1に示す計算機器120において実現されてもよく、他の任意の適切な計算機器で実現されてもよい。説明を容易にするために、図1を参照して過程400を説明する。 FIG. 4 shows a flowchart of a
ブロック410では、ビデオストリーム中の各フレームの二次元画像110に対して対応する三次元画像を生成する。いくつかの実施例において、二次元画像110を三次元画像に生成する過程は、図2に示す方法に基づいて実現するか又は他の任意の適切な方法に基づいて実現することができる。理解すべきこととして、ビデオストリームの一部のフレームに三次元画像を生成する必要がある場合、一部の特定のフレームを選択して三次元画像モデリングを行うこともでき、本開示はこれを制限しない。 At
ブロック420において、生成された三次元画像を利用して、三次元ビデオストリームを生成する。このように、三次元画像を生成した上で三次元ビデオストリームを得て、さらにユーザの没入体験及びインタラクティブ体験を向上させることができる。 At
図5は、本開示のいくつかの実施例に係る三次元画像を生成する装置500の模式図を示す。装置500は、入力情報取得モジュール510と、三次元点群取得モジュール520と、三次元画像生成モジュール530とを備える。 FIG. 5 shows a schematic diagram of an
入力情報取得モジュール510は、二次元画像110に対する入力情報を取得するように構成され、前記入力情報は少なくとも二次元画像110の深度情報を含む。前記のように、入力情報はさらに二次元画像の前景マスク、二次元画像の背景マスク、及び二次元画像の修正された画像情報の少なくとも一つを含むことができる。 The input
三次元点群取得モジュール520は、二次元画像110及び入力情報を利用して、二次元画像110の各画素に対応する三次元点群を取得するように構成される。 The three-dimensional point
いくつかの実施例において、三次元点群取得モジュール520は、正規化処理モジュールを含み、正規化処理モジュールは、二次元画像と入力情報に対して正規化処理を行うことにより、三次元点群を得るように構成される。 In some embodiments, the 3D point
いくつかの実施例において、三次元点群取得モジュール520は、さらに、三次元座標系変換モジュール及び三次元点群生成モジュールを含み、三次元座標系変換モジュールは、二次元画像110の画素が位置する平面座標系を三次元座標系に変換するように配置され、かつ三次元点群生成モジュールは、二次元画像110の画素に基づいて、三次元座標系における三次元点群を生成するように構成される。 In some embodiments, the 3D point
いくつかの実施例において、平面座標系は画素座標系又は画像座標系のうちの少なくとも一種を含むことができ、かつ三次元座標系はカメラ座標系又はワールド座標系のうちの少なくとも一種を含むことができる。 In some embodiments, the planar coordinate system can include at least one of a pixel coordinate system or an image coordinate system, and the three-dimensional coordinate system can include at least one of a camera coordinate system or a world coordinate system. I can do it.
三次元画像生成モジュール530は、目標二次元画素に対応する三次元点群中の点、及び目標二次元画素に隣接する一組の画素の対応する三次元点群における隣接点集合に基づいて、二次元画像110に対する三次元画像を生成するように構成される。 The three-dimensional
いくつかの実施例において、三次元画像生成モジュール530はさらに平面グリッド取得モジュール及び三次元画像生成サブモジュールを含み、平面グリッド取得モジュールは、目標二次元画素に対応する三次元点群中の点、及び隣接点集合における少なくとも二つの点に基づいて、目標画素と一組の画素に対する平面グリッドを取得するように構成され、かつ三次元画像生成サブモジュールは、取得された平面グリッドに基づいて、二次元画像110に対する三次元画像を生成するように構成される。 In some embodiments, the three-dimensional
いくつかの実施例において、隣接点集合における少なくとも二つの点に対応する画素は、隣接することができる。 In some embodiments, pixels corresponding to at least two points in the neighbor point set can be adjacent.
いくつかの実施例において、三次元画像生成モジュール530はさらに平面グリッド描画モジュール及び三次元画像表示モジュールを含み、平面グリッド描画モジュールは、二次元画像110の画素と三次元点群における点の対応関係に基づいて、テクスチャ情報又は色情報のうちの少なくとも一種の情報を平面グリッドに描画し、かつ三次元画像表示モジュールは描画された平面グリッドを利用して、二次元画像110に対する三次元画像を表示するように構成される。 In some embodiments, the three-dimensional
図6は、本開示の実施例に係る三次元ビデオストリームを生成する装置600の概略ブロック図である。装置600は、第2の三次元画像生成モジュール610と、三次元ビデオストリーム生成モジュール620とを備える。装置600は、図1に示される計算機器120において実現されてもよく、他の任意の適切な機器において実現されてもよい。説明を容易にするために、図1を参照して過程600を説明する。 FIG. 6 is a schematic block diagram of an
第2の三次元画像生成モジュール610は、ビデオストリーム内の各フレームの二次元画像110に対して、対応する三次元画像を生成するように構成される。三次元画像を生成するステップは、前述したような装置500によって実現されてもよい。 The second three-dimensional
三次元ビデオストリーム生成モジュール620は、生成された三次元画像を利用して、三次元ビデオストリームを生成するように構成される。このように、三次元画像を生成した上で三次元ビデオストリームを得て、さらにユーザの没入体験及びインタラクティブ体験を向上させることができる。 The 3D video
図7は、本開示の複数の実施例を実施可能な計算機器700のブロック図を示している。計算機器700は、図1の計算機器120を実現するために用いることができる。図に示すように、計算機器700は、中央処理ユニット(CPU)701を含み、それはリードオンリーメモリ(ROM)702に記憶されたコンピュータプログラム命令又は記憶ユニット708からランダムアクセスメモリ(RAM)703にロードされたコンピュータプログラム命令に基づいて、様々な適切な動作及び処理を実行することができる。RAM703には、さらに計算機器700の操作に必要な様々なプログラム及びデータを記憶することができる。CPU701、ROM702、およびRAM703は、バス704により相互に接続されている。バス704には、さらに、入出力(I/O)インタフェース705も接続されている。FIG. 7 depicts a block diagram of a
計算機器700における複数の部品は、I/Oインタフェース705に接続され、例えばキーボード、マウス等の入力ユニット706と、例えば様々なタイプのディスプレイ、スピーカ等の出力ユニット707と、例えば磁気ディスク、光ディスク等の記憶ユニット708と、例えばネットワークカード、モデム、無線通信トランシーバ等の通信ユニット709と、を含む。通信ユニット709は、計算機器700がインターネット等のコンピュータネットワーク/各種の電気通信網を介して他の装置と情報/データをやり取りすることを可能にする。A plurality of components in the
処理ユニット701は、例えば過程200及び過程400のうちの一つ又は複数という上記各方法及び処理を実行する。例えば、いくつかの実施例において、過程200及び過程400のうちの一つ又は複数はコンピュータソフトウェアプログラムとして実現され、それは、例えば記憶ユニット708という機械可読媒体に一時的に含まれる。いくつかの実施例において、コンピュータプログラムの一部又は全部はROM702及び/又は通信ユニット709を介して計算機器700にロード及び/又はインストールされる。コンピュータプログラムがRAM703にロードされかつCPU701により実行される場合、上記過程200及び過程400のうちの一つ又は複数のステップを実行することができる。代替的に、他の実施例において、CPU701は他の任意の適切な方式(例えば、ファームウェアを介して)により過程200及び過程400のうちの一つ又は複数を実行するように構成されてもよい。The
本明細書で説明した機能は、少なくとも一部が一つまたは複数のハードウェアロジックによって実行されてもよい。例えば、非限定的に、使用可能な例示的なタイプのハードウェアロジック部品は、フィールドプログラマブルゲートアレイ(FPGA)、専用集積回路(ASIC)、専用標準製品(ASSP)、チップ上システムのシステム(SOC)、ロードプログラマブルロジックデバイス(CPLD)等を含む。 The functionality described herein may be performed at least in part by one or more hardware logic. For example, and without limitation, exemplary types of hardware logic components that may be used include field programmable gate arrays (FPGAs), special purpose integrated circuits (ASICs), special purpose standard products (ASSPs), systems on chips (SOCs), ), load programmable logic devices (CPLDs), etc.
本開示の方法を実施するためのプログラムコードは、一つ又は複数のプログラム言語の任意の組み合わせで作成することができる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ又は他のプログラム可能なデータ処理装置のプロセッサ又はコントローラに提供することができ、それによりプログラムコードはプロセッサ又はコントローラにより実行される時にフローチャート及び/又はブロック図に規定された機能/操作が実施される。プログラムコードは機器に完全に実行され、部分的に機器で実行されてもよく、独立したソフトウェアパッケージ部分として機器で実行されかつ遠隔機器で部分的に実行されるか又は完全に遠隔機器又はサーバで実行される。 Program code for implementing the methods of this disclosure may be written in any combination of one or more programming languages. These program codes may be provided to a processor or controller of a general purpose computer, special purpose computer, or other programmable data processing device such that, when executed by the processor or controller, the program codes may be implemented in flowchart and/or block diagram formats. The functions/operations specified in the above shall be carried out. The program code may be executed entirely on the device, partially executed on the device, executed on the device as part of a separate software package and partially executed on a remote device, or completely executed on a remote device or server. executed.
本開示のコンテキストにおいて、機械可読媒体は有形の媒体であってもよく、それは命令実行システム、装置又は装置の使用又は命令実行システム、装置又は装置と組み合わせて使用されるプログラムを含むか又は記憶することができる。機械可読媒体は機械可読信号媒体又は機械可読記憶媒体であってもよい。機械可読媒体は電子の、磁気的、光学的、電磁的、赤外線の、又は半導体システム、装置又は装置、又は上記内容の任意の適切な組み合わせを含むがそれらに限定されない。機械可読記憶媒体のより具体的な例は一つ以上の線に基づく電気的接続、携帯式コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、便利式コンパクトフラッシュ(登録商標)メモリ(CD-ROM)、光記憶装置、磁気記憶装置、又は上記コンテンツの任意の適切な組み合わせを含む。 In the context of this disclosure, a machine-readable medium may be a tangible medium that contains or stores an instruction execution system, apparatus or use of or a program for use in conjunction with an instruction execution system, apparatus or apparatus. be able to. A machine-readable medium may be a machine-readable signal medium or a machine-readable storage medium. Machine-readable media include, but are not limited to, electronic, magnetic, optical, electromagnetic, infrared, or semiconductor systems, devices, or devices, or any suitable combination of the above. More specific examples of machine-readable storage media include electrical connections based on one or more wires, portable computer disks, hard disks, random access memory (RAM), read-only memory (ROM), and erasable programmable read-only memory. (EPROM or flash memory), fiber optics, compact flash memory (CD-ROM), optical storage, magnetic storage, or any suitable combination of the above content.
また、特定の順序で各操作を描画したが、これは以下のように理解すべきである:このような操作は示された特定の順序又は順序で実行されることが要求され、又は全ての図示の操作が実行されるように要求されて所望の結果を取得することが要求される。一定の環境で、マルチタスク及び並列処理が有利である可能性がある。同様に、上記においていくつかの具体的な実現詳細を含むが、これらは本開示の範囲を限定するものと解釈されるべきではない。個別の実施例のコンテキストに記述されたいくつかの特徴はさらに組み合わせて単一の実現に実現されてもよい。逆に、単一で実現されるコンテキストに記述された様々な特徴は単独で又は任意の適切なサブセットの方式で複数の実現に実現されてもよい。 Also, although we have drawn each operation in a particular order, this should be understood as: such operations are required to be performed in the particular order or order shown, or that all The illustrated operations are required to be performed to obtain the desired results. In certain circumstances, multitasking and parallel processing may be advantageous. Similarly, although some specific implementation details are included above, these should not be construed as limiting the scope of the disclosure. Certain features that are described in the context of separate embodiments may also be implemented in combination in a single implementation. Conversely, various features described in the context of a single implementation may be implemented in multiple implementations singly or in any suitable subset manner.
構造的特徴及び/又は方法の論理動作に特化した言語を用いて本主題を説明したが、添付の特許請求の範囲に限定された主題は必ずしも上記特定の特徴又は動作に限定されるものではないと理解すべきである。逆に、上記特定の特徴及び動作は特許請求の範囲の例示的な形態を実現するだけである。 Although the present subject matter has been described in language specific to structural features and/or methodological operations, the subject matter limited in the appended claims is not necessarily limited to such specific features or operations. It should be understood that there is no such thing. On the contrary, the specific features and acts described above merely implement example forms of the claims.
Claims (23)
前記二次元画像及び前記入力情報を用いて、前記二次元画像の各画素に対応する三次元点群を取得することと、
目標二次元画素に対応する前記三次元点群中の点、及び目標二次元画素に隣接する一組の画素の対応する前記三次元点群における隣接点集合に基づいて、前記二次元画像に対する三次元画像を生成することと、を含む
画像処理方法。 Obtaining input information for a two-dimensional image that includes at least depth information of the two-dimensional image;
using the two-dimensional image and the input information to obtain a three-dimensional point group corresponding to each pixel of the two-dimensional image;
Based on points in the three-dimensional point group corresponding to the target two-dimensional pixel and a set of adjacent points in the three-dimensional point group corresponding to a set of pixels adjacent to the target two-dimensional pixel, three-dimensional An image processing method comprising: generating an original image;
前記目標二次元画素に対応する前記三次元点群中の点、及び前記隣接点集合における少なくとも二つの点に基づいて、前記目標画素と前記一組の画素に対する平面グリッドを取得することと、
取得された平面グリッドに基づいて、前記二次元画像に対する前記三次元画像を生成することと、を含む
請求項1に記載の画像処理方法。 Generating a three-dimensional image for the two-dimensional image includes:
Obtaining a planar grid for the target pixel and the set of pixels based on a point in the three-dimensional point group corresponding to the target two-dimensional pixel and at least two points in the adjacent point set;
The image processing method according to claim 1, further comprising: generating the three-dimensional image for the two-dimensional image based on the obtained planar grid.
請求項2に記載の画像処理方法。 The image processing method according to claim 2, wherein pixels corresponding to the at least two points in the adjacent point set are adjacent to each other.
前記二次元画像の前景マスクと、
前記二次元画像の背景マスクと、
前記二次元画像の修正された画像情報と、の少なくとも一つをさらに含む
請求項1-3のいずれか一項に記載の画像処理方法。 The input information is
a foreground mask of the two-dimensional image;
a background mask of the two-dimensional image;
The image processing method according to any one of claims 1 to 3, further comprising at least one of: corrected image information of the two-dimensional image.
前記二次元画像及び前記入力情報に対して正規化処理を行うことにより、前記三次元点群を取得することを含む
請求項1-3のいずれか一項に記載の画像処理方法。 Obtaining a three-dimensional point group corresponding to each pixel of the two-dimensional image includes:
The image processing method according to any one of claims 1 to 3, comprising obtaining the three-dimensional point group by performing normalization processing on the two-dimensional image and the input information.
前記二次元画像の画素が位置する平面座標系を三次元座標系に変換することと、
前記二次元画像の画素に基づいて、前記三次元座標系における前記三次元点群を生成することと、を含む
請求項1-3のいずれか一項に記載の画像処理方法。 Obtaining a three-dimensional point group corresponding to each pixel of the two-dimensional image includes:
converting a plane coordinate system in which pixels of the two-dimensional image are located into a three-dimensional coordinate system;
The image processing method according to any one of claims 1 to 3, comprising: generating the three-dimensional point group in the three-dimensional coordinate system based on pixels of the two-dimensional image.
請求項6に記載の画像処理方法。 The image processing according to claim 6, wherein the plane coordinate system includes at least one of a pixel coordinate system and an image coordinate system, and the three-dimensional coordinate system includes at least one of a camera coordinate system and a world coordinate system. Method.
請求項2又は3に記載の画像処理方法。 The image processing method according to claim 2 or 3, wherein the plane grid includes a triangular grid.
前記二次元画像の画素と前記三次元点群における点の対応関係に基づいて、前記テクスチャ情報又は前記色情報のうちの少なくとも一種の情報を前記平面グリッドに描画することと、
描画された前記平面グリッドを利用して、前記二次元画像に対する三次元画像を表示することと、をさらに含む
請求項1-3又は7のいずれか一項に記載の画像処理方法。 The two-dimensional image includes at least one of texture information and color information, and generating a three-dimensional image for the two-dimensional image includes:
drawing at least one type of information among the texture information or the color information on the plane grid based on the correspondence between pixels of the two-dimensional image and points in the three-dimensional point group;
8. The image processing method according to claim 1, further comprising: displaying a three-dimensional image for the two-dimensional image using the drawn planar grid.
生成された三次元画像を利用して、三次元ビデオストリームを生成することと、を含む
ビデオ処理方法。 Generating a three-dimensional image corresponding to a two-dimensional image of each frame in a video stream based on the image processing method according to any one of claims 1 to 9;
A video processing method comprising: generating a three-dimensional video stream using the generated three-dimensional image.
前記二次元画像及び前記入力情報を用いて、前記二次元画像の各画素に対応する三次元点群を取得するように構成される三次元点群取得モジュールと、
目標二次元画素に対応する前記三次元点群中の点、及び目標二次元画素に隣接する一組の画素の対応する前記三次元点群における隣接点集合に基づいて、前記二次元画像に対する三次元画像を生成するように構成される三次元画像生成モジュールと、を含む
画像処理装置。 an input information acquisition module configured to acquire input information for a two-dimensional image, including at least depth information of the two-dimensional image;
a three-dimensional point cloud acquisition module configured to use the two-dimensional image and the input information to acquire a three-dimensional point group corresponding to each pixel of the two-dimensional image;
Based on points in the three-dimensional point group corresponding to the target two-dimensional pixel and a set of adjacent points in the three-dimensional point group corresponding to a set of pixels adjacent to the target two-dimensional pixel, three-dimensional An image processing device comprising: a three-dimensional image generation module configured to generate an original image.
前記目標二次元画素に対応する前記三次元点群中の点、及び前記隣接点集合における少なくとも二つの点に基づいて、前記目標画素と前記一組の画素に対する平面グリッドを取得するように構成される平面グリッド取得モジュールと、
取得された平面グリッドに基づいて、前記二次元画像に対する前記三次元画像を生成するように構成される三次元画像生成サブモジュールと、を含む
請求項11に記載の画像処理装置。 The three-dimensional image generation module includes:
The method is configured to obtain a planar grid for the target pixel and the set of pixels based on a point in the three-dimensional point group corresponding to the target two-dimensional pixel and at least two points in the adjacent point set. a plane grid acquisition module;
The image processing device according to claim 11 , further comprising: a three-dimensional image generation sub-module configured to generate the three-dimensional image for the two-dimensional image based on the obtained planar grid.
請求項12に記載の画像処理装置。 The image processing device according to claim 12, wherein pixels corresponding to the at least two points in the adjacent point set are adjacent to each other.
前記二次元画像の前景マスクと、
前記二次元画像の背景マスクと、
前記二次元画像の修正された画像情報と、の少なくとも一つをさらに含む
請求項11-13のいずれか一項に記載の画像処理装置。 The input information is
a foreground mask of the two-dimensional image;
a background mask of the two-dimensional image;
The image processing device according to any one of claims 11 to 13, further comprising at least one of: corrected image information of the two-dimensional image.
前記二次元画像及び前記入力情報に対して正規化処理を行うことにより、前記三次元点群を取得するように構成される正規化処理モジュールを含む
請求項11-13のいずれか一項に記載の画像処理装置。 The three-dimensional point cloud acquisition module includes:
14. A normalization processing module configured to obtain the three-dimensional point group by performing normalization processing on the two-dimensional image and the input information, according to any one of claims 11 to 13. image processing device.
前記二次元画像の画素が位置する平面座標系を三次元座標系に変換するように構成される三次元座標系変換モジュールと、
前記二次元画像の画素に基づいて、前記三次元座標系における前記三次元点群を生成するように構成される三次元点群生成モジュールと、を含む
請求項11-13のいずれか一項に記載の画像処理装置。 The three-dimensional point cloud acquisition module includes:
a three-dimensional coordinate system conversion module configured to convert a plane coordinate system in which pixels of the two-dimensional image are located into a three-dimensional coordinate system;
a three-dimensional point cloud generation module configured to generate the three-dimensional point group in the three-dimensional coordinate system based on pixels of the two-dimensional image. The image processing device described.
請求項16に記載の画像処理装置。 The image processing device according to claim 16, wherein the plane coordinate system includes at least one of a pixel coordinate system and an image coordinate system, and the three-dimensional coordinate system includes at least one of a camera coordinate system and a world coordinate system. .
請求項12又は13に記載の画像処理装置。 The image processing device according to claim 12 or 13, wherein the plane grid includes a triangular grid.
前記二次元画像の画素と前記三次元点群における点の対応関係に基づいて、前記テクスチャ情報又は前記色情報のうちの少なくとも一種の情報を前記平面グリッドに描画するように構成される平面グリッド描画モジュールと、
描画された前記平面グリッドを利用して、前記二次元画像に対する三次元画像を表示するように構成される三次元画像表示モジュールと、をさらに含む
請求項11-13又は17のいずれか一項に記載の装置。 The two-dimensional image includes at least one of texture information and color information, and the three-dimensional image generation module includes:
Planar grid drawing configured to draw at least one type of information among the texture information or the color information on the planar grid based on the correspondence between pixels of the two-dimensional image and points in the three-dimensional point group. module and
According to any one of claims 11 to 13 or 17, further comprising: a three-dimensional image display module configured to display a three-dimensional image for the two-dimensional image using the drawn planar grid. The device described.
生成された三次元画像を利用して、三次元ビデオストリームを生成するように構成される三次元ビデオストリーム生成モジュールと、を含む
ビデオ処理装置。 a second tertiary image configured to generate a corresponding three-dimensional image for a two-dimensional image of each frame in the video stream based on an image processing method according to any one of claims 1-10; An original image generation module,
a 3D video stream generation module configured to generate a 3D video stream using the generated 3D image.
一つ又は複数のプログラムを記憶する記憶装置と、を含み、
前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサにより実行されることにより、前記一つ又は複数のプロセッサが請求項1-10のいずれか一項に記載の画像処理方法を実現する
電子機器。 one or more processors;
a storage device that stores one or more programs;
By executing the one or more programs by the one or more processors, the one or more processors realize the image processing method according to any one of claims 1 to 10. device.
コンピュータ可読な記憶媒体。 A computer-readable storage medium in which a computer program is stored and which, when executed by a processor, implements an image processing method according to any one of claims 1-10.
コンピュータプログラム製品。 A computer program product comprising a computer program which, when executed by a processor, performs an image processing method according to any one of claims 1-10.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111056671.6 | 2021-09-09 | ||
CN202111056671.6A CN113793255A (en) | 2021-09-09 | 2021-09-09 | Method, apparatus, device, storage medium and program product for image processing |
PCT/CN2022/111569 WO2023035841A1 (en) | 2021-09-09 | 2022-08-10 | Method and apparatus for image processing, and device, storage medium and program product |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023552538A true JP2023552538A (en) | 2023-12-18 |
Family
ID=78879797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023533782A Pending JP2023552538A (en) | 2021-09-09 | 2022-08-10 | Image processing methods and devices, electronic devices, storage media, and computer programs |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2023552538A (en) |
CN (1) | CN113793255A (en) |
WO (1) | WO2023035841A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113793255A (en) * | 2021-09-09 | 2021-12-14 | 百度在线网络技术(北京)有限公司 | Method, apparatus, device, storage medium and program product for image processing |
CN114827711B (en) * | 2022-06-24 | 2022-09-20 | 如你所视(北京)科技有限公司 | Image information display method and device |
CN116527663B (en) * | 2023-04-10 | 2024-04-26 | 北京城市网邻信息技术有限公司 | Information processing method, information processing device, electronic equipment and storage medium |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101968895A (en) * | 2009-07-27 | 2011-02-09 | 鸿富锦精密工业(深圳)有限公司 | Two-dimensional image conversion system and method |
US9466143B1 (en) * | 2013-05-03 | 2016-10-11 | Exelis, Inc. | Geoaccurate three-dimensional reconstruction via image-based geometry |
US9736449B1 (en) * | 2013-08-12 | 2017-08-15 | Google Inc. | Conversion of 2D image to 3D video |
CN109697749A (en) * | 2017-10-20 | 2019-04-30 | 虹软科技股份有限公司 | A kind of method and apparatus for three-dimensional modeling |
CN109978984A (en) * | 2017-12-27 | 2019-07-05 | Tcl集团股份有限公司 | Face three-dimensional rebuilding method and terminal device |
EP3857451A4 (en) * | 2018-09-25 | 2022-06-22 | Matterport, Inc. | Employing three-dimensional data predicted from two-dimensional images using neural networks for 3d modeling applications |
CN109242961B (en) * | 2018-09-26 | 2021-08-10 | 北京旷视科技有限公司 | Face modeling method and device, electronic equipment and computer readable medium |
CN111369612B (en) * | 2018-12-25 | 2023-11-24 | 北京欣奕华科技有限公司 | Three-dimensional point cloud image generation method and device |
CN110349251B (en) * | 2019-06-28 | 2020-06-16 | 深圳数位传媒科技有限公司 | Three-dimensional reconstruction method and device based on binocular camera |
CN110728717B (en) * | 2019-09-27 | 2022-07-15 | Oppo广东移动通信有限公司 | Positioning method and device, equipment and storage medium |
CN112785492A (en) * | 2021-01-20 | 2021-05-11 | 北京百度网讯科技有限公司 | Image processing method, image processing device, electronic equipment and storage medium |
CN113302648B (en) * | 2021-04-23 | 2022-09-16 | 华为技术有限公司 | Panoramic image generation method, vehicle-mounted image processing device and vehicle |
CN113793255A (en) * | 2021-09-09 | 2021-12-14 | 百度在线网络技术(北京)有限公司 | Method, apparatus, device, storage medium and program product for image processing |
-
2021
- 2021-09-09 CN CN202111056671.6A patent/CN113793255A/en active Pending
-
2022
- 2022-08-10 WO PCT/CN2022/111569 patent/WO2023035841A1/en active Application Filing
- 2022-08-10 JP JP2023533782A patent/JP2023552538A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN113793255A (en) | 2021-12-14 |
WO2023035841A1 (en) | 2023-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6563048B2 (en) | Tilt adjustment of texture mapping for multiple rendering targets with different resolutions depending on screen position | |
JP2023552538A (en) | Image processing methods and devices, electronic devices, storage media, and computer programs | |
TWI602148B (en) | Gradient adjustment for texture mapping to non-orthonormal grid | |
US11189043B2 (en) | Image reconstruction for virtual 3D | |
CN107274338B (en) | Systems, methods, and apparatus for low-latency warping of depth maps | |
US20140218354A1 (en) | View image providing device and method using omnidirectional image and 3-dimensional data | |
KR20160058058A (en) | Image processing method and apparatus | |
CN112241933A (en) | Face image processing method and device, storage medium and electronic equipment | |
JP2010140476A (en) | Image processing method, computer readable medium, and image processing system | |
JP7432005B2 (en) | Methods, devices, equipment and computer programs for converting two-dimensional images into three-dimensional images | |
CN113643414B (en) | Three-dimensional image generation method and device, electronic equipment and storage medium | |
WO2022063260A1 (en) | Rendering method and apparatus, and device | |
US10163250B2 (en) | Arbitrary view generation | |
CN113140034A (en) | Room layout-based panoramic new view generation method, device, equipment and medium | |
US20220222842A1 (en) | Image reconstruction for virtual 3d | |
JP7262530B2 (en) | Location information generation method, related device and computer program product | |
JP2015103891A (en) | Image projection system, image processing apparatus, image projection method and program | |
JP5926626B2 (en) | Image processing apparatus, control method therefor, and program | |
US20230206567A1 (en) | Geometry-aware augmented reality effects with real-time depth map | |
JP7223312B2 (en) | volume rendering device | |
JP7131080B2 (en) | volume rendering device | |
TWI782806B (en) | Point cloud rendering method | |
US20230410418A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2012039331A (en) | Parallax image creation device, parallax image creation method, program, and storage medium | |
KR101855370B1 (en) | Real object-based integral imaging system using polygon object model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230601 |