JP2011134361A - Method for processing nodes in 3d scene and apparatus thereof - Google Patents

Method for processing nodes in 3d scene and apparatus thereof Download PDF

Info

Publication number
JP2011134361A
JP2011134361A JP2011085837A JP2011085837A JP2011134361A JP 2011134361 A JP2011134361 A JP 2011134361A JP 2011085837 A JP2011085837 A JP 2011085837A JP 2011085837 A JP2011085837 A JP 2011085837A JP 2011134361 A JP2011134361 A JP 2011134361A
Authority
JP
Japan
Prior art keywords
node
mesh
scene
information
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011085837A
Other languages
Japanese (ja)
Other versions
JP5097287B2 (en
Inventor
Manchin Kan
萬 鎭 韓
Seong-Jin Kim
成 珍 金
Jang Euee Seon
義 善 張
Do-Kyoon Kim
道 均 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2011134361A publication Critical patent/JP2011134361A/en
Application granted granted Critical
Publication of JP5097287B2 publication Critical patent/JP5097287B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for processing nodes in 3-dimensional (3D) scene and an apparatus thereof. <P>SOLUTION: The method for processing nodes in 3-dimensional (3D) scene includes a step in which a controller of the 3-dimensional scene node processing device identifies a 3D mesh node having 3D mesh information representing a 3D shape which is formed by constructing faces from vertices among nodes contained in a 3D scene to be processed; and a step in which a 3-dimensional mesh encoder/decoder encodes or decodes the identified 3D mesh node. Also, the method includes a step of transmitting or storing all or part of the 3D mesh information of the encoded 3D mesh node through an independent stream separate from the 3D scene description stream, which is different from a foundation stream. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は三次元シーン(三次元場面)のノードを処理する方法及びその装置に係り、特に三次元シーンのノードのうち三次元メッシュ情報を表現するノードを処理する三次元シーンのノード処理方法及びその装置に関する。   The present invention relates to a method and apparatus for processing a node of a three-dimensional scene (three-dimensional scene), and more particularly to a node processing method of a three-dimensional scene for processing a node expressing three-dimensional mesh information among the nodes of the three-dimensional scene. It relates to the device.

最近、三次元グラフィックス分野が多用されているが、膨大な量の情報のためにその使用範囲が制限されている。すなわち、三次元メッシュ情報を表現するためには各点の幾何情報、各点間の連結性情報、そして色相、法線及び質感座標のような属性情報が必要である。   Recently, the three-dimensional graphics field has been widely used, but the range of use is limited due to an enormous amount of information. That is, in order to express three-dimensional mesh information, geometric information of each point, connectivity information between the points, and attribute information such as hue, normal, and texture coordinates are necessary.

一般に、このような情報等の膨大な量によって符号化の必要性が台頭され、このため、MPEG−4(Moving Picture Expert Group)−SNHC−(Synthetic and Natural Hybrid Coding)パートでISO/IEC(InternationalOrganization for Standardization/International Electrotechnical Commission)の標準案として採択された三次元メッシュコーディング(3DMC:3Dmesh Coding)装置はインデックスフェースセット(Indexed Face Set)として表現されうる三次元メッシュ情報を符号化及び復号化して符号化及び伝送効率の向上を提供している。   In general, the necessity of encoding has emerged due to the huge amount of such information, and therefore, ISO / IEC (International Organization) in the MPEG-4 (Moving Picture Expert Group) -SNHC- (Synthetic and Natural Hybrid Coding) part. A 3D mesh coding (3DMC) device adopted as a standard proposal for for Standardization / International Electrotechnical Commission (3DMC) encodes and decodes 3D mesh information that can be expressed as an index face set (Indexed Face Set). Provide improved transmission and transmission efficiency ing.

一方、MPEG−4システムパートでは、オブジェクトの表示方法と特性を指定するためのシーン記述言語としてBIFS(BInary Format for Scene)を規格化している。シーン記述言語はBIFS以外にもVRML(Virtual Reality Modeling Language)とWeb3Dを含む。   On the other hand, in the MPEG-4 system part, BIFS (Binary Format for Scene) is standardized as a scene description language for designating an object display method and characteristics. In addition to BIFS, the scene description language includes VRML (Virtual Reality Modeling Language) and Web3D.

MPEG−4システムのBIFS(BInary Format for Scene)及びVRML(Virtual Reality ModelingLanguage)などの分野では三次元シーンが構成でき、その場面には三次元メッシュ情報を表現するためのインデックスフェースセットノードが含まれている。   In fields such as BIFS (Binary Format for Scene) and VRML (Virtual Reality Modeling Language) of the MPEG-4 system, a 3D scene can be configured, and the scene includes an index face set node for expressing 3D mesh information. ing.

しかし、膨大な量のインデックスフェースセット情報を含む三次元シーンの情報をBIFSでは単に2進(binary)に圧縮し、VRMLの場合にはASCII文字で表現された状態で貯蔵及び伝送する。   However, 3D scene information including an enormous amount of index face set information is simply compressed in binary in BIFS, and stored and transmitted in a state expressed in ASCII characters in the case of VRML.

したがって、MPEG4−システムでは膨大な量の三次元メッシュ情報を有するインデックスフェースセットノードを含む三次元シーン情報をBIFSストリームで端末器に伝送する時、インデックスフェースセットノード情報の膨大な量による伝送遅延や復号化遅延などが発生して三次元シーン情報を与えられた特定時間内に全て復元できないという問題点がある。   Therefore, in the MPEG4-system, when transmitting 3D scene information including an index face set node having an enormous amount of 3D mesh information to a terminal using a BIFS stream, transmission delay due to an enormous amount of index face set node information There is a problem that a decoding delay or the like occurs and the 3D scene information cannot be completely restored within a given time.

また、このような情報は符号化しても大型三次元メッシュの場合には、三次元シーンに含まれた他の情報に比べてその量が比較的多くなって、符号化された三次元メッシュ情報を三次元シーン記述情報と共に同じストリームに伝送すれば、全体的な三次元シーンの伝送に影響を与える可能性があるという問題点がある。   In addition, even if such information is encoded, in the case of a large three-dimensional mesh, the amount is relatively larger than other information included in the three-dimensional scene, and the encoded three-dimensional mesh information Is transmitted to the same stream together with the 3D scene description information, there is a problem that the transmission of the entire 3D scene may be affected.

したがって、本発明は、前記問題点を解決して三次元シーンに含まれている膨大な量の情報を有している三次元メッシュ情報を表現するノードを効率よく符号化/復号化して三次元シーンの伝送及び貯蔵を効率よくすることを目的とする。   Therefore, the present invention solves the above problems and efficiently encodes / decodes a node representing 3D mesh information having a huge amount of information included in the 3D scene to perform 3D The purpose is to efficiently transmit and store scenes.

また、本発明は三次元シーンに含まれている三次元メッシュ情報を表現するノードの三次元メッシュ情報を三次元シーン記述情報とは別のストリームに載せて伝送及び貯蔵することによって、膨大な量の三次元メッシュ情報が全体的な三次元シーンの伝送に影響を与えることを防止することを目的とする。   In addition, the present invention provides a tremendous amount of information by transmitting and storing the 3D mesh information of a node representing 3D mesh information included in the 3D scene on a separate stream from the 3D scene description information. It is an object of the present invention to prevent the 3D mesh information from affecting the transmission of the entire 3D scene.

前記課題を解決するための本発明の一特徴は、三次元シーンに含まれたノードを処理する方法において、処理する三次元シーンに含まれたノードのうち頂点から面を構成することによって形成される三次元形状を表現する三次元メッシュ情報を有する三次元メッシュノードを識別する段階と、前記識別された三次元メッシュノードを符号化または復号化する段階を含むことである。   One feature of the present invention for solving the above-described problem is that a method for processing a node included in a three-dimensional scene is formed by constructing a surface from vertices among nodes included in the three-dimensional scene to be processed. Identifying a 3D mesh node having 3D mesh information representing a 3D shape, and encoding or decoding the identified 3D mesh node.

本発明の他の特徴は、前記ノード処理方法が前記識別された三次元メッシュノードのうち三次元メッシュコーディング識別子の設定されている三次元メッシュノードを識別する段階をさらに含み、前記識別された三次元メッシュノードを符号化または復号化する段階は、前記三次元メッシュコーディング識別子の設定された三次元メッシュノードを符号化または復号化してもよい。   In another aspect of the present invention, the node processing method further includes identifying a 3D mesh node having a 3D mesh coding identifier set among the identified 3D mesh nodes, wherein the identified tertiary The step of encoding or decoding the original mesh node may encode or decode the 3D mesh node in which the 3D mesh coding identifier is set.

望ましくは、前記ノード処理方法において前記三次元メッシュノードを三次元メッシュ符号化器/復号化器を用いて符号化または復号化する。   Preferably, in the node processing method, the 3D mesh node is encoded or decoded using a 3D mesh encoder / decoder.

本発明の他の特徴は、前記ノード処理方法が前記符号化される三次元メッシュノードの三次元メッシュ情報を三次元シーン記述ストリーム(3D scenedescription stream)に載せて伝送または貯蔵する段階をさらに含んでもよい。   In another aspect of the present invention, the node processing method may further include transmitting or storing the 3D mesh information of the 3D mesh node to be encoded on a 3D scene description stream (3D scene description stream). Good.

望ましくは、前記三次元シーン記述ストリームに載せられて伝送される前記符号化される三次元メッシュノードの三次元メッシュ情報を符号化または復号化するように三次元シーン記述符号化器/復号化器に三次元メッシュ符号化器/復号化器を内蔵させて配列する。   Preferably, the 3D scene description encoder / decoder is configured to encode or decode 3D mesh information of the encoded 3D mesh node transmitted on the 3D scene description stream. The 3D mesh encoder / decoder is built in and arranged.

本発明のさらに他の特徴は、前記ノード処理方法が前記符号化される三次元メッシュノードの三次元メッシュ情報を三次元シーン記述ストリームと別の独立したストリームに載せて伝送または貯蔵する段階とをさらに含んでもよい。   According to still another aspect of the present invention, the node processing method includes transmitting or storing the 3D mesh information of the encoded 3D mesh node on a 3D scene description stream and another independent stream. Further, it may be included.

望ましくは、前記三次元シーン記述ストリームと別の独立したストリームに載せられて伝送される前記符号化される三次元メッシュノードの三次元メッシュ情報を符号化または復号化するように三次元シーン記述符号化器/復号化器と別の独立した三次元メッシュ符号化器/復号化器を配列する。   Preferably, a 3D scene description code is encoded to decode or decode 3D mesh information of the encoded 3D mesh node transmitted in a separate stream from the 3D scene description stream. An independent three-dimensional mesh encoder / decoder is arranged separately from the encoder / decoder.

本発明のさらに他の特徴は、前記ノード処理方法が前記符号化される三次元メッシュノードのうち一部の三次元メッシュノードの三次元メッシュ情報は三次元シーン記述ストリームに載せて伝送または貯蔵する段階と、前記符号化される三次元メッシュノードのうち一部の三次元メッシュノードの三次元メッシュ情報は三次元シーン記述ストリームと別の独立したストリームに載せて伝送または貯蔵する段階をさらに含んでもよい。   According to still another aspect of the present invention, 3D mesh information of some 3D mesh nodes among the 3D mesh nodes encoded by the node processing method is transmitted or stored in a 3D scene description stream. And the step of transmitting or storing the 3D mesh information of some 3D mesh nodes of the encoded 3D mesh nodes on a separate stream from the 3D scene description stream. Good.

望ましくは、前記三次元シーン記述ストリームに載せられて伝送される前記符号化される三次元メッシュノードのうち一部の三次元メッシュノードの三次元メッシュ情報の符号化または復号化するように三次元シーン記述符号化器/復号化器に三次元メッシュ符号化器/復号化器を内蔵させて配列し、前記三次元シーン記述ストリームと別の独立したストリームに載せて伝送される前記符号化される三次元メッシュノードのうち一部の三次元メッシュノードの三次元メッシュ情報を符号化または復号化するように前記三次元シーン記述符号化器/復号化器と別の独立したさらに他の三次元メッシュ符号化器/復号化器を配列する。   Preferably, the 3D mesh information of the 3D mesh nodes of the 3D mesh nodes to be encoded or decoded is encoded among the 3D mesh nodes to be encoded and transmitted on the 3D scene description stream. The scene description encoder / decoder includes a 3D mesh encoder / decoder built in and arranged, and is encoded by being transmitted on a separate stream from the 3D scene description stream. Still another 3D mesh separate from the 3D scene description encoder / decoder so as to encode or decode 3D mesh information of some of the 3D mesh nodes. Arrange the encoder / decoder.

本発明のさらに他の特徴は、前記ノード処理方法が前記符号化される三次元メッシュノードの三次元メッシュ情報が載せられる前記独立したストリームのURL(Uniform Resource Locator)を含む三次元メッシュノードを生成する段階をさらに含み、前記三次元メッシュノードを符号化または復号化する段階は、前記三次元メッシュノードに含まれる前記URLを参照する段階を含んでもよい。   According to another aspect of the present invention, the node processing method generates a 3D mesh node including a URL (Uniform Resource Locator) of the independent stream on which 3D mesh information of the 3D mesh node to be encoded is placed. And encoding or decoding the 3D mesh node may include referring to the URL included in the 3D mesh node.

本発明のさらに他の特徴は、前記ノード処理方法が前記符号化される三次元メッシュノードの三次元メッシュ情報が載せられる前記独立したストリームのURLを含む連結ノードを生成する段階をさらに含み、前記三次元メッシュノードを符号化または復号化する段階は、前記連結ノードに基づいて符号化または復号化する段階を含んでもよい。   The node processing method may further include generating a connected node including a URL of the independent stream on which 3D mesh information of the encoded 3D mesh node is loaded, The encoding or decoding of the three-dimensional mesh node may include encoding or decoding based on the connected node.

本発明のさらに他の特徴は、三次元シーンに含まれたノードを処理する方法において、三次元シーンに含まれたノードのうち頂点から面を構成することによって形成される三次元形状を表現する三次元メッシュ情報を有する三次元メッシュノードの圧縮のために圧縮三次元メッシュノードを生成する段階と、処理する三次元シーンに含まれたノードのうち前記圧縮三次元メッシュノードを識別する段階と、前記識別された圧縮三次元メッシュノードを三次元メッシュ符号化器/復号化器を用いて符号化または復号化する段階を含んでもよい。   According to still another aspect of the present invention, in a method for processing a node included in a 3D scene, a 3D shape formed by constructing a surface from vertices among nodes included in the 3D scene is expressed. Generating a compressed 3D mesh node for compression of a 3D mesh node having 3D mesh information; identifying the compressed 3D mesh node among nodes included in a 3D scene to be processed; The identified compressed 3D mesh node may include encoding or decoding using a 3D mesh encoder / decoder.

本発明のさらに他の特徴は、三次元シーンに含まれたノードを処理する三次元シーンノード処理装置において、処理する三次元シーンのノードが頂点から面を構成することによって形成される三次元形状を表現する三次元メッシュ情報を有する三次元メッシュノードであるかを識別する制御器と、前記制御器により識別された三次元メッシュノードを符号化または復号化する三次元メッシュ符号化器/復号化器と、前記三次元シーンのノードを符号化または復号化する三次元シーン記述符号化器/復号化器を含んでもよい。   Still another feature of the present invention is a three-dimensional scene node processing apparatus for processing nodes included in a three-dimensional scene, wherein a three-dimensional shape formed by the nodes of the three-dimensional scene to be processed forming a plane from a vertex. A controller for identifying whether the node is a three-dimensional mesh node having three-dimensional mesh information that represents the three-dimensional mesh node, and a three-dimensional mesh encoder / decoder for encoding or decoding the three-dimensional mesh node identified by the controller And a 3D scene description encoder / decoder for encoding or decoding the nodes of the 3D scene.

本発明のさらに他の特徴は、前記ノード処理装置において前記制御器は前記三次元メッシュノードに三次元メッシュコーディング識別子が設定されているかをさらに識別し、前記三次元メッシュ符号化器/復号化器は前記制御器により識別された前記三次元メッシュノードのうち前記三次元メッシュコーディング識別子が設定されている三次元メッシュノードを符号化または復号化してもよい。   According to still another aspect of the present invention, in the node processing device, the controller further identifies whether a 3D mesh coding identifier is set in the 3D mesh node, and the 3D mesh encoder / decoder May encode or decode a 3D mesh node in which the 3D mesh coding identifier is set among the 3D mesh nodes identified by the controller.

本発明のさらに他の特徴は、前記ノード処理装置において前記制御器は前記符号化される三次元メッシュノードの三次元メッシュ情報を三次元シーン記述ストリームに載せて伝送または貯蔵し、前記三次元メッシュ符号化器/復号化器は前記三次元シーン記述符号化器/復号化器に内蔵されて配列されてもよい。   According to still another aspect of the present invention, in the node processing apparatus, the controller transmits or stores 3D mesh information of the encoded 3D mesh node on a 3D scene description stream, and stores the 3D mesh information. An encoder / decoder may be arranged in the 3D scene description encoder / decoder.

本発明のさらに他の特徴は、前記ノード処理装置において前記制御器は前記符号化される三次元メッシュノードの三次元メッシュ情報を三次元シーン記述ストリームと別の独立したストリームに載せて伝送または貯蔵し、前記三次元メッシュ符号化器/復号化器は前記三次元シーン記述符号化器/復号化器と別に独立して配列されてもよい。   According to still another aspect of the present invention, in the node processing apparatus, the controller transmits or stores the 3D mesh information of the encoded 3D mesh node on a separate stream from the 3D scene description stream. The 3D mesh encoder / decoder may be arranged independently of the 3D scene description encoder / decoder.

本発明のさらに他の特徴は、前記ノード処理装置において前記制御器は前記符号化される三次元メッシュノードのうち一部の三次元メッシュノードの三次元メッシュ情報は三次元シーン記述ストリームに載せて伝送または貯蔵し、一部の三次元メッシュノードの三次元メッシュ情報は前記三次元シーン記述ストリームと別の独立したストリームに載せて伝送または貯蔵し、前記三次元メッシュ符号化器/復号化器は前記三次元シーン記述符号化器/復号化器に内蔵されて配列され、さらに他の三次元メッシュ符号化器/復号化器は前記三次元シーン記述符号化器/復号化器と別に独立して配列されてもよい。   According to still another aspect of the present invention, in the node processing apparatus, the controller loads 3D mesh information of some 3D mesh nodes among the encoded 3D mesh nodes into a 3D scene description stream. 3D mesh information of some 3D mesh nodes is transmitted or stored on a separate stream separate from the 3D scene description stream, and the 3D mesh encoder / decoder The 3D scene description encoder / decoder is arranged in a built-in manner, and another 3D mesh encoder / decoder is independent of the 3D scene description encoder / decoder. It may be arranged.

望ましくは、前記三次元シーン記述ストリームに載せられて伝送される三次元メッシュノードの三次元メッシュ情報は前記三次元シーン記述符号化器/復号化器に内蔵されて配列された前記三次元メッシュ符号化器/復号化器により符号化または復号化され、前記三次元シーン記述ストリームと別の独立したストリームに載せられて伝送される三次元メッシュノードの三次元メッシュ情報は前記独立して配列された三次元メッシュ符号化器/復号化器により符号化または復号化される。   Preferably, the 3D mesh information of the 3D mesh node transmitted on the 3D scene description stream is stored in the 3D mesh description encoder / decoder. 3D mesh information of a 3D mesh node that is encoded / decoded by an encoder / decoder and transmitted on an independent stream different from the 3D scene description stream is arranged independently. It is encoded or decoded by a 3D mesh encoder / decoder.

本発明のさらに他の特徴は、前記ノード処理装置において前記制御器は、前記符号化される三次元メッシュノードの三次元メッシュ情報を独立したストリームに載せて伝送するように、前記符号化される三次元メッシュノードの三次元メッシュ情報が載せられる前記独立したストリームのURLを含む三次元メッシュノードを生成し、前記三次元メッシュ符号化器/復号化器は前記三次元メッシュノードに含まれる前記URLを参照して符号化または復号化してもよい。   According to still another aspect of the present invention, in the node processing apparatus, the controller is encoded such that the 3D mesh information of the encoded 3D mesh node is transmitted on an independent stream. A 3D mesh node including a URL of the independent stream on which 3D mesh information of the 3D mesh node is placed is generated, and the 3D mesh encoder / decoder includes the URL included in the 3D mesh node. May be used for encoding or decoding.

本発明のさらに他の特徴は、前記ノード処理装置において前記制御器は、前記符号化される三次元メッシュノードの三次元メッシュ情報を独立したストリームに載せて伝送するように、前記符号化される三次元メッシュノードの三次元メッシュ情報が載せられる前記独立したストリームのURLを含む連結ノードを生成し、前記三次元メッシュ符号化器/復号化器は前記連結ノードに含まれるURLを参照して符号化または復号化してもよい。   According to still another aspect of the present invention, in the node processing apparatus, the controller is encoded such that the 3D mesh information of the encoded 3D mesh node is transmitted on an independent stream. A concatenated node including the URL of the independent stream on which the three-dimensional mesh information of the three-dimensional mesh node is placed is generated, and the three-dimensional mesh encoder / decoder refers to the URL included in the concatenated node and performs encoding. Or decoding.

本発明のさらに他の特徴は、三次元シーンに含まれたノードを処理する装置において、三次元シーンに含まれたノードのうち頂点から面を構成することによって形成される三次元形状を表現する三次元メッシュ情報を有する三次元メッシュノードの圧縮のために圧縮三次元メッシュノードを生成し、処理する三次元シーンに含まれたノードのうち前記圧縮三次元メッシュノードを識別する制御器と、前記識別された圧縮三次元メッシュノードを符号化または復号化する三次元メッシュ符号化器/復号化器と、前記三次元シーンに含まれたノードのうち前記圧縮三次元メッシュノードを除いたノードを符号化または復号化する三次元シーン記述符号化器/復号化器を含んでもよい。   According to another aspect of the present invention, in an apparatus for processing a node included in a 3D scene, a 3D shape formed by constructing a surface from vertices among nodes included in the 3D scene is expressed. A controller for generating a compressed 3D mesh node for compression of a 3D mesh node having 3D mesh information and identifying the compressed 3D mesh node among nodes included in the 3D scene to be processed; A 3D mesh encoder / decoder that encodes or decodes the identified compressed 3D mesh node, and encodes nodes included in the 3D scene excluding the compressed 3D mesh node A 3D scene description encoder / decoder may be included.

望ましくは、本発明において前記三次元シーンを具現するプラットホームはVRML(Virtual Reality Modeling Language)、BIFS(BInary Format for Scene)、Web3Dを含む。   Preferably, the platform embodying the three-dimensional scene in the present invention includes VRML (Virtual Reality Modeling Language), BIFS (Binary Format for Scene), and Web3D.

また、望ましくは、本発明において前記三次元メッシュノードはIndexed Face Setノードを含む。   Preferably, in the present invention, the three-dimensional mesh node includes an Indexed Face Set node.

前述したように本発明によれば、三次元シーンに含まれたノードのうち三次元メッシュ情報を表現するノードを三次元メッシュ符号化器と復号化器とを用いて符号化及び復号化することによってさらに効率よく三次元シーン記述を伝送及び貯蔵しうる。   As described above, according to the present invention, a node expressing 3D mesh information among nodes included in a 3D scene is encoded and decoded using a 3D mesh encoder and a decoder. Can more efficiently transmit and store 3D scene descriptions.

また、本発明によれば、符号化される三次元メッシュ情報を表現するノードの三次元メッシュ情報を三次元シーン記述情報とは別の独立したストリームに載せて伝送及び貯蔵することによって、符号化された三次元メッシュ情報の量が膨大であっても全体的な三次元シーンに影響を与えずに伝送しうる。   Further, according to the present invention, encoding is performed by transmitting and storing 3D mesh information of a node representing 3D mesh information to be encoded on an independent stream different from 3D scene description information. Even if the amount of the generated 3D mesh information is enormous, it can be transmitted without affecting the overall 3D scene.

三次元メッシュ符号化器のブロック図である。It is a block diagram of a three-dimensional mesh encoder. 三次元メッシュ復号化器のブロック図である。It is a block diagram of a three-dimensional mesh decoder. 基礎ストリームからBIFS場面を構成する過程のフローチャートである。It is a flowchart of the process which comprises a BIFS scene from a basic stream. 図4はBIFS場面のノードを解析する過程のフローチャートである。FIG. 4 is a flowchart illustrating a process of analyzing a BIFS scene node. インデックスフェースセットノードの情報を、3DMCを使用して処理するノード解析器のフローチャートである。It is a flowchart of the node analyzer which processes the information of an index face set node using 3DMC. インデックスフェースセットノードの情報を選択的に3DMCを使用して処理するノード解析器のフローチャートである。6 is a flowchart of a node analyzer that selectively processes information of index face set nodes using 3DMC. (a)既存のインデックスフェースセットノードの構成を示す図である。(b)(a)に示されたインデックスフェースセットノードノードインターフェースの構成するフィールドを具体的に示す図面である。(A) It is a figure which shows the structure of the existing index face set node. (B) It is a figure which shows specifically the field which the index face set node node interface shown to (a) comprises. (a)URLを用いるインデックスフェースセットノード構成の一例を示した図である。(b)(a)に示されたインデックスフェースセットのノードインターフェースを構成するフィールドを具体的に示す図面である。(A) It is the figure which showed an example of the index face set node structure using URL. (B) It is a figure which shows specifically the field which comprises the node interface of the index face set shown to (a). (a)既存のインデックスフェースセットのノードフィールドにURLフィールドを追加したインデックスフェースセットノード構成の一例を示した図である。(b)(a)に示されたインデックスフェースセットのノードインターフェースを構成するフィールドを具体的に示す図面である。(A) It is the figure which showed an example of the index face set node structure which added the URL field to the node field of the existing index face set. (B) It is a figure which shows specifically the field which comprises the node interface of the index face set shown to (a). (a)既存のインデックスフェースセットのノードを連結するIFSコネクトノード構成の一例を示した図である。(b)(a)に示されたIFSコネクトノードインターフェースを構成するフィールドを具体的に示す図面である。(A) It is the figure which showed an example of the structure of the IFS connect node which connects the node of the existing index face set. (B) It is drawing which shows concretely the field which comprises the IFS connect node interface shown by (a). (a)既存のインデックスフェースセットのノードフィールドにURLフィールドを追加して新たに生成されるコンプレストIFSノード構成の一例を示した図である。(b)(a)に示されたコンプレストIFSノードインターフェースを構成するフィールドを具体的に示す図面である。(A) It is the figure which showed an example of the compressed IFS node structure newly produced | generated by adding a URL field to the node field of the existing index face set. (B) It is a figure which shows concretely the field which comprises the compressed IFS node interface shown by (a). シーン記述(場面技術)のインデックスフェースセットのノードを従来の方法で処理する概念図である。It is a conceptual diagram which processes the node of the index face set of a scene description (scene technique) by the conventional method. 本発明の第1実施例によってシーン記述(場面技術)のインデックスフェースセットのノードを処理する概念図である。It is a conceptual diagram which processes the node of the index face set of a scene description (scene technique) by 1st Example of this invention. 本発明の第2実施例によってシーン記述(場面技術)のインデックスフェースセットのノードを処理する概念図である。It is a conceptual diagram which processes the node of the index face set of a scene description (scene technique) by 2nd Example of this invention. 本発明の第3実施例によってシーン記述(場面技術)のインデックスフェースセットのノードを処理する概念図である。It is a conceptual diagram which processes the node of the index face set of a scene description (scene technique) by 3rd Example of this invention. 本発明の第4実施例によってシーン記述(場面技術)のインデックスフェースセットのノードを処理する概念図である。It is a conceptual diagram which processes the node of the index face set of a scene description (scene technique) by 4th Example of this invention. 本発明の第5実施例によってシーン記述(場面技術)のインデックスフェースセットのノードを処理する概念図である。It is a conceptual diagram which processes the node of the index face set of a scene description (scene technique) by 5th Example of this invention. 本発明の第6実施例によってシーン記述(場面技術)のインデックスフェースセットのノードを処理する概念図である。It is a conceptual diagram which processes the node of the index face set of a scene description (scene technique) by 6th Example of this invention. 本発明の第7実施例によってシーン記述(場面技術)のインデックスフェースセットのノードを処理する概念図である。It is a conceptual diagram which processes the node of the index face set of a scene description (scene technique) by 7th Example of this invention. 本発明の第8実施例によってシーン記述(場面技術)のインデックスフェースセットのノードを処理する概念図である。It is a conceptual diagram which processes the node of the index face set of a scene description (scene technique) by 8th Example of this invention.

以下、主にMPEG−4システムパートにおいてBIFSのインデックスフェースセットノードを例として説明するが、これは頂点から面を構成することによって形成される三次元形状を表現して三次元メッシュ情報を表現するためのノードを示すための例示的なものに過ぎず、本発明の適用はこのようなインデックスフェースセットノードに限定されることではなく、三次元シーン(三次元場面)において頂点から面を構成することによって形成される三次元形状を表現する如何なるノードであっても含まれるということを当業者なら理解しうる。 Hereinafter, an index face set node of BIFS will be mainly described as an example in the MPEG-4 system part, which expresses a three-dimensional mesh information by expressing a three-dimensional shape formed by constructing a face from a vertex. The present invention is not limited to such an index face set node, and a plane is formed from vertices in a three-dimensional scene (three-dimensional scene). A person skilled in the art can understand that any node expressing a three-dimensional shape formed by the above is included.

以下、図1ないし図20に基づいて本発明を詳しく説明する。MPEG−4SNHCパートにおいてインデックスフェースセットノードを表現できるように提供される三次元メッシュ符号化器と復号化器とが図1と図2に各々示されており、本発明は図1及び図2に示されたようにMPEG−4SNHCパートで用いられた三次元メッシュ符号化器と復号化器とを三次元シーン記述(3D Scene Description)に含まれたノードに利用しようとすることである。   Hereinafter, the present invention will be described in detail with reference to FIGS. A 3D mesh encoder and a decoder provided to represent an index faceset node in the MPEG-4 SNHC part are shown in FIGS. 1 and 2, respectively. The present invention is shown in FIGS. As shown, the 3D mesh encoder and decoder used in the MPEG-4 SNHC part are to be used for the nodes included in the 3D scene description.

図1に三次元メッシュ符号化器100が示されており、幾何情報、連結情報、属性情報を含む三次元メッシュ情報は三次元メッシュ符号化器100により符号化されて圧縮された三次元メッシュモデルを形成する。三次元メッシュ情報110は幾何情報111、連結性情報112、属性情報113が分離されて三次元メッシュ符号化器100の幾何情報符号化器101、連結情報符号化器102、属性情報符号化器103を通じて符号化され、これらは総合的にエントロピ符号化器104を通じて最終符号化された三次元メッシュモデルが生成される。   A 3D mesh encoder 100 is shown in FIG. 1, and 3D mesh information including geometric information, connection information, and attribute information is encoded by the 3D mesh encoder 100 and compressed. Form. In the 3D mesh information 110, the geometric information 111, the connectivity information 112, and the attribute information 113 are separated, and the geometric information encoder 101, the connection information encoder 102, and the attribute information encoder 103 of the 3D mesh encoder 100 are separated. The three-dimensional mesh model in which these are comprehensively encoded through the entropy encoder 104 is generated.

また、図2に三次元メッシュ復号化器200が示されている。ビットストリームに入力された符号化された三次元メッシュ情報は三次元メッシュ復号化器200を通じて復号化されて幾何情報221、連結情報222、属性情報223を含む三次元メッシュモデルに復元される。すなわち、エントロピ復号化器205を通じて復号化されたそれぞれの情報は幾何情報復号化器201、連結情報復号化器202、属性情報復号化器203を通じて各々復号化されて三次元メッシュモデル220が復元される。   Also shown in FIG. 2 is a three-dimensional mesh decoder 200. The encoded 3D mesh information input to the bit stream is decoded through the 3D mesh decoder 200 and restored to a 3D mesh model including geometric information 221, connection information 222, and attribute information 223. That is, each piece of information decoded through the entropy decoder 205 is decoded through the geometric information decoder 201, the concatenated information decoder 202, and the attribute information decoder 203 to restore the three-dimensional mesh model 220. The

図3にはMPEG−4システムパートで基礎ストリーム(Elementary Stream(ES))301に伝送される三次元シーンの各ノードを解析してBIFS場面304を生成する流れを示す。   FIG. 3 shows a flow of generating a BIFS scene 304 by analyzing each node of the three-dimensional scene transmitted to the elementary stream (Elementary Stream (ES)) 301 in the MPEG-4 system part.

MPEG−4はクライアント-サーバーモデルを用いて、MPEG−4クライアント(またはプレーヤーまたはブラウザー)はMPEG−4サーバーとを接触し、コンテントを要請し、コンテントを受信し、コンテントをレンダリングする。このようなコンテントはビデオデータ、オーディオデータ、静止画像、合成2Dまたは3Dデータ、または前述した全てのもので構成でき、このような全てのデータが使用者のスクリーンでディスプレーされ、使用者のスピーカーで再生させるために受信端で結合される方法が場面記述(Scene Description)である。   MPEG-4 uses a client-server model, where an MPEG-4 client (or player or browser) contacts the MPEG-4 server, requests content, receives content, and renders content. Such content can consist of video data, audio data, still images, composite 2D or 3D data, or all of the above, all such data being displayed on the user's screen and on the user's speakers. A method that is combined at the receiving end to reproduce is a scene description.

VRMLやBIFSで場面はツリー状態で配置されて多様なノードの集合として表現され、各ノードは場面に含まれた各オブジェクトを表現し、ノードの特定行動を定義するフィールドのリストで構成される。また、基礎ストリームは各オブジェクトデータ、シーン記述情報、またはオブジェクトなどに関連した制御情報を運搬する。   In VRML and BIFS, scenes are arranged in a tree state and expressed as a set of various nodes. Each node expresses each object included in the scene and includes a list of fields that define specific actions of the nodes. The basic stream carries control information related to each object data, scene description information, or object.

また、MPEG−4システム分野ではノードのタイプを現在の2つのバージョン値を用いて区分させ、各バージョン値によってノードのタイプを区分する識別子(Node Code)が違って定義されていて各バージョン別にノードのための解析器が各々存在する。   Also, in the MPEG-4 system field, the node type is classified using the two current version values, and the identifier (Node Code) for classifying the node type by each version value is defined differently. There are analyzers for each.

図3では基礎ストリーム301からBIFSの構成情報がわかり、各場面のノード処理時、処理するノードのタイプに応じてバージョン1解析器302またはバージョン2解析器303で解析し、これ以上処理するノードがなければ経路をパッシングし、BIFS場面を構成する(304)。   In FIG. 3, the BIFS configuration information is known from the basic stream 301, and at the time of node processing of each scene, the version 1 analyzer 302 or the version 2 analyzer 303 analyzes according to the type of the node to be processed. If not, the path is passed and a BIFS scene is constructed (304).

一般に、図3に示されたノード解析器302、303は、図4のような形態に具現される。VRMLとBIFSは全てノードを再使用するメカニズムを有し、処理するノードが再使用されるノードである場合、該当ノードID401を持ってきて、新たなノードである場合にはノードのタイプ402を求め、そのノードのタイプに応じて処理する(403)。そして、現在のノードが子ノードを有している場合(404)には、各子ノードに対してこれと同じ方法で処理する。   In general, the node analyzers 302 and 303 shown in FIG. 3 are implemented as shown in FIG. VRML and BIFS all have a mechanism for reusing a node. If the node to be processed is a node to be reused, the node ID 401 is obtained, and if it is a new node, the node type 402 is obtained. The process is performed according to the type of the node (403). If the current node has child nodes (404), each child node is processed in the same manner.

MPEG−4システムパートで三次元メッシュ符号化器及び復号化器を使用してインデックスフェースセットノードを符号化及び復号化するために図3のバージョン2のノード解析器303を図5のように具現しうる。処理するノードのタイプを確認し(501)、ノードのタイプがインデックスフェースセットノードの場合502には、三次元メッシュ符号化器及び復号化器を使用してインデックスフェースセットノードを符号化及び復号化する(503)。しかし、処理するノードのタイプがインデックスフェースセットノードではない場合には、既存のBIFSノード処理方式で処理する(504)。そして、現在のノードが子ノードを有している場合(505)には、各子ノードに対してこれと同じ方法で処理する。   The version 2 node analyzer 303 of FIG. 3 is implemented as shown in FIG. 5 to encode and decode the index face set node using a 3D mesh encoder and decoder in the MPEG-4 system part. Yes. The type of the node to be processed is confirmed (501). If the node type is an index face set node 502, the index face set node is encoded and decoded using a 3D mesh encoder and decoder. (503). However, when the type of the node to be processed is not the index face set node, the processing is performed by the existing BIFS node processing method (504). If the current node has child nodes (505), processing is performed for each child node in the same manner.

MPEG−4システム分野で三次元メッシュ符号化器及び復号化器を使用してインデックスフェースセットノードを符号化及び復号化するためのさらに他の方法では、図3のバージョン2のノード解析器303を図6と同様に具現しうる。処理するノードのタイプを確認し(601)、ノードのタイプがインデックスフェースセットノードの場合(602)には、BIFSの構成情報からインデックスフェースセットノードの処理方法を知らせる三次元メッシュコーディング識別子(use 3Dmesh Coding)信号を参照し(606)、前記三次元メッシュコーディング識別子信号の設定されている場合には、インデックスフェースセットノードを三次元メッシュ符号化器及び復号化器を使用して符号化及び復号化する(603)。   In yet another method for encoding and decoding index faceset nodes using 3D mesh encoders and decoders in the MPEG-4 system field, the version 2 node analyzer 303 of FIG. It can be implemented similarly to FIG. The type of the node to be processed is confirmed (601). If the node type is an index face set node (602), a 3D mesh coding identifier (use 3D mesh) that informs the processing method of the index face set node from the BIFS configuration information. If the 3D mesh coding identifier signal is set, the index face set node is encoded and decoded using a 3D mesh encoder and decoder. (603).

しかし、処理するノードのタイプがインデックスフェースセットノードでないか、処理するノードに三次元メッシュコーディング識別子が設定されていない場合には、既存のBIFSノード処理方式で処理する(604)。そして、現在のノードが子ノードを有している場合(605)には各子ノードに対してこれと同じ方法で処理する。   However, if the type of the node to be processed is not an index face set node, or if the 3D mesh coding identifier is not set for the node to be processed, the processing is performed using the existing BIFS node processing method (604). If the current node has child nodes (605), processing is performed for each child node in the same manner.

図5のノード解析器では場面に含まれたあらゆるインデックスフェースセットノードを三次元メッシュ符号化器/復号化器で符号化/復号化するが、図6のノード解析器では場面に含まれたあらゆるインデックスフェースセットノードを三次元メッシュ符号化/復号化するのではなく、三次元メッシュ符号化/復号化されないインデックスフェースセットノードも含めるという点で差がある。すなわち、図6のノード解析器では、インデックスフェースセットノードに関する情報に三次元メッシュコーディング識別子を置き、インデックスフェースセットノードに三次元メッシュコーディング識別子が設定されている場合には三次元メッシュ符号化/復号化し、三次元メッシュコーディング識別子が設定されていない場合には三次元メッシュ符号化/復号化処理を行わないという点で図5のノード解析器と違う。   In the node analyzer of FIG. 5, every index face set node included in the scene is encoded / decoded by a 3D mesh encoder / decoder. In the node analyzer of FIG. There is a difference in that index face set nodes are not subjected to 3D mesh encoding / decoding, but include index face set nodes that are not 3D mesh encoded / decoded. That is, in the node analyzer of FIG. 6, when a 3D mesh coding identifier is placed in the information on the index face set node and the 3D mesh coding identifier is set in the index face set node, the 3D mesh encoding / decoding is performed. If the 3D mesh coding identifier is not set, the 3D mesh encoding / decoding process is not performed, which is different from the node analyzer of FIG.

MPEG−4システム分野で三次元メッシュ符号化器及び復号化器を使用してインデックスフェースセットノードの情報を符号化及び復号化するためのさらに他の方法は、既存のインデックスフェースセットノードはそのまま保ち、インデックスフェースセットノードを符号化するために新たなノードを生成することである。この場合には既存のインデックスフェースセットノードに対しては図4に示されたようなノード解析器を使用して既存のBIFSノード処理方法で処理し、新たに生成されたノード、例えば、後述する図11に示したように新たに生成されたコンプレスト(Compressed)IFSノードに対しては三次元メッシュ符号化器/復号化器を用いて符号化及び復号化する。   Yet another method for encoding and decoding index faceset node information using 3D mesh encoders and decoders in the MPEG-4 system field is to keep existing index faceset nodes intact. , Creating a new node to encode the index faceset node. In this case, an existing index face set node is processed by an existing BIFS node processing method using a node analyzer as shown in FIG. 4, and a newly generated node, for example, described later. As shown in FIG. 11, a newly generated compressed IFS node is encoded and decoded using a three-dimensional mesh encoder / decoder.

図7は現在の三次元シーンで三次元メッシュを表現するために使われるインデックスフェースセットのノードインターフェースを示し、図8ないし11には本発明によって生成されるインデックスフェースセットのノードインターフェースを示す。図8と図9に示されたインデックスフェースセットノードは、既存のインデックスフェースセットノードインターフェースを代替する新たなノードインターフェースを生成する形であり、図10と図11では既存のインデックスフェースセットノードはそのまま使用して新たなノードインターフェースを追加する形を示している。   FIG. 7 shows an index face set node interface used to represent a 3D mesh in the current 3D scene, and FIGS. 8 to 11 show an index face set node interface generated by the present invention. The index face set node shown in FIG. 8 and FIG. 9 generates a new node interface that replaces the existing index face set node interface. In FIG. 10 and FIG. Shows how to use to add a new node interface.

全体的な三次元シーンに影響を与えないように符号化された三次元メッシュ情報を三次元シーン記述情報とは別のストリームを使用して伝送するためにインデックスフェースセットノードインターフェースを図8と同様に具現しうる。   In order to transmit 3D mesh information encoded so as not to affect the entire 3D scene using a stream different from 3D scene description information, the index face set node interface is the same as in FIG. Can be embodied.

図8のインデックスフェースセットノードは既存のインデックスフェースセットノードのあらゆるフィールドを無くし、前記インデックスフェースセットノードを他のストリームに連結しうるURLフィールド800を含む。このようなURLフィールド800には既存のインデックスフェースセットのあらゆるフィールド情報を含むストリームを探せる情報が記録される。したがって、インデックスフェースセットノードの三次元メッシュ情報は別の独立したストリームに載せられて伝送され、インデックスフェースセットノードの処理時には前記インデックスフェースセットノードの三次元メッシュ情報が載せられて伝送される独立したストリームに対する位置情報を有しているURLフィールドを参照する。   The index face set node of FIG. 8 includes a URL field 800 that eliminates any fields of the existing index face set node and can link the index face set node to other streams. In such a URL field 800, information for searching for a stream including all field information of an existing index face set is recorded. Therefore, the 3D mesh information of the index face set node is transmitted on another independent stream, and when the index face set node is processed, the 3D mesh information of the index face set node is transmitted by being transmitted independently. Refers to the URL field having position information for the stream.

別のストリームで三次元メッシュ情報を伝送するためのさらに他の方法はインデックスフェースセットノードインターフェースを図9のように具現することである。図9のインデックスフェースセットノードは既存のインデックスフェースセットノードに含まれたあらゆるフィールド900を含み、URLフィールド910をさらに含む。これは図7と図8とを合わせた形であって、URLフィールド910を用いて三次元メッシュ情報を別の符号化されたストリームに伝送することもでき、既存のインデックスフェースセットノードのフィールド900を用いて符号化される三次元メッシュ情報をシーン記述ストリームに載せて伝送することもできる。一方、前記既存のインデックスフェースセットノードのフィールドに含まれた三次元メッシュ情報は符号化せずシーン記述ストリームに載せて伝送することもできる。   Still another method for transmitting 3D mesh information in another stream is to implement an index face set node interface as shown in FIG. The index faceset node of FIG. 9 includes every field 900 included in an existing index faceset node and further includes a URL field 910. This is a combination of FIG. 7 and FIG. 8, and the URL field 910 can be used to transmit 3D mesh information to another encoded stream. It is also possible to transmit the 3D mesh information encoded by using the scene description stream. On the other hand, the 3D mesh information included in the field of the existing index face set node may be transmitted on the scene description stream without being encoded.

別のストリームで三次元メッシュ情報を伝送するためのさらに他の方法は、インデックスフェースセットのノードインターフェースは既存の方法の通り図7のように保ちながら図10のような形の新たな連結ノードを生成することである。この方法ではURLフィールド1000を保有している連結ノードのIFSコネクトノードを生成し、前記URLフィールドがインデックスフェースセット情報に載せられて伝送されるストリームを探せる情報を有させる。そして、前記IFSコネクトノードを三次元シーンでインデックスフェースセットノードの前の位置に挿入する。   Still another method for transmitting the 3D mesh information in another stream is that the node interface of the index face set maintains a new connection node as shown in FIG. 10 while keeping the node interface as shown in FIG. Is to generate. In this method, an IFS connect node of a connected node having a URL field 1000 is generated, and the URL field is included in the index face set information and has information for searching for a stream to be transmitted. Then, the IFS connect node is inserted at a position before the index face set node in the 3D scene.

以後、三次元シーンを解析する時、処理するノードがインデックスフェースセットノードの場合、前のIFSコネクト連結ノードを参照し、前記連結ノードのURLフィールドからインデックスフェースセット情報のあるストリームを探せる。実際に、図8に示されたインデックスフェースセットノードと図9に示されたIFSコネクトノードはそのフィールドの内容は同一であるが、図8では新たな形のインデックスフェースセットノードを新たに生成することである反面、図10では既存のインデックスフェースセットノードはそのまま保ちながら連結ノードのみを新たに生成するという点で差がある。   Thereafter, when analyzing a 3D scene, if the node to be processed is an index face set node, a stream having index face set information can be searched from the URL field of the connected node by referring to the previous IFS connect link node. Actually, the index face set node shown in FIG. 8 and the IFS connect node shown in FIG. 9 have the same field contents, but in FIG. 8, a new type of index face set node is newly generated. On the other hand, in FIG. 10, there is a difference in that only the connected nodes are newly generated while keeping the existing index face set nodes as they are.

別のストリームで三次元メッシュ情報を伝送するためのさらに他の方法は、図9のようなノードインターフェースを有するノードを図11のように新たなノードに生成することである。すなわち、インデックスフェースセットノードを従来のように符号化せず、三次元メッシュ情報を表現するように保ち、三次元メッシュ情報を符号化するために新たなノードを定義して使用することである。   Yet another method for transmitting 3D mesh information in another stream is to generate a node having a node interface as shown in FIG. 9 in a new node as shown in FIG. That is, the index face set node is not encoded as in the prior art, but is maintained so as to represent the 3D mesh information, and a new node is defined and used to encode the 3D mesh information.

図11に示されたコンプレストIFSノードは既存のインデックスフェースセットノードのフィールド1100とURLフィールド1110とを含む。コンプレストIFSノードに含まれたURLフィールド1110を用いて三次元メッシュ情報を符号化されたストリームに伝送でき、コンプレストIFSノードに含まれた既存のインデックスフェースセットフィールド1100を用いて三次元シーン記述ストリームに載せて符号化された三次元メッシュ情報を伝送しうる。   The compressed IFS node shown in FIG. 11 includes a field 1100 and a URL field 1110 of an existing index face set node. The 3D mesh information can be transmitted to the encoded stream using the URL field 1110 included in the compressed IFS node, and the 3D scene description can be transmitted using the existing index face set field 1100 included in the compressed IFS node. 3D mesh information encoded on a stream can be transmitted.

図12は従来の方法により場面技術のノードを処理する方法の概念図であり、図13ないし図20は本発明によるノードの構成によりシーン記述の各ノードを処理する方法の概念図である。   FIG. 12 is a conceptual diagram of a method of processing scene technology nodes according to a conventional method, and FIGS. 13 to 20 are conceptual diagrams of a method of processing each node of a scene description according to the node configuration according to the present invention.

BIFSとVRMLにおいて場面(シーン)は全て階層的なツリー構造で配列されたノードの集合からなり、各ノードは場面の客体(オブジェクト)を表現し、組合せ、変形させ、ノードの特定の行動を定義するフィールドのリストとして構成される。   In BIFS and VRML, all scenes are composed of a set of nodes arranged in a hierarchical tree structure, and each node represents the objects (objects) in the scene, combined and transformed to define specific actions of the nodes. Configured as a list of fields to perform.

オブジェクトディスクリプタストリーム(客体ディスクリプタストリーム)1220のオブジェクトディスクリプタODには基礎ストリームESに対する情報のES_Descriptorが1つ以上あり、このようなES_DescriptorはES_IDを使用して該当客体(オブジェクト)のある基礎ストリーム1230を探すことになる。初期オブジェクトディスクリプタ1200にはシーン記述(場面技術)ストリーム1210及びオブジェクトディスクリプタストリーム1220に関するES_Descriptorがあり、SD内のノードの異なるストリームの情報を探す時は、オブジェクトディスクリプタストリーム内のオブジェクトディスクリプタを通じて該当ストリームを探すことになる。   The object descriptor OD of the object descriptor stream (object descriptor stream) 1220 has one or more ES_Descriptors of information for the basic stream ES. Such ES_Descriptor uses the ES_ID to search for the basic stream 1230 having the corresponding object (object). It will be. The initial object descriptor 1200 has an ES_Descriptor related to the scene description (scene technology) stream 1210 and the object descriptor stream 1220. When searching for information on different streams of nodes in the SD, the corresponding stream is searched through the object descriptor in the object descriptor stream. It will be.

図12に示された場面技術のインデックスフェースセットノード(IndexdFaceSet)1240は図7のような既存のノードインターフェースを使用し、この情報はSDストリーム1210に載せられて他のシーン記述情報と共にSDコデック(シーン記述(場面技術)符号化器/復号化器1250)に伝送されるか、あるいはSDコデック1250から伝送される。   The index face set node (IndexFaceSet) 1240 of the scene technology shown in FIG. 12 uses an existing node interface as shown in FIG. 7, and this information is loaded on the SD stream 1210 and is stored in the SD codec ( Scene description (scene technology) encoder / decoder 1250) or from SD codec 1250.

説明の便宜上、以下ではシーン記述(場面技術)ストリームがSDコデックに入力される方向を説明するが、図12ないし図20に示されたSDコデックはシーン記述符号化器と復号化器とを含み、3DMCは三次元メッシュ符号化器と復号化器とを含むので、符号化されたストリームは場面技術復号化器や三次元メッシュ復号化器に入力され、シーン記述符号化器や三次元メッシュ符号化器から符号化されたストリームが出力されることはもちろんである。   For convenience of explanation, the direction in which a scene description (scene technology) stream is input to the SD codec will be described below. The SD codec shown in FIGS. 12 to 20 includes a scene description encoder and a decoder. Since 3DMC includes a 3D mesh encoder and a decoder, the encoded stream is input to a scene technology decoder or a 3D mesh decoder, and a scene description encoder or 3D mesh code is input. Of course, the encoded stream is output from the encoder.

図13は本発明の第1実施例によってシーン記述(場面技術)のあらゆるインデックスフェースセットノードを3DMCで符号化/復号化し、3DMC1320をSDコデック1310内に内蔵して配列する構成の概念図である。第1実施例においてインデックスフェースセットノード1300は、図7に示されたような既存のノードインターフェースをそのまま使用し、三次元メッシュ符号化器/復号化器1320をSDコデック1310に内蔵させる。符号化された三次元メッシュ情報は三次元シーン記述情報が伝送されるシーン記述ストリームに載せられて共に伝送され、シーン記述ストリームに含まれたシーン記述情報はSDコデック1310により復号化され、シーン記述(場面技術)ストリームに載せられて伝送される符号化された三次元メッシュ情報は3DMC1320により復号化される。   FIG. 13 is a conceptual diagram of a configuration in which every index face set node of scene description (scene technology) is encoded / decoded by 3DMC and 3DMC 1320 is built in SD codec 1310 according to the first embodiment of the present invention. . In the first embodiment, the index face set node 1300 uses the existing node interface as shown in FIG. 7 as it is, and incorporates the three-dimensional mesh encoder / decoder 1320 in the SD codec 1310. The encoded 3D mesh information is carried on the scene description stream to which the 3D scene description information is transmitted, and the scene description information included in the scene description stream is decoded by the SD codec 1310. (Scene Technology) The encoded 3D mesh information transmitted on the stream is decoded by the 3DMC 1320.

もちろん、SDコデック1310により符号化されたシーン記述(場面技術)ストリームがSDコデック1310から出力され、3DMC1320により符号化された三次元メッシュ情報が3DMC1320から出力されることも含む。   Of course, it also includes that a scene description (scene technology) stream encoded by the SD codec 1310 is output from the SD codec 1310, and three-dimensional mesh information encoded by the 3DMC 1320 is output from the 3DMC 1320.

図14は本発明の第2実施例によって場面技術のあらゆるインデックスフェースセットノードを3DMCで符号化/復号化し、3DMC1420はSDコデック1410とは別に独立して配列されてSDコデック1410と連結された構成の概念図である。シーン記述のIFSノード1400は図8に示されたようにノードインターフェースにURLフィールドのみを含む。IFSノード1400のURLフィールドは符号化された三次元メッシュオブジェクトのオブジェクトディスクリプタIDを管理しており、該当オブジェクトディスクリプタ(客体ディスクリプタ)1430内のES_Descriptorを通じて符号化された三次元メッシュオブジェクトの情報が含まれているストリーム1440を探せる。   FIG. 14 shows a configuration in which every index faceset node of scene technology is encoded / decoded by 3DMC according to the second embodiment of the present invention, and 3DMC 1420 is arranged independently of SD codec 1410 and connected to SD codec 1410. FIG. The scene description IFS node 1400 includes only the URL field in the node interface as shown in FIG. The URL field of the IFS node 1400 manages the object descriptor ID of the encoded 3D mesh object, and includes information of the 3D mesh object encoded through the ES_Descriptor in the corresponding object descriptor (object descriptor) 1430. Stream 1440 can be found.

前記三次元メッシュコーディングで圧縮されたインデックスフェースセットストリーム1440は独立した3DMC1420に伝送されて復号化され、シーン記述(場面技術)ストリーム内のシーン記述情報はSDコデック1410に伝送され復号化される。   The index face set stream 1440 compressed by the three-dimensional mesh coding is transmitted to an independent 3DMC 1420 and decoded, and the scene description information in the scene description (scene technology) stream is transmitted to the SD codec 1410 and decoded.

図15は、本発明の第3実施例によってシーン記述(場面技術)のIFSノードが図9に示されたように既存のインデックスフェースセットノードインターフェースにURLフィールドを追加した形態であり、3DMC1520がSDコデック1510と別に独立して存在してSDコデック1510に連結される構成の概念図である。図14に示された第2実施例との差は、図14では全てのインデックスフェースセットノードが三次元メッシュ符号化/復号化されるが、図15では三次元メッシュ符号化/復号化されない既存のインデックスフェースセットノードも含むということである。   FIG. 15 shows a scene description (scene technology) IFS node according to the third embodiment of the present invention in which a URL field is added to an existing index face set node interface as shown in FIG. It is a conceptual diagram of the structure which exists separately from codec 1510, and is connected to SD codec 1510. The difference from the second embodiment shown in FIG. 14 is that all index face set nodes are three-dimensional mesh encoded / decoded in FIG. 14, but not three-dimensional mesh encoded / decoded in FIG. The index face set node is also included.

IFSノードに含まれたURLフィールドが使用せず、既存のインデックスフェースセットノードのフィールドで三次元メッシュ情報を表現するインデックスフェースセットノード(IndexedFaceSet)1550の場合には、インデックスフェースセットノードの三次元メッシュ情報はSDストリームに載せられてシーン記述(場面技術)内の他のSD情報と共にSDコデック1510に伝送され、IFSノードに含まれた既存のインデックスフェースセットノードのフィールドが使用せず、URLフィールドが使われるIFSノード1500の場合には別のストリーム1540に伝送される符号化された三次元メッシュ情報が3DMC1520に伝送される。   In the case of an index face set node (Indexed Face Set) 1550 that does not use the URL field included in the IFS node and represents the 3D mesh information in the field of the existing index face set node, the 3D mesh of the index face set node The information is put on the SD stream and transmitted to the SD codec 1510 together with other SD information in the scene description (scene technology). The field of the existing index faceset node included in the IFS node is not used, and the URL field is In the case of the IFS node 1500 used, the encoded 3D mesh information transmitted to another stream 1540 is transmitted to the 3DMC 1520.

図16は本発明の第4実施例によってシーン記述(場面技術)のIFSノードが図9に示されたように既存のインデックスフェースセットノードインターフェースにURLフィールドが追加された形であり、3DMC1620はSDコデック1610内にも内蔵されて配列され、またSDコデック1610とは別に独立的にも配列されて前記SDコデック1610に連結される構成の概念図である。   FIG. 16 shows a scene description (scene technology) IFS node according to the fourth embodiment of the present invention in which a URL field is added to an existing index face set node interface as shown in FIG. FIG. 11 is a conceptual diagram of a configuration in which the codec 1610 is also built in and arranged separately from the SD codec 1610 and connected to the SD codec 1610.

IFSノードのURLフィールドを使用する場合のIFSノード1600の場合に符号化された三次元メッシュ情報は別のストリーム1640を通じて独立して配列された3DMC1620に伝送され、IFSノードのURLフィールドを使用せずに既存のインデックスフェースセットフィールドを使用する場合のIFSノード1650の場合に符号化された三次元メッシュ情報はシーン記述(場面技術)ストリームに載せられてSDコデック1610内の3DMC1620に伝送されて復号化される。   When using the URL field of the IFS node, the 3D mesh information encoded in the case of the IFS node 1600 is transmitted to the 3DMC 1620 arranged independently through another stream 1640, without using the URL field of the IFS node. 3D mesh information encoded in the case of the IFS node 1650 when using the existing index face set field is transmitted to the 3DMC 1620 in the SD codec 1610 and is loaded on the scene description (scene technology) stream for decoding. Is done.

図15に示された第3実施例との差は、第3実施例で符号化された三次元メッシュ情報は別のストリームにのみ伝送されたが、本第4実施例では3DMC1620がSDコデック1610内にも配列されて独立して配列されるので、符号化された三次元メッシュ情報はシーン記述(場面技術)ストリームに載せられて伝送されても、シーン記述ストリームと別に独立したストリームで伝送されても良い。   The difference from the third embodiment shown in FIG. 15 is that the 3D mesh information encoded in the third embodiment is transmitted only to another stream, but in the fourth embodiment, the 3DMC 1620 is connected to the SD codec 1610. Since the encoded 3D mesh information is transmitted on the scene description (scene technology) stream, it is transmitted separately from the scene description stream. May be.

また、図15に示された第3実施例と図16に示された第4実施例は両方共、インデックスフェースセットノードインターフェースとして図9に示されたようなノードインターフェースを使用するが、第3実施例は三次元メッシュ情報の符号化されたインデックスフェースセットノードと三次元メッシュ情報の符号化されていないインデックスフェースセットノードとを共に含むが、第4実施例は符号化されたインデックスフェースセットノードのみを含むという点で違う。   Further, both the third embodiment shown in FIG. 15 and the fourth embodiment shown in FIG. 16 use the node interface as shown in FIG. 9 as the index face set node interface. While the embodiment includes both an encoded index faceset node of 3D mesh information and an unencoded index faceset node of 3D mesh information, the fourth embodiment includes an encoded index faceset node. It is different in that it contains only.

図17は本発明の第5実施例によって場面技術のIFSノードは図7に示されたような既存のインデックスフェースセットノードインターフェースを使用し、選択的3DMC1720がSDコデック1710内に内蔵されて配列される構成の概念図である。第5実施例は三次元メッシュコーディングで符号化/復号化されるインデックスフェースセットノード1700と三次元メッシュコーディングで符号化/復号化されないインデックスフェースセットノード(IndexdFaceSet)1730を全て含む。   FIG. 17 illustrates a scene technology IFS node according to a fifth embodiment of the present invention, wherein an existing index faceset node interface as shown in FIG. 7 is used, and a selective 3DMC 1720 is arranged in the SD codec 1710. FIG. The fifth embodiment includes an index face set node 1700 that is encoded / decoded by 3D mesh coding and an index face set node (IndexFaceSet) 1730 that is not encoded / decoded by 3D mesh coding.

第5実施例において、3DMC1720をSDコデック1710に基本的に内蔵させるが、シーン記述(場面技術)内のあらゆるインデックスフェースセットノードを三次元メッシュ符号化/復号化することではなく、図6に示したノード解析器のように選択的に符号化及び復号化する。   In the fifth embodiment, the 3DMC 1720 is basically built in the SD codec 1710, but not every index faceset node in the scene description (scene technology) is shown in FIG. It selectively encodes and decodes like a node analyzer.

すなわち、処理するノードがインデックスフェースセットタイプである場合に、BIFS構成情報から3次元メッシュコーディング識別子が設定されているかを判断し、3次元メッシュコーディング識別子が設定されていない場合、三次元メッシュ情報を他の場面技術情報と共にシーン記述(場面技術)ストリームに載せてSDコデック1510に伝送して既存のBIFSノード処理方式で処理し、3次元メッシュコーディング識別子が設定されている場合、三次元メッシュ情報はやはり他のシーン記述情報と共にシーン記述ストリームに載せてSDコデック1510に伝送して選択的3DMC1720により三次元メッシュ情報を復号化する。   That is, when the node to be processed is an index face set type, it is determined whether the 3D mesh coding identifier is set from the BIFS configuration information. If the 3D mesh coding identifier is not set, the 3D mesh information is When the 3D mesh coding identifier is set when the 3D mesh coding identifier is set, it is loaded on the scene description (scene technology) stream together with other scene technology information, transmitted to the SD codec 1510, and processed by the existing BIFS node processing method. Again, it is put on the scene description stream together with other scene description information and transmitted to the SD codec 1510, and the 3D mesh information is decoded by the selective 3DMC 1720.

図18は本発明の第6実施例によって既存のインデックスフェースセットノード1800を含み、IFSノード1830が三次元メッシュ情報を含んでいる独立したストリームと連結する連結ノードであるIFSConnectノード1840を図10のように定義して使用し、3DMC1820をSDコデック1810とは独立して配列して構成する概念図である。   18 includes an existing index face set node 1800 according to the sixth embodiment of the present invention, and an IFSConnect node 1840, which is a connection node that connects an independent stream including 3D mesh information, is illustrated in FIG. It is a conceptual diagram in which the 3DMC 1820 is arranged and configured independently of the SD codec 1810.

第6実施例において、シーン記述(場面技術)内の既存のインデックスフェースセットノード(IndexedFaceSet)1800の三次元メッシュ情報はシーン記述ストリームに載せられて他のシーン記述情報と共にSDコデック1810に伝送される。連結ノードIFSC1840は三次元シーンのツリー構造においてIFSノード1830の前に位置するように挿入され、連結ノードのURLフィールドは三次元メッシュ情報が伝送される独立したストリーム1860に対する位置を探せる情報を有している。   In the sixth embodiment, the 3D mesh information of an existing index face set node (IndexedFaceSet) 1800 in the scene description (scene technology) is placed on the scene description stream and transmitted to the SD codec 1810 together with other scene description information. . The connection node IFSC 1840 is inserted so as to be positioned in front of the IFS node 1830 in the tree structure of the 3D scene, and the URL field of the connection node has information for locating the independent stream 1860 through which the 3D mesh information is transmitted. ing.

連結ノードのURLフィールドが三次元メッシュ情報の伝送されるストリームに関する位置を探せる情報を有しているということは、連結ノードのURLがオブジェクトディスクリプタをポインターしており、オブジェクトディスクリプタ(客体ディスクリプタ)のES_Descriptorが三次元メッシュ情報を含んでいるストリームを探せる情報を有していることを意味する。   The fact that the URL field of the connected node has information for finding the position of the stream to which the 3D mesh information is transmitted means that the URL of the connected node points to the object descriptor and the ES_Descriptor of the object descriptor (object descriptor). Means that it has information to search for a stream containing 3D mesh information.

IFSCノード1840の処理時、まずIFSC連結ノードのURLにより三次元メッシュ情報を保持していて、次のノード処理時三次元メッシュ情報を含まない空いたインデックスフェースセットノードが出る場合に、前のIFSC連結ノードに基づいて三次元メッシュ情報を含んでいる独立したストリームから三次元メッシュ情報を受取れる。しかし、IFSノードの前にIFSC連結ノードがない場合、すなわち、インデックスフェースセットノード1800と同一な場合には、既存のインデックスフェースセットノードの処理方法と同様に三次元メッシュ情報はSDストリームを通じて他のSD情報と共に伝送されてSDコデック1810により処理される。   When processing the IFSC node 1840, first, when the 3D mesh information is held by the URL of the IFSC connection node and a free index face set node that does not include the 3D mesh information is output at the next node processing, the previous IFSC Based on the connected nodes, 3D mesh information can be received from an independent stream containing 3D mesh information. However, if there is no IFSC concatenation node before the IFS node, that is, if it is the same as the index face set node 1800, the 3D mesh information is transmitted through the SD stream to other data as in the existing index face set node processing method. It is transmitted with the SD information and processed by the SD codec 1810.

図19は本発明の第7実施例によってIFSノード1940を三次元メッシュ情報に含んでいる独立したストリームと連結する連結ノードのIFSConnectノード1930を図10のように定義して使用し、さらに別のストリームを利用せず、三次元メッシュ情報を符号化するIFSノード1900を含み、3DMC1920はSDコデック1910とは独立して配列し、SDコデック1910内に内蔵させて配列する構成の概念図である。   FIG. 19 illustrates a connection node IFSConnect node 1930 that connects an IFS node 1940 with an independent stream including 3D mesh information according to the seventh embodiment of the present invention, as shown in FIG. It is a conceptual diagram of a configuration including an IFS node 1900 that encodes three-dimensional mesh information without using a stream, and the 3DMC 1920 is arranged independently of the SD codec 1910 and arranged in the SD codec 1910.

第7実施例の図18に示された第6実施例との相違点は、IFSC連結ノードを利用しないIFSノード1900の場合にも符号化された三次元メッシュ情報はシーン記述(場面技術)ストリームに載せられて他のシーン記述情報と共にSDコデック1910に伝送され、SDコデック1910に内蔵された選択的3DMC1920により復号化されるということであり、その他は第6実施例と同一である。   The difference of the seventh embodiment from the sixth embodiment shown in FIG. 18 is that the encoded 3D mesh information is a scene description (scene technology) stream even in the case of an IFS node 1900 that does not use an IFSC concatenation node. Is transmitted to the SD codec 1910 together with other scene description information, and is decoded by the selective 3DMC 1920 incorporated in the SD codec 1910, and the rest is the same as in the sixth embodiment.

図20は本発明の第8実施例によって既存のインデックスフェースセットノードを変更させず、図11に示されたようなインターフェースを有する新しい圧縮ノードを定義して使用し、3DMC2020はSDコデック2010内に内蔵させて配列するか、あるいはSDコデック2010とは独立して配列する構成の概念図である。   FIG. 20 does not change the existing index face set node according to the eighth embodiment of the present invention, but defines and uses a new compression node having an interface as shown in FIG. 11, and the 3DMC 2020 is included in the SD codec 2010. FIG. 4 is a conceptual diagram of a configuration in which they are arranged in a built-in manner or arranged independently of the SD codec 2010.

既存のインデックスフェースセットノード2000は図7のような既存のインデックスフェースセットフィールドを含み、新たに生成したCIFSノード2030は図11(a)に示したように既存のインデックスフェースセットノードのフィールド1100とURLフィールド1110とを含む。   The existing index face set node 2000 includes an existing index face set field as shown in FIG. 7, and the newly generated CIFS node 2030 includes the field 1100 of the existing index face set node as shown in FIG. URL field 1110.

インデックスフェースセットノード2000は既存のノード処理方式の通り、すなわち、三次元メッシュ情報を符号化せずに処理し、新たに生成されたCIFSノード2030の場合、URLフィールド1110(図11(a)参照)を用いる場合には符号化された三次元メッシュ情報を含んでいる独立したストリーム2050を通じて符号化された三次元メッシュ情報をSDコデックとは独立して配列された3DMC2020に伝送して復号化し、新たに生成されたCIFSノードが既存のインデックスフェースセットノードのフィールド1100を用いる場合には符号化された三次元メッシュ情報はシーン記述(場面技術)ストリームに載せられて他のシーン記述情報と共にSDコデック2010に伝送されてSDコデックに内蔵されたCIFS用3DMC2020により復号化される。   The index face set node 2000 is the same as the existing node processing method, that is, in the case of the newly generated CIFS node 2030 that processes the 3D mesh information without encoding, the URL field 1110 (see FIG. 11A). ) Is used to transmit the 3D mesh information encoded through the independent stream 2050 including the encoded 3D mesh information to the 3DMC 2020 arranged independently of the SD codec, and decode it. When the newly generated CIFS node uses the field 1100 of the existing index faceset node, the encoded 3D mesh information is placed on the scene description (scene technology) stream and is added to the SD codec together with other scene description information. Sent to 2010 and built into the SD codec It is decoded by IFS for 3DMC2020.

以上、本発明に係る説明では、主にMPEG−4システムパートにおいて三次元シーンを表現する言語としてBIFSを説明したが、三次元シーンを記述する言語であるVRMLやWeb3Dにも本発明が適用できることは当業者ならば十分に理解しうる。   As described above, in the description of the present invention, BIFS has been described as a language for representing a three-dimensional scene mainly in the MPEG-4 system part. However, the present invention can also be applied to VRML and Web3D, which are languages for describing a three-dimensional scene. Can be well understood by those skilled in the art.

前述したように本明細書の詳細な説明及び図面には本発明の望ましい形態が説明され、図示されたが、本発明は他の多数の多様な組合わせ及び環境で利用でき、本発明の概念の範囲内で多数の変形及び修正が可能であることを当業者ならば十分に理解しうる。   While the foregoing detailed description and drawings set forth and illustrated the preferred form of the invention, as described above, the invention can be utilized in many other diverse combinations and environments, and the inventive concept Those skilled in the art will appreciate that numerous variations and modifications are possible within the scope of

100 三次元メッシュ符号化器
200 三次元メッシュ復号化器
1200 初期オブジェクトディスクリプタ
1210 場面技術ストリーム
1220 オブジェクトディスクリプタストリーム
1230 基礎ストリーム
1240 インデックスフェースセットのノード
1250 SDコデック
1260 ES_Descriptor
1320 3DMC
100 Three-dimensional mesh encoder 200 Three-dimensional mesh decoder 1200 Initial object descriptor 1210 Scene technology stream 1220 Object descriptor stream 1230 Base stream 1240 Index faceset node 1250 SD codec 1260 ES_Descriptor
1320 3DMC

Claims (4)

三次元シーンに含まれたノードを処理する方法において、
三次元シーンノード処理装置の制御器が、処理する三次元シーンに含まれたノードのうち頂点から面を構成することによって形成される三次元形状を表現する三次元メッシュ情報を有する三次元メッシュノードを識別する段階と、
三次元メッシュ符号化器/復号化器が、前記識別された三次元メッシュノードを符号化または復号化する段階とを含み、
前記符号化される三次元メッシュノードの三次元メッシュ情報の全部または一部を三次元シーン記述ストリームと別の独立したストリームであり、基礎ストリームとは異なるストリームに載せて伝送または貯蔵することを特徴とする三次元シーンに含まれたノード処理方法。
In a method of processing a node included in a 3D scene,
A 3D mesh node having 3D mesh information representing a 3D shape formed by constructing a surface from vertices among nodes included in the 3D scene to be processed by the controller of the 3D scene node processing apparatus Identifying the stage,
A three-dimensional mesh encoder / decoder encoding or decoding the identified three-dimensional mesh node;
All or part of the 3D mesh information of the 3D mesh node to be encoded is an independent stream different from the 3D scene description stream, and is transmitted or stored on a stream different from the base stream. A node processing method included in the three-dimensional scene.
前記三次元メッシュノードはインデクスフェースセットノードを含む請求項1に記載の三次元シーンのノード処理方法。 The method of claim 1, wherein the 3D mesh node includes an index face set node. 三次元シーンに含まれたノードを処理する装置において、
処理する三次元シーンのノードが頂点から面を構成することによって形成される三次元形状を表現する三次元メッシュ情報を有する三次元メッシュノードか否かを識別する制御器と、
前記制御器により識別された三次元メッシュノードを符号化または復号化する三次元メッシュ符号化器/復号化器と、
前記三次元シーンのノードを符号化または復号化する三次元シーン記述符号化器/復号化器を含み、
前記符号化される三次元メッシュノードの三次元メッシュ情報の全部または一部を三次元シーン記述ストリームと別の独立したストリームであり、基礎ストリームとは異なるストリームに載せて伝送または貯蔵することを特徴とする三次元シーンノード処理装置。
In a device for processing nodes included in a 3D scene,
A controller for identifying whether or not the node of the 3D scene to be processed is a 3D mesh node having 3D mesh information representing a 3D shape formed by constructing a surface from vertices;
A 3D mesh encoder / decoder that encodes or decodes a 3D mesh node identified by the controller;
A 3D scene description encoder / decoder for encoding or decoding nodes of the 3D scene;
All or part of the 3D mesh information of the 3D mesh node to be encoded is an independent stream different from the 3D scene description stream, and is transmitted or stored on a stream different from the base stream. A three-dimensional scene node processing device.
前記三次元メッシュノードはインデックスフェースセットノードを含む請求項3に記載の三次元シーンノード処理装置。   4. The 3D scene node processing apparatus according to claim 3, wherein the 3D mesh node includes an index face set node.
JP2011085837A 2000-03-14 2011-04-07 Node processing method and three-dimensional scene node processing apparatus Expired - Fee Related JP5097287B2 (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR20000012849 2000-03-14
KR00-12849 2000-03-14
KR00-39266 2000-07-10
KR20000039266 2000-07-10
KR01-11473 2001-03-06
KR10-2001-0011473A KR100374797B1 (en) 2000-03-14 2001-03-06 Method for processing nodes in 3D scene and the apparatus thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001072084A Division JP4758013B2 (en) 2000-03-14 2001-03-14 Node processing method and apparatus for 3D scene

Publications (2)

Publication Number Publication Date
JP2011134361A true JP2011134361A (en) 2011-07-07
JP5097287B2 JP5097287B2 (en) 2012-12-12

Family

ID=26637487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011085837A Expired - Fee Related JP5097287B2 (en) 2000-03-14 2011-04-07 Node processing method and three-dimensional scene node processing apparatus

Country Status (2)

Country Link
JP (1) JP5097287B2 (en)
KR (1) KR100374797B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014532945A (en) * 2011-11-07 2014-12-08 トムソン ライセンシングThomson Licensing Predictive position decoding

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100718119B1 (en) * 2001-07-09 2007-05-14 삼성전자주식회사 Method and apparatus for coding and decoding three dimension mesh information
CN101156319B (en) * 2005-04-11 2012-05-30 三星电子株式会社 Methods and apparatuses for generating and recovering 3d compression data
KR100785012B1 (en) * 2005-04-11 2007-12-12 삼성전자주식회사 Methods and apparatuses for generating and recovering 3D compression data
KR101334173B1 (en) * 2006-01-11 2013-11-28 삼성전자주식회사 Method and apparatus for encoding/decoding graphic data
KR100832707B1 (en) * 2006-09-28 2008-05-28 에스케이 텔레콤주식회사 Apparatus And Method For Processing BIFS Contents In The DMB Terminal
KR101654777B1 (en) 2010-07-19 2016-09-06 삼성전자주식회사 Apparatus and method for scalable encoding 3d mesh, and apparatus and method for scalable decoding 3d mesh
WO2013157812A1 (en) * 2012-04-16 2013-10-24 삼성전자주식회사 3d video coding/decoding apparatus and 3d video coding/decoding method
KR102133936B1 (en) * 2012-04-16 2020-07-14 삼성전자주식회사 Apparatus and method for encoding/decoding for 3d video

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11177946A (en) * 1997-09-22 1999-07-02 Sony Corp Coder, coding method, decoder, decoding method and served medium
JP2000078570A (en) * 1998-08-29 2000-03-14 Samsung Electronics Co Ltd Method and device for encoding progressive three- dimensional mesh information
JP2000194843A (en) * 1998-12-01 2000-07-14 Samsung Electronics Co Ltd Method for encoding/decoding progressively three- dimensional mesh information having error recoverability
JP2002501650A (en) * 1998-01-30 2002-01-15 ユニバーシティー オブ サザン カリフォルニア 3D mesh compression and encoding

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5818463A (en) * 1997-02-13 1998-10-06 Rockwell Science Center, Inc. Data compression for animated three dimensional objects
KR100276468B1 (en) * 1997-12-27 2000-12-15 하영호 3-dimensional object coding method based on adaptive bit allocation and dfsvq
KR19990085657A (en) * 1998-05-20 1999-12-15 윤종용 Method and device for compressing connectivity information of graphic modeling data
KR100292803B1 (en) * 1999-07-06 2001-06-15 정선종 Method and Apparatus for compressing vertex position of 3D mesh model
EP1077431A1 (en) * 1999-08-16 2001-02-21 Mtu Motoren- Und Turbinen-Union MàœNchen Gmbh Generating a three-dimensional mesh for finite element analysis

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11177946A (en) * 1997-09-22 1999-07-02 Sony Corp Coder, coding method, decoder, decoding method and served medium
JP2002501650A (en) * 1998-01-30 2002-01-15 ユニバーシティー オブ サザン カリフォルニア 3D mesh compression and encoding
JP2000078570A (en) * 1998-08-29 2000-03-14 Samsung Electronics Co Ltd Method and device for encoding progressive three- dimensional mesh information
JP2000194843A (en) * 1998-12-01 2000-07-14 Samsung Electronics Co Ltd Method for encoding/decoding progressively three- dimensional mesh information having error recoverability

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014532945A (en) * 2011-11-07 2014-12-08 トムソン ライセンシングThomson Licensing Predictive position decoding
US10032309B2 (en) 2011-11-07 2018-07-24 Thomson Licensing Predictive position decoding

Also Published As

Publication number Publication date
JP5097287B2 (en) 2012-12-12
KR20010091928A (en) 2001-10-23
KR100374797B1 (en) 2003-03-03

Similar Documents

Publication Publication Date Title
JP4758013B2 (en) Node processing method and apparatus for 3D scene
JP5097287B2 (en) Node processing method and three-dimensional scene node processing apparatus
JP4474365B2 (en) Progressive encoding / decoding method and apparatus for three-dimensional mesh information
CN1250289B (en) Progressive 3D lattice encoding method and apparatus
JP4757299B2 (en) Method and apparatus for generating and restoring 3D compressed data
AU761202B2 (en) Generation of a bit stream containing binary image/audio data that is multiplexed with a code defining an object in ascii format
Signes et al. MPEG-4's binary format for scene description
US20060198438A1 (en) Scene description generating apparatus and method, scene description converting apparatus and method, scene description storing apparatus and method, scene description decoding apparatus and method, user interface system, recording medium, and transmission medium
CN113891117B (en) Immersion medium data processing method, device, equipment and readable storage medium
US6757432B2 (en) Apparatus for transmitting and/or receiving stream data and method for producing the same
CN114697631B (en) Immersion medium processing method, device, equipment and storage medium
JP4040577B2 (en) Schema, parsing, and how to generate a bitstream based on a schema
CN115396645A (en) Immersion media data processing method, device, equipment and storage medium
KR102238091B1 (en) System and method for 3d model compression and decompression
US6549206B1 (en) Graphic scene animation signal, corresponding method and device
KR100785012B1 (en) Methods and apparatuses for generating and recovering 3D compression data
KR20030056034A (en) MPEG-data receiving apparatus, MPEG-data transmitting/receiving system and method thereof
Jang 3D animation coding: its history and framework
AU739379B2 (en) Graphic scene animation signal, corresponding method and device
KR20010021728A (en) Graphic scene animation data signal with quantization object, corresponding method and device
CN116347118A (en) Data processing method of immersion medium and related equipment
CN116781676A (en) Data processing method, device, equipment and medium of point cloud media
CN115061984A (en) Data processing method, device, equipment and storage medium of point cloud media
CN115037943A (en) Media data processing method, device, equipment and readable storage medium
JP2005176355A (en) Method and system for generating input file using meta-expression on graphic data compression, and method and device for afx encoding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120921

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees