JP2006072669A - Image processor, game device, and image processing method - Google Patents

Image processor, game device, and image processing method Download PDF

Info

Publication number
JP2006072669A
JP2006072669A JP2004254888A JP2004254888A JP2006072669A JP 2006072669 A JP2006072669 A JP 2006072669A JP 2004254888 A JP2004254888 A JP 2004254888A JP 2004254888 A JP2004254888 A JP 2004254888A JP 2006072669 A JP2006072669 A JP 2006072669A
Authority
JP
Japan
Prior art keywords
display
game
virtual
real object
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004254888A
Other languages
Japanese (ja)
Other versions
JP4133976B2 (en
Inventor
Nobuki Nagai
伸樹 長井
Tetsuya Watanabe
哲也 渡辺
Yusuke Iida
裕介 飯田
Takanao Suzuki
孝尚 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2004254888A priority Critical patent/JP4133976B2/en
Publication of JP2006072669A publication Critical patent/JP2006072669A/en
Application granted granted Critical
Publication of JP4133976B2 publication Critical patent/JP4133976B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide image processing technology for displaying a real object and a virtual object by associating them with each other. <P>SOLUTION: This image processor controls the display of virtual objects so as to reduce any invisible part due to overlapping of mutual virtual objects, when the virtual objects are displayed in an overlapped manner each other. An overlapping deciding part 108 decides whether or not the virtual objects to be displayed are overlapped each other. When the overlapping is caused, a display control part 120 adjusts the display forms of the virtual objects to reduce the invisible part of the virtual objects caused due to the mutual overlapping of the virtual objects. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理技術に関し、特に実オブジェクトと仮想オブジェクトとを関連付けて表示させる技術に関する。   The present invention relates to an image processing technique, and more particularly to a technique for displaying a real object and a virtual object in association with each other.

近年、2次元コードをカメラで撮像して認識し、2次元コードのパターンに基づいた所定の処理を実行する技術が普及している。そのような技術の1つとして、2次元バーコードをビデオカメラで撮像して、2次元バーコードに対応する3次元画像を表示装置に表示させる画像処理技術が提案されている(例えば、特許文献1参照)。特許文献1では、撮像した2次元バーコードの座標およびCCDビデオカメラの焦点距離をもとに、3次元オブジェクトを表示する空間上の座標を決定し、2次元バーコードに3次元オブジェクトを重畳させて表示する。
特開2000−322602号公報
2. Description of the Related Art In recent years, a technique has been widely used in which a two-dimensional code is captured and recognized by a camera and a predetermined process based on a two-dimensional code pattern is executed. As one of such techniques, an image processing technique has been proposed in which a two-dimensional barcode is captured by a video camera, and a three-dimensional image corresponding to the two-dimensional barcode is displayed on a display device (for example, Patent Documents). 1). In Patent Document 1, coordinates on a space for displaying a three-dimensional object are determined based on the coordinates of the captured two-dimensional barcode and the focal length of the CCD video camera, and the three-dimensional object is superimposed on the two-dimensional barcode. To display.
JP 2000-322602 A

特許文献1に開示された技術は、実世界のオブジェクトと仮想のオブジェクトとを組み合わせて表示させることで、優れた視覚効果を実現可能とする。しかしながら、特許文献1は、1つの2次元バーコードに対応付けて仮想オブジェクトを表示する技術を開示するのみであり、複数の2次元バーコードが存在するときの仮想オブジェクトの表示処理について意識するものではない。本発明者は、複数の2次元バーコードなどの実オブジェクトが実空間に存在するときの表示処理に注目し、このときの仮想オブジェクトの表示処理に工夫を凝らすことで、例えば、ゲーム分野などの分野に応用して、さらに優れた視覚効果を実現する可能性が秘められていることを見出した。   The technique disclosed in Patent Literature 1 can realize an excellent visual effect by displaying a combination of a real-world object and a virtual object. However, Patent Document 1 only discloses a technique for displaying a virtual object in association with one two-dimensional barcode, and is conscious of display processing of a virtual object when a plurality of two-dimensional barcodes exist. is not. The inventor pays attention to display processing when a plurality of real objects such as two-dimensional barcodes exist in the real space, and devise the display processing of the virtual object at this time, for example, in the game field or the like I found out that it has the potential to achieve better visual effects when applied to the field.

本発明は、実オブジェクトと仮想オブジェクトとを関連付けて表示させる技術を提供することを目的とし、特に、ゲームなどの分野において、複数の仮想オブジェクトが存在するときに仮想オブジェクトの表示態様を制御する技術を提供することを目的とする。   An object of the present invention is to provide a technique for displaying a real object and a virtual object in association with each other, and in particular, a technique for controlling a display mode of a virtual object when a plurality of virtual objects exist in a field such as a game. The purpose is to provide.

上記課題を解決するために、本発明のある態様は、画像処理装置に関する。この態様の画像処理装置は、実オブジェクトを識別するための識別情報と、仮想オブジェクトの3次元画像データとを対応付けて記憶する格納部と、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた複数の仮想オブジェクトの3次元画像データを格納部から読み出す読出部と、読み出された3次元画像データを用いて、仮想オブジェクトを、実オブジェクト画像の表示位置に関連付けて表示装置に表示させる表示制御部と、表示装置に表示する仮想オブジェクト同士が重畳するか否かを判定する重畳判定部とを備える。表示制御部は、重畳判定部により仮想オブジェクト同士が重畳することが判定された場合に、仮想オブジェクトの表示態様を調整することにより、仮想オブジェクト同士が重畳することにより生じる仮想オブジェクトの不可視部分を少なくする。ここで、実オブジェクトは、現実空間において有体物として存在する実在オブジェクトであり、また、仮想オブジェクトは、現実空間には存在せず、仮想空間においてデータで表現されるものを意味する。   In order to solve the above problems, an aspect of the present invention relates to an image processing apparatus. The image processing apparatus according to this aspect includes a storage unit that stores identification information for identifying a real object and three-dimensional image data of the virtual object in association with each other, and a plurality of frame images captured by the imaging apparatus. A reading unit that reads three-dimensional image data of a plurality of virtual objects associated with the identification information of the real object image from the storage unit, and the virtual object is displayed using the read three-dimensional image data. A display control unit that is displayed on the display device in association with the position, and a superimposition determination unit that determines whether or not virtual objects to be displayed on the display device overlap each other. When the superimposition determination unit determines that the virtual objects are to be superimposed, the display control unit adjusts the display mode of the virtual objects to reduce the invisible portion of the virtual object that is generated by the virtual objects being superimposed. To do. Here, the real object is a real object that exists as a tangible object in the real space, and the virtual object does not exist in the real space, but is expressed by data in the virtual space.

この画像処理装置によると、画面奥側に存在して不可視部分をもつ仮想オブジェクトまたは画面手前側に存在して不可視部分を形成する仮想オブジェクトの表示態様を調整することで、画面奥側に存在する仮想オブジェクトの不可視部分を少なくすることができる。   According to this image processing apparatus, the virtual object that exists on the back side of the screen and has an invisible part or the virtual object that forms the invisible part that exists on the near side of the screen can be adjusted by adjusting the display mode of the virtual object. The invisible part of the virtual object can be reduced.

本発明の別の態様は、画像処理装置に関する。この態様の画像処理装置は、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報を取得する識別情報取得部と、仮想オブジェクトの3次元画像データを記憶する第1格納部と、仮想オブジェクトを表示する優先順位を記憶する第2格納部と、第2格納部に記憶された優先順位に基づいて、実オブジェクト画像と仮想オブジェクトとを対応付ける仮想オブジェクト割当部と、3次元画像データを用いて、複数の仮想オブジェクトを、仮想オブジェクト割当部により対応付けられた実オブジェクト画像の表示位置に関連付けて表示装置に表示させる表示制御部とを備える。   Another embodiment of the present invention relates to an image processing apparatus. An image processing apparatus according to this aspect includes an identification information acquisition unit that acquires identification information of a plurality of real object images included in a frame image captured by an imaging device, and a first storage unit that stores three-dimensional image data of a virtual object A second storage unit that stores priorities for displaying virtual objects, a virtual object assignment unit that associates a real object image with a virtual object based on the priorities stored in the second storage unit, and a three-dimensional image A display control unit that displays a plurality of virtual objects in association with the display position of the real object image associated by the virtual object allocation unit using data;

この画像処理装置によると、実オブジェクト画像と仮想オブジェクトとを、表示の優先順位に基づいて対応付けるため、例えば、優先順位の高い仮想オブジェクトが、優先順位の低い仮想オブジェクトに隠れて見えなくなる事態を回避することができる。   According to this image processing apparatus, the real object image and the virtual object are associated with each other based on the display priority order, so that, for example, a situation where a virtual object with a high priority order is hidden behind a virtual object with a low priority order and is not visible is avoided. can do.

本発明のさらに別の態様は、ゲーム装置に関する。この態様のゲーム装置は、実オブジェクトを識別するための識別情報と、ゲームキャラクタの3次元画像データとを対応付けて記憶する格納部と、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた複数のゲームキャラクタの3次元画像データを格納部から読み出す読出部と、読み出された3次元画像データを用いて、ゲームキャラクタを、実オブジェクト画像の表示位置に関連付けて表示装置に表示させる表示制御部と、表示装置に表示するゲームキャラクタ同士が重畳するか否かを判定する重畳判定部とを備える。表示制御部は、重畳判定部によりゲームキャラクタ同士が重畳することが判定された場合に、ゲームキャラクタの表示態様を調整することにより、ゲームキャラクタ同士が重畳することにより生じるゲームキャラクタの不可視部分を少なくする。   Yet another embodiment of the present invention relates to a game device. The game device according to this aspect includes a storage unit that stores identification information for identifying a real object and three-dimensional image data of the game character in association with each other, and a plurality of real images included in the frame image captured by the imaging device. A reading unit that reads three-dimensional image data of a plurality of game characters associated with the identification information of the object image from the storage unit, and using the read three-dimensional image data, the game character is displayed at the display position of the real object image. A display control unit that is displayed on the display device in association with each other, and a superimposition determination unit that determines whether or not the game characters displayed on the display device are superimposed. When the superimposition determining unit determines that the game characters are to be superimposed, the display control unit adjusts the display mode of the game characters to reduce the invisible portion of the game character that is generated by the superimposition of the game characters. To do.

このゲーム装置によると、画面奥側に存在して不可視部分をもつゲームキャラクタまたは画面手前側に存在して不可視部分を形成するゲームキャラクタの表示態様を調整することで、画面奥側に存在するゲームキャラクタの不可視部分を少なくすることができる。   According to this game device, a game character existing on the back side of the screen is adjusted by adjusting a display mode of a game character existing on the back side of the screen and having an invisible part or a game character existing on the front side of the screen and forming an invisible part. The invisible part of the character can be reduced.

本発明のさらに別の態様は、ゲーム装置に関する。この態様のゲーム装置は、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報を取得する識別情報取得部と、ゲームキャラクタの3次元画像データを記憶する第1格納部と、ゲームキャラクタを表示する優先順位を記憶する第2格納部と、第2格納部に記憶された優先順位に基づいて、実オブジェクト画像とゲームキャラクタとを対応付けるゲームキャラクタ割当部と、3次元画像データを用いて、複数のゲームキャラクタを、ゲームキャラクタ割当部により対応付けられた実オブジェクト画像の表示位置に関連付けて表示装置に表示させる表示制御部とを備える。   Yet another embodiment of the present invention relates to a game device. The game device according to this aspect includes an identification information acquisition unit that acquires identification information of a plurality of real object images included in a frame image captured by the imaging device, and a first storage unit that stores three-dimensional image data of the game character. A second storage unit for storing the priority order for displaying the game character, a game character assignment unit for associating the real object image with the game character based on the priority order stored in the second storage unit, and three-dimensional image data And a display control unit that causes a plurality of game characters to be displayed on the display device in association with the display position of the real object image associated by the game character allocation unit.

このゲーム装置によると、実オブジェクト画像とゲームキャラクタとを、表示の優先順位に基づいて対応付けるため、例えば、優先順位の高いゲームキャラクタが、優先順位の低いゲームキャラクタに隠れて見えなくなる事態を回避することができる。   According to this game apparatus, since the real object image and the game character are associated with each other based on the display priority, for example, a situation where a game character with a high priority is hidden behind a game character with a low priority is avoided. be able to.

本発明のさらに別の態様は、実オブジェクトを識別するための識別情報と、仮想オブジェクトの3次元画像データとを対応付けて記憶する格納部から、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた複数の仮想オブジェクトの3次元画像データを読み出すステップと、表示装置に表示する仮想オブジェクト同士が重畳するか否かを判定するステップと、仮想オブジェクト同士が重畳することを判定した場合に、仮想オブジェクトの表示態様を調整することにより、仮想オブジェクト同士が重畳することにより生じる仮想オブジェクトの不可視部分を少なくするステップとを備える画像処理方法を提供する。   According to still another aspect of the present invention, a plurality of frames included in a frame image captured by an imaging device from a storage unit that stores identification information for identifying a real object and three-dimensional image data of the virtual object in association with each other. A step of reading out three-dimensional image data of a plurality of virtual objects associated with the identification information of the real object image, a step of determining whether or not the virtual objects to be displayed on the display device are superimposed, and the virtual objects An image processing method is provided that includes, when it is determined to superimpose, adjusting a display mode of the virtual objects to reduce an invisible portion of the virtual objects caused by the superimposition of the virtual objects.

本発明のさらに別の態様は、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報を取得するステップと、仮想オブジェクトを表示する優先順位を記憶する格納部から優先順位を読み出すステップと、読み出した優先順位に基づいて実オブジェクト画像と仮想オブジェクトとを対応付けるステップと、複数の仮想オブジェクトの3次元画像データを用いて、複数の仮想オブジェクトを、それぞれ対応付けられた実オブジェクト画像の表示位置に関連付けて表示装置に表示させるステップとを備える画像処理方法を提供する。   According to still another aspect of the present invention, priorities are obtained from a step of acquiring identification information of a plurality of real object images included in a frame image captured by an imaging device, and a storage unit that stores priorities for displaying virtual objects. A step of reading, a step of associating the real object image with the virtual object based on the read priority, and a real object image in which the plurality of virtual objects are associated with each other using the three-dimensional image data of the plurality of virtual objects. And an image processing method including the step of displaying on a display device in association with the display position.

本発明のさらに別の態様は、コンピュータに、実オブジェクトを識別するための識別情報と、仮想オブジェクトの3次元画像データとを対応付けて記憶する格納部から、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた複数の仮想オブジェクトの3次元画像データを読み出させる機能と、表示装置に表示する仮想オブジェクト同士が重畳するか否かを判定させる機能と、仮想オブジェクト同士が重畳することを判定した場合に、仮想オブジェクトの表示態様を調整することにより、仮想オブジェクト同士が重畳することにより生じる仮想オブジェクトの不可視部分を少なくさせる機能とを実現させるためのプログラムを提供する。   According to still another aspect of the present invention, a frame image captured by an imaging device is stored in a computer from a storage unit that stores identification information for identifying a real object and three-dimensional image data of a virtual object in association with each other. A function of reading out three-dimensional image data of a plurality of virtual objects associated with identification information of a plurality of included real object images, and a function of determining whether or not virtual objects to be displayed on a display device are superimposed. A program for realizing a function of reducing the invisible portion of a virtual object generated by overlapping virtual objects by adjusting the display mode of the virtual objects when it is determined that the virtual objects overlap each other I will provide a.

本発明のさらに別の態様は、コンピュータに、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報を取得させる機能と、仮想オブジェクトを表示する優先順位を記憶する格納部から優先順位を読み出させる機能と、読み出させた優先順位に基づいて実オブジェクト画像と仮想オブジェクトとを対応付けさせる機能と、複数の仮想オブジェクトの3次元画像データを用いて、複数の仮想オブジェクトを、それぞれ対応付けられた実オブジェクト画像の表示位置に関連付けて表示装置に表示させる機能と、を実現させるためのプログラムを提供する。   Still another aspect of the present invention is a function of causing a computer to acquire identification information of a plurality of real object images included in a frame image captured by an imaging device, and a storage unit that stores a priority order for displaying virtual objects. A function for reading the priority order, a function for associating the real object image with the virtual object based on the read priority order, and a plurality of virtual objects using the three-dimensional image data of the plurality of virtual objects. A program for realizing a function of displaying on a display device in association with a display position of a corresponding real object image is provided.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によると、複数の仮想オブジェクトが存在するときに、仮想オブジェクトの表示態様を制御する技術を提供することができる。   According to the present invention, it is possible to provide a technique for controlling the display mode of a virtual object when there are a plurality of virtual objects.

本発明は、撮像装置により撮像された複数の実オブジェクト画像に関連付けて、複数の仮想オブジェクトを表示させる技術を提供する。実オブジェクトは、実在する1次元オブジェクト、2次元オブジェクトまたは3次元オブジェクトのいずれであってもよく、実オブジェクト自身を識別させるための特徴部分を有して構成されることが好ましい。例えば、実オブジェクトは、2次元で表現されたコード情報を特徴部分として有するカードなどの2次元オブジェクトであってもよく、またユニークな立体形状を特徴部分として有する3次元オブジェクトであってもよい。なお、2次元オブジェクトの2次元形状がユニークな特徴部分を構成してもよく、また3次元オブジェクトに特徴部分となるコード情報が貼り付けられていてもよい。仮想オブジェクトは、仮想空間において3次元的に表現される人、動物、物などの所謂キャラクタであってもよい。以下に示す実施例は、ゲームアプリケーションにおける画像処理技術に関し、ゲームアプリケーションに登場するゲームキャラクタを、仮想オブジェクトして採用している。   The present invention provides a technique for displaying a plurality of virtual objects in association with a plurality of real object images captured by an imaging device. The real object may be an existing one-dimensional object, two-dimensional object, or three-dimensional object, and is preferably configured to have a characteristic portion for identifying the real object itself. For example, the real object may be a two-dimensional object such as a card having code information expressed in two dimensions as a characteristic part, or may be a three-dimensional object having a unique three-dimensional shape as a characteristic part. Note that the two-dimensional shape of the two-dimensional object may constitute a unique feature portion, and code information serving as the feature portion may be attached to the three-dimensional object. The virtual object may be a so-called character such as a person, an animal, or an object that is three-dimensionally expressed in the virtual space. The following embodiment relates to an image processing technique in a game application, and employs a game character appearing in the game application as a virtual object.

図1は、本発明の実施例にかかるゲームシステム1の構成を示す。ゲームシステム1は、撮像装置2、画像処理装置10および出力装置6を備える。画像処理装置10は、画像解析装置20およびゲーム装置30を備える。画像解析装置20およびゲーム装置30は別装置として構成されてもよいが、一体として構成されてもよい。撮像装置2は、CCD撮像素子またはMOS撮像素子などから構成されるビデオカメラである。撮像装置2は実空間を所定の周期で撮像して、周期ごとのフレーム画像を生成する。撮像領域5は撮像装置2により撮像される範囲であり、撮像装置2の高さや向きを調整することで、撮像領域5の位置や大きさが調整される。ゲームプレイヤは、撮像領域5において、実オブジェクトであるゲームカード4を指で動かす。ゲームカード4は、自身を一意に識別するための特徴部分を有して構成される。   FIG. 1 shows a configuration of a game system 1 according to an embodiment of the present invention. The game system 1 includes an imaging device 2, an image processing device 10, and an output device 6. The image processing device 10 includes an image analysis device 20 and a game device 30. The image analysis device 20 and the game device 30 may be configured as separate devices, but may be configured as a single unit. The imaging device 2 is a video camera that includes a CCD imaging device or a MOS imaging device. The imaging device 2 images the real space at a predetermined cycle and generates a frame image for each cycle. The imaging region 5 is a range where the imaging device 2 captures an image, and the position and size of the imaging region 5 are adjusted by adjusting the height and direction of the imaging device 2. The game player moves the game card 4 that is a real object with a finger in the imaging area 5. The game card 4 has a characteristic part for uniquely identifying itself.

出力装置6は、表示装置であるディスプレイ7を有する。出力装置6は、さらにスピーカ(図示せず)を有して構成されてもよい。画像処理装置10は、撮像装置2により撮像されたフレーム画像をディスプレイ7に表示させ、その際に、ゲームカード4上に仮想オブジェクトであるキャラクタを重畳するように表示制御する。図1の例では、撮像領域5に2枚のゲームカード4が存在し、ディスプレイ7には、それぞれのゲームカード4上にキャラクタが重畳表示されている。プレイヤは、ディスプレイ7を見ることで、ゲームカード4が撮像領域5に入っているか容易に確認でき、入っていない場合には、ゲームカード4の位置をずらしたり、また撮像装置2の向きを調整して、撮像装置2にゲームカード4を撮像させるようにする。   The output device 6 includes a display 7 that is a display device. The output device 6 may further include a speaker (not shown). The image processing apparatus 10 displays the frame image captured by the imaging apparatus 2 on the display 7, and controls display so that a character that is a virtual object is superimposed on the game card 4 at that time. In the example of FIG. 1, two game cards 4 exist in the imaging area 5, and characters are superimposed on the respective game cards 4 on the display 7. The player can easily check whether or not the game card 4 is in the imaging area 5 by looking at the display 7. If not, the player can shift the position of the game card 4 or adjust the orientation of the imaging device 2. Then, the imaging device 2 is caused to image the game card 4.

実施例のゲームアプリケーションでは、プレイヤがゲームカード4に対して所定の操作を施すことにより、キャラクタを動作させる。このゲームアプリケーションの性質上、プレイヤにゲームカード4とキャラクタとの一体性を認識させることが好ましく、そのため、キャラクタの画像を、ゲームカード4に重ね合わせて表示させている。   In the game application of the embodiment, the player operates the character by performing a predetermined operation on the game card 4. Due to the nature of the game application, it is preferable that the player recognize the unity between the game card 4 and the character, and therefore, the character image is displayed superimposed on the game card 4.

以上のキャラクタの動きは、画像処理装置10により制御される。まず、画像解析装置20は、撮像装置2において取得されたフレーム画像から、ゲームカード4の画像情報を抽出する。さらに、画像解析装置20は、ゲームカード4の画像情報から、ゲームカード4を識別するためのユニークな特徴部分を抽出する。このとき、画像解析装置20は、ゲームカード4の画像情報から、ゲームカード4の空間における位置情報、方向情報、距離情報などを決定する。   The movement of the above characters is controlled by the image processing apparatus 10. First, the image analysis device 20 extracts image information of the game card 4 from the frame image acquired by the imaging device 2. Further, the image analysis device 20 extracts a unique feature portion for identifying the game card 4 from the image information of the game card 4. At this time, the image analysis device 20 determines position information, direction information, distance information, and the like in the space of the game card 4 from the image information of the game card 4.

図2は、ゲームカード4の表面の一例を示す。ゲームカード4の表面には、方向指示部11と識別部12とが印刷されている。方向指示部11は、ゲームカード4の前部を示すために設けられ、識別部12は、ゲームカード4を一意に識別するための特徴部分を表現するために設けられる。識別部12は、所定の区画内に複数のブロックを印刷して作成されたコード情報である。複数のブロックのうち、4角のブロックは複数のゲームカード4に共通して付与され、実質的には4角以外のブロックにより、特徴部分が形成される。4角のブロックは、撮像装置2からの距離を測定するために利用される。   FIG. 2 shows an example of the surface of the game card 4. On the surface of the game card 4, a direction instruction unit 11 and an identification unit 12 are printed. The direction instruction unit 11 is provided to indicate the front part of the game card 4, and the identification unit 12 is provided to express a characteristic portion for uniquely identifying the game card 4. The identification unit 12 is code information created by printing a plurality of blocks in a predetermined section. Among the plurality of blocks, a square block is commonly given to the plurality of game cards 4, and a characteristic portion is substantially formed by blocks other than the four corners. The quadrangular block is used to measure the distance from the imaging device 2.

図1に戻って、画像解析装置20は、フレーム画像中のゲームカード4を認識すると、ゲームカード4の画像における4角のブロック間の長さをもとに、撮像装置2とゲームカード4との距離を計算して求める。また、画像解析装置20は、ゲームカード4の方向指示部11を検出して、フレーム画像においてゲームカード4が向いている方向を求める。この場合、方向指示部11が存在する方向が前方となり、キャラクタは、ゲームカード4上にて前方を向くように表示制御される。さらに、画像解析装置20は、識別部12の4角以外のブロックから、ゲームカード4の識別情報を取得する。   Returning to FIG. 1, when the image analysis device 20 recognizes the game card 4 in the frame image, the image analysis device 20, based on the length between the four blocks in the image of the game card 4, Calculate the distance. Further, the image analysis device 20 detects the direction instruction unit 11 of the game card 4 and obtains the direction in which the game card 4 is facing in the frame image. In this case, the direction in which the direction instructing unit 11 is present is the front, and the character is display-controlled so as to face the front on the game card 4. Further, the image analysis device 20 acquires the identification information of the game card 4 from the blocks other than the four corners of the identification unit 12.

画像解析装置20において画像解析された結果は、ゲーム装置30に送られる。なお、撮像装置2において撮像されたフレーム画像が、ゲーム装置30に送られて、ゲーム装置30側で画像解析を行ってもよい。この場合、画像処理装置10は、ゲーム装置30のみで構成されることになる。   The result of the image analysis performed by the image analysis device 20 is sent to the game device 30. Note that the frame image captured by the imaging device 2 may be sent to the game device 30 and image analysis performed on the game device 30 side. In this case, the image processing apparatus 10 is configured by only the game apparatus 30.

ゲーム装置30は、画像解析装置20における画像解析結果をもとに、ディスプレイ7の表示画面上で、キャラクタをゲームカード4の上に位置するように表示制御する。キャラクタは、ゲームカード4に対してゲームシーンごとに適宜割り当てられてもよい。この場合、ゲームシーンが切り替わると、表示されるキャラクタも切り替わることになる。   The game apparatus 30 performs display control so that the character is positioned on the game card 4 on the display screen of the display 7 based on the image analysis result in the image analysis apparatus 20. Characters may be appropriately assigned to the game card 4 for each game scene. In this case, when the game scene is switched, the displayed character is also switched.

図3は、画像解析装置20の構成を示す。画像解析装置20は、フレーム画像取得部40、実オブジェクト抽出部42、状態決定部44、識別情報取得部46、識別情報格納部48および送出部50を備える。識別情報格納部48は、実オブジェクトを識別するための特徴部分の情報と、実オブジェクトを識別するための識別情報とを対応付けて記憶する。具体的には、図2におけるゲームカード4の識別部12のパターン情報と、識別情報とを1対1に対応付けて記憶している。例えば、5枚のゲームカード4の同時使用を許可するゲームシステム1の場合、それぞれのゲームカード4に対して、1から5までの識別情報がそれぞれ割り当てられていてもよい。複数のゲームカード4のそれぞれを識別情報と紐付けすることで、個々のゲームカード4が認識可能となる。状態決定部44は、設定した座標系における実オブジェクトの状態を決定し、具体的には、ゲームカード4の位置を決定する位置決定部52、方向を決定する方向決定部54および撮像装置2からの焦点距離を決定する距離決定部56を有する。   FIG. 3 shows the configuration of the image analysis apparatus 20. The image analysis apparatus 20 includes a frame image acquisition unit 40, a real object extraction unit 42, a state determination unit 44, an identification information acquisition unit 46, an identification information storage unit 48, and a transmission unit 50. The identification information storage unit 48 stores the information of the characteristic part for identifying the real object and the identification information for identifying the real object in association with each other. Specifically, the pattern information of the identification unit 12 of the game card 4 in FIG. 2 and the identification information are stored in a one-to-one correspondence. For example, in the case of the game system 1 that permits simultaneous use of five game cards 4, identification information 1 to 5 may be assigned to each game card 4. Each game card 4 can be recognized by associating each of the plurality of game cards 4 with identification information. The state determination unit 44 determines the state of the real object in the set coordinate system. Specifically, from the position determination unit 52 that determines the position of the game card 4, the direction determination unit 54 that determines the direction, and the imaging device 2. Has a distance determination unit 56 for determining the focal length of the.

フレーム画像取得部40が、撮像装置2にて撮像された実空間のフレーム画像を取得する。ここでは、図1に示すように、撮像領域5に複数枚のゲームカード4が配置されている状態を想定する。撮像装置2は、周期的にフレーム画像を取得し、好適には1/60秒間隔でフレーム画像を生成する。   The frame image acquisition unit 40 acquires a real space frame image captured by the imaging device 2. Here, it is assumed that a plurality of game cards 4 are arranged in the imaging region 5 as shown in FIG. The imaging device 2 periodically acquires frame images, and preferably generates frame images at 1/60 second intervals.

実オブジェクト抽出部42は、フレーム画像から複数の実オブジェクト画像、すなわちゲームカード4の画像を抽出する。この処理は、画像情報を2進数のビット表現に変換し、このビット表現からゲームカード4の画像を抽出することで行われる。いわゆるドット処理であり、ビットのオンとオフを検出することで、画像抽出処理が行われてもよい。また、この処理は、既知の画像マッチング技術によって行ってもよい。その場合、実オブジェクト抽出部42は、マッチング処理のために、使用する実オブジェクトの画像情報をメモリ(図示せず)に予め登録しておく。予め登録した画像情報と撮像した画像情報とのマッチングをとることで、複数のゲームカード4の画像をフレーム画像から切り出すことができる。   The real object extraction unit 42 extracts a plurality of real object images, that is, images of the game card 4 from the frame image. This process is performed by converting the image information into a binary bit representation and extracting the image of the game card 4 from the bit representation. This is so-called dot processing, and image extraction processing may be performed by detecting on and off of bits. Further, this processing may be performed by a known image matching technique. In that case, the real object extraction unit 42 registers image information of a real object to be used in a memory (not shown) in advance for the matching process. By matching the pre-registered image information with the captured image information, the images of the plurality of game cards 4 can be cut out from the frame image.

状態決定部44は、ゲームカード4を置いて動かすための台3のジオメトリ情報を予め検出しておき、さらに台3の表面を基準面として、その基準面上にゲームカード4を載せた姿勢のジオメトリ情報をゲームカード4の姿勢の初期状態として記録しておく。このジオメトリ情報は、撮像装置2を基準として生成されてもよい。状態決定部44は、台3に関して取得したジオメトリ情報から、台3の位置、姿勢などを撮像空間における座標データとして把握しておく。位置決定部52は、実オブジェクト画像の位置を決定する。具体的には、フレーム画像における実オブジェクト画像の中心点の座標を定める。なお、位置決定部52は、ゲームカード4の位置に加えて、ゲームカード4の基準面に対するゲームカード4の傾きおよび高さを、初期状態として記録したゲームカード4の姿勢からの相対的な状態量の差分、すなわち撮像空間における座標値の差分として求めてもよい。方向決定部54は、実オブジェクト画像の方向を定める。方向決定部54は、実オブジェクト画像の中から図2に示す方向指示部11を検出して、実オブジェクトの向きを定めてもよい。距離決定部56は、ゲームカード4の画像における識別部12の4角間の長さをもとに、撮像装置2とゲームカード4との距離を決定する。識別情報取得部46は、実オブジェクト画像から特徴部分を抽出して、識別情報格納部48から対応する識別情報を取得する。   The state determination unit 44 detects the geometry information of the table 3 for placing and moving the game card 4 in advance, and uses the surface of the table 3 as a reference plane, and the posture of the game card 4 placed on the reference plane. Geometry information is recorded as an initial state of the posture of the game card 4. This geometry information may be generated based on the imaging device 2. The state determination unit 44 grasps the position, posture, and the like of the table 3 as coordinate data in the imaging space from the geometry information acquired for the table 3. The position determination unit 52 determines the position of the real object image. Specifically, the coordinates of the center point of the real object image in the frame image are determined. In addition to the position of the game card 4, the position determination unit 52 has a relative state from the attitude of the game card 4 in which the inclination and height of the game card 4 with respect to the reference plane of the game card 4 are recorded as an initial state. You may obtain | require as a difference of quantity, ie, the difference of the coordinate value in imaging space. The direction determination unit 54 determines the direction of the real object image. The direction determination unit 54 may determine the direction of the real object by detecting the direction instruction unit 11 shown in FIG. 2 from the real object image. The distance determination unit 56 determines the distance between the imaging device 2 and the game card 4 based on the length between the four corners of the identification unit 12 in the image of the game card 4. The identification information acquisition unit 46 extracts a feature portion from the real object image and acquires corresponding identification information from the identification information storage unit 48.

状態決定部44において決定された位置情報、方向情報、距離情報、および識別情報取得部46において取得された識別情報は、それぞれ関連付けされて送出部50からゲーム装置30に送られる。なお、この関連付けは、それぞれのゲームカード4ごとに行われる。また、本実施例では、撮像装置2により撮像されたフレーム画像をディスプレイ7に表示させるため、フレーム画像自体も送出部50からゲーム装置30に送られる。   The position information, the direction information, the distance information, and the identification information acquired by the identification information acquisition unit 46 determined by the state determination unit 44 are transmitted from the transmission unit 50 to the game device 30 in association with each other. This association is performed for each game card 4. In the present embodiment, the frame image itself is also sent from the sending unit 50 to the game device 30 in order to display the frame image taken by the imaging device 2 on the display 7.

(実施例1)
図4は、ゲーム装置30の構成を示す。ゲーム装置30は、解析情報取得部100、ゲーム進行処理部102、キャラクタ決定部104、キャラクタ格納部106、重畳判定部108、優先順位格納部110および表示制御部120を備える。
Example 1
FIG. 4 shows the configuration of the game apparatus 30. The game apparatus 30 includes an analysis information acquisition unit 100, a game progress processing unit 102, a character determination unit 104, a character storage unit 106, a superimposition determination unit 108, a priority order storage unit 110, and a display control unit 120.

実施例1におけるゲーム装置30の処理機能は、CPU、メモリ、メモリにロードされたプログラムなどによって実現され、ここではそれらの連携によって実現される構成を描いている。プログラムは、ゲーム装置30に内蔵されていてもよく、また記録媒体に格納された形態で外部から供給されるものであってもよい。したがってこれらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者に理解されるところである。図示の例では、ゲーム装置30のCPUが、解析情報取得部100、ゲーム進行処理部102、キャラクタ決定部104、重畳判定部108、表示制御部120としての機能をもつ。   The processing function of the game apparatus 30 in the first embodiment is realized by a CPU, a memory, a program loaded in the memory, and the like, and here, a configuration realized by cooperation thereof is illustrated. The program may be built in the game apparatus 30 or may be supplied from the outside in a form stored in a recording medium. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof. In the illustrated example, the CPU of the game apparatus 30 functions as an analysis information acquisition unit 100, a game progress processing unit 102, a character determination unit 104, a superimposition determination unit 108, and a display control unit 120.

解析情報取得部100は、画像解析装置20から、解析結果を受け取る。この解析結果は、実オブジェクトであるゲームカード4の位置情報、方向情報、距離情報、識別情報を含む。解析情報取得部100は、受け取った解析結果をゲーム進行処理部102に渡す。なお、解析情報取得部100は、撮像装置2からフレーム画像のデータを直接取得してもよい。この場合は、ゲーム装置30が、画像解析装置20における機能を有して、画像解析装置20に関して説明した処理と同様の処理を実行すればよい。   The analysis information acquisition unit 100 receives an analysis result from the image analysis device 20. This analysis result includes position information, direction information, distance information, and identification information of the game card 4 that is a real object. The analysis information acquisition unit 100 passes the received analysis result to the game progress processing unit 102. The analysis information acquisition unit 100 may directly acquire frame image data from the imaging device 2. In this case, the game apparatus 30 has a function in the image analysis apparatus 20 and may perform the same process as the process described for the image analysis apparatus 20.

ゲーム進行処理部102は、ゲームアプリケーション全体の処理を制御する。本実施例におけるゲームアプリケーションは、ゲーム進行が複数のステージから構成され、各ステージにおいて異なるゲームシーンが設定されている。プレイヤは、各ステージの終了条件をそれぞれ段階的にクリアしていき、最終ステージをクリアしたところで、ゲーム終了となる。ゲーム進行処理部102は、ゲームの進行状況を管理し、ゲームの開始直後やゲームステージの切替の時点において、キャラクタ決定部104に、次に開始されるゲームステージ名と、解析情報取得部100から送られてきた識別情報を伝える。キャラクタ格納部106は、ゲームステージごとに、ゲームカード4の識別情報とキャラクタの3次元画像データとを対応付けて記憶する。   The game progress processing unit 102 controls processing of the entire game application. In the game application in this embodiment, the game progress is composed of a plurality of stages, and different game scenes are set in each stage. The player clears the end condition of each stage step by step, and the game ends when the final stage is cleared. The game progress processing unit 102 manages the progress of the game, and immediately after the start of the game or at the time of switching the game stage, the character determination unit 104 sends the name of the game stage to be started next and the analysis information acquisition unit 100. Communicate identification information sent to you. The character storage unit 106 stores the identification information of the game card 4 and the three-dimensional image data of the character in association with each game stage.

キャラクタ決定部104は、ゲームステージ名と複数の識別情報をもとに、複数の識別情報に対応付けられた複数のキャラクタの3次元画像データをキャラクタ格納部106から読み出し、ゲーム進行処理部102に供給する。なお、読み出した3次元画像データは、表示制御部120に直接供給されてもよい。ゲーム進行処理部102は表示制御部120に、3次元画像データと、ゲームカード4の位置情報、方向情報、距離情報を供給する。表示制御部120は、3次元画像データを用いて、キャラクタをゲームカード画像の表示位置に関連付けてディスプレイ7に表示させる。このとき、キャラクタは、ゲームカード画像の表示範囲内に表示される。なお、表示範囲内に表示するとは、キャラクタの最下部がゲームカード画像上に位置していることを意味する。   The character determination unit 104 reads out three-dimensional image data of a plurality of characters associated with the plurality of identification information from the character storage unit 106 based on the game stage name and the plurality of identification information, and sends it to the game progress processing unit 102. Supply. Note that the read three-dimensional image data may be directly supplied to the display control unit 120. The game progress processing unit 102 supplies the display control unit 120 with the three-dimensional image data and the position information, direction information, and distance information of the game card 4. The display control unit 120 causes the display 7 to display the character in association with the display position of the game card image using the three-dimensional image data. At this time, the character is displayed within the display range of the game card image. Note that displaying within the display range means that the lowermost part of the character is positioned on the game card image.

具体的に、表示制御部120は、画像解析装置20から送られるフレーム画像を受け取り、ディスプレイ7に表示させる。また、表示制御部120は、ゲームカード画像の位置情報、方向情報、距離情報をもとにゲームカード画像の位置、向き、距離を認識し、3次元画像データを用いてディスプレイ7に表示するキャラクタの位置、向き、および大きさを決定する。表示制御部120は、通常の表示態様では、ゲームカード画像の中心点近傍に位置するように、キャラクタの表示位置を定める。   Specifically, the display control unit 120 receives a frame image sent from the image analysis device 20 and causes the display 7 to display the frame image. The display control unit 120 recognizes the position, orientation, and distance of the game card image based on the position information, the direction information, and the distance information of the game card image, and displays the character displayed on the display 7 using the three-dimensional image data. Determine the position, orientation, and size of the. The display control unit 120 determines the display position of the character so that it is positioned near the center point of the game card image in the normal display mode.

プレイヤがゲームカード4を動かすと、フレーム画像の解析結果が画像解析装置20から解析情報取得部100に逐次送られる。表示制御部120は、ゲーム進行処理部102からキャラクタの3次元画像データと、ゲームカード4の位置情報、方向情報、距離情報を受け取り、ディスプレイ7におけるゲームカード画像の表示位置にキャラクタの画像が重なるように、キャラクタをゲームカード画像の動きに追従させる。これにより、ディスプレイ7では、キャラクタがゲームカード画像に常に乗っている表示態様となり、キャラクタとゲームカード4との一体感をプレイヤに認識させることができる。   When the player moves the game card 4, the analysis result of the frame image is sequentially sent from the image analysis device 20 to the analysis information acquisition unit 100. The display control unit 120 receives the three-dimensional image data of the character and the position information, direction information, and distance information of the game card 4 from the game progress processing unit 102, and the character image overlaps the display position of the game card image on the display 7. As described above, the character is caused to follow the movement of the game card image. Thereby, the display 7 becomes a display mode in which the character is always on the game card image, and the player can recognize the sense of unity between the character and the game card 4.

図5は、キャラクタ同士が重なって表示される例を示す。ここでは、画面手前側に存在するゲームカード4aのキャラクタ200aと、画面奥側に存在するゲームカード4bのキャラクタ200bとが重畳して示される。キャラクタ200aは「高い建物」であり、「人」であるキャラクタ200bは、キャラクタ200aの背後に存在するため、ほとんど見えない状態となっている。ゲームアプリケーションにおいて、主人公となるキャラクタは、建物などのキャラクタと比して小さく表示されることが多いため、実オブジェクト画像に関連付けてキャラクタを通常の表示位置でそのまま表示した場合には、図5に示すように、キャラクタが隠れてしまい、殆ど又は完全に不可視の状態になることもある。   FIG. 5 shows an example in which characters are displayed overlapping each other. Here, the character 200a of the game card 4a existing on the front side of the screen and the character 200b of the game card 4b existing on the back side of the screen are shown superimposed. The character 200a is a “high building”, and the character 200b, which is a “person”, is present behind the character 200a and is therefore hardly visible. In a game application, a character as a main character is often displayed smaller than a character such as a building. Therefore, when a character is displayed as it is in a normal display position in association with a real object image, FIG. As shown, the character may be hidden and become almost or completely invisible.

そこで実施例1では、画像の表示前に、キャラクタ同士の重なりを予め判定し、手前の仮想オブジェクトの背後にいるキャラクタが見えなくなるような場合には、画面の手前側または奥側のキャラクタの表示態様を調整する。これにより、背後のキャラクタの不可視部分を少なくして、円滑なゲーム進行を実現させる。そのため実施例1では、重畳判定部108が、ディスプレイ7に表示するキャラクタ同士が重畳するか否かを判定する。   Therefore, in the first embodiment, before the image is displayed, the overlap between the characters is determined in advance, and when the character behind the virtual object in front is not visible, the character on the near side or the far side of the screen is displayed. Adjust aspects. Thereby, the invisible part of the character behind is reduced, and smooth game progress is realized. Therefore, in the first embodiment, the superimposition determination unit 108 determines whether or not the characters displayed on the display 7 are superimposed.

ゲーム進行処理部102は、キャラクタ決定部104により決定された複数のキャラクタの3次元画像データを受け取ると、3次元画像データ、位置情報、方向情報および距離情報をキャラクタごとに対応付けて、重畳判定部108に送る。重畳判定部108は、これらの情報をもとに複数のゲームカードを空間に配置して、それぞれの中心点に対応するキャラクタを配置する。重畳判定部108は、所定のカメラ視点から見た画像において、キャラクタ同士が重畳するか否かを判定する。例えば、カメラ視点から各キャラクタに線分を引いた場合に、線分が途中で他のキャラクタを通過するときには、そのキャラクタの手前に他のキャラクタが存在することが認識され、ディスプレイ7中で不可視部分が生じることが分かる。重畳判定部108は、重畳するキャラクタ名をゲーム進行処理部102に通知し、ゲーム進行処理部102は、キャラクタ同士が重なっていることを示す情報と、そのキャラクタ名を表示制御部120に伝える。表示制御部120は、重畳判定部108によりキャラクタ同士が重畳することが判定された場合に、キャラクタの表示態様を調整することにより、キャラクタ同士が重畳することにより生じるキャラクタの不可視部分を少なくする。   When the game progress processing unit 102 receives the three-dimensional image data of the plurality of characters determined by the character determination unit 104, the game progress processing unit 102 associates the three-dimensional image data, the position information, the direction information, and the distance information for each character, and determines whether to superimpose. Send to part 108. The superimposition determination unit 108 arranges a plurality of game cards in the space based on such information, and arranges characters corresponding to the respective center points. The superimposition determination unit 108 determines whether or not the characters overlap in an image viewed from a predetermined camera viewpoint. For example, when a line segment is drawn to each character from the camera viewpoint, when the line segment passes through another character, it is recognized that another character exists in front of the character and is not visible on the display 7. It turns out that a part arises. The superimposition determination unit 108 notifies the game progress processing unit 102 of the character name to be superimposed, and the game progress processing unit 102 informs the display control unit 120 of information indicating that the characters overlap each other. When the superimposition determination unit 108 determines that the characters overlap each other, the display control unit 120 adjusts the display mode of the characters to reduce the invisible portion of the character that is generated when the characters overlap.

表示制御部120は、ゲームカード画像の表示範囲内でキャラクタの表示位置を調整する。通常の表示状態では、キャラクタがゲームカード4の中心点を基準位置としてバランスを考慮して表示されているが、ゲームカード4内の所望の位置にキャラクタの表示位置を動かすことで、画面奥側に位置するキャラクタの不可視部分を少なくすることができる。なお、キャラクタの最下部は、必ずゲームカード画像上に配置されるようにする。このように、ゲームカード画像の表示範囲内にキャラクタの表示位置を限定することで、ゲームカード4とキャラクタとの関係を維持することができる。   The display control unit 120 adjusts the display position of the character within the display range of the game card image. In the normal display state, the character is displayed in consideration of balance with the center point of the game card 4 as a reference position, but by moving the character display position to a desired position in the game card 4, The invisible portion of the character located at can be reduced. Note that the lowermost part of the character is always placed on the game card image. Thus, the relationship between the game card 4 and the character can be maintained by limiting the display position of the character within the display range of the game card image.

図6(a)は、キャラクタ200bをゲームカード4bの左側に動かした例を示す。表示制御部120は、重畳するキャラクタのうち、画面奥側に存在するキャラクタ200bの表示位置を調整して、キャラクタ200bの不可視部分を少なくする。図示のように、表示制御部120がキャラクタ200bの位置を調整することで、キャラクタ200bの可視部分は多くなり、プレイヤは、キャラクタ200bを視認して、ゲームを円滑に進行させることができる。   FIG. 6A shows an example in which the character 200b is moved to the left side of the game card 4b. The display control part 120 adjusts the display position of the character 200b which exists in the back | inner side of a screen among the characters to superimpose, and reduces the invisible part of the character 200b. As illustrated, when the display control unit 120 adjusts the position of the character 200b, the visible portion of the character 200b increases, and the player can visually recognize the character 200b and advance the game smoothly.

図6(b)は、キャラクタ200bをゲームカード4bの左側に動かすとともに、キャラクタ200aをゲームカード4aの右側に動かした例を示す。表示制御部120は、重畳するキャラクタのうち、画面手前側に存在するキャラクタ200aの表示位置を調整して、画面奥側に存在するキャラクタ200bの不可視部分を少なくしてもよい。図6(a)と比較すると、キャラクタ200aを右側に動かすことで、キャラクタ200bの可視部分はさらに多くなり、プレイヤは、キャラクタ200bの全表示を視認して、ゲームを一層円滑に進行させることができる。   FIG. 6B shows an example in which the character 200b is moved to the left side of the game card 4b and the character 200a is moved to the right side of the game card 4a. The display control unit 120 may reduce the invisible portion of the character 200b existing on the back side of the screen by adjusting the display position of the character 200a existing on the near side of the screen among the superimposed characters. Compared with FIG. 6A, by moving the character 200a to the right side, the visible portion of the character 200b is further increased, and the player can visually recognize the entire display of the character 200b and advance the game more smoothly. it can.

図7は、画面手前側に存在するキャラクタ200aを半透明にした状態を示す。表示制御部120は、画面手前側に存在するキャラクタ200aの少なくとも一部分を、非表示または半透明の表示態様とすることで、画面奥側に存在するキャラクタ200bの不可視部分を少なくしてもよい。これにより、キャラクタの位置を変更することなく、キャラクタ200aの全体を視認可能な状態にすることができる。   FIG. 7 shows a state in which the character 200a existing on the front side of the screen is made translucent. The display control unit 120 may reduce the invisible portion of the character 200b existing on the back side of the screen by setting at least a part of the character 200a existing on the front side of the screen to a non-display or translucent display mode. Thereby, the entire character 200a can be made visible without changing the position of the character.

図8は、キャラクタ同士が重なって表示される別の例を示す。この例では、キャラクタ200bがキャラクタ200aに重なっている。これにより、建物の一部分が見えなくなっているが、表示制御部120は、キャラクタ200aの不可視部分につき、上記した表示制御は実行しない。   FIG. 8 shows another example in which characters are displayed overlapping each other. In this example, the character 200b overlaps the character 200a. As a result, a part of the building is not visible, but the display control unit 120 does not execute the above display control for the invisible part of the character 200a.

複数のキャラクタには、表示の優先順位が予め設定されていることが好ましい。優先順位格納部110は、キャラクタを表示する優先順位を記憶する。「人」と「高い建物」のキャラクタに対しては、「人」の方が表示の優先順位を高く設定される。この優先順位を参照して、表示制御部120は、優先順位の高いキャラクタが優先順位の低いキャラクタの背後に位置した場合に、優先順位の高いキャラクタの不可視部分を少なくするようにキャラクタの表示態様を調整する。一方で、表示制御部120は、優先順位の低いキャラクタが優先順位の高いキャラクタの背後に位置した場合には、表示態様の調整を行わない。このような優先順位を設定することで、ゲーム進行上、重要なキャラクタについては、ゲームカード画像の位置にかかわらず、プレイヤが視認できるように表示制御することが可能となる。   It is preferable that display priority is set in advance for the plurality of characters. The priority storage unit 110 stores the priority for displaying characters. For the characters “person” and “high building”, “person” is set to have a higher display priority. With reference to this priority, the display control unit 120 displays the character in such a manner that the invisible part of the character with the higher priority is reduced when the character with the higher priority is positioned behind the character with the lower priority. Adjust. On the other hand, the display control unit 120 does not adjust the display mode when the low priority character is positioned behind the high priority character. By setting such priorities, it is possible to control the display of characters that are important for the progress of the game so that the player can visually recognize them regardless of the position of the game card image.

(実施例2)
図9は、ゲーム装置30の別の構成を示す。ゲーム装置30は、解析情報取得部100、ゲーム進行処理部102、キャラクタ割当部201、キャラクタ格納部202、優先順位格納部204、および表示制御部120を備える。
(Example 2)
FIG. 9 shows another configuration of the game apparatus 30. The game apparatus 30 includes an analysis information acquisition unit 100, a game progress processing unit 102, a character allocation unit 201, a character storage unit 202, a priority storage unit 204, and a display control unit 120.

実施例2におけるゲーム装置30の処理機能は、CPU、メモリ、メモリにロードされたプログラムなどによって実現され、ここではそれらの連携によって実現される構成を描いている。プログラムは、ゲーム装置30に内蔵されていてもよく、また記録媒体に格納された形態で外部から供給されるものであってもよい。したがってこれらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者に理解されるところである。図示の例では、ゲーム装置30のCPUが、解析情報取得部100、ゲーム進行処理部102、キャラクタ割当部201、表示制御部120としての機能をもつ。解析情報取得部100およびゲーム進行処理部102は、実施例1に関連して説明したものと同様の処理を実行する。   The processing function of the game apparatus 30 in the second embodiment is realized by a CPU, a memory, a program loaded in the memory, and the like, and here, a configuration realized by cooperation thereof is illustrated. The program may be built in the game apparatus 30 or may be supplied from the outside in a form stored in a recording medium. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof. In the illustrated example, the CPU of the game apparatus 30 has functions as an analysis information acquisition unit 100, a game progress processing unit 102, a character allocation unit 201, and a display control unit 120. The analysis information acquisition unit 100 and the game progress processing unit 102 execute processing similar to that described in connection with the first embodiment.

ゲーム進行処理部102は、ゲームの進行状況を管理し、ゲームの開始直後やゲームステージの切替の時点において、キャラクタ割当部201に、次に開始されるゲームステージ名と、解析情報取得部100から送られてきた位置情報、方向情報、距離情報、識別情報を伝える。キャラクタ格納部202は、ゲームステージごとに、キャラクタの3次元画像データを記憶する。優先順位格納部204は、ゲームステージごとに、キャラクタを表示する優先順位を記憶する。優先順位は、ゲーム進行において重要なキャラクタほど高く設定される。   The game progress processing unit 102 manages the progress of the game, and immediately after the start of the game or at the time of switching the game stage, the character assigning unit 201 receives the game stage name to be started next and the analysis information acquisition unit 100. The sent position information, direction information, distance information and identification information are transmitted. The character storage unit 202 stores character three-dimensional image data for each game stage. The priority order storage unit 204 stores the priority order for displaying characters for each game stage. The priority is set higher for characters that are more important in the progress of the game.

キャラクタ割当部201は、優先順位格納部204に記憶された優先順位を読み出し、読み出した優先順位に基づいて、ゲームカード画像とキャラクタとを対応付ける。具体的に、キャラクタ割当部201は、優先順位の高いキャラクタが、優先順位の低いキャラクタと重なって不可視部分をもたないように、複数のキャラクタを複数のゲームカード画像に対応付ける。この対応付け処理を行うために、キャラクタ割当部201は、複数のゲームカード画像の表示位置に基づいて、ゲームカード画像とキャラクタとを対応付ける。   The character assignment unit 201 reads the priority order stored in the priority order storage unit 204 and associates the game card image with the character based on the read priority order. Specifically, the character assignment unit 201 associates a plurality of characters with a plurality of game card images so that a character with a high priority does not overlap with a character with a low priority and does not have an invisible portion. In order to perform this association process, the character assignment unit 201 associates the game card image with the character based on the display positions of the plurality of game card images.

図10は、2枚のゲームカードが配置された状態を示す。ゲームカード4aは、ゲームカード4bの手前に表示される。そのため、ゲームカード4bに配置されるキャラクタは、ゲームカード4aに配置される別のキャラクタにより不可視部分を形成されるおそれがある。   FIG. 10 shows a state in which two game cards are arranged. The game card 4a is displayed in front of the game card 4b. For this reason, the character placed on the game card 4b may have an invisible portion formed by another character placed on the game card 4a.

そこで、キャラクタ割当部201は、優先順位の高いキャラクタをゲームカード4aに対応付け、優先順位の低いキャラクタをゲームカード4bに対応付ける。これにより、優先順位の高いキャラクタは、優先順位の低いキャラクタにより隠されない。なお、優先順位の高低は、相対的に定められる。   Therefore, the character assignment unit 201 associates a character with a high priority with the game card 4a and associates a character with a low priority with the game card 4b. Thereby, a character with high priority is not hidden by a character with low priority. The priority level is relatively determined.

キャラクタ割当部201は、優先順位の高い順に、キャラクタを画面手前側から配置される実オブジェクト画像から順に対応付けてもよい。すなわち、複数のキャラクタを、優先順位の高い順に画面手前から奥に向かって配置する。キャラクタは、相対的に奥側の位置するキャラクタによって不可視部分を形成されることはない。このような対応付けを行うことで、キャラクタの配置時には、優先順位の高いキャラクタが、優先順位の低いキャラクタにより隠されない状況を作り出すことができる。   The character assigning unit 201 may associate the characters in order from the highest priority to the real object image arranged from the front side of the screen. That is, a plurality of characters are arranged from the front of the screen toward the back in the descending order of priority. The character is not formed with an invisible portion by a character positioned relatively far behind. By performing such association, it is possible to create a situation where a character with a high priority is not hidden by a character with a low priority when the characters are arranged.

図11は、図10の2枚のゲームカードに対して、ゲームカード4aにキャラクタ「人」を、ゲームカード4bに「高い建物」をそれぞれ対応付けた状態を示す。優先順位格納部204において、「人」と「高い建物」の優先順位は、「人」の方が高く設定されている。「人」を手前のゲームカード4aに関連付けて表示することで、ゲーム中で重要な役割を担う「人」を、「高い建物」に隠されることなく、ディスプレイ7に表示することができる。   FIG. 11 shows a state in which the character “person” is associated with the game card 4a and the “high building” is associated with the game card 4b with respect to the two game cards of FIG. In the priority storage unit 204, the priority of “person” and “high building” is set higher for “person”. By displaying the “person” in association with the game card 4a in the foreground, the “person” playing an important role in the game can be displayed on the display 7 without being hidden by the “high building”.

キャラクタ割当部201は、キャラクタとゲームカード画像とを対応付けた後は、その対応関係を維持することが好ましい。キャラクタの割当を頻繁に実行すると、操作中のキャラクタが入れ替わることになるため、一度決定した対応付けは、原則としてそのゲームステージ中は維持する。なお、優先度の高いキャラクタが所定時間不可視の状態におかれるような特段の事情があるときは、キャラクタとゲームカード画像との対応付け処理を再実行するようにしてもよい。この対応付け処理を例外的に実行させることで、プレイヤが、重要なキャラクタをどうしても見つけることができない事態を解決することができる。   The character assigning unit 201 preferably maintains the correspondence after associating the character and the game card image. If the character assignment is frequently performed, the character being operated is changed, so that the association once determined is maintained during the game stage in principle. Note that when there is a special circumstance in which a character with high priority is invisible for a predetermined time, the process of associating the character with the game card image may be re-executed. By executing this association process exceptionally, it is possible to solve a situation where the player cannot find an important character.

なお、優先順位に基づいてキャラクタをゲームカード画像に割り当てることで、以下のメリットもある。例えば、ゲームステージにおいて、5つのキャラクタが用意されている場合に、本来であれば5枚のゲームカード4が撮像領域5に存在している必要があるが、1枚を紛失して4枚しかない状況も起こりうる。キャラクタとゲームカードとの対応が予め定められている場合、紛失したゲームカード4が重要なキャラクタに割り当てられていない場合は問題ないが、重要なキャラクタに割り当てられている場合には、ゲームの進行そのものが停止することになる。   In addition, there are the following merits by assigning characters to game card images based on priority. For example, when five characters are prepared on the game stage, five game cards 4 must originally exist in the imaging area 5, but one is lost and only four cards are present. There can be no situations. If the correspondence between the character and the game card is predetermined, there is no problem if the lost game card 4 is not assigned to an important character, but if the assigned character is assigned to an important character, the game progresses. It will stop itself.

優先順位に基づいてキャラクタをゲームカード画像に動的に割り当てると、1番から4番までの優先順位のキャラクタがゲームカード画像に割り当てられ、優先順位の最も低いキャラクタがゲームカード画像に割り当てられないことになる。そのため、優先順位の最も低いキャラクタによる演出はなくなるものの、ゲームのメインストーリの進行を継続できることになるため、ゲームアプリケーションとして大きなメリットがある。特に、ゲームカード4は紛失しやすいことが想定されるため、キャラクタをゲームカード画像に動的に割り当てることは、紛失時の対応として非常に有効である。   When a character is dynamically assigned to a game card image based on the priority order, the first to fourth priority characters are assigned to the game card image, and the lowest priority character is not assigned to the game card image. It will be. Therefore, although the effect by the character with the lowest priority is eliminated, the progress of the main story of the game can be continued, which has a great merit as a game application. In particular, since it is assumed that the game card 4 is easily lost, dynamically assigning a character to the game card image is very effective as a countermeasure at the time of loss.

なお、キャラクタ割当部201は、フレーム画像に含まれるゲームカード画像の数が少なくなったとき、優先順位に基づいて、ゲームカード画像の識別情報とキャラクタとの対応付け処理を再実行してもよい。ゲーム中にゲームカード4が紛失したり、また識別部12の読み取りができなくなったような場合に、再度キャラクタとゲームカード画像とを対応付けることで、ゲーム進行を円滑に進めることが可能となる。   Note that, when the number of game card images included in the frame image decreases, the character allocation unit 201 may re-execute the association process between the identification information of the game card image and the character based on the priority order. . When the game card 4 is lost during the game, or when the identification unit 12 cannot be read, it is possible to smoothly advance the game by associating the character with the game card image again.

以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. .

例えば、キャラクタ割当部201は、優先順位の高いキャラクタを、画面中心に位置するゲームカード4に対応付けてもよい。ゲームの進行上、画面中心にメインキャラクタを位置させることが都合のよい場合に、キャラクタ割当部201が、画面中心を基準としたキャラクタの割当てを行うことが好ましい。このとき、実施例2におけるゲーム装置30は、実施例1における重畳判定部108を備えてもよい。重畳判定部108が、予めキャラクタ同士が重なり合わないことを判定した上で、キャラクタ割当部201が、優先順位の高いキャラクタを画面中心に位置するゲームカード4に対応付けてもよい。また、キャラクタ割当部201は、視点からの距離に応じてキャラクタをゲームカード4に割り当ててもよい。また、例えば2枚のゲームカード4が近接する場合に、ゲーム進行に重大な影響を及ぼす2つのキャラクタを、その2枚のゲームカード4に割り当て、ステージの開始とともに、それらのキャラクタ間で所定の共同動作を発生させるようにしてもよい。   For example, the character assignment unit 201 may associate a character with a high priority with the game card 4 located at the center of the screen. When it is convenient to position the main character at the center of the screen as the game progresses, it is preferable that the character assignment unit 201 assigns the character with reference to the center of the screen. At this time, the game apparatus 30 according to the second embodiment may include the superimposition determination unit 108 according to the first embodiment. After the superimposition determination unit 108 determines in advance that the characters do not overlap, the character allocation unit 201 may associate a character with a high priority with the game card 4 located at the center of the screen. Further, the character assignment unit 201 may assign a character to the game card 4 according to the distance from the viewpoint. Further, for example, when two game cards 4 are close to each other, two characters that have a significant effect on the game progress are assigned to the two game cards 4, and at the start of the stage, a predetermined value is set between these characters. A joint operation may be generated.

実施例にかかるゲームシステムの構成を示す図である。It is a figure which shows the structure of the game system concerning an Example. ゲームカードの表面の一例を示す図である。It is a figure which shows an example of the surface of a game card. 画像解析装置の構成を示す図である。It is a figure which shows the structure of an image analyzer. ゲーム装置の構成を示す図である。It is a figure which shows the structure of a game device. キャラクタ同士が重なって表示される例を示す図である。It is a figure which shows the example in which characters are overlapped and displayed. キャラクタをゲームカード上で動かした例を示す図である。It is a figure which shows the example which moved the character on the game card. 画面手前側に存在するキャラクタを半透明にした状態を示す図である。It is a figure which shows the state which made the character which exists in a screen near side semi-transparent. キャラクタ同士が重なって表示される別の例を示す図である。It is a figure which shows another example displayed by overlapping characters. ゲーム装置の別の構成を示す図である。It is a figure which shows another structure of a game device. 2枚のゲームカードが配置された状態を示す図である。It is a figure which shows the state by which two game cards are arrange | positioned. キャラクタをゲームカードに対応付けた状態を示す図である。It is a figure which shows the state which matched the character with the game card.

符号の説明Explanation of symbols

1・・・ゲームシステム、2・・・撮像装置、4・・・ゲームカード、5・・・撮像領域、7・・・ディスプレイ、10・・・画像処理装置、20・・・画像解析装置、30・・・ゲーム装置、40・・・フレーム画像取得部、42・・・実オブジェクト抽出部、44・・・状態決定部、46・・・識別情報取得部、48・・・識別情報格納部、50・・・送出部、52・・・位置決定部、54・・・方向決定部、56・・・距離決定部、100・・・解析情報取得部、102・・・ゲーム進行処理部、104・・・キャラクタ決定部、106・・・キャラクタ格納部、108・・・重畳判定部、110・・・優先順位格納部、120・・・表示制御部、201・・・キャラクタ割当部、202・・・キャラクタ格納部、204・・・優先順位格納部。
DESCRIPTION OF SYMBOLS 1 ... Game system, 2 ... Imaging device, 4 ... Game card, 5 ... Imaging region, 7 ... Display, 10 ... Image processing device, 20 ... Image analysis device, DESCRIPTION OF SYMBOLS 30 ... Game device, 40 ... Frame image acquisition part, 42 ... Real object extraction part, 44 ... State determination part, 46 ... Identification information acquisition part, 48 ... Identification information storage part , 50 ... sending unit, 52 ... position determining unit, 54 ... direction determining unit, 56 ... distance determining unit, 100 ... analysis information acquiring unit, 102 ... game progress processing unit, 104: Character determination unit, 106: Character storage unit, 108: Superimposition determination unit, 110 ... Priority order storage unit, 120 ... Display control unit, 201 ... Character allocation unit, 202 ... Character storage unit, 204 ... Priority order Storage unit.

Claims (18)

実オブジェクトを識別するための識別情報と、仮想オブジェクトの3次元画像データとを対応付けて記憶する格納部と、
撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた複数の仮想オブジェクトの3次元画像データを格納部から読み出す読出部と、
読み出された3次元画像データを用いて、仮想オブジェクトを、実オブジェクト画像の表示位置に関連付けて表示装置に表示させる表示制御部と、
表示装置に表示する仮想オブジェクト同士が重畳するか否かを判定する重畳判定部とを備え、
表示制御部は、重畳判定部により仮想オブジェクト同士が重畳することが判定された場合に、仮想オブジェクトの表示態様を調整することにより、仮想オブジェクト同士が重畳することにより生じる仮想オブジェクトの不可視部分を少なくすることを特徴とする画像処理装置。
A storage unit that stores identification information for identifying a real object and three-dimensional image data of the virtual object in association with each other;
A readout unit that reads out three-dimensional image data of a plurality of virtual objects associated with identification information of a plurality of real object images included in a frame image captured by the imaging device from a storage unit;
A display control unit that causes the display device to display the virtual object in association with the display position of the real object image using the read three-dimensional image data;
A superimposition determination unit that determines whether or not virtual objects to be displayed on the display device are superimposed,
When the superimposition determination unit determines that the virtual objects are to be superimposed, the display control unit adjusts the display mode of the virtual objects to reduce the invisible portion of the virtual object that is generated by the virtual objects being superimposed. An image processing apparatus.
表示制御部は、実オブジェクト画像の表示範囲内で仮想オブジェクトの表示位置を調整することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display control unit adjusts a display position of the virtual object within a display range of the real object image. 表示制御部は、表示装置において重畳する仮想オブジェクトのうち、画面奥側に存在する仮想オブジェクトの表示位置を調整して、画面奥側に存在する仮想オブジェクトの不可視部分を少なくすることを特徴とする請求項1または2に記載の画像処理装置。   The display control unit adjusts the display position of the virtual object existing on the back side of the virtual object to be superimposed on the display device, and reduces the invisible portion of the virtual object existing on the back side of the screen. The image processing apparatus according to claim 1. 表示制御部は、表示装置において重畳する仮想オブジェクトのうち、画面手前側に存在する仮想オブジェクトの表示位置を調整して、画面奥側に存在する仮想オブジェクトの不可視部分を少なくすることを特徴とする請求項1から3のいずれかに記載の画像処理装置。   The display control unit adjusts the display position of the virtual object existing on the near side of the screen among the virtual objects superimposed on the display device, and reduces the invisible portion of the virtual object existing on the far side of the screen. The image processing apparatus according to claim 1. 表示制御部は、画面手前側に存在する仮想オブジェクトの少なくとも一部分を、非表示または半透明の表示態様とすることで、画面奥側に存在する仮想オブジェクトの不可視部分を少なくすることを特徴とする請求項1または2に記載の画像処理装置。   The display control unit is characterized in that at least a part of the virtual object existing on the front side of the screen is set to a non-display or semi-transparent display mode, thereby reducing an invisible portion of the virtual object existing on the back side of the screen. The image processing apparatus according to claim 1. 撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報を取得する識別情報取得部と、
仮想オブジェクトの3次元画像データを記憶する第1格納部と、
仮想オブジェクトを表示する優先順位を記憶する第2格納部と、
第2格納部に記憶された優先順位に基づいて、実オブジェクト画像と仮想オブジェクトとを対応付ける仮想オブジェクト割当部と、
3次元画像データを用いて、複数の仮想オブジェクトを、仮想オブジェクト割当部により対応付けられた実オブジェクト画像の表示位置に関連付けて表示装置に表示させる表示制御部と、
を備えることを特徴とする画像処理装置。
An identification information acquisition unit that acquires identification information of a plurality of real object images included in the frame image captured by the imaging device;
A first storage for storing three-dimensional image data of the virtual object;
A second storage unit for storing a priority order for displaying the virtual object;
A virtual object allocation unit that associates a real object image with a virtual object based on the priority order stored in the second storage unit;
A display control unit that displays a plurality of virtual objects on the display device in association with the display position of the real object image associated by the virtual object allocation unit using the three-dimensional image data;
An image processing apparatus comprising:
仮想オブジェクト割当部は、複数の実オブジェクト画像の表示位置に基づいて、実オブジェクト画像と仮想オブジェクトとを対応付けることを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the virtual object assignment unit associates the real object image with the virtual object based on display positions of the plurality of real object images. 仮想オブジェクト割当部は、優先順位の高い仮想オブジェクトが優先順位の低い仮想オブジェクトと重なって不可視部分をもたないように、複数の仮想オブジェクトを複数の実オブジェクト画像に対応付けることを特徴とする請求項6または7に記載の画像処理装置。   The virtual object allocating unit associates a plurality of virtual objects with a plurality of real object images so that a virtual object with a high priority overlaps a virtual object with a low priority and does not have an invisible part. The image processing apparatus according to 6 or 7. 仮想オブジェクト割当部は、優先順位の高い順に、仮想オブジェクトを画面手前側から配置される実オブジェクト画像に対応付けることを特徴とする請求項6から8のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the virtual object assignment unit associates virtual objects with real object images arranged from the front side of the screen in descending order of priority. 仮想オブジェクト割当部は、仮想オブジェクトと実オブジェクトとを対応付けた後は、その対応関係を維持することを特徴とする請求項6から9のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the virtual object assignment unit maintains the correspondence relationship after associating the virtual object and the real object. 仮想オブジェクト割当部は、フレーム画像に含まれる実オブジェクト画像の数が少なくなったとき、優先順位に基づいて、実オブジェクト画像と仮想オブジェクトとの対応付け処理を再実行することを特徴とする請求項6から9のいずれかに記載の画像処理装置。   The virtual object allocating unit re-executes the association processing between the real object image and the virtual object based on the priority order when the number of real object images included in the frame image decreases. The image processing device according to any one of 6 to 9. 実オブジェクトを識別するための識別情報と、ゲームキャラクタの3次元画像データとを対応付けて記憶する格納部と、
撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた複数のゲームキャラクタの3次元画像データを格納部から読み出す読出部と、
読み出された3次元画像データを用いて、ゲームキャラクタを、実オブジェクト画像の表示位置に関連付けて表示装置に表示させる表示制御部と、
表示装置に表示するゲームキャラクタ同士が重畳するか否かを判定する重畳判定部とを備え、
表示制御部は、重畳判定部によりゲームキャラクタ同士が重畳することが判定された場合に、ゲームキャラクタの表示態様を調整することにより、ゲームキャラクタ同士が重畳することにより生じるゲームキャラクタの不可視部分を少なくすることを特徴とするゲーム装置。
A storage unit that stores identification information for identifying a real object and three-dimensional image data of the game character in association with each other;
A reading unit that reads out three-dimensional image data of a plurality of game characters associated with identification information of a plurality of real object images included in the frame image captured by the imaging device from the storage unit;
A display control unit that causes the display device to display the game character in association with the display position of the real object image using the read three-dimensional image data;
A superimposition determination unit that determines whether or not the game characters displayed on the display device are superimposed,
When the superimposition determining unit determines that the game characters are to be superimposed, the display control unit adjusts the display mode of the game characters to reduce the invisible portion of the game character that is generated by the superimposition of the game characters. A game device characterized by:
撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報を取得する識別情報取得部と、
ゲームキャラクタの3次元画像データを記憶する第1格納部と、
ゲームキャラクタを表示する優先順位を記憶する第2格納部と、
第2格納部に記憶された優先順位に基づいて、実オブジェクト画像とゲームキャラクタとを対応付けるゲームキャラクタ割当部と、
3次元画像データを用いて、複数のゲームキャラクタを、ゲームキャラクタ割当部により対応付けられた実オブジェクト画像の表示位置に関連付けて表示装置に表示させる表示制御部と、
を備えることを特徴とするゲーム装置。
An identification information acquisition unit that acquires identification information of a plurality of real object images included in the frame image captured by the imaging device;
A first storage for storing three-dimensional image data of the game character;
A second storage unit for storing priority orders for displaying game characters;
A game character assigning unit that associates a real object image with a game character based on the priority order stored in the second storage unit;
A display control unit for displaying a plurality of game characters on the display device in association with the display position of the real object image associated by the game character allocation unit using the three-dimensional image data;
A game apparatus comprising:
実オブジェクトを識別するための識別情報と、仮想オブジェクトの3次元画像データとを対応付けて記憶する格納部から、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた複数の仮想オブジェクトの3次元画像データを読み出すステップと、
表示装置に表示する仮想オブジェクト同士が重畳するか否かを判定するステップと、
仮想オブジェクト同士が重畳することを判定した場合に、仮想オブジェクトの表示態様を調整することにより、仮想オブジェクト同士が重畳することにより生じる仮想オブジェクトの不可視部分を少なくするステップと、
を備えることを特徴とする画像処理方法。
Corresponding to identification information of a plurality of real object images included in a frame image captured by an imaging device from a storage unit that stores identification information for identifying a real object and three-dimensional image data of a virtual object in association with each other Reading three-dimensional image data of a plurality of attached virtual objects;
Determining whether or not the virtual objects to be displayed on the display device overlap;
When it is determined that the virtual objects overlap, the step of reducing the invisible part of the virtual object generated by overlapping the virtual objects by adjusting the display mode of the virtual objects;
An image processing method comprising:
撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報を取得するステップと、
仮想オブジェクトを表示する優先順位を記憶する格納部から優先順位を読み出すステップと、
読み出した優先順位に基づいて実オブジェクト画像と仮想オブジェクトとを対応付けるステップと、
複数の仮想オブジェクトの3次元画像データを用いて、複数の仮想オブジェクトを、それぞれ対応付けられた実オブジェクト画像の表示位置に関連付けて表示装置に表示させるステップと、
を備えることを特徴とする画像処理方法。
Obtaining identification information of a plurality of real object images included in a frame image captured by an imaging device;
Reading the priority from the storage unit storing the priority for displaying the virtual object;
Associating a real object image with a virtual object based on the read priority;
Using the three-dimensional image data of the plurality of virtual objects to display the plurality of virtual objects on the display device in association with the display positions of the associated real object images;
An image processing method comprising:
コンピュータに、
実オブジェクトを識別するための識別情報と、仮想オブジェクトの3次元画像データとを対応付けて記憶する格納部から、撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報に対応付けられた複数の仮想オブジェクトの3次元画像データを読み出させる機能と、
表示装置に表示する仮想オブジェクト同士が重畳するか否かを判定させる機能と、
仮想オブジェクト同士が重畳することを判定した場合に、仮想オブジェクトの表示態様を調整することにより、仮想オブジェクト同士が重畳することにより生じる仮想オブジェクトの不可視部分を少なくさせる機能と、
を実現させるためのプログラム。
On the computer,
Corresponding to identification information of a plurality of real object images included in a frame image captured by an imaging device from a storage unit that stores identification information for identifying a real object and three-dimensional image data of a virtual object in association with each other A function of reading out three-dimensional image data of a plurality of attached virtual objects;
A function for determining whether or not virtual objects to be displayed on a display device are superimposed,
When it is determined that the virtual objects overlap each other, the function of reducing the invisible portion of the virtual object generated by overlapping the virtual objects by adjusting the display mode of the virtual objects;
A program to realize
コンピュータに、
撮像装置により撮像されたフレーム画像に含まれる複数の実オブジェクト画像の識別情報を取得させる機能と、
仮想オブジェクトを表示する優先順位を記憶する格納部から優先順位を読み出させる機能と、
読み出させた優先順位に基づいて実オブジェクト画像と仮想オブジェクトとを対応付けさせる機能と、
複数の仮想オブジェクトの3次元画像データを用いて、複数の仮想オブジェクトを、それぞれ対応付けられた実オブジェクト画像の表示位置に関連付けて表示装置に表示させる機能と、
を実現させるためのプログラム。
On the computer,
A function of acquiring identification information of a plurality of real object images included in a frame image captured by an imaging device;
A function of reading the priority from the storage unit for storing the priority for displaying the virtual object;
A function of associating a real object image with a virtual object based on the read priority;
A function of displaying a plurality of virtual objects on the display device in association with the display positions of the associated real object images using the three-dimensional image data of the plurality of virtual objects;
A program to realize
請求項16または17に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。

The computer-readable recording medium which recorded the program of Claim 16 or 17.

JP2004254888A 2004-09-01 2004-09-01 Image processing apparatus, game apparatus, and image processing method Expired - Fee Related JP4133976B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004254888A JP4133976B2 (en) 2004-09-01 2004-09-01 Image processing apparatus, game apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004254888A JP4133976B2 (en) 2004-09-01 2004-09-01 Image processing apparatus, game apparatus, and image processing method

Publications (2)

Publication Number Publication Date
JP2006072669A true JP2006072669A (en) 2006-03-16
JP4133976B2 JP4133976B2 (en) 2008-08-13

Family

ID=36153239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004254888A Expired - Fee Related JP4133976B2 (en) 2004-09-01 2004-09-01 Image processing apparatus, game apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP4133976B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008242596A (en) * 2007-03-26 2008-10-09 Denso It Laboratory Inc Three-dimensional display apparatus
CN100578426C (en) * 2006-06-28 2010-01-06 佳能株式会社 Equipment and method for managing information
JP2011145850A (en) * 2010-01-14 2011-07-28 Yahoo Japan Corp Label display device, label display method and program for the same
JP2012068977A (en) * 2010-09-24 2012-04-05 Nintendo Co Ltd Game processing program, device, system and method
JP2015165936A (en) * 2015-05-27 2015-09-24 株式会社三洋物産 Game machine
JP2015191531A (en) * 2014-03-28 2015-11-02 株式会社トッパンTdkレーベル Determination method of spatial position of two-dimensional code, and device therefor
US9495800B2 (en) 2010-06-10 2016-11-15 Nintendo Co., Ltd. Storage medium having stored thereon image processing program, image processing apparatus, image processing system, and image processing method
JP2018005477A (en) * 2016-06-30 2018-01-11 富士通株式会社 Display control program, display control method and display control device
JP2018163292A (en) * 2017-03-27 2018-10-18 Kddi株式会社 System, terminal device, and program
JP2019101330A (en) * 2017-12-06 2019-06-24 株式会社スクウェア・エニックス Display system and display method
JP2019153348A (en) * 2019-06-07 2019-09-12 Kddi株式会社 System including terminal device for displaying virtual object and server device and server device
JP2019174811A (en) * 2019-04-23 2019-10-10 株式会社スクウェア・エニックス Display system and display method
CN112034986A (en) * 2020-08-31 2020-12-04 深圳传音控股股份有限公司 AR-based interaction method, terminal device and readable storage medium

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100578426C (en) * 2006-06-28 2010-01-06 佳能株式会社 Equipment and method for managing information
JP2008242596A (en) * 2007-03-26 2008-10-09 Denso It Laboratory Inc Three-dimensional display apparatus
JP2011145850A (en) * 2010-01-14 2011-07-28 Yahoo Japan Corp Label display device, label display method and program for the same
US9495800B2 (en) 2010-06-10 2016-11-15 Nintendo Co., Ltd. Storage medium having stored thereon image processing program, image processing apparatus, image processing system, and image processing method
JP2012068977A (en) * 2010-09-24 2012-04-05 Nintendo Co Ltd Game processing program, device, system and method
US9095774B2 (en) 2010-09-24 2015-08-04 Nintendo Co., Ltd. Computer-readable storage medium having program stored therein, apparatus, system, and method, for performing game processing
JP2015191531A (en) * 2014-03-28 2015-11-02 株式会社トッパンTdkレーベル Determination method of spatial position of two-dimensional code, and device therefor
JP2015165936A (en) * 2015-05-27 2015-09-24 株式会社三洋物産 Game machine
JP2018005477A (en) * 2016-06-30 2018-01-11 富士通株式会社 Display control program, display control method and display control device
JP2018163292A (en) * 2017-03-27 2018-10-18 Kddi株式会社 System, terminal device, and program
JP2019101330A (en) * 2017-12-06 2019-06-24 株式会社スクウェア・エニックス Display system and display method
JP2019174811A (en) * 2019-04-23 2019-10-10 株式会社スクウェア・エニックス Display system and display method
JP2019153348A (en) * 2019-06-07 2019-09-12 Kddi株式会社 System including terminal device for displaying virtual object and server device and server device
CN112034986A (en) * 2020-08-31 2020-12-04 深圳传音控股股份有限公司 AR-based interaction method, terminal device and readable storage medium

Also Published As

Publication number Publication date
JP4133976B2 (en) 2008-08-13

Similar Documents

Publication Publication Date Title
KR102049245B1 (en) Image processing apparatus, image processing method, image processing system, and storage medium
US10661157B2 (en) Method and system incorporating real environment for virtuality and reality combined interaction
JP3844482B2 (en) Image processing device
CN107251101B (en) Scene modification for augmented reality using markers with parameters
US9911231B2 (en) Method and computing device for providing augmented reality
JP4133976B2 (en) Image processing apparatus, game apparatus, and image processing method
US9767612B2 (en) Method, system and apparatus for removing a marker projected in a scene
US8866848B2 (en) Image processing device, control method for an image processing device, program, and information storage medium
CN106664465B (en) System for creating and reproducing augmented reality content and method using the same
US10186084B2 (en) Image processing to enhance variety of displayable augmented reality objects
KR101248736B1 (en) Augmented reality book station based augmented reality system and method, augmented reality processing apparatus for realizing the same
EP2866088B1 (en) Information processing apparatus and method
JP2009064109A (en) Image projector and its control method
US10853966B2 (en) Virtual space moving apparatus and method
EP2051208A2 (en) Generating an asset for interactive entertainment using digital image capture
KR20090001667A (en) Apparatus and method for embodying contents using augmented reality
CN109448050B (en) Method for determining position of target point and terminal
JP2009295031A (en) Image projection device and its control method
JP5812550B1 (en) Image display device, image display method, and program
KR102382247B1 (en) Image processing apparatus, image processing method, and computer program
JP2019075660A (en) Image processing device, image processing method, and computer program
KR102561274B1 (en) Display apparatus and controlling method thereof
KR20160079667A (en) Image processing device, image processing method, image playback device, image playback method, and program
JP2016009266A (en) Imaging system, imaging method, and computer program
CN112905014A (en) Interaction method and device in AR scene, electronic equipment and storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080507

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080602

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4133976

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130606

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees