JP2004195090A - Game machine - Google Patents

Game machine Download PDF

Info

Publication number
JP2004195090A
JP2004195090A JP2002370216A JP2002370216A JP2004195090A JP 2004195090 A JP2004195090 A JP 2004195090A JP 2002370216 A JP2002370216 A JP 2002370216A JP 2002370216 A JP2002370216 A JP 2002370216A JP 2004195090 A JP2004195090 A JP 2004195090A
Authority
JP
Japan
Prior art keywords
image
stereoscopic
moving member
display
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002370216A
Other languages
Japanese (ja)
Other versions
JP3933570B2 (en
Inventor
Tadashi Saito
正 齊藤
Yuta Fujishige
雄太 藤重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2002370216A priority Critical patent/JP3933570B2/en
Publication of JP2004195090A publication Critical patent/JP2004195090A/en
Application granted granted Critical
Publication of JP3933570B2 publication Critical patent/JP3933570B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an unprecedented type game machine, which effectively makes use of stereoscopy. <P>SOLUTION: The game machine comprises a display 10 (printed matter) for displaying stereoscopic images, a moving member 20 (prize winning member, mobile unit), a detecting device 70 for detecting a positional relationship between stereoscopic objects SOB (prizes, walls) virtually displayed in a display screen side space and a mobile unit 20, and a judging unit 80 for judging the positional relationship. The prize is changed in kind or the like by switching the stereoscopic images on the display 10. The positional relationship is detected by using a touch panel, a switching element, a proximity sensor, a plane sensor, and the sensor of a moving mechanism 60. A viewpoint fixing part 30 is provided at a position for getting a bird's eye view of the display screen (printed surface) to fix the player's viewpoint. The stereoscopic images are displayed (printed) in such a way that the left and right eye images coincides with each other on the base level and deviate from each other as they are separated therefrom. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は遊戯装置に関する。
【0002】
【背景技術】
従来より、プレーヤがクレーン型の獲得部材(広義には移動部材)を操作し、景品を掴み取る景品獲得装置(プライズマシーン)が知られている。この景品獲得装置では、景品が置かれる景品載置台は透明な板又は半円球の部材で囲まれる。そしてプレーヤは、操作部を操作して、景品載置台上の空間においてクレーン型の捕獲部材を上下左右に移動させ、捕獲部材により景品を掴み取ってゲームを楽しむ。
【0003】
また従来より、左目に相当するカメラで撮った左目用の画像と、右目に相当するカメラで撮った右目用の画像とを用意し、これらの画像をアナグリフ(anaglyph)処理などにより合成し、立体視用画像を生成する技術も知られている。
【0004】
【特許文献1】
特開昭61−16368号公報
【特許文献2】
特開2000−56411号公報
【0005】
【発明が解決しようとする課題】
しかしながら、これまでの景品獲得装置(広義には遊戯装置)では、現実世界に実存する現実の商品が景品として用いられていた。このため、景品の並べ替えや入れ替えなどのメインテナンス作業が煩雑で手間がかかるという課題があった。また景品載置台に置くことができないような大きな商品を、景品として用いることができないという課題もあった。
【0006】
また従来の立体視方式には次のような課題があった。
【0007】
即ち、人間が物体の立体感を感じるのは、(1)左右の目が空間的に離れていることに起因して網膜の結像がずれる両眼視差(視線角度のずれ)、(2)左右の目が内側に向く機能である輻輳(ふくそう)、(3)水晶体の厚さが物体までの距離に応答するピント調整(焦点距離)という3つの生理的機能に起因する。そして人間は、これらの3つの生理的機能である両眼視差、輻輳、ピント調整を脳内で処理して立体感を感じている。
【0008】
そして、これらの3つの生理的機能の関係は、通常、脳内において関連づけられている。従って、この関係に誤差や矛盾が生じると、脳が無理に立体と関連づけようとして、不自然さを感じたり、或いは立体として認知できなかったりする事態が生じる。
【0009】
ところが、従来の立体視方式では、両眼視差や輻輳だけを利用して、立体視を表現していた。このため、ピント(焦点距離)は、立体視用画像(表示画面、印刷面)の面内においてほぼ一定なのに対し、両眼視差や輻輳のずれは、立体視用画像のほとんどの場所において生じており、人間の脳に無理の無い立体視を実現できなかった。
【0010】
本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、立体視を有効利用した、これまでにないタイプの遊戯装置を提供することにある。
【0011】
【課題を解決するための手段】
本発明は、立体視用画像を表示するディスプレイと、ディスプレイの表示画面側空間において移動する移動部材と、ディスプレイの表示画面側空間に立体視用画像に基づき仮想表示される立体視表示物と、移動部材との位置関係を検知するための検知デバイスと、検知デバイスからの検知結果に基づいて、立体視表示物と移動部材との位置関係を判定する判定部とを含む遊戯装置に関係する。
【0012】
本発明では、ディスプレイには立体視用画像が表示され、これにより、表示画面側空間に立体視表示物が仮想表示(仮想設定)される。即ちプレーヤ(広義には観者)から見て、あたかもそこに本物の立体があるかのように立体視表示物が仮想表示される。そして本発明では、移動部材が表示画面側空間において移動可能になっており、判定部が、検知デバイスからの検知結果に基づいて、立体視表示物と移動部材との位置関係(位置情報の関係、方向情報の関係、接触関係、或いはヒット関係等)を判定する。
【0013】
このように本発明では、現実に実存する移動部材と、あたかも本物の立体のように仮想表示される立体視表示物との位置関係を判定して楽しむことができるゲーム(景品獲得ゲーム、移動体ゲーム等)を実現できる。従って、これまでにないタイプの遊戯装置を提供できる。
【0014】
なお立体視用画像はリアルタイムに生成して、ディスプレイに表示してもよいし、画像メモリなどに記憶された立体視用画像のデータを読み出して、ディスプレイに表示してもよい。また立体視用画像を生成する画像生成部を更に設けることが望ましい。
【0015】
また本発明では、前記立体視表示物が、立体視表示物と移動部材とが所与の位置関係になった場合にプレーヤに付与される景品を表す表示物であり、ディスプレイに表示される立体視用画像を切り替えることで、プレーヤの捕獲対象となる景品の種類、配置及び個数の少なくとも1つを変更するようにしてもよい。
【0016】
このようにすれば、景品の並べ替えや入れ替え作業の手間を省くことができ、遊戯装置のメインテナンス効率を高めることができる。
【0017】
なお景品は、実物の商品を縮小表示したものであってもよい。また立体視用画像の切り替えは、アミューズメント施設のオペレータが手動で切り替えてもよいし、プログラムやタイマ等により自動的に切り替えてもよい。
【0018】
また本発明では、前記検知デバイスが、ディスプレイに一体的に設けられたタッチパネルであり、前記判定部が、タッチパネルに対する移動部材のタッチ位置に基づいて、立体視表示物と移動部材との位置関係を判定するようにしてもよい。
【0019】
このようにすれば、タッチパネル機構を有効利用して、位置関係を簡素に判定できるようになる。
【0020】
また本発明は、立体視用画像が印刷された印刷物と、印刷物の印刷面側空間において移動する移動部材と、印刷物の印刷面側空間に立体視用画像に基づき仮想表示される立体視表示物と、移動部材との位置関係を検知するための検知デバイスと、検知デバイスからの検知結果に基づいて、立体視表示物と移動部材との位置関係を判定する判定部とを含む遊戯装置に関係する。
【0021】
本発明では、印刷物には立体視用画像が表示され、これにより、印刷面側空間に立体視表示物が仮想表示される。そして本発明では、移動部材が印刷面側空間において移動可能になっており、判定部が、検知デバイスからの検知結果に基づいて、立体視表示物と移動部材との位置関係を判定する。
【0022】
このように本発明では、現実に実存する移動部材と、あたかも本物の立体のように仮想表示される立体視表示物との位置関係を判定して楽しむことができるゲームを実現できる。従って、これまでにないタイプの遊戯装置を提供できる。
【0023】
また本発明では、前記印刷物を所与の方向に巻き取る巻き取り機構を含み、前記巻き取り機構により印刷物を巻き取って印刷面を移動させることで、印刷面側空間に仮想表示される立体視表示物の種類、配置及び個数の少なくとも1つを変更するようにしてもよい。
【0024】
このようにすれば、景品等の並べ替えや入れ替え作業の手間を省くことができ、遊戯装置のメインテナンス効率を高めることができる。
【0025】
また本発明では、前記検知デバイスが、印刷物の印刷面の裏面側に設けられたスイッチ素子であり、前記判定部が、移動部材によりスイッチ素子か押されたか否かに基づき、立体視表示物と移動部材との位置関係を判定するようにしてもよい。
【0026】
なおスイッチ素子は、印刷面の裏面に固設してもよいし、印刷面の裏面側の筐体(遊戯装置の筺体)に固設してもよい。
【0027】
また本発明では、前記検知デバイスが、移動部材に設けられた近接センサであり、印刷物の印刷面の裏面側には、前記近接センサの検知対象が設けられ、前記判定部が、移動部材の近接センサが、印刷物の印刷面の裏面側の検知対象を検知したか否かに基づき、立体視表示物と移動部材との位置関係を判定するようにしてもよい。
【0028】
なお検知対象は、印刷面の裏面側に固設してもよいし、印刷面の裏面側の筐体に固設してもよい。
【0029】
また本発明では、前記検知デバイスが、移動部材を移動させる移動機構に設けられ、移動部材の移動位置を検知するためのセンサであり、前記判定部が、前記センサからの検知結果に基づいて、立体視表示物と移動部材との位置関係を判定するようにしてもよい。
【0030】
なおセンサにより検知される移動位置は、1次元位置でもよいし、2次元位置でもよいし、3次元位置でもよい。
【0031】
また本発明では、前記検知デバイスが、所与のセンサ面と移動部材との交差位置を検知するためのセンサであり、前記判定部が、前記センサからの検知結果に基づいて、立体視表示物と移動部材との位置関係を判定するようにしてもよい。
【0032】
なおセンサ面は、表示画面や印刷面に平行になるように、表示画面側の空間や印刷面側の空間に設定配置できる。
【0033】
また本発明では、ディスプレイの表示画面或いは印刷物の印刷面を俯瞰する位置に設けられ、プレーヤの視点を固定するための視点固定部を含むようにしてもよい。
【0034】
この場合に視点固定部に、立体視表示のための眼鏡(器具)の機能を更に持たせてもよい。また視点固定部により設定される視点位置は、調節可能であってもよい。
【0035】
また本発明では、ディスプレイの表示画面又は印刷物の印刷面を俯瞰する位置側に設けられ、前記移動部材をプレーヤが操作するための操作部を含むようにしてもよい。
【0036】
このようにすることで、プレーヤは、表示画面や印刷面を俯瞰しながら、操作部を操作して、種々のゲーム操作を行うことが可能になる。
【0037】
また本発明では、前記移動部材が、立体視表示物と移動部材とが所与の位置関係になった場合にプレーヤに付与される景品を捕獲するための捕獲部材であり、前記立体視表示物が、景品を表す表示物であり、前記判定部が、景品を表す立体視表示物と捕獲部材である移動部材とが所与の位置関係になったか否かに基づき、プレーヤに景品を付与するか否かを判定するようにしてもよい。
【0038】
なおプレーヤへの景品の付与は、景品そのものをプレーヤに払い出すことで実現してもよいし、景品と引き替えることができる景品券(景品指定情報)などをプレーヤに払い出すことで実現してもよい。
【0039】
また本発明では、前記移動部材が、プレーヤによる操作部の操作により移動する移動体であり、前記立体視表示物が、移動体とのヒット対象物を表す表示物であり、前記判定部が、ヒット対象物を表す立体視表示物と移動体である移動部材とが所与の位置関係になったか否かに基づき、プレーヤのゲーム結果を演算するようにしてもよい。
【0040】
このようにすれば、例えばヒット対象物である立体視表示物に移動体である移動部材が仮想ヒットした場合に、プレーヤの得点を加算したり、減算したりすることができる。
【0041】
また本発明では、移動部材と仮想表示物との位置関係を判定するための判定領域が設定され、前記判定部が、判定領域を分割する各領域に対応づけられた確率情報に基づいて、プレーヤに景品を付与するか否かの判定、或いはプレーヤのゲーム結果演算を行うようにしてもよい。
【0042】
この場合の判定領域は、表示画面や印刷面に設定できる。或いはセンサ面に判定領域を設定してもよい。
【0043】
また本発明では、前記立体視用画像は、第2の左目用画像と第2の右目用画像により生成され、前記第2の左目用画像は、第1の左目用画像の基準面での画像のパースペクティブを無くすための補正処理を、第1の左目用画像に対して施すことで生成され、前記第2の右目用画像は、第1の右目用画像の基準面での画像のパースペクティブを無くすための補正処理を、第1の右目用画像に対して施すことで生成されていてもよい。
【0044】
本発明によれば、基準面での画像(例えば基準面自体の画像や、基準面に接する部分での物体の画像等)のパースペクティブを無くすための補正処理を行うことで、第1の左目用画像から第2の左目用画像が生成され、第1の右目用画像から第2の右目用画像が生成される。そしてこれらの第2の左目用画像、第2の右目用画像に基づいて、立体視用画像が生成される。これにより、ピント調整や奥行き感の矛盾が少なく、より自然な立体視を実現できる。
【0045】
なお第1の左目用画像は、左目視点位置に設定されたカメラ(実カメラ又は仮想カメラ)を用いて生成でき、第1の右目用画像は、右目視点位置に設定されたカメラ(実カメラ又は仮想カメラ)を用いて生成できる。
【0046】
また本発明では、前記立体視用画像は、左目用画像と右目用画像により生成され、前記左目用画像は、オブジェクト空間内の左目用視点位置とオブジェクトの各点を結ぶ投影方向で、視線方向に非直交の基準面に対してオブジェクトの各点を投影して基準面にレンダリングすることで生成され、前記右目用画像は、オブジェクト空間内の右目用視点位置とオブジェクトの各点を結ぶ投影方向で、視線方向に非直交の基準面に対してオブジェクトの各点を投影して基準面にレンダリングすることで生成されていてもよい。
【0047】
このようにすれば、ピント調整や奥行き感の矛盾が少なく、より自然な立体視を実現できる。なお、基準面は、例えば視線方向(左目用視点位置と右目用視点位置の中点と仮想カメラの注視点を結ぶ方向)とは直交しない面である。別の言い方をすれば、視線方向と直交する透視変換スクリーンとは異なる面である。
【0048】
また本発明では、前記立体視用画像は、基準面に配置された物体の画像を含む左目用画像と右目用画像により生成され、前記立体視用画像は、左目用画像の物体画像と右目用画像の物体画像とが基準面位置において一致する画像であり、且つ、基準面から離れるほど左目用画像の物体画像と右目用画像の物体画像のずれが大きくなる画像であってもよい。
【0049】
本発明によれば、左目用画像の物体画像と右目用画像の物体画像とが基準面位置において一致する。例えば、基準面位置において左目用画像と右目用画像の物体画像(景品画像等)の表示位置や印刷位置が一致する。そして基準面から離れるほど(基準面から所定の方向に離れるほど)、左目用画像の物体画像と右目用画像の物体画像のずれ(例えば表示位置や印刷位置のずれ)が大きくなる。これにより、これまでの立体視では得ることが難しかった、自然で実在感のある立体視を実現できる。
【0050】
【発明の実施の形態】
以下、本実施形態について説明する。
【0051】
なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
【0052】
1.遊戯装置の構成
図1、図2に本実施形態の遊戯装置(狭義には景品獲得装置、クレーンゲーム装置)の例を示す。なお図1、図2等において、X、Y軸は水平面に平行な軸であり、Z軸は鉛直面に平行な軸である。例えば遊戯装置をプレイするプレーヤを基準にすると、X軸、Y軸、Z軸は、各々、左右方向、前後方向、上下方向に沿った軸になる。
【0053】
この遊戯装置は、立体視用画像を表示するディスプレイ10を含む。ディスプレイ10は、例えば液晶表示装置(LCD)、有機EL表示装置、無機EL表示装置、プラズマディスプレイ装置、或いはCRT(ブラウン管)などのハードウェアにより実現できる。そしてこのディスプレイ10には、例えば後述する立体視方式などにより生成された立体視用画像(立体視表示物を仮想表示するための最終合成画像)が表示される。この立体視用画像は視差のある左目用画像、右目用画像により生成される。また立体視用画像は、カメラによる実写画像を用いて生成してもよいし、CG(コンピュータグラフィックス)画像を用いて生成してもよい。
【0054】
またディスプレイ10は、その表示画面が水平面に対して平行になるように設定配置してもよいし、その表示画面が水平面に対して角度α(0度≦α≦45度、0度≦α≦90度)をなすように設定配置してもよい。またディスプレイ10に加えて第2のディスプレイを設けてもよい。この場合、第2のディスプレイは、その表示画面が鉛直面に平行になるように設定配置することができる。
【0055】
本実施形態では、このような立体視用画像を表示するディスプレイ10を設けることで、ディスプレイ10の表示画面側の空間(図1ではディスプレイ10の上方の空間)に、立体視表示物SOBが仮想表示される。即ち立体視表示物SOBが、プレーヤの視点から見て、あたかも本物の立体のように浮き上がって見える。この立体視表示物SOBは、ディスプレイ10に表示画面上の表示物(立体視処理された表示物)に対応するものであり、例えば景品等を表す表示物である。
【0056】
但し、SOBは現実に表示画面側空間内に実存するわけではない。即ち立体視表示物SOBは、色フィルタのついた眼鏡(視点固定部50)等を介してディスプレイ10の表示物(左目用画像、右目用画像、立体視用画像)を見ることで、人間の視差による錯覚により、あたかも表示画面側空間に実存するかのように仮想表示(仮想設定、仮想配置)されるものである。
【0057】
なお本実施形態では、ディスプレイ10の代わりに印刷物(立体視用印刷物)を用いるようにしてもよい。即ち印刷媒体(紙、レンズシート等)に立体視用画像が印刷された印刷物を、図1等のディスプレイ10の位置に配置する。そしてこの立体視用印刷物を用いて、印刷面側の空間に立体視表示物SOBを仮想表示するようにしてもよい。従って本明細書中においては、「ディスプレイ」「表示画面」という用語は「印刷物」「印刷面」という用語に置き換えることができ、逆に「印刷物」「印刷面」という用語は「ディスプレイ」「表示画面」という用語に置き換えることができる。
【0058】
遊戯装置は移動部材20(狭義には捕獲部材、移動体)を含む。この移動部材20は、ディスプレイ10の表示画面側の空間において移動する。具体的には操作部40を用いたプレーヤの操作により、表示画面側の空間(仮想的な景品の載置台の上方の空間)において所望の方向に自在に移動する。
【0059】
移動部材20(景品キャッチャー)としては任意の形状のものを用いることができる。また移動部材20の移動方向は図1のX、Y、Z軸方向の全ての方向であってもよいし、これらのX、Y、Z軸方向のいずれか1方向或いは2方向であってもよい。
【0060】
遊戯装置は視点固定部30(狭義には覗き窓)を含む。この視点固定部30(視点設定部)は、ディスプレイ10(印刷物)の表示画面(印刷面)を俯瞰(鳥瞰)する位置に設けられる。そしてこの視点固定部30を設けることで、プレーヤの視点(視線方向)を所望の位置に固定できる。
【0061】
遊戯装置は操作部40を含む。この操作部40はプレーヤの俯瞰視点側(図1の手前側)に設けられる。また操作部40には、移動部材20の移動方向を指示するボタン(或いはレバー)や、移動部材20による捕獲を指示するボタンや、ゲーム開始を指示するボタンや、コイン(広義には対価)の投入口などを設けることができる。なお操作部40を構成する部材(ボタン、レバー)の種類や形状は任意である。また音声認識操作により操作部40の操作機能を実現してもよい。
【0062】
遊戯装置は払い出し口50を含む。この払い出し口50には、公知の払い出し機構90により景品が払い出される。具体的には、移動部材20(景品キャッチャー)による立体視表示物SOB(景品)の捕獲に成功すると、SOBに対応する景品(SOBにより表示される景品)が払い出し口50から払い出される。なお払い出し口50を設けずに、景品券などを発行するようにしてもよい。そしてアミューズメント施設において、この景品券と引き替えにプレーヤに景品を付与してもよい。
【0063】
遊戯装置は、移動部材20を移動させるための公知の移動機構60を含む。この移動機構60は、X、Y、Z軸方向の少なくとも1つの軸方向で移動部材20を移動させるものである。
【0064】
遊戯装置は検知デバイス70(検知部)を含む。この検知デバイス70は、ディスプレイ10(印刷物)の表示画面(印刷面)側空間に立体視用画像に基づき仮想表示される立体視表示物SOBと、移動部材20との位置関係(SOBと移動部材20の位置情報又は方向情報の関係)を検知するためデバイスである。より具体的には検知デバイス70は、移動部材20が立体視表示物SOBに仮想接触(ヒット、捕獲)したか否かを検知する。これは例えば移動部材20の位置情報(方向情報)を検知デバイス70が検知し、移動部材20の位置情報と、仮想表示物SOBの位置情報(メモリ等に予め登録されている位置情報)を比較することで実現できる。そして仮想接触が検知されて、立体視表示物SOBが捕獲されたと判定部80により判定されると、SOBに対応する景品が、払い出し機構90により払い出し口50から払い出される。
【0065】
なお検知デバイス70の種類や検知手法としては後述するように種々の手法が考えられる。また検知デバイス70を設ける場所も任意の種々の場所が考えられる。
【0066】
遊戯装置は判定部80を含む。この判定部80は検知デバイス70からの検知結果に基づいて、立体視表示物SOBと移動部材20の位置関係を判定する。
【0067】
例えば遊戯装置が景品捕獲装置(プライズマシーン)である場合には、移動部材20が捕獲部材(クレーン、掴み取り部材)として機能し、立体視表示物SOBは景品を表す表示物となる。そしてこの場合には判定部80は、景品を表す立体視表示物SOBと捕獲部材である移動部材20とが所与の位置関係になったか否かに基づき、プレーヤに景品を付与するか否かを判定する。この場合、例えば後述するような確率情報なども考慮して判定する。そして判定部80は、景品を付与すると判定した場合には、払い出し機構90に景品の払い出しを指示し、これにより払い出し口50から景品が払い出される。
【0068】
一方、遊戯装置が移動体をプレーヤが操作して楽しむ装置である場合には、移動部材20が移動体(自動車、飛行機等を模した物)となり、立体視表示物SOBが、移動体とヒットする対象物(道路に落ちている物、壁、木又は家等)になる。そしてこの場合には判定部80はヒット対象物を表す立体視表示物SOBと移動体である移動部材20とが所与の位置関係になったか否かに基づき、プレーヤのゲーム結果(得点、勝ち負け)を演算する。そしてゲーム結果に基づいて、プレーヤの順位や得点を表示する処理を行ったり、景品の払い出しを指示する処理などを行う。
【0069】
なお判定部80の機能は例えばCPU(プロセッサ)上で動作するプログラムにより実現できる。或いは、ASIC(専用回路)や、スイッチ素子、抵抗素子、容量素子などの各種の電子素子により判定部80の機能を実現してもよい。
【0070】
また移動部材20の移動機構80は図1、図2のような吊り下げ機構のみならず種々の変形実施が可能である。例えば図3(A)のようにXY平面(水平面)内だけで移動部材20を移動するようにしてもよい。この場合には例えば検知デイバイス70として、移動部材20の位置情報(X、Y座標)を画像認識により検知するカメラ72を用いることができる。
【0071】
また例えば図3(B)のように、第1のディスプレイ10(第1の印刷物)の他に第2のディスプレイ11(第2の印刷物)を設けて立体視表示物SOBを仮想表示するようにしてもよい。この第2のディスプレイ11は、例えばその表示画面が鉛直面に対して平行に設定配置される。そして後述する複数の基準面を用いる立体視方式において、第1の基準面(BS1)に対応する立体視用画像を第1のディスプレイ10(第1の印刷物)に表示し、第2の基準面(BS2)に対応する立体視用画像を第2のディスプレイ11(第2の印刷物)に表示する。これにより、立っているキャラクタなどを表す立体視表示物SOBを効果的に仮想表示できる。
【0072】
また移動部材20の形状は図4(A)のようなクレーン形状に限定されない。例えば図4(B)のような形状でもよいし、それ以外の形状であってもよい。
【0073】
以上のように本実施形態では、景品を、実在する現実の商品ではなく立体視表示物SOBにより表している。このため景品の並べ替え作業や入れ替え作業などのメインテナンス作業の労力を低減でき、アミューズメント施設の運用の効率化を図れる。また、例えば商品を縮小して撮影したものをディスプレイに表示すれば、景品載置台に置くことができないような大きな商品でも、景品として表示できるようになり、これまでにない遊戯装置を実現できる。
【0074】
なお、あたかも現実の景品を獲得できたかのような感覚をプレーヤに与えるために、景品獲得の瞬間に、照明を暗くしたり逆に明るくして、立体視表示物SOBが一時的に見えないようにする演出を行ってもよい。或いは、景品獲得の瞬間に、立体視表示から2次元画像表示(立体視処理が施されていない画像の表示)に切り替えて、立体視表示物の仮想表示を消すようにしてもよい。
【0075】
2.ディスプレイの画像切り替え
さて本実施形態では、ディスプレイに表示される立体視用画像を切り替えることで、景品の種類、配置、或いは個数を変更できる。
【0076】
例えば図5(A)では、ディスプレイ10に戦車の模型の立体視用画像を表示することで、戦車の模型を景品として出品している。一方、図5(B)では、ディスプレイ10の表示内容を変更し、飛行機の模型の立体視用画像を表示している。これにより、出品される景品を戦車の模型から飛行機の模型に切り替えることができる。
【0077】
そしてディスプレイ10の表示画像の切り替えは、メモリから読み出す画像データ(景品画像データ)を変更するだけで済む。例えば、ディスプレイ10にメインテナンス用のオプション画面を表示し、アミューズメント施設(ゲームセンター)のオペレータが、このオプション画面において、景品画像の表示モードを切り替える。このようにすれば、景品の並び替えや入れ替えなどのメインテナンス作業の労力を軽減できる。
【0078】
また例えば、遊戯装置が有するタイマ(時間計測部)を用いて時間経過を計測し、時間経過に伴いディスプレイ10の景品画像を自動的に切り替えるようにしてもよい。このようにすれば、景品の並び替えや入れ替え作業を更に簡素化できると共に、遊戯装置の演出効果や視覚効果も向上できる。
【0079】
また景品を表すオブジェクトを、モーションデータに基づいて動作させるようにしてもよい。例えば模型の戦車が景品である場合には、モーションデータに基づいて、オブジェクトである戦車の砲身や車輪などのパーツオブジェクトを動かすようにする。このようにすれば、これまでの景品獲得装置では実現することが困難であった「動く景品」を実現でき、景品獲得装置の演出効果や視覚効果を更に高めることができる。
【0080】
なお、ディスプレイ10に景品画像を表示する場合には、図2の検知デバイス70として、ディスプレイ10に一体的に設けられたタッチパネルを用いることができる。
【0081】
即ち図5(B)に示すように、ディスプレイ10に対する移動部材20のタッチ位置(X座標、Y座標)を、公知のタッチパネル機構を利用して検知する。そして検知されたタッチ位置に基づいて、立体視表示物SOBと移動部材20との位置関係を判定する。即ち、立体視表示物SOBの表示位置(予めメモリに登録されている位置)とタッチ位置とが一致した場合(より具体的にはSOBの表示位置を内包する所与の範囲にタッチ位置が入った場合)には、移動部材20が立体視表示物SOBに仮想接触したと判断する。そして、後述する確率情報などに基づいて、立体視表示物SOBの獲得に成功したか否かを判定する。そして獲得に成功した場合には、SOBに対応する景品を払い出す。
【0082】
このようにタッチパネル式のディスプレイ10を有効利用すれば、図5(A)、(B)のような画像切り替えによる景品の種類の変更という効果と、SOBと移動部材20との位置関係の判定処理の簡素化という効果を両立できる。
【0083】
3.印刷物を利用した立体視表示
立体視表示物の仮想表示は、ディスプレイ10の代わりに、立体視用画像が印刷された印刷物を用いても実現できる。即ち図1のディスプレイ10が配置される位置に、例えば四角形状の印刷物を配置する。この場合の印刷物は、左目用画像と右目用画像をアナグリフ処理により合成した画像が印刷媒体に印刷されたものであってもよいし、左目用画像と右目用画像を短冊状に配列して印刷した印刷媒体と、レンチキュラーレンズ(lenticular lens)などの特殊レンズとを組み合わせた印刷物でもよい。
【0084】
立体視表示物の仮想表示に印刷物を用いる場合には、例えば、遊戯装置に、図6(A)のような巻き取り機構13-1、13-2を設けることが望ましい。即ち印刷物12を、巻き取り機構13-1、13-2を用いて、所与の方向(図6(A)ではX軸に沿った方向)に巻き取る。そして巻き取り機構13-1、13-2により印刷物12を巻き取って、その印刷面を移動させることで、印刷面側の空間に仮想表示される立体視表示物SOB1〜SOB3の種類、配置、又は個数を変更する。
【0085】
このようにすれば、印刷物12を用いた場合でも、図5(A)(B)のようにディスプレイ10を用いた場合と同様に、印刷物12を巻き取るだけで景品の種類や配置を自在に変更できるようになる。これにより景品の並び替えや入れ替えなどのメインテナンス作業の労力を軽減できる。
【0086】
また立体視表示物の仮想表示に印刷物を用いる場合には、図2の検知デバイス70としてスイッチ素子や近接センサを用いることができる。
【0087】
例えば図6(B)に示すように、印刷物12の印刷面(SOB1、SOB2に対応する表示物が印刷される面)の裏面側に、スイッチ素子14-1、14-2を配置する。この場合に、スイッチ素子14-1、14-2は、立体視表示物SOB1、SOB2の位置に対応する位置に設ける。即ち立体視表示物SOB1、SOB2の真下にスイッチ素子14-1、14-2が配置されるようにする。
【0088】
そして所与の方向(例えばZ軸方向)に移動する移動部材20によりスイッチ素子14-1、14-2が押されたか否かに基づき、図2の判定部80が、立体視表示物SOB1、SOB2の位置関係を判定する。具体的には図6(B)において、移動部材20がスイッチ素子14-1を押した場合には、移動部材20と立体視表示物SOB1が仮想接触したと判定する。そしてSOB1に対応する景品を払い出す。同様に、移動部材20がスイッチ素子14-2を押した場合には、移動部材20と立体視表示物SOB2が仮想接触したと判定する。そしてSOB2に対応する景品を払い出す。
【0089】
また図6(C)では、移動部材20に近接センサ15を埋設する。また印刷物12の印刷面の裏面側に、近接センサ15の検知対象16-1、16-2を配置する。この場合に、検知対象16-1、16-2は、立体視表示物SOB1、SOB2の位置に対応する位置に設ける。即ち立体視表示物SOB1、SOB2の真下に検知対象16-1、16-2を配置する。
【0090】
そして所与の方向(例えばZ軸方向)に移動する移動部材20の近接センサ15が、検知対象16-1、16-2を検知したか否かに基づき、図2の判定部80が、立体視表示物SOB1、SOB2の位置関係を判定する。具体的には図6(C)において、移動部材20が検知対象16-1を検知した場合には、移動部材20と立体視表示物SOB1が仮想接触したと判定する。そしてSOB1に対応する景品を払い出す。同様に、移動部材20が検知対象16-2を検知した場合には、移動部材20と立体視表示物SOB2が仮想接触したと判定する。そしてSOB2に対応する景品を払い出す。
【0091】
この場合に、検知対象16-1、16-2の材質は、遊戯装置の筺体17の材質と異ならせておく。また検知対象16-1、16-2の材質も互いに異ならせておくことが望ましい。例えば筺体17、検知対象16-1、16-2の材質を、各々、鉄、ステンレス、アルミにする。そして移動部材20に設けられる近接センサ15として、磁気を利用したセンサを用いる。そしてこの近接センサ15により、鉄、ステンレス、アルミの磁性の相違を検知することで、近接センサ15の下方に位置するものが、筺体17(鉄)、検知対象16-1(ステンレス)、検知対象16-2(アルミ)のいずれなのかを判定する。
【0092】
4.移動機構に設けた検知デバイスによる検知
図2の検知デバイス70は、移動部材20を移動させる移動機構60に設けるようにしてもよい。即ち検知デバイス70として移動部材20の移動位置を検知するセンサ(位置センサ)を用いる。そして図2の判定部80が、このセンサにより検知された移動部材20の移動位置に基づいて、立体視表示物SOBと移動部材20との位置関係を判定する。
【0093】
具体的には図7(A)に示すように、例えば移動部材20をX、Y、Z軸方向に沿って移動させるモータMX、MY、MZを、移動機構60に設ける。そしてモータMXは、移動部材20が取り付けられた移動ユニット62をX軸方向(左右方向)に沿って移動させる。また移動ユニット62に設けられたモータMYは、移動ユニット62をY軸方向(前後方向)に沿って移動(自走)させる。また移動ユニット62に設けられたモータMZは、移動部材20をZ軸方向(上下方向)に沿って移動させる。なお移動機構60は、特開昭61−16368号公報に示すような移動レールを用いて移動部材20を移動させる機構であってもよいし、移動ベルトを用いて移動部材20を移動させる機構であってもよい。
【0094】
図7(B)に示すように、移動部材20のX、Y、Z軸に沿った移動(位置座標、移動距離)は、検知デバイス70として機能するエンコーダ63、64、65により検知される。この場合のエンコーダ63、64、65は、モータMX、MY、MZの回転を回転スリットを用いて検知するロータリ式エンコーダであってもよいし、モータMX、MY、MZによるX、Y、Z軸方向の移動を固定スリットを用いて検知するリニア式エンコーダであってもよい。
【0095】
そして判定部80はエンコーダ63、64、65(広義にはセンサ)からの検知結果に基づいて、立体視表示物SOBと移動部材20との位置関係を判定する。より具体的には判定部80は、エンコーダ63、64、65からの検知結果に基づいて移動部材20のX、Y、Z軸の座標値(X、Y、Z軸に沿った移動距離)を求める。そして求められた座標値と、メモリ等に記憶された立体視表示物SOBの座標値とを比較することで、移動部材20が立体視表示物SOBに仮想接触したか否かを判定する。そして判定部80は、仮想接触したと判定すると、払い出し機構90に対して景品の払い出しを指示する。
【0096】
このように移動機構60に検知デバイス70(センサ)を設けて移動部材20の移動を検知する手法によれば、立体視表示物SOBと移動部材20との位置関係の判定を、より正確に行うことができる。また検知デバイス70の設置スペースを、よりコンパクト化できる。
【0097】
5.センサ面の交差位置による検知
図2の検知デバイス70は、センサ面と移動部材20との交差位置を検知するセンサであってもよい。即ち、表示画面(印刷面)に平行なセンサ面を、表示画面(印刷面)側の空間に設定する。この場合にセンサ面の高さは、例えば立体視表示物SOBに交差する高さに設定する。
【0098】
そして判定部80は、センサ(平面センサ)からの検知結果に基づいて、立体視表示物SOBと移動部材20との位置関係を判定する。具体的には、センサからの検知結果に基づいて、センサ面と移動部材20の交差位置の座標値(X、Y座標)を求める。そして求められた座標値と、メモリ等に記憶された立体視表示物SOBの座標値とを比較することで、移動部材20が立体視表示物SOBに仮想接触したか否かを判定する。そして判定部80は、仮想接触したと判定すると、払い出し機構90に対して景品の払い出しを指示する。
【0099】
図8(A)、(B)に、センサ面と移動部材20との交差位置を求める検知手法の一例を示す。
【0100】
まず図8(A)に示すようなセンサ面形成枠74を設ける。このセンサ面形成枠74は、表示画面(印刷面)に平行に、表示画面(印刷面)側の空間に設けられる。またセンサ面形成枠74の高さは、例えば立体視表示物SOBに交差する高さに設定される。
【0101】
そしてこのセンサ面形成枠74を設けることで、枠74内に2次元のセンサ面75を形成する。この場合に、センサ面形成枠74の辺SD1の両角部には、1組のセンサS1、S2が設けられている。
【0102】
センサS1は、発光部と受光部とを有している。発光部は、角度θが0度〜90度の間で赤外線を出力し、その戻り光を受光部で受光する。そのため、センサ面形成枠74の各辺SD1〜SD4に反射板を配置し、センサS1の発光部からの赤外線を受光部に反射させるようにしている。
【0103】
センサS2も、センサS1と同様に発光部と受光部とを有し、角度θが0度〜90度の間で自ら発光した赤外線の戻り光を受光する。
【0104】
センサS1によって角度θが0度〜90度の間で受光された結果は、結像IM1として得られる。一方、センサS2によって角度θが0度〜90度の間で受光された結果は、結像IM2として得られる。そして、これらの結像IM1、IM2において、影となった部分を、角度θ1、θ2として判別できる。
【0105】
そして得られた角度θ1、θ2を用いることで、図8(B)に示すように、移動部材20とセンサ面75との交差位置P(X、Y)の座標を求めることでき、移動部材20と立体視表示物の仮想接触を判定できる。
【0106】
なお図8(A)(B)は、2つのセンサS1、S2を用いて交差位置P(X、Y)を検知する手法について説明したが、3つ以上のセンサを用いて交差位置Pを検知してもよい。
【0107】
なお図2の検知デバイス70は、図9(A)に示すようなカメラ72であってもよい。例えばカメラ72の視線方向はZ軸に沿った方向に設定されている。そして移動部材20と立体視表示物SOBを上方向からカメラ72により撮影する。そしてこの撮影により図9(B)に示すような撮影画像が得られる。そして判定部80は、この撮影画像を用いた公知の画像認識処理により、移動部材20の画像と立体視表示物SOBの画像の重なり合いを判別して、移動部材20と立体視表示物SOBの位置関係を判定する。そして判定部80は、移動部材20と立体視表示物SOBが仮想接触したと判定すると、払い出し機構90に対して景品の払い出しを指示する。なお、その視線方向がXY平面に平行な第2のカメラを更に設けて、位置関係を判定してもよい。
【0108】
6.視点固定部
本実施形態では図10(A)に示すような視点固定部30を設けている。この視点固定部30は、ディスプレイ10(印刷物)の表示画面(印刷面)を俯瞰(鳥瞰)する位置に設けられる。そしてこの視点固定部30を設けることで、プレーヤの視点(視線方向)を所望の位置に固定できる。
【0109】
即ち本実施形態では、後述するように、表示画面を俯瞰する視点(表示画面と角度θをなす視線方向での視点)で見た場合にも、ピント調整と両眼視差の関係に矛盾が生じない立体視方式を採用している。そして、この立体視方式において、よりリアルで実在感のある立体視を実現するためには、立体視用画像生成時に視点位置(左目用視点位置、右目用視点位置)として想定された位置に、プレーヤ(観者)の視点を固定することが望ましい。
【0110】
そこで本実施形態では、図10(A)に示すように、この想定視点位置(左目用視点位置、右目用視点位置)にプレーヤの視点を固定するための視点固定部30(視点固定部材)を設けている。より具体的には、景品配置空間を囲む透明部材に覗き窓を設け、この覗き窓を視点固定部30として機能させている。またアナグリフ方式で合成された立体視用画像を立体視するための色フィルタ(例えば左目用の青フィルタ、右目用の青フィルタ)を、この覗き窓に設けている。このようにすることで、覗き窓に、視点を固定する機能と立体視用の眼鏡の機能の両方を持たせることができる。
【0111】
なお視点固定部30は、少なくとも視点を固定できる機能を有していればよく、図1に示すような覗き窓構造に限定されない。例えば図10(B)のように支柱に色フィルタ眼鏡を取り付けた構造などの種々の構造を採用できる。
【0112】
また色フィルタの機能の代わりに、所定周期(例えばフレーム周期)毎に左右の目のシャッタが交互に開閉するシャッター機能を、視点固定部30の眼鏡に持たせてもよい。
【0113】
またレンチキュラーレンズなどの特殊レンズを利用した立体視方式では、視点固定部30に、立体視用眼鏡の機能を持たせる必要はなく、視点を固定する機能だけを持たせればよい。
【0114】
また視点固定部30は、少なくともプレーヤが表示画面(印刷面)を見るときに固定されていればよく、視点固定部30に視点位置の調整機能を持たせてもよい。例えば図10(B)において、X、Y、Z軸の少なくとも1つの方向に視点位置を移動して調整できるようにしてもよい。或いは図10(A)の直線LN(ディスプレイ10と角度θをなく直線)に沿って視点位置を移動して調整できるようにしてもよい。
【0115】
7.移動体を用いた遊戯装置
図1では、移動部材20として景品獲得部材(クレーン、キャッチャ)を用いた景品獲得装置について説明したが、本実施形態の遊戯装置はこのような景品獲得装置に限定されない。
【0116】
例えば図11(A)では、移動部材20として、プレーヤによる操作部40(ハンドル)の操作により移動する移動体22が用いられている。この移動体22(ゲームキャラクタ)としては、例えば、車、飛行機、戦車、人、弾、玉、或いは怪獣などを模して形成されたものを使用できる。
【0117】
図11(A)に示すように、移動体22の下には印刷物12が設けられる。そしてこの印刷物12は、図6(A)で説明したような巻き取り機構13-1〜13-4により巻き取られ、これにより印刷物12の印刷面が第1の方向(Y軸方向)に移動する。また移動体22は、操作部40の操作により、第1の方向に直交する第2の方向(X軸方向)に沿って移動自在になっている。
【0118】
印刷物12には立体視用画像が印刷されている。これにより図11(B)に示すように、印刷物12の印刷面側の空間に、立体視表示物SOB1〜SOB8が仮想表示される。即ちSOB1〜SOB8が、プレーヤの視点から見てあかたかも本物の立体のように浮き上がって見える。そして例えば立体視表示物SOB1〜SOB4は、プレーヤが操作する移動体22(広義には移動部材)の仮想的なヒット対象物となる。
【0119】
判定部80は、ヒット対象物を表す立体視表示物SOB1〜SOB4と移動体22(移動部材)とが所与の位置関係になったか否かに基づき、プレーヤのゲーム結果を演算する。より具体的には、例えばプレーヤは操作部40を操作して移動体22を左右方向(X軸方向)に動かす。そして、ヒット対象物である立体視表示物SOB1に移動体22が仮想ヒット(仮想衝突)したと判定されると、プレーヤのゲーム結果(得点)にポイントが加算される(例えば+30ポイント)。一方、立体視表示物SOB2に移動体22が仮想ヒットしたと判定されると、プレーヤのゲーム結果からポイントが減算される(例えば−20ポイント)。また、壁を表す仮想表示物SOB3、SOB4に移動体22が仮想ヒットしたと判定されると、プレーヤのゲーム結果からポイントが減算される。或いは、壁であるSOB3、SOB4に移動体22が仮想ヒットすると、壁とは逆方向に移動体22を移動させる反力を、操作部40であるハンドルに生じさせる。
【0120】
このようにすることで、移動体22と立体視表示物SOB1〜SOB4をヒットさせてゲームを楽しむことができるという、これまでにない遊戯装置を実現できる。そして立体視表示物SOB1〜SOB8は、プレーヤの視点から見て、あたかも本物の立体のように見えるため、プレーヤの仮想現実感も向上できる。
【0121】
なお、移動体(移動部材)と立体視表示物との位置関係の検知は、本明細書中で説明した種々の検知デバイスを利用した手法により実現できる。
【0122】
また図11(A)(B)では、立体視用画像が印刷された印刷物を利用する手法について説明したが、立体視用画像が表示されたディスプレイを用いて図11(A)(B)に示すような遊戯装置を実現してもよい。
【0123】
8.確率情報を用いた判定
さて、図12(A)において、移動部材20と立体視表示物SOBが仮想接触したと判定された場合に常に景品をプレーヤに付与するようにすると、ゲームとしての面白みに今ひとつ欠けてしまう。そこで移動部材20と仮想表示物SOBとの位置関係を判定するための判定領域18を設定し、判定領域18に設定された確率情報に基づいて、プレーヤに景品を付与するか否かを判定することが望ましい。
【0124】
例えば図12(B)では、上方から見て立体視表示物SOBを内包する判定領域18が表示画面上に設定される。そしてこの判定領域18が複数の領域に分割され、各領域には確率情報が設定される。例えば図12(B)では、判定領域18の真ん中付近の領域には高い確率(70〜100パーセント)が設定される一方で、判定領域18の周縁部の領域には低い確率(0〜30パーセント)が設定される。
【0125】
そして例えば移動部材20(代表点RP)とディスプレイ10とのヒット位置が、高い確率が設定された領域内に位置する場合には、高い確率でプレーヤに景品を付与する。一方、移動部材20(代表点RP)とディスプレイ10とのヒット位置が、低い確率が設定された領域内に位置する場合には、低い確率でプレーヤに景品を付与する。
【0126】
このようにすることで景品獲得に確率の要素を付与することができ、実物の景品をクレーンなどで吊り上げる従来の景品獲得装置と同様に、スリル感の溢れる景品獲得装置を実現できる。
【0127】
なお、確率情報の設定の仕方は様々な変形実施が可能である。例えば図12(C)に示すように、立体視表示物SOBの真ん中付近の領域のみならず、周縁の領域に高い確率を設定してもよい。このようにすれば、従来の景品獲得装置においてクレーンに景品の紐が偶然に引っかかってキャッチできる状況と、同様の状況を作り出すことができる。
【0128】
また図12(A)〜(C)のような確率情報を用いた判定手法は、図1のような景品獲得装置のみならず、図11(A)(B)のような移動部材として移動体を用いる遊戯装置にも適用できる。そして図11(A)(B)ような遊戯装置に適用する場合には、判定部80が、判定領域を分割する各領域に対応づけられた確率情報に基づいてプレーヤのゲーム結果演算を行う。より具体的には、移動体22と立体視表示物SOB1〜SOB4とが仮想ヒットしたか否かを確率情報により判定したり、プレーヤに与える得点を確率情報により決定する。
【0129】
また移動部材20(代表点)とのヒット位置がどの領域内に位置するかの判定は、例えば図7(A)(B)の手法により得られた移動部材20の座標値に基づいて判定できる。或いは図8(A)(B)の手法で得られた交差位置P(X、Y)に基づいて判定してもよい。そして図8(A)(B)の手法を用いる場合には、判定領域をセンサ面75に設定できる。
【0130】
また例えば図5(B)のタッチパネル型のディスプレイ10を用いる場合には、例えば移動部材20の代表点RPに対応する位置に突起部を設けて、この突起部のタッチ位置を利用して、ヒット位置がどの領域内に位置するかを判定すればよい。
【0131】
9.立体視方式の詳細
次に本実施形態の立体視方式の詳細について説明する。本実施形態では以下に説明する2つの方式で立体視を実現している。
【0132】
9.1 第1の立体視方式
図13に本実施形態の第1の立体視方式のフローチャートを示す。
【0133】
まず、立体視のための第1の左目用画像IL1と第1の右目用画像IR1を生成する(ステップS1、S2)。具体的には、左目用視点位置VPLから見える左目用画像IL1と、右目用視点位置VPRから見える右目用画像IR1を生成する。
【0134】
ここで左目用、右目用視点位置VPL、VPRは、図14に示すように、観者(viewer)の左目、右目の位置として想定される位置である。例えば、カメラ(デジタルカメラ)による実写により左目用、右目用画像IL1、IR1を生成する場合には、これらのVPL、VPRの位置にカメラを配置して、左目用、右目用画像IL1、IR1を撮影する。この場合、2台のカメラをVPL、VPRに配置して同時に撮影してもよいし、1台のカメラの位置を変えて撮影してもよい。
【0135】
一方、CG(コンピュータグラフィックス)画像やゲーム画像(リアルタイム動画像)を生成するシステムにより左目用、右目用画像IL1、IR1を生成する場合には、これらのVPL、VPRの位置に仮想カメラを配置して左目用、右目用画像IL1、IR1を生成する。即ち、オブジェクト空間においてVPL、VPRから見える画像を生成する。
【0136】
図15、図16に左目用画像IL1、右目用画像IR1の一例を示す。これらは、カメラ(デジタルカメラ)による実写によりIL1、IR1を生成した場合の例である。基準面(景品などの物体が置かれる載置面)の上には、ミカン、箱、ボールペン、ステープラーなどの種々の物体(狭義には被写体又はオブジェクト。以下の説明でも同様)が配置されている。そして左目用画像IL1は、左目用視点位置VPLにカメラを配置して、物体(注視点、物体の代表点)の方にカメラの視線(方向)を向けて撮影したものである。また右目用画像IR1は、右目用視点位置VPRにカメラを配置して、物体の方にカメラの視線を向けて撮影したものである。そして図15、図16に示すように、これらの左目用、右目用画像IL1、IR1では視線角度(見え方)がずれており、この視線角度のずれによる両眼視差を利用して、立体視が実現される。
【0137】
なお本実施形態では、立体視用画像が表示されるディスプレイの表示画面や印刷物の印刷面に対応する位置の面を、基準面として設定できる。
【0138】
また、CGやゲームの場合には、オブジェクト空間内に設定された基準面の上に、オブジェクト(ミカン、箱、ボールペン、ステープラー等をモデル化したオブジェクト)を配置し、VPL、VPRに仮想カメラを配置する。そして、仮想カメラの視線(方向)をオブジェクト(注視点、オブジェクトの代表点)の方に向けて、仮想カメラから見える画像を生成することで、図15、図16と同様な画像を生成できる。
【0139】
次に図13のステップS3に示すように、基準面BSでの画像のパースペクティブ(perspective)を無くすための補正処理を、ステップS1で得られた第1の左目用画像IL1に施し、第2の左目用画像IL2を生成する。またステップS4に示すように、基準面BSでの画像のパースペクティブ(遠近感)を無くすための補正処理を、ステップS2で得られた第1の右目用画像IR1に施し、第2の右目用画像IR2を生成する。
【0140】
図17、図18に、補正処理により得られた左目用画像IL2、右目用画像IR2の一例を示す。例えば図15、図16では、基準面BSに描かれている長方形RTG(正方形も含む広義の意味の長方形。以下の説明でも同様)にパースペクティブがついている。これに対して図17、図18では、長方形RTGのパースペクティブが無くなっている。
【0141】
ここで、本実施形態におけるパースペクティブを無くす補正処理とは、図20(A)に示すように、基準面BS自体の画像や、基準面に描かれている画像IM1や、物体OB(オブジェクト)の画像のうち基準面BSに接する部分の画像のパースペクティブ(奥行き感)を無くす処理である。即ち図20(A)のB1では、視点から奥側に行くほど、頂点間の距離が狭まるが、図20(A)のB2では、視点から奥側に行っても、頂点間の距離が変わらない。このような補正処理を行うことで、基準面BSの画像については、あたかも真上から見たような画像が生成されるようになる。なお、この補正処理により、パースペクティブが完全に厳密に無くなる必要はなく、立体視に違和感が生じない程度にパースペクティブが無くなればよい。
【0142】
次に図13のステップS5に示すように、第2の左目用画像IL2と第2の右目用画像IR2に基づき、立体視用画像(画像データ)を生成する。より具体的には、IL2とIR2とに基づきアナグリフ処理などを行って立体視用画像を生成する。
【0143】
そして、この立体視用画像(実写画像又はCG画像)を、インクジェット方式やレーザプリンタ方式などのプリンタを用いて、印刷媒体(紙、レンズシート)に印刷することで、立体視用印刷物を製造できる。なお、プリンタにより印刷された原盤となる立体視用印刷物を複製することで、立体視用印刷物を製造してもよい。このようにすれば、立体視用印刷物を短期間で大量に製造できるという利点がある。
【0144】
また立体視用画像を、画像生成装置のディスプレイに表示すれば、画像(動画像)のリアルタイム生成が可能になる。なお、この場合に、アナグリフ処理等により得られた立体視用画像を直接にディスプレイに表示し、これを色フィルタ(赤、青)が設けられた眼鏡(広義には器具)を用いて見るようにしてもよい。或いは、左目用、右目用画像IL2、IR2を異なるフレームで交互にディスプレイに表示し、これを液晶シャッタ等が設けられた眼鏡を用いて見るようにしてもよい。
【0145】
図19に、図17、図18の左目用、右目用画像IL2、IR2に基づきアナグリフ処理を行うことで得られた立体視用画像の一例を示す。
【0146】
この図19の立体視用画像では、左目用画像IL2(IL)と右目用画像IR2(IR)とが合成されている。そして左目用画像IL2と右目用画像IR2は、各々、基準面BSに配置された物体OBの画像を含む。また基準面BSの画像も含む。
【0147】
そして図21のA1に示すように、左目用画像IL2の物体画像と右目用画像IR2の物体画像は、基準面BSの位置において一致している(但し必ずしも完全に一致している必要はない)。即ち、左目用画像IL2の物体画像の印刷位置(表示位置)と右目用画像の物体画像IR2の印刷位置(表示位置)が、基準面BSにおいて一致している。
【0148】
一方、図21のA2に示すように、基準面BSから離れるほど左目用画像IL2の物体画像と、右目用画像IR2の物体画像のずれが大きくなっている。より具体的には、物体OBの部分のうち基準面BSから上方に位置する部分の画像ほど、左目用画像IL2での印刷位置(表示位置)と、右目用画像IR2での印刷位置(表示位置)とがずれている。
【0149】
さて、これまでの立体視では図20(B)に示すように、立体視用印刷物PM(或いはディスプレイの表示画面。以下の説明でも同様)を、その面が鉛直面に対して平行になるように配置し、観者が、立体視用印刷物PMを正対して見ることが想定されていた。このため、例えば図15、図16のような左目用、右目用画像IL1、IR1に対してそのままアナグリフ処理を施して、立体視用印刷物PMを作成していた。そして、図15、図16の画像ではパースペクティブが残っているため、図20(B)のように立体視用印刷物PMを正対して見た場合に、遠近感に関する限りは、正しい画像になる。
【0150】
しかしながら図20(B)のように観者が立体視用印刷物PMを正対して見た場合に、ピント(焦点距離)については、PMの全面において同一になってしまう。従って、人間の脳内において、ピント調整と、両眼視差、輻輳との関係に矛盾や誤差が生じてしまう。従って、脳が無理に立体と関連づけようとして、不自然さを感じたり、立体として認知できなくなってしまう。また、従来の方式で作成された立体視用印刷物PMを、水平面に平行になるように机に配置して見てしまうと、奥行き感に矛盾が生じ、不自然な立体視になってしまう。即ち図15、図16の長方形RTGは、高さが零の平面であり、この長方形RTGが立体に見えてはいけないからである。
【0151】
そこで本実施形態では、図20(C)に示すように、立体視用印刷物PM(表示画面)を、観者が机(水平面に平行な基準面BS)の上に配置して見ることを想定するようにしている。即ち、このような配置が本方式のデフォルトの配置となる。そして、このように水平面に平行に立体視用印刷物PMを配置した場合に、図15、図16の画像をそのままアナグリフ処理して立体視用印刷物PMを作成すると、遠近感に矛盾が生じる。
【0152】
そこで本実施形態では図17、図18、図20(A)で説明したように、基準面の画像のパースペクティブを無くす補正処理を行う。そして基準面でのパースペクティブを無くした補正後の図17、図18の画像に基づいて、アナグリフ処理を行い、立体視用印刷物PMを作成し、作成された立体視用印刷物PMを図20(C)のように水平面に平行に配置すれば、基準面の画像(長方形RTG)には適正なパースペクティブがつくようになる。また、図20(C)のように配置すれば、立体視用印刷物PMの面上の各点の焦点距離が同一ではなく異なるようになる。このため、ピント調整についても現実世界のピント調整と近いものになる。従って、ピント調整と、両眼視差や輻輳との間の関係のずれも軽減され、より自然で、実在感のある立体視を実現できる。
【0153】
なお、本実施形態の立体視方式では、物体の高さが高い場合に奥行き感等にずれが生じる可能性がある。このような場合には例えば図22に示すように、2つの基準面BS1、BS2(広義には複数の基準面)を設ければよい。
【0154】
ここで基準面BS1は例えば水平面に平行な面である。一方、基準面BS2は、基準面BS1と所定の角度(例えば直角)をなす面である。そして、基準面BS1、BS2は境界BDにおいて連結されている。
【0155】
物体OB(オブジェクト)は、基準面BS1の上方で且つ基準面BS2の手前側(VPL、VPR側)に配置する。そして図13の代わりに図23に示す処理を行う。
【0156】
図23のステップS11、S12は、図13のステップS1、S2と同様である。そしてステップS13では、基準面BS1でのパースペクティブを無くすための補正処理を、左目用画像IL1の基準面BS1に対応する領域(IL1のうち境界BDを基準にしてBS1側の第1の領域)に対して施す。また、基準面BS2でのパースペクティブを無くすための補正処理を、IL1の基準面BS2に対応する領域(IL1のうち境界BDを基準にしてBS2側の第2の領域)に対して施す。そして、これらの補正処理により生成された画像を繋げた画像である左目用画像IL2を生成する。
【0157】
またステップS14では、基準面BS1でのパースペクティブを無くすための補正処理を、右目用画像IR1の基準面BS1に対応する領域(IR1のうち境界BDを基準にしてBS1側の第1の領域)に対して施す。また、基準面BS2でのパースペクティブを無くすための補正処理を、IR1の基準面BS2に対応する領域(IR1のうち境界BDを基準にしてBS2側の第2の領域)に対して施す。そして、これらの補正処理により生成された画像を繋げた画像である右目用画像IR2を生成する。
【0158】
そして最後にステップS15のように、IL2、IR2に基づき、例えばアナグリフ処理等を行って、立体視用画像を生成する。そして、得られた立体視用画像を、印刷媒体に印刷して立体視用印刷物を製造したり、ディスプレイに表示する。
【0159】
このようにすることで図24に示すように、OBが、基準面BS1からの高さが高い物体である場合にも、より自然で、実在感のある立体視を実現できる。即ち、物体OBの足下付近の領域(境界BSの下側の第1の領域)では、基準面BS1を利用した立体視の処理により、奥行き感やピント調整に無理の無い立体視を実現できる。一方、それ以外の領域(境界BSの上側の第2の領域)では、基準面BS2を利用した立体視の処理により、奥行き感に無理の無い立体視を実現できる。
【0160】
なお、基準面は2つに限定されず、3つ以上の基準面(連結された複数の基準面)を用いてもよい。
【0161】
9.2 第2の立体視方式
図25に本実施形態の第2の立体視方式のフローチャートを示す。前述の図13の方式は、カメラにより実写した画像を用いて立体視用印刷物を作成するのに最適な方式であるのに対して、図25の方式は、CG画像を用いて立体視用印刷物を作成するのに最適な方式である。
【0162】
まず、左目用視点位置VPLとオブジェクトOBの各点を結ぶ投影方向で、基準面BS(BS1又はBS2)にOBの各点を投影して基準面BSにレンダリングし、左目用画像ILを生成する(ステップS21)。
【0163】
次に、右目用視点位置VPRとオブジェクトOBの各点を結ぶ投影方向で、基準面BS(BS1又はBS2)にOBの各点を投影して基準面BSにレンダリングし、右目用画像IRを生成する(ステップS22)。なお、基準面BSは、例えば視線方向(視点位置と注視点を結ぶ方向)に直交しない面である。即ち、基準面BSは、視線方向に常に直交する透視投影スクリーンとは異なる面である。
【0164】
ステップS21、S22の処理では、VPL(或いはVPR)からオブジェクトOBの方に向かって仮想的な光を投射し、その光を用いて、OBの画像を基準面BS(BS1又はBS2)である仮想紙に焼き付けるようにして、仮想紙にレンダリングする。これにより、図26(A)に示すように、オブジェクトOBの点P1、P2、P3、P4の画像(色等のプロパティ)が、基準面BS上の投影点P1’、P2’、P3’、P4’にレンダリングされる。なお、基準面BS上の点P5、P6の画像については、そのまま、その点P5、P6の位置にレンダリングされる。そして例えば図26(B)に示すように、基準面BS(仮想紙)の全面をラスタスキャンするようにレンダリングすることで、図17、図18のIL2、IR2と同様の左目用画像IL、右目用画像IRを生成できる。即ち、基準面の画像のパースペクティブが無くなった左目用、右目用画像IL、IRを生成できる。
【0165】
そして、これらの左目用、右目用画像IL、IRに基づき、例えばアナグリフ処理等を行って、立体視用画像を生成する(ステップS23)。これにより、図19に示すような立体視用画像を得ることができる。そして、得られた立体視用画像を、印刷媒体に印刷して立体視用印刷物を製造したり、ディスプレイに表示する。
【0166】
そして例えば図26(C)に示すように立体視用印刷物PM(或いは表示画面)を水平面(基準面)に平行になるように配置して見ることで、より自然で実在感のある立体視を実現できる。
【0167】
例えば図27(A)では、オブジェクトOBを透視投影スクリーンSCR(視線方向に直交する面)に透視投影して左目用画像、右目用画像を生成している。そして、得られた左目用画像、右目用画像を合成して立体視用印刷物PMを生成する。そして図27(B)に示すように、観者は、立体視用印刷物PMに正対してPMを見ることになる。
【0168】
この図27(A)の方式では、オブジェクトOBの点P2、P3は、投影投影スクリーンSCR上の点P2”、P3”に投影される。そして、立体視用印刷物PMは図27(B)のように正対して見ることになるため、P2”、P3”の焦点距離差L2が0になってしまう。即ち、実際の点P2、P3の焦点距離差L1は0ではないのに、L2が0となるため、ピント調整が実際のものと異なってしまう。従って、ピント調整と両眼視差の関係に矛盾が生じ、人間の脳に混乱が生じ、違和感のある立体視になってしまう。
【0169】
これに対して本実施形態では、立体視用印刷物PM(表示画面)を図26(C)に示すように机(水平面)に置いて見ることになるため、図26(A)に示すように、点P2’、P3’の焦点距離差L2は、実際の点P1、P2の焦点距離差L1と同様に、0ではない。従って手前の部分(点P2)は手前に見え、奥にある部分(点P3)は奥に見えるようになるため、ピント調整と両眼視差の関係に矛盾が生じず、人間の脳に混乱が生じないため、より自然な立体視を実現できる。
【0170】
即ち本実施形態は、立体視用印刷物PMを机に置いて斜めから見る方式であるため、机の面と、立体視の対象となるオブジェクトOBが載っている基準面BS(零面)とは、同一面となり、現実的であり、立体視に無理が生じない。そして、オブジェクトOBが、基準面BS(零面)に対して、数センチメートルだけ浮き上がって見える様子を表現できればよいため、奥行き方向についての矛盾はほとんど生じない。しかも、基準面BSが机の面であるため、あたかも机の上に本当に立体の物体が配置されているかのように見え、物体の実在感が向上する。即ち従来の図27(A)、(B)の方式では、基準面があやふやであるため、立体感は確かにあるが、物体の実在感が幻のようにしかならなかったのである。
【0171】
なお、図25の方式においても、図22で説明したように、複数の基準面を設定して立体視用画像を生成してもよい。この場合には、図25のステップS21、S22において、基準面BS1に投影される点については基準面BS1にレンダリングし、基準面BS2に投影される点については基準面BS2にレンダリングすればよい。
【0172】
9.3 アナグリフ処理
次に図13のステップS5等で行われるアナグリフ処理について説明する。
【0173】
アナグリフ処理では、1枚の印刷媒体に、左目用画像と右目用画像を色を変えて印刷して、立体視用印刷物を作成する。そしてこの立体視用印刷物を、左右の目で異なる色フィルタ(例えば左目が赤、右目が青)を介して見る。この時に、左目では左目用画像だけが見え、右目では右目用画像だけが見えるようになり、立体視が実現される。
【0174】
例えばモノクロのアナグリフ処理では、左目用画像(IL2、IL)をグレースケールに変換する。そして変換後の画像データをアナグリフ画像(RGB)のRチャンネルにコピーする。次に、右目用画像(IR2、IR)をグレースケールに変換する。そして変換後の画像データを、アナグリフ画像(RGB)のGチャンネルとBチャンネルにコピーする。これにより、モノクロのアナグリフ画像が生成される。なお、右目用画像をBチャンネルだけにコピーするようにしてもよい。
【0175】
またカラーのアナグリフ処理では、左目用画像(IL2、IL)のRチャンネルを、アナグリフ画像(RGB)のRチャンネルにコピーする。また右目用画像(IR2、IR)のGチャンネルを、アナグリフ画像(RGB)のGチャンネルにコピーする。また右目用画像のBチャンネルをアナグリフ画像(RGB)のBチャンネルにコピーする。これにより、カラー(疑似カラー)のアナグリフ画像を生成できる。
【0176】
なお、立体視の実現手法は、少なくとも、左目用画像(IL2、IL)と右目用画像(IR2、IR)を用いて実現されるものであればよく、アナグリフ処理に限定されない。
【0177】
例えば図28に示すように、レンチキュラーレンズ(lenticular lens)と呼ばれる特殊なレンズを使って、観者の左目ELには左目用画像の像だけが入り、右目ERには右目用画像の像だけが入るようにして、立体視を実現していもよい。このようにレンチキュラーレンズのような特殊レンズを用いる場合には、例えば図29に示すようにして左目用画像LVと右目用画像RVから立体視用画像を生成する。なおこの場合に2眼式のみならず、3眼式、4眼式などの多眼式方式で立体視表示を行う場合も本発明の範囲に含まれる。
【0178】
また左目用画像、右目用画像の前に偏光板を配置し、左目用画像の前に置かれた偏光板と右目用画像の前に置かれた偏光板とで、偏向方向を異ならせておく。そして、それに応じた偏向方向を持つ偏光板をレンズ部分に取り付けた眼鏡を観者がかけることで、立体視を実現してもよい。
【0179】
また左目用画像と右目用画像を、例えばフレームを異ならせて交互に表示する。そして左目用画像の表示に同期して開く左目用のシャッター(例えば液晶シャッター)と、右目用画像の表示に同期して開く右目用のシャッターが設けられた眼鏡を観者がかけることで、立体視を実現してもよい。
【0180】
9.4 視点位置の設定
次に視点位置の設定手法について説明する。
【0181】
図14、図22の左目用、右目用視点位置VPL、VPRは、立体視用印刷物や立体視用表示画面を観者が実際に見る時の観者の左目、右目の想定位置に基づいて配置することが望ましい。例えば図14、図22において、物体OB(オブジェクト、被写体)と観者の目との間の距離DVB(例えば40cm)、視線角度θ(視線方向SL)、両眼間の距離DLR(例えば7cm)に基づいて、左目用、右目用視点位置VPL、VPRを設定する。
【0182】
但し、縮小表示や拡大表示を行う場合には、縮小率や拡大率に応じてVPL、VPRの位置を移動させる。この場合には図30に示すような手法で視点位置を移動させることが望ましい。
【0183】
例えば物体OB(被写体、オブジェクト)と視点位置(VPLとVPRの中点CP)と間の距離DVBを長くした場合には、その長さの変化(比)に応じて、左目用視点位置VPLと右目用視点位置VPRとの間の距離DLRを長くする。即ち例えばDVBの長さの変化に比例してDLRを長くする。
【0184】
また物体OB(被写体、オブジェクト)と視点位置(VPLとVPRの中点CP)との間の距離DVBを変化させる場合に、基準面BSに対して所定の角度θをなす直線LN(視線方向)に沿って移動するように、視点位置(中点CP、VPL、VPR)を移動させる。
【0185】
このようにすることで、VPL、VPRを移動させた場合にも、距離DVBや距離DLRが等倍比で変化するようになるため、立体感に破綻が生じる事態を防止できる。これにより、適正な立体感を維持しながら縮小表示や拡大表示を実現できるようになる。
【0186】
9.5 画像生成装置
図31に、立体視用画像を生成する画像生成装置のブロック図の例を示す。なお、画像生成装置は、図31の構成要素(各部)を全て含む必要はなく、その一部を省略した構成としてもよい。
【0187】
この画像生成装置は、ディスプレイの表示画像を生成する装置(遊戯装置)として用いることができる。また、CG画像により立体視用画像を作成し、立体視用印刷物を作成するための画像生成装置(CGツール)としても用いることができる。また、カメラで撮った実写画像を取り込み、この実写画像により立体視用画像を作成し、立体視用印刷物を作成するための画像生成装置(パーソナルコンピュータ)としても用いることができる。
【0188】
操作部160(レバー、ボタン)は、プレーヤ(操作者)が操作データを入力するためのものである。記憶部170(RAM)は、処理部100や通信部196などのワーク領域となるものである。情報記憶媒体180(CD、DVD、HDD、ROMなどのコンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものである。この情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
【0189】
ディスプレイ190は画像を表示するものでり、音出力部192は音声、ゲーム音などの音を出力するものである。携帯型情報記憶装置194は、プレーヤの個人データやゲームのセーブデータなどが記憶されるものである。
【0190】
印刷部195は、立体視用画像を印刷媒体に印刷する処理を行う。この場合の印刷方式としてはインクジェット方式、レーザプリント方式などの種々の方式がある。通信部196は、インターネットなどのネットワークを介して通信を行うための各種の制御を行うものである。この通信部196を用いることで、生成された立体視用画像データをネットワークを介して送信することができる。
【0191】
処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの各種の処理を行う。この場合、処理部100は、記憶部170内の主記憶部172をワーク領域として使用して、各種の処理を行う。この処理部100の機能は、各種プロセッサ(CPU、DSP等)又はASIC(ゲートアレイ等)などのハードウェアや、プログラム(ゲームプログラム)により実現できる。
【0192】
処理部100は、ゲーム処理部110、判定部112、画像生成部120、音生成部130を含む。
【0193】
ここでゲーム処理部110は、操作部160(ゲームコントローラ)からの操作データに基づいて種々のゲーム処理を行う。このゲーム処理としては、ゲーム開始条件に基づいてゲームを開始する処理、ゲームを進行させる処理、ゲームに登場するオブジェクト(表示物)を配置する処理、オブジェクトの移動情報(位置、速度、加速度)や動作情報(モーション情報)を求める処理、オブジェクトを表示するための処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了させる処理などがある。
【0194】
判定部112は図2等で説明した種々の判定処理を行う。即ち、検知デバイスからの検知結果に基づいて、立体視表示物と移動部材との位置関係を判定する処理を行う。そして判定結果に基づいて、景品の払い出しが行われたり、ゲーム結果の演算が行われる。
【0195】
画像生成部120は、処理部100で行われる種々の処理の結果に基づいて画像を生成し、ディスプレイ190に出力する。音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。
【0196】
画像生成部120は立体視用画像生成部122を含む。立体視用画像生成部122は、左目用視点位置(左目用仮想カメラ)から見える画像である第1の左目用画像に対して、基準面での画像のパースペクティブを無くすための補正処理を施して、第2の左目用画像を生成する。また、右目用視点位置(右目用仮想カメラ)から見える画像である第1の右目用画像に対して、基準面での画像のパースペクティブを無くすための補正処理を施して、第2の右目用画像を生成する。
【0197】
この場合の補正処理は、テクスチャマッピング部124が図32に示すようなテクスチャマッピング処理を行うことで実現される。
【0198】
即ち、パースペクティブのついたテクスチャ画像TEX(第1の左目用画像、第1の右目用画像)を、長方形(正方形を含む広義の意味の長方形)のポリゴンPLG(プリミティブ面)にマッピングする。具体的には、テクスチャ画像TEXのテクスチャ座標(TX1、TY1)、(TX2、TY2)、(TX3、TY3)、(TX4、TY4)を、ポリゴンPLGの頂点VX1、VX2、VX3、VX4にコーディネートして、テクスチャ画像TEXをポリゴンPLGにマッピングする。これにより、基準面の画像のパースペクティブが無くなった画像を生成できる。そして、このようなテクスチャマッピング処理を、第1の左目用画像、第1の右目用画像のそれぞれについて行うことで、立体視用画像生成のための第2の左目用画像、第2の右目用画像を生成する。
【0199】
なお、立体視用画像生成部122は、左目用視点位置とオブジェクトの各点を結ぶ投影方向で、基準面に対してオブジェクトの各点を投影してレンダリングすることで、左目用画像を生成し、右目用視点位置とオブジェクトの各点を結ぶ投影方向で、基準面に対してオブジェクトの各点を投影してレンダリングすることで、右目用画像を生成してもよい。
【0200】
次に立体視用画像生成部122は、第2の左目用画像(左目用画像)と第2の右目用画像(右目用画像)とに基づいて立体視用画像を生成する。例えば、第2の左目用画像(左目用画像)と第2の右目用画像(右目用画像)をアナグリフ処理により合成して、立体視用画像を生成し、ディスプレイ190に出力する。この場合には、プレーヤは、例えば赤の色フィルタと青の色フィルタが左目、右目に設けられた眼鏡をかけて、ゲームをプレイすることになる。
【0201】
或いは、立体視用画像生成部122が、第2の左目用画像(左目用画像)と第2の右目用画像(右目用画像)を異なるフレームでディスプレイ190に出力する処理を行い、立体視を実現してもよい。この場合には、プレーヤは、フレームに同期してシャッターが開閉するシャッター付き眼鏡をかけて、ゲームをプレイすることになる。
【0202】
或いは、眼鏡無し立体視の場合には、第2の左目用画像(左目用画像)と第2の右目用画像(右目用画像)とを交互に短冊状に配置することで、立体視用画像を生成し、ディスプレイ190に出力する。この場合には、レンチキュラーレンズなどの特殊レンズをディスプレイ190に備え付けることで、立体視を実現する。
【0203】
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。
【0204】
例えば、明細書又は図面中の記載において広義な用語(遊戯装置、移動部材、センサ、器具、観者等)として引用された用語(景品獲得装置、獲得部材・移動体、エンコーダ、眼鏡、プレーヤ等)は、明細書又は図面中の他の記載においても広義な用語に置き換えることができる。
【0205】
また、左目用画像、右目用画像、立体視用画像の生成手法も、本実施形態で説明したものに限定されず、種々の変形実施が可能である。
【0206】
また本実施形態で説明した第1、第2の立体視方式と均等な方式で、立体視用画像を生成する場合も本発明の範囲に含まれる。
【0207】
また本発明の遊戯装置では、第1、第2の立体視方式以外の方式で立体視用画像を生成して、表示又は印刷してもよい。
【0208】
また本発明は図1に示すような景品獲得装置や図11(A)(B)のような遊戯装置以外の遊戯装置(例えばパチンコ装置、メダルゲーム装置)にも適用できる。
【0209】
また、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。
【図面の簡単な説明】
【図1】本実施形態の遊戯装置の例である。
【図2】本実施形態の遊戯装置の例である。
【図3】図3(A)(B)は遊戯装置の他の例である。
【図4】図4(A)(B)は移動部材の例である。
【図5】図5(A)(B)(C)は画像切り替えによる景品変更手法やタッチパネルを用いる手法の説明図である。
【図6】図6(A)(B)(C)は巻き取り機構やスイッチ素子や近接センサを用いる手法の説明図である。
【図7】図7(A)(B)は移動機構にセンサを設ける手法の説明図である。
【図8】図8(A)(B)はセンサ面の交差位置を検知する手法の説明図である。
【図9】図9(A)(B)は検知デバイスとしてカメラを用いる手法の説明図である。
【図10】図10(A)(B)は視点固定部を設ける手法の説明図である。
【図11】図11(A)(B)は移動部材として移動体を用いる遊戯装置の例である。
【図12】図12(A)(B)(C)は判定領域に確率情報を設定する手法の説明図である。
【図13】第1の立体視方式のフローチャートである。
【図14】第1の立体視方式の説明図である。
【図15】左目用画像IL1の一例である。
【図16】右目用画像IR1の一例である。
【図17】左目用画像IL2の一例である。
【図18】右目用画像IR2の一例である。
【図19】立体視用画像(アナグリフ画像)の一例である。
【図20】図20(A)(B)(C)はパースペクティブを無くす補正処理の説明図である。
【図21】本実施形態により得られた立体視用画像の特徴の説明図である。
【図22】複数の基準面を設ける手法の説明図である。
【図23】複数の基準面を設ける手法のフローチャートである。
【図24】複数の基準面を設ける手法の説明図である。
【図25】第2の立体視方式の説明図である。
【図26】図26(A)(B)(C)は第2の立体視方式の説明図である。
【図27】図27(A)(B)は従来の方式の説明図である。
【図28】レンチキュラーレンズを用いる手法の説明図である。
【図29】レンチキュラーレンズを用いる手法の説明図である。
【図30】視点位置の設定手法の説明図である。
【図31】画像生成装置の構成例である。
【図32】テクスチャマッピングを用いた補正処理の説明図である。
【符号の説明】
10 ディスプレイ、11 第2のディスプレイ、12 印刷物、
13-1〜13-4 巻き取り機構、14-1、14-2 スイッチ素子、
15 近接センサ、16-1、16-2 検知対象、18 判定領域、
20 移動部材、22 移動体、30 視点固定部、40 操作部、
50 払い出し口、60 移動機構、62 移動ユニット、
63、64、65 エンコーダ、70 検知デバイス、
72 カメラ、74 センサ面形成枠、75 センサ面、
80 判定部、90 払い出し機構、
SOB、SOB1〜SOB8 立体視表示物
VPL 左目用視点位置、VPR 右目用視点位置、
OB 物体(オブジェクト、被写体)、BS(BS1、BS2) 基準面、
IL1 第1の左目用画像、IR1 第1の右目用画像、
IL2 第2の左目用画像、IR2 第2の右目用画像、
IL 左目用画像、IR 右目用画像、
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an amusement device.
[0002]
[Background]
2. Description of the Related Art Conventionally, a prize acquisition device (a prize machine) is known in which a player operates a crane-type acquisition member (moving member in a broad sense) to grab a prize. In this prize acquisition device, a prize placing table on which a prize is placed is surrounded by a transparent plate or a semicircular member. Then, the player operates the operation unit to move the crane-type capture member up, down, left, and right in the space on the prize placing table, and grabs the prize with the capture member to enjoy the game.
[0003]
Conventionally, a left-eye image taken with a camera corresponding to the left eye and a right-eye image taken with a camera equivalent to the right eye are prepared, and these images are synthesized by anaglyph processing, etc. A technique for generating a visual image is also known.
[0004]
[Patent Document 1]
JP-A-61-16368
[Patent Document 2]
JP 2000-56411 A
[0005]
[Problems to be solved by the invention]
However, in the past prize acquisition devices (game devices in a broad sense), real products that exist in the real world have been used as prizes. For this reason, there has been a problem that maintenance work such as rearrangement and replacement of prizes is complicated and time-consuming. In addition, there is a problem that a large product that cannot be placed on the prize placing table cannot be used as a prize.
[0006]
The conventional stereoscopic method has the following problems.
[0007]
That is, humans feel the three-dimensional effect of an object. (1) Binocular parallax (gaze angle shift) in which the retina image is shifted due to spatial separation of the left and right eyes, (2) This is caused by three physiological functions: convergence, which is a function in which the left and right eyes face inward, and (3) focus adjustment (focal length) in which the lens thickness responds to the distance to the object. Humans feel a three-dimensional feeling by processing these three physiological functions, binocular parallax, convergence, and focus adjustment, in the brain.
[0008]
The relationship between these three physiological functions is usually related in the brain. Therefore, if an error or contradiction arises in this relationship, the brain may forcibly associate with the solid, causing a situation where it feels unnatural or cannot be recognized as a solid.
[0009]
However, in the conventional stereoscopic vision system, stereoscopic vision is expressed using only binocular parallax and convergence. For this reason, the focus (focal length) is substantially constant in the plane of the stereoscopic image (display screen, print surface), whereas binocular parallax and convergence shift occur in most places of the stereoscopic image. As a result, it was impossible to achieve a stereoscopic view that was easy on the human brain.
[0010]
The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an unprecedented type of game apparatus that effectively uses stereoscopic vision.
[0011]
[Means for Solving the Problems]
The present invention includes a display for displaying a stereoscopic image, a moving member that moves in a display screen side space of the display, a stereoscopic display object that is virtually displayed on the display screen side space of the display based on the stereoscopic image, The present invention relates to a game device including a detection device for detecting a positional relationship with a moving member and a determination unit that determines a positional relationship between a stereoscopic display object and the moving member based on a detection result from the detection device.
[0012]
In the present invention, a stereoscopic image is displayed on the display, and thereby a stereoscopic display object is virtually displayed (virtual setting) in the display screen side space. That is, as viewed from the player (viewer in a broad sense), the stereoscopic display object is virtually displayed as if there is a real solid there. In the present invention, the moving member is movable in the display screen side space, and the determination unit determines the positional relationship between the stereoscopic display object and the moving member based on the detection result from the detection device (the relationship of the positional information). , Direction information relationship, contact relationship, hit relationship, etc.).
[0013]
As described above, in the present invention, a game that can be enjoyed by determining the positional relationship between a moving member that actually exists and a stereoscopic display object that is virtually displayed like a real solid (a prize acquisition game, a moving object). Games). Therefore, an unprecedented type of game device can be provided.
[0014]
The stereoscopic image may be generated in real time and displayed on the display, or the stereoscopic image data stored in the image memory or the like may be read and displayed on the display. It is desirable to further provide an image generation unit that generates a stereoscopic image.
[0015]
In the present invention, the stereoscopic display object is a display object representing a prize given to the player when the stereoscopic display object and the moving member have a given positional relationship, and the stereoscopic display object is displayed on the display. By switching the viewing image, at least one of the type, arrangement, and number of prizes to be captured by the player may be changed.
[0016]
In this way, it is possible to save the labor of rearranging and exchanging prizes, and to improve the maintenance efficiency of the game apparatus.
[0017]
The prize may be a reduced display of the actual product. The stereoscopic image may be switched manually by an operator at the amusement facility, or automatically by a program, a timer, or the like.
[0018]
In the present invention, the detection device is a touch panel provided integrally with a display, and the determination unit determines a positional relationship between the stereoscopic display object and the moving member based on a touch position of the moving member with respect to the touch panel. You may make it determine.
[0019]
In this way, the positional relationship can be simply determined by effectively using the touch panel mechanism.
[0020]
The present invention also provides a printed material on which a stereoscopic image is printed, a moving member that moves in a print surface side space of the printed material, and a stereoscopic display object that is virtually displayed on the printed surface side space of the printed material based on the stereoscopic image. And a game device including a detection device for detecting a positional relationship with the moving member, and a determination unit that determines a positional relationship between the stereoscopic display object and the moving member based on a detection result from the detection device. To do.
[0021]
In the present invention, the stereoscopic image is displayed on the printed material, and thereby the stereoscopic display material is virtually displayed in the print surface side space. In the present invention, the moving member is movable in the printing surface side space, and the determination unit determines the positional relationship between the stereoscopic display object and the moving member based on the detection result from the detection device.
[0022]
Thus, according to the present invention, it is possible to realize a game that can be enjoyed by determining the positional relationship between a moving member that actually exists and a stereoscopic display object that is virtually displayed as if it were a real solid. Therefore, an unprecedented type of game device can be provided.
[0023]
Further, the present invention includes a winding mechanism that winds up the printed material in a given direction, and takes up the printed material by the winding mechanism and moves the printed surface so that the stereoscopic view virtually displayed in the print surface side space is displayed. At least one of the type, arrangement, and number of display objects may be changed.
[0024]
In this way, it is possible to save the labor of rearranging and replacing prizes and the like, and the maintenance efficiency of the game apparatus can be increased.
[0025]
Further, in the present invention, the detection device is a switch element provided on the back side of the printed surface of the printed matter, and the determination unit and the stereoscopic display object based on whether the switch element is pressed by the moving member You may make it determine the positional relationship with a moving member.
[0026]
Note that the switch element may be fixed on the back surface of the printing surface, or may be fixed on the casing on the back surface side of the printing surface (the casing of the game device).
[0027]
In the present invention, the detection device is a proximity sensor provided on the moving member, the detection target of the proximity sensor is provided on the back side of the printed surface of the printed matter, and the determination unit is configured to detect the proximity of the moving member. The positional relationship between the stereoscopic display object and the moving member may be determined based on whether the sensor has detected a detection target on the back side of the printed surface of the printed material.
[0028]
The detection target may be fixed on the back side of the printing surface, or may be fixed on the casing on the back side of the printing surface.
[0029]
In the present invention, the detection device is provided in a moving mechanism that moves the moving member, and is a sensor for detecting a moving position of the moving member, and the determination unit is based on a detection result from the sensor, The positional relationship between the stereoscopic display object and the moving member may be determined.
[0030]
The movement position detected by the sensor may be a one-dimensional position, a two-dimensional position, or a three-dimensional position.
[0031]
In the present invention, the detection device is a sensor for detecting an intersection position between a given sensor surface and a moving member, and the determination unit is configured to display a stereoscopic display object based on a detection result from the sensor. The positional relationship between the moving member and the moving member may be determined.
[0032]
The sensor surface can be set and arranged in a space on the display screen side or a space on the print surface side so as to be parallel to the display screen or the print surface.
[0033]
Further, in the present invention, a viewpoint fixing unit may be included which is provided at a position overlooking the display screen of the display or the printed surface of the printed material and fixes the viewpoint of the player.
[0034]
In this case, the viewpoint fixing unit may further have a function of glasses (instrument) for stereoscopic display. The viewpoint position set by the viewpoint fixing unit may be adjustable.
[0035]
In the present invention, an operation unit may be included that is provided on the position side overlooking the display screen of the display or the print surface of the printed material, and for the player to operate the moving member.
[0036]
In this way, the player can perform various game operations by operating the operation unit while overlooking the display screen and the print surface.
[0037]
In the present invention, the moving member is a capturing member for capturing a prize given to a player when the stereoscopic display object and the moving member have a given positional relationship, and the stereoscopic display object Is a display object representing a prize, and the determination unit gives the player a prize based on whether or not the stereoscopic display object representing the prize and the moving member as the capture member have a given positional relationship. It may be determined whether or not.
[0038]
The giving of the prize to the player may be realized by paying out the prize itself to the player, or by giving out to the player a prize ticket (premium designation information) that can be exchanged for the prize. Also good.
[0039]
Further, in the present invention, the moving member is a moving body that moves by operation of the operation unit by a player, the stereoscopic display object is a display object that represents a hit object with the moving body, and the determination unit includes: The game result of the player may be calculated based on whether or not the stereoscopic display object representing the hit object and the moving member that is the moving body have a given positional relationship.
[0040]
In this way, for example, when a moving member that is a moving object makes a virtual hit to a stereoscopic display object that is a hit object, the player's score can be added or subtracted.
[0041]
In the present invention, a determination area for determining the positional relationship between the moving member and the virtual display object is set, and the determination unit determines whether the player is based on the probability information associated with each area that divides the determination area. It may be possible to determine whether or not to give a prize to the player, or to calculate the game result of the player.
[0042]
In this case, the determination area can be set on the display screen or the printing surface. Alternatively, a determination area may be set on the sensor surface.
[0043]
In the present invention, the stereoscopic image is generated by a second left-eye image and a second right-eye image, and the second left-eye image is an image on a reference plane of the first left-eye image. The second right-eye image eliminates the perspective of the image on the reference plane of the first right-eye image. The correction process is performed on the first left-eye image to eliminate the perspective of the first right-eye image. Therefore, the correction processing may be generated by performing correction processing for the first right-eye image.
[0044]
According to the present invention, the correction process for eliminating the perspective of the image on the reference plane (for example, the image of the reference plane itself or the image of the object in the portion in contact with the reference plane) is performed. A second left-eye image is generated from the image, and a second right-eye image is generated from the first right-eye image. Then, a stereoscopic image is generated based on the second left-eye image and the second right-eye image. Thereby, there is little contradiction of focus adjustment and a feeling of depth, and more natural stereoscopic vision can be realized.
[0045]
The first left-eye image can be generated by using a camera (real camera or virtual camera) set at the left-eye viewpoint position, and the first right-eye image is generated by a camera (real camera or virtual camera) set at the right-eye viewpoint position. (Virtual camera).
[0046]
In the present invention, the stereoscopic image is generated by a left-eye image and a right-eye image, and the left-eye image is a projection direction connecting the left-eye viewpoint position in the object space and each point of the object, and the line-of-sight direction Is generated by projecting each point of the object onto a non-orthogonal reference plane and rendering it on the reference plane, and the right-eye image is a projection direction connecting the right-eye viewpoint position in the object space and each point of the object Then, each point of the object may be projected onto a reference plane that is non-orthogonal in the line-of-sight direction and rendered on the reference plane.
[0047]
In this way, there is little contradiction between focus adjustment and a feeling of depth, and more natural stereoscopic vision can be realized. The reference plane is, for example, a plane that is not orthogonal to the line-of-sight direction (the direction connecting the midpoint of the left-eye viewpoint position and the right-eye viewpoint position and the gazing point of the virtual camera). In other words, it is a surface different from the perspective conversion screen orthogonal to the line-of-sight direction.
[0048]
In the present invention, the stereoscopic image is generated by a left-eye image and a right-eye image including an image of an object placed on a reference plane, and the stereoscopic image is generated by the left-eye image and the right-eye image. The image may be an image that matches the object image at the reference plane position, and an image in which the deviation between the object image of the left-eye image and the object image of the right-eye image increases as the distance from the reference plane increases.
[0049]
According to the present invention, the object image of the left-eye image and the object image of the right-eye image match at the reference plane position. For example, the display position and print position of the object image (such as a prize image) of the image for the left eye and the image for the right eye match at the reference plane position. The further away from the reference plane (the further away from the reference plane in a predetermined direction), the larger the deviation between the object image of the left-eye image and the object image of the right-eye image (for example, a deviation in display position or print position). As a result, it is possible to realize natural and realistic stereoscopic viewing that has been difficult to obtain with conventional stereoscopic viewing.
[0050]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, this embodiment will be described.
[0051]
In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
[0052]
1. Configuration of game equipment
FIG. 1 and FIG. 2 show an example of the game device of this embodiment (in a narrow sense, a prize acquisition device, a crane game device). In FIGS. 1 and 2, etc., the X and Y axes are axes parallel to the horizontal plane, and the Z axis is an axis parallel to the vertical plane. For example, on the basis of a player who plays the game device, the X axis, the Y axis, and the Z axis are axes along the left-right direction, the front-rear direction, and the up-down direction, respectively.
[0053]
The game device includes a display 10 that displays a stereoscopic image. The display 10 can be realized by hardware such as a liquid crystal display (LCD), an organic EL display, an inorganic EL display, a plasma display, or a CRT (CRT). The display 10 displays a stereoscopic image (final composite image for virtually displaying a stereoscopic display object) generated by, for example, a stereoscopic method described later. This stereoscopic image is generated from a left-eye image and a right-eye image having parallax. In addition, the stereoscopic image may be generated using a real image captured by a camera, or may be generated using a CG (computer graphics) image.
[0054]
The display 10 may be set and arranged so that its display screen is parallel to the horizontal plane, or the display screen is at an angle α (0 degrees ≦ α ≦ 45 degrees, 0 degrees ≦ α ≦) with respect to the horizontal plane. (90 degrees) may be set and arranged. A second display may be provided in addition to the display 10. In this case, the second display can be set and arranged so that its display screen is parallel to the vertical plane.
[0055]
In the present embodiment, the stereoscopic display object SOB is virtually displayed in the space on the display screen side of the display 10 (the space above the display 10 in FIG. 1) by providing the display 10 that displays such a stereoscopic image. Is displayed. That is, the stereoscopic display object SOB appears to be lifted up as if it were a real solid as viewed from the player's viewpoint. The stereoscopic display object SOB corresponds to a display object on the display screen (display object subjected to stereoscopic processing) on the display 10, and is a display object representing, for example, a prize.
[0056]
However, the SOB does not actually exist in the display screen side space. That is, the stereoscopic display object SOB can be obtained by viewing a display object (left-eye image, right-eye image, stereoscopic image) on the display 10 through glasses with color filters (viewpoint fixing unit 50) or the like. Due to the illusion of parallax, virtual display (virtual setting, virtual arrangement) is performed as if it existed in the display screen side space.
[0057]
In the present embodiment, a printed material (stereoscopic printed material) may be used instead of the display 10. That is, a printed matter in which a stereoscopic image is printed on a print medium (paper, lens sheet, etc.) is arranged at the position of the display 10 in FIG. Then, the stereoscopic display object SOB may be virtually displayed in the space on the printing surface side using this stereoscopic print. Therefore, in the present specification, the terms “display” and “display screen” can be replaced with the terms “printed material” and “printing surface”, and conversely the terms “printed material” and “printing surface” are “display” and “display”. It can be replaced by the term “screen”.
[0058]
The game device includes a moving member 20 (capture member, moving body in a narrow sense). The moving member 20 moves in a space on the display screen side of the display 10. Specifically, the player moves freely in a desired direction in the space on the display screen side (the space above the virtual prize placing table) by the operation of the player using the operation unit 40.
[0059]
As the moving member 20 (premium catcher), an arbitrary shape can be used. Further, the moving direction of the moving member 20 may be all directions in the X, Y, and Z axis directions in FIG. 1, or may be any one or two directions in these X, Y, and Z axis directions. Good.
[0060]
The game device includes a viewpoint fixing unit 30 (a viewing window in a narrow sense). This viewpoint fixing | fixed part 30 (viewpoint setting part) is provided in the position which looks down at the display screen (printing surface) of the display 10 (printed material) (bird's-eye view). By providing the viewpoint fixing unit 30, the player's viewpoint (line-of-sight direction) can be fixed at a desired position.
[0061]
The game device includes an operation unit 40. The operation unit 40 is provided on the player's overhead view side (front side in FIG. 1). The operation unit 40 also includes a button (or lever) for instructing the moving direction of the moving member 20, a button for instructing capturing by the moving member 20, a button for instructing the start of the game, An inlet or the like can be provided. The type and shape of the members (buttons and levers) constituting the operation unit 40 are arbitrary. Further, the operation function of the operation unit 40 may be realized by a voice recognition operation.
[0062]
The game device includes a payout opening 50. A prize is paid out to the payout port 50 by a known payout mechanism 90. Specifically, when the stereoscopic display object SOB (prize) is successfully captured by the moving member 20 (prize catcher), the prize corresponding to the SOB (prize displayed by the SOB) is paid out from the payout opening 50. A gift certificate or the like may be issued without providing the payout opening 50. Then, in the amusement facility, a prize may be given to the player in exchange for the prize ticket.
[0063]
The game apparatus includes a known moving mechanism 60 for moving the moving member 20. The moving mechanism 60 moves the moving member 20 in at least one of the X, Y, and Z axis directions.
[0064]
The game device includes a detection device 70 (detection unit). The detection device 70 includes a positional relationship between the stereoscopic display object SOB that is virtually displayed on the display screen (printing surface) side space of the display 10 (printed material) based on the stereoscopic image and the moving member 20 (SOB and moving member). 20 position information or direction information). More specifically, the detection device 70 detects whether or not the moving member 20 has virtually contacted (hit, captured) the stereoscopic display object SOB. For example, the detection device 70 detects the position information (direction information) of the moving member 20, and compares the position information of the moving member 20 with the position information of the virtual display object SOB (position information registered in advance in a memory or the like). This can be achieved. When the virtual contact is detected and the determination unit 80 determines that the stereoscopic display object SOB has been captured, the prize corresponding to the SOB is paid out from the payout port 50 by the payout mechanism 90.
[0065]
Various types of detection devices 70 and detection methods are conceivable as described later. Further, any various places can be considered as the place where the detection device 70 is provided.
[0066]
The game device includes a determination unit 80. The determination unit 80 determines the positional relationship between the stereoscopic display object SOB and the moving member 20 based on the detection result from the detection device 70.
[0067]
For example, when the game device is a prize capturing device (a prize machine), the moving member 20 functions as a capturing member (crane, gripping member), and the stereoscopic display object SOB is a display object representing the prize. In this case, the determination unit 80 determines whether or not to give a prize to the player based on whether or not the stereoscopic display object SOB representing the prize and the moving member 20 as the capture member have a given positional relationship. Determine. In this case, the determination is made in consideration of, for example, probability information as described later. If the determination unit 80 determines that a prize is to be granted, the determination unit 80 instructs the payout mechanism 90 to pay out the prize, and thereby the prize is paid out from the payout port 50.
[0068]
On the other hand, when the game device is a device in which the player operates the moving body and enjoys it, the moving member 20 becomes a moving body (simulating a car, an airplane, etc.), and the stereoscopic display object SOB hits the moving body. It becomes a target object (an object falling on the road, a wall, a tree, a house, etc.). In this case, the determination unit 80 determines whether or not the player's game result (score, win / loss) is based on whether or not the stereoscopic display object SOB representing the hit object and the moving member 20 that is the moving body have a given positional relationship. ) Is calculated. Then, based on the game result, processing for displaying the player's ranking and score, processing for instructing payout of prizes, and the like are performed.
[0069]
The function of the determination unit 80 can be realized by a program that operates on a CPU (processor), for example. Alternatively, the function of the determination unit 80 may be realized by various electronic elements such as an ASIC (dedicated circuit), a switch element, a resistor element, and a capacitor element.
[0070]
Further, the moving mechanism 80 of the moving member 20 can be variously modified as well as the hanging mechanism as shown in FIGS. For example, as shown in FIG. 3A, the moving member 20 may be moved only in the XY plane (horizontal plane). In this case, for example, a camera 72 that detects position information (X, Y coordinates) of the moving member 20 by image recognition can be used as the detection device 70.
[0071]
For example, as shown in FIG. 3B, a stereoscopic display object SOB is virtually displayed by providing a second display 11 (second printed material) in addition to the first display 10 (first printed material). May be. For example, the display screen of the second display 11 is set and arranged parallel to the vertical plane. Then, in a stereoscopic method using a plurality of reference planes, which will be described later, a stereoscopic image corresponding to the first reference plane (BS1) is displayed on the first display 10 (first printed matter), and the second reference plane is displayed. The stereoscopic image corresponding to (BS2) is displayed on the second display 11 (second printed matter). Thereby, the stereoscopic display object SOB representing a standing character or the like can be effectively displayed virtually.
[0072]
Further, the shape of the moving member 20 is not limited to the crane shape as shown in FIG. For example, the shape as shown in FIG. 4B may be used, or other shapes may be used.
[0073]
As described above, in the present embodiment, the prize is represented by the stereoscopic display object SOB, not the actual product that actually exists. For this reason, it is possible to reduce the labor of maintenance work such as prize rearrangement work and replacement work, and to improve the efficiency of operation of the amusement facility. Further, for example, if a product that has been reduced and photographed is displayed on a display, even a large product that cannot be placed on the prize placing table can be displayed as a prize, and an unprecedented game machine can be realized.
[0074]
In order to give the player a feeling as if the real prize has been acquired, at the moment of the prize acquisition, the illumination is dimmed or conversely brightened so that the stereoscopic display object SOB cannot be seen temporarily. You may perform an effect. Alternatively, the virtual display of the stereoscopic display object may be turned off by switching from the stereoscopic display to the two-dimensional image display (display of the image not subjected to the stereoscopic processing) at the moment of acquiring the prize.
[0075]
2. Display image switching
In the present embodiment, the type, arrangement, or number of prizes can be changed by switching the stereoscopic image displayed on the display.
[0076]
For example, in FIG. 5A, the tank model is displayed as a prize by displaying a stereoscopic image of the tank model on the display 10. On the other hand, in FIG. 5B, the display content of the display 10 is changed and a stereoscopic image of the airplane model is displayed. Thereby, the prize to be exhibited can be switched from the tank model to the airplane model.
[0077]
The display image on the display 10 can be switched only by changing the image data (premium image data) read from the memory. For example, an option screen for maintenance is displayed on the display 10, and an operator at the amusement facility (game center) switches the display mode of the premium image on this option screen. In this way, maintenance work such as rearrangement and replacement of prizes can be reduced.
[0078]
Further, for example, the elapsed time may be measured using a timer (time measuring unit) included in the game device, and the premium image on the display 10 may be automatically switched with the passage of time. In this way, the rearrangement and replacement work of prizes can be further simplified, and the effect and visual effect of the game device can be improved.
[0079]
An object representing a prize may be operated based on motion data. For example, when a model tank is a prize, a part object such as a gun barrel or a wheel of an object tank is moved based on the motion data. In this way, it is possible to realize a “moving prize” that has been difficult to realize with conventional prize acquisition devices, and to further enhance the effect and visual effect of the prize acquisition apparatus.
[0080]
In addition, when displaying a prize image on the display 10, the touch panel integrally provided in the display 10 can be used as the detection device 70 of FIG.
[0081]
That is, as shown in FIG. 5B, the touch position (X coordinate, Y coordinate) of the moving member 20 with respect to the display 10 is detected using a known touch panel mechanism. Based on the detected touch position, the positional relationship between the stereoscopic display object SOB and the moving member 20 is determined. That is, when the display position of the stereoscopic display object SOB (position registered in the memory in advance) matches the touch position (more specifically, the touch position enters a given range including the display position of the SOB). When the moving member 20 is in virtual contact with the stereoscopic display object SOB. Then, it is determined whether or not the stereoscopic display object SOB has been successfully acquired based on probability information described later. If the acquisition is successful, a prize corresponding to the SOB is paid out.
[0082]
If the touch panel display 10 is effectively used in this way, the effect of changing the type of the prize by image switching as shown in FIGS. 5A and 5B and the positional relationship between the SOB and the moving member 20 are determined. The effect of simplification can be achieved at the same time.
[0083]
3. Stereoscopic display using printed materials
The virtual display of the stereoscopic display object can also be realized by using a printed material on which a stereoscopic image is printed instead of the display 10. That is, for example, a rectangular printed material is arranged at a position where the display 10 of FIG. 1 is arranged. The printed material in this case may be an image obtained by combining the left-eye image and the right-eye image by anaglyph processing and printed on a print medium, or the left-eye image and the right-eye image are printed in a strip shape. The printed material may be a combination of a print medium and a special lens such as a lenticular lens.
[0084]
When using a printed material for virtual display of a stereoscopic display object, for example, it is desirable to provide winding mechanisms 13-1 and 13-2 as shown in FIG. That is, the printed material 12 is wound up in a given direction (in the direction along the X axis in FIG. 6A) using the winding mechanisms 13-1 and 13-2. Then, by winding up the printed matter 12 by the winding mechanisms 13-1 and 13-2 and moving the printed surface, the types and arrangement of the stereoscopic display objects SOB1 to SOB3 that are virtually displayed in the space on the printed surface side, Or change the number.
[0085]
In this way, even when the printed material 12 is used, the type and arrangement of the prize can be freely adjusted just by winding the printed material 12 as in the case of using the display 10 as shown in FIGS. You can change it. This can reduce the maintenance work such as rearrangement and replacement of prizes.
[0086]
When a printed material is used for virtual display of a stereoscopic display object, a switch element or a proximity sensor can be used as the detection device 70 in FIG.
[0087]
For example, as shown in FIG. 6B, the switch elements 14-1 and 14-2 are arranged on the back side of the printed surface of the printed material 12 (the surface on which the display material corresponding to SOB1 and SOB2 is printed). In this case, the switch elements 14-1 and 14-2 are provided at positions corresponding to the positions of the stereoscopic display objects SOB1 and SOB2. That is, the switch elements 14-1 and 14-2 are arranged directly below the stereoscopic display objects SOB1 and SOB2.
[0088]
Then, based on whether or not the switch elements 14-1 and 14-2 are pressed by the moving member 20 moving in a given direction (for example, the Z-axis direction), the determination unit 80 in FIG. The positional relationship of SOB2 is determined. Specifically, in FIG. 6B, when the moving member 20 presses the switch element 14-1, it is determined that the moving member 20 and the stereoscopic display object SOB1 are in virtual contact. Then, a prize corresponding to SOB1 is paid out. Similarly, when the moving member 20 presses the switch element 14-2, it is determined that the moving member 20 and the stereoscopic display object SOB2 are in virtual contact. Then, a prize corresponding to SOB2 is paid out.
[0089]
In FIG. 6C, the proximity sensor 15 is embedded in the moving member 20. Further, detection objects 16-1 and 16-2 of the proximity sensor 15 are arranged on the back side of the printed surface of the printed matter 12. In this case, the detection targets 16-1 and 16-2 are provided at positions corresponding to the positions of the stereoscopic display objects SOB1 and SOB2. That is, the detection objects 16-1 and 16-2 are arranged directly below the stereoscopic display objects SOB1 and SOB2.
[0090]
Then, based on whether or not the proximity sensor 15 of the moving member 20 moving in a given direction (for example, the Z-axis direction) has detected the detection targets 16-1 and 16-2, the determination unit 80 in FIG. The positional relationship between the visual display objects SOB1 and SOB2 is determined. Specifically, in FIG. 6C, when the moving member 20 detects the detection target 16-1, it is determined that the moving member 20 and the stereoscopic display object SOB1 are in virtual contact. Then, a prize corresponding to SOB1 is paid out. Similarly, when the moving member 20 detects the detection target 16-2, it is determined that the moving member 20 and the stereoscopic display object SOB2 are in virtual contact. Then, a prize corresponding to SOB2 is paid out.
[0091]
In this case, the material of the detection objects 16-1 and 16-2 is different from the material of the housing 17 of the game apparatus. It is desirable that the materials of the detection objects 16-1 and 16-2 are also different from each other. For example, the material of the casing 17 and the detection objects 16-1 and 16-2 are iron, stainless steel, and aluminum, respectively. A sensor using magnetism is used as the proximity sensor 15 provided on the moving member 20. The proximity sensor 15 detects the difference in magnetism of iron, stainless steel, and aluminum, so that what is positioned below the proximity sensor 15 is a housing 17 (iron), a detection object 16-1 (stainless steel), and a detection object. Judge whether it is 16-2 (aluminum).
[0092]
4). Detection by detection device provided in moving mechanism
The detection device 70 of FIG. 2 may be provided in the moving mechanism 60 that moves the moving member 20. That is, a sensor (position sensor) that detects the movement position of the moving member 20 is used as the detection device 70. 2 determines the positional relationship between the stereoscopic display object SOB and the moving member 20 based on the moving position of the moving member 20 detected by this sensor.
[0093]
Specifically, as shown in FIG. 7A, for example, motors MX, MY, and MZ that move the moving member 20 along the X, Y, and Z axis directions are provided in the moving mechanism 60. The motor MX moves the moving unit 62 to which the moving member 20 is attached along the X-axis direction (left-right direction). The motor MY provided in the moving unit 62 moves (self-runs) the moving unit 62 along the Y-axis direction (front-rear direction). Further, the motor MZ provided in the moving unit 62 moves the moving member 20 along the Z-axis direction (vertical direction). The moving mechanism 60 may be a mechanism that moves the moving member 20 using a moving rail as shown in JP-A-61-16368, or a mechanism that moves the moving member 20 using a moving belt. There may be.
[0094]
As shown in FIG. 7B, the movement (position coordinates, movement distance) along the X, Y, and Z axes of the moving member 20 is detected by encoders 63, 64, and 65 that function as the detection device 70. The encoders 63, 64, and 65 in this case may be rotary encoders that detect the rotation of the motors MX, MY, and MZ using a rotation slit, and the X, Y, and Z axes by the motors MX, MY, and MZ A linear encoder that detects movement in the direction using a fixed slit may be used.
[0095]
Then, the determination unit 80 determines the positional relationship between the stereoscopic display object SOB and the moving member 20 based on detection results from the encoders 63, 64, and 65 (sensors in a broad sense). More specifically, the determination unit 80 determines the X, Y, and Z axis coordinate values (movement distances along the X, Y, and Z axes) of the moving member 20 based on the detection results from the encoders 63, 64, and 65. Ask. Then, by comparing the obtained coordinate value and the coordinate value of the stereoscopic display object SOB stored in the memory or the like, it is determined whether or not the moving member 20 has virtually contacted the stereoscopic display object SOB. When determining that the virtual contact has been made, the determination unit 80 instructs the payout mechanism 90 to pay out a prize.
[0096]
As described above, according to the method of detecting the movement of the moving member 20 by providing the detecting device 70 (sensor) in the moving mechanism 60, the positional relationship between the stereoscopic display object SOB and the moving member 20 is determined more accurately. be able to. Moreover, the installation space of the detection device 70 can be made more compact.
[0097]
5). Detection by crossing position of sensor surface
The detection device 70 in FIG. 2 may be a sensor that detects an intersection position between the sensor surface and the moving member 20. That is, a sensor surface parallel to the display screen (printing surface) is set as a space on the display screen (printing surface) side. In this case, the height of the sensor surface is set to a height that intersects the stereoscopic display object SOB, for example.
[0098]
And the determination part 80 determines the positional relationship of the stereoscopic display object SOB and the moving member 20 based on the detection result from a sensor (plane sensor). Specifically, based on the detection result from the sensor, the coordinate value (X, Y coordinate) of the intersection position between the sensor surface and the moving member 20 is obtained. Then, by comparing the obtained coordinate value and the coordinate value of the stereoscopic display object SOB stored in the memory or the like, it is determined whether or not the moving member 20 has virtually contacted the stereoscopic display object SOB. When determining that the virtual contact has been made, the determination unit 80 instructs the payout mechanism 90 to pay out a prize.
[0099]
FIGS. 8A and 8B show an example of a detection method for obtaining the intersection position between the sensor surface and the moving member 20.
[0100]
First, a sensor surface forming frame 74 as shown in FIG. The sensor surface forming frame 74 is provided in a space on the display screen (printing surface) side in parallel with the display screen (printing surface). The height of the sensor surface forming frame 74 is set to a height that intersects the stereoscopic display object SOB, for example.
[0101]
By providing this sensor surface forming frame 74, a two-dimensional sensor surface 75 is formed in the frame 74. In this case, a pair of sensors S1 and S2 are provided at both corners of the side SD1 of the sensor surface forming frame 74.
[0102]
The sensor S1 has a light emitting part and a light receiving part. The light emitting unit outputs infrared rays when the angle θ is between 0 degrees and 90 degrees, and the return light is received by the light receiving unit. Therefore, a reflecting plate is disposed on each side SD1 to SD4 of the sensor surface forming frame 74 so that the infrared light from the light emitting part of the sensor S1 is reflected to the light receiving part.
[0103]
Similarly to the sensor S1, the sensor S2 has a light emitting part and a light receiving part, and receives infrared return light emitted by itself when the angle θ is between 0 degrees and 90 degrees.
[0104]
A result of light received by the sensor S1 at an angle θ between 0 degrees and 90 degrees is obtained as an imaging IM1. On the other hand, the result of light received by the sensor S2 at an angle θ between 0 degrees and 90 degrees is obtained as the imaging IM2. In these image formations IM1 and IM2, shadowed portions can be determined as angles θ1 and θ2.
[0105]
Then, by using the obtained angles θ1 and θ2, as shown in FIG. 8B, the coordinates of the intersection position P (X, Y) between the moving member 20 and the sensor surface 75 can be obtained. And the virtual contact of the stereoscopic display object can be determined.
[0106]
Although FIGS. 8A and 8B have described the method of detecting the intersection position P (X, Y) using the two sensors S1 and S2, the intersection position P is detected using three or more sensors. May be.
[0107]
The detection device 70 in FIG. 2 may be a camera 72 as shown in FIG. For example, the viewing direction of the camera 72 is set to a direction along the Z axis. The moving member 20 and the stereoscopic display object SOB are photographed by the camera 72 from above. Then, a photographed image as shown in FIG. 9B is obtained by this photographing. Then, the determination unit 80 determines the overlap between the image of the moving member 20 and the image of the stereoscopic display object SOB by a known image recognition process using the captured image, and positions of the moving member 20 and the stereoscopic display object SOB. Determine the relationship. When the determination unit 80 determines that the moving member 20 and the stereoscopic display object SOB have virtually contacted each other, the determination unit 80 instructs the payout mechanism 90 to pay out the prize. A positional relationship may be determined by further providing a second camera whose viewing direction is parallel to the XY plane.
[0108]
6). Perspective fixing part
In the present embodiment, a viewpoint fixing unit 30 as shown in FIG. This viewpoint fixing | fixed part 30 is provided in the position which overlooks the display screen (printing surface) of the display 10 (printed material). By providing the viewpoint fixing unit 30, the player's viewpoint (line-of-sight direction) can be fixed at a desired position.
[0109]
In other words, in the present embodiment, as will be described later, even when viewed from a viewpoint that looks down on the display screen (viewpoint in the viewing direction that forms an angle θ with the display screen), a contradiction arises in the relationship between focus adjustment and binocular parallax. Adopts no stereoscopic system. In order to realize more realistic and realistic stereoscopic vision in this stereoscopic vision method, at the position assumed as the viewpoint position (left eye viewpoint position, right eye viewpoint position) when generating the stereoscopic image, It is desirable to fix the viewpoint of the player (viewer).
[0110]
Therefore, in the present embodiment, as shown in FIG. 10A, a viewpoint fixing unit 30 (viewpoint fixing member) for fixing the player's viewpoint to the assumed viewpoint position (left eye viewpoint position, right eye viewpoint position) is provided. Provided. More specifically, a viewing window is provided in a transparent member surrounding the prize arrangement space, and this viewing window functions as the viewpoint fixing unit 30. Further, a color filter (for example, a blue filter for the left eye and a blue filter for the right eye) for stereoscopically viewing the stereoscopic image synthesized by the anaglyph method is provided in the viewing window. In this way, the viewing window can have both the function of fixing the viewpoint and the function of stereoscopic glasses.
[0111]
Note that the viewpoint fixing unit 30 only needs to have a function of fixing at least the viewpoint, and is not limited to the observation window structure shown in FIG. For example, various structures such as a structure in which color filter glasses are attached to the support as shown in FIG.
[0112]
Further, instead of the function of the color filter, the eyeglasses of the viewpoint fixing unit 30 may be provided with a shutter function in which the left and right eye shutters are alternately opened and closed every predetermined period (for example, frame period).
[0113]
Further, in the stereoscopic viewing method using a special lens such as a lenticular lens, the viewpoint fixing unit 30 does not need to have the function of stereoscopic glasses, but only the function of fixing the viewpoint.
[0114]
The viewpoint fixing unit 30 only needs to be fixed at least when the player views the display screen (printing surface). The viewpoint fixing unit 30 may have a viewpoint position adjustment function. For example, in FIG. 10B, the viewpoint position may be moved and adjusted in at least one of the X, Y, and Z axes. Alternatively, the viewpoint position may be moved and adjusted along a straight line LN (a straight line without an angle θ with the display 10) in FIG.
[0115]
7). Game device using a moving body
In FIG. 1, although the prize acquisition apparatus using the prize acquisition member (crane, catcher) as the moving member 20 has been described, the game apparatus of the present embodiment is not limited to such a prize acquisition apparatus.
[0116]
For example, in FIG. 11A, the moving member 20 is a moving body 22 that moves by operating the operation unit 40 (handle) by the player. As the moving body 22 (game character), for example, a vehicle, an airplane, a tank, a person, a bullet, a ball, a monster or the like can be used.
[0117]
As shown in FIG. 11A, the printed matter 12 is provided under the moving body 22. The printed matter 12 is taken up by the winding mechanisms 13-1 to 13-4 as described with reference to FIG. 6A, whereby the printed surface of the printed matter 12 moves in the first direction (Y-axis direction). To do. The movable body 22 is movable along a second direction (X-axis direction) orthogonal to the first direction by the operation of the operation unit 40.
[0118]
A stereoscopic image is printed on the printed matter 12. As a result, as shown in FIG. 11B, stereoscopic display objects SOB1 to SOB8 are virtually displayed in the space on the printing surface side of the printed material 12. That is, SOB1 to SOB8 appear to float as if they were real solids as viewed from the player's viewpoint. For example, the stereoscopic display objects SOB1 to SOB4 are virtual hit objects of the moving body 22 (moving member in a broad sense) operated by the player.
[0119]
The determination unit 80 calculates a game result of the player based on whether or not the stereoscopic display objects SOB1 to SOB4 representing the hit object and the moving body 22 (moving member) have a given positional relationship. More specifically, for example, the player operates the operation unit 40 to move the moving body 22 in the left-right direction (X-axis direction). Then, if it is determined that the moving object 22 has made a virtual hit (virtual collision) on the stereoscopic display object SOB1, which is the hit object, points are added to the game result (score) of the player (for example, +30 points). On the other hand, when it is determined that the moving object 22 has virtually hit the stereoscopic display object SOB2, points are subtracted from the game result of the player (for example, −20 points). If it is determined that the moving object 22 has virtually hit the virtual display objects SOB3 and SOB4 representing the walls, points are subtracted from the game result of the player. Alternatively, when the moving body 22 virtually hits the walls SOB3 and SOB4, a reaction force that moves the moving body 22 in the opposite direction to the wall is generated in the handle that is the operation unit 40.
[0120]
By doing so, it is possible to realize an unprecedented game device in which the mobile object 22 and the stereoscopic display objects SOB1 to SOB4 can be hit to enjoy the game. Since the stereoscopic display objects SOB1 to SOB8 look as if they are real solids from the viewpoint of the player, the virtual reality of the player can be improved.
[0121]
In addition, the detection of the positional relationship between the moving body (moving member) and the stereoscopic display object can be realized by methods using various detection devices described in this specification.
[0122]
11A and 11B, a method of using a printed matter on which a stereoscopic image is printed has been described. However, FIGS. 11A and 11B are illustrated using a display on which a stereoscopic image is displayed. A game device as shown may be realized.
[0123]
8). Judgment using probability information
In FIG. 12A, if it is determined that the moving member 20 and the stereoscopic display object SOB are in virtual contact with each other, a prize is always given to the player, the game is not so interesting. Accordingly, a determination area 18 for determining the positional relationship between the moving member 20 and the virtual display object SOB is set, and based on the probability information set in the determination area 18, it is determined whether or not to give a prize to the player. It is desirable.
[0124]
For example, in FIG. 12B, a determination area 18 including the stereoscopic display object SOB as viewed from above is set on the display screen. The determination area 18 is divided into a plurality of areas, and probability information is set in each area. For example, in FIG. 12B, a high probability (70 to 100 percent) is set in the region near the center of the determination region 18, while a low probability (0 to 30 percent) is set in the peripheral region of the determination region 18. ) Is set.
[0125]
For example, when the hit position between the moving member 20 (representative point RP) and the display 10 is located in an area where a high probability is set, a prize is given to the player with a high probability. On the other hand, when the hit position between the moving member 20 (representative point RP) and the display 10 is located in an area where a low probability is set, a prize is given to the player with a low probability.
[0126]
In this way, an element of probability can be given to the prize acquisition, and a prize acquisition apparatus with a thrilling feeling can be realized in the same manner as a conventional prize acquisition apparatus that lifts a real prize with a crane or the like.
[0127]
Note that various modifications can be made to the method of setting the probability information. For example, as shown in FIG. 12C, a high probability may be set not only in the region near the center of the stereoscopic display object SOB but also in the peripheral region. In this way, it is possible to create a situation similar to the situation in which a prize string is accidentally caught by a crane and caught in a conventional prize acquisition apparatus.
[0128]
Further, the determination method using the probability information as shown in FIGS. 12A to 12C is not limited to the prize acquisition device as shown in FIG. 1, but as a moving member as shown in FIGS. 11A and 11B. The present invention can also be applied to a game device using the. 11A and 11B, the determination unit 80 calculates the game result of the player based on the probability information associated with each area that divides the determination area. More specifically, it is determined from the probability information whether or not the moving body 22 and the stereoscopic display objects SOB1 to SOB4 have been virtually hit, and the score given to the player is determined from the probability information.
[0129]
Further, in which region the hit position with the moving member 20 (representative point) is located can be determined based on, for example, the coordinate value of the moving member 20 obtained by the method shown in FIGS. . Or you may determine based on the crossing position P (X, Y) obtained by the method of FIG. 8 (A) (B). 8A and 8B, the determination area can be set on the sensor surface 75.
[0130]
For example, when the touch panel type display 10 of FIG. 5B is used, for example, a protrusion is provided at a position corresponding to the representative point RP of the moving member 20, and the touch position of the protrusion is used to make a hit. It suffices to determine in which region the position is located.
[0131]
9. Stereoscopic details
Next, details of the stereoscopic viewing method of the present embodiment will be described. In the present embodiment, stereoscopic vision is realized by the two methods described below.
[0132]
9.1 First stereoscopic viewing method
FIG. 13 shows a flowchart of the first stereoscopic viewing method of the present embodiment.
[0133]
First, a first left-eye image IL1 and a first right-eye image IR1 for stereoscopic viewing are generated (steps S1 and S2). Specifically, a left-eye image IL1 that is visible from the left-eye viewpoint position VPL and a right-eye image IR1 that is visible from the right-eye viewpoint position VPR are generated.
[0134]
Here, the left-eye and right-eye viewpoint positions VPL and VPR are positions assumed as positions of the left eye and right eye of the viewer as shown in FIG. For example, when the left-eye and right-eye images IL1 and IR1 are generated by actual shooting by a camera (digital camera), the cameras are arranged at the positions of these VPL and VPR, and the left-eye and right-eye images IL1 and IR1 are obtained. Take a picture. In this case, two cameras may be arranged in the VPL and VPR and photographed at the same time, or the position of one camera may be changed and photographed.
[0135]
On the other hand, when the left-eye and right-eye images IL1 and IR1 are generated by a system that generates CG (computer graphics) images and game images (real-time moving images), virtual cameras are arranged at these VPL and VPR positions. Thus, the left-eye and right-eye images IL1 and IR1 are generated. That is, an image that can be seen from the VPL and VPR in the object space is generated.
[0136]
FIGS. 15 and 16 show examples of the left-eye image IL1 and the right-eye image IR1. These are examples when IL1 and IR1 are generated by actual shooting by a camera (digital camera). Various objects such as a mandarin orange, a box, a ballpoint pen, and a stapler (a subject or an object in a narrow sense; the same applies to the following description) are arranged on a reference surface (a placement surface on which an object such as a prize is placed). . The left-eye image IL1 is obtained by placing the camera at the left-eye viewpoint position VPL and taking the camera's line of sight (direction) toward the object (gaze point, representative point of the object). The right-eye image IR1 is obtained by placing a camera at the right-eye viewpoint position VPR and shooting with the camera's line of sight directed toward the object. As shown in FIG. 15 and FIG. 16, the left-eye and right-eye images IL1 and IR1 have different line-of-sight angles (appearance). Is realized.
[0137]
In the present embodiment, a display screen on which a stereoscopic image is displayed and a surface at a position corresponding to the print surface of the printed material can be set as the reference surface.
[0138]
In the case of a CG or a game, an object (an object that models a mandarin orange, a box, a ballpoint pen, a stapler, etc.) is placed on a reference plane set in the object space, and a virtual camera is placed in the VPL or VPR. Deploy. Then, by generating an image that can be seen from the virtual camera with the line of sight (direction) of the virtual camera directed toward the object (gaze point, representative point of the object), it is possible to generate images similar to those in FIGS.
[0139]
Next, as shown in step S3 of FIG. 13, the first left-eye image IL1 obtained in step S1 is subjected to correction processing for eliminating the perspective of the image on the reference plane BS, and the second A left-eye image IL2 is generated. Further, as shown in step S4, the first right-eye image IR1 obtained in step S2 is subjected to correction processing for eliminating the perspective of the image on the reference plane BS, and the second right-eye image is obtained. IR2 is generated.
[0140]
FIGS. 17 and 18 show examples of the left-eye image IL2 and the right-eye image IR2 obtained by the correction processing. For example, in FIGS. 15 and 16, a perspective is attached to a rectangle RTG (a rectangle in a broad sense including a square, which is also included in the following description) drawn on the reference plane BS. On the other hand, in FIG. 17 and FIG. 18, the perspective of the rectangular RTG is lost.
[0141]
Here, the correction processing for eliminating the perspective in the present embodiment is, as shown in FIG. 20A, an image of the reference plane BS itself, an image IM1 drawn on the reference plane, and an object OB (object). This is a process for eliminating the perspective (depth feeling) of the image in the part of the image that is in contact with the reference plane BS. That is, in B1 of FIG. 20A, the distance between the vertices becomes narrower as it goes from the viewpoint to the back side, but in B2 of FIG. 20A, the distance between the vertices changes even if it goes from the viewpoint to the back side. Absent. By performing such correction processing, an image as if viewed from directly above is generated for the image of the reference plane BS. Note that the perspective does not need to be completely eliminated by this correction process, and it is sufficient that the perspective disappears to such an extent that a sense of incongruity does not occur.
[0142]
Next, as shown in step S5 of FIG. 13, a stereoscopic image (image data) is generated based on the second left-eye image IL2 and the second right-eye image IR2. More specifically, a stereoscopic image is generated by performing anaglyph processing or the like based on IL2 and IR2.
[0143]
Then, by printing this stereoscopic image (actual image or CG image) on a printing medium (paper, lens sheet) using a printer such as an ink jet method or a laser printer method, a stereoscopic printed matter can be manufactured. . The stereoscopic printed matter may be manufactured by duplicating the stereoscopic printed matter that becomes the master printed by the printer. In this way, there is an advantage that a large amount of stereoscopic printed material can be manufactured in a short period of time.
[0144]
Further, if the stereoscopic image is displayed on the display of the image generation apparatus, it is possible to generate an image (moving image) in real time. In this case, a stereoscopic image obtained by anaglyph processing or the like is directly displayed on a display, and this is viewed using glasses (equipment in a broad sense) provided with color filters (red and blue). It may be. Alternatively, the left-eye and right-eye images IL2 and IR2 may be alternately displayed on different displays in different frames and viewed using glasses with a liquid crystal shutter or the like.
[0145]
FIG. 19 shows an example of a stereoscopic image obtained by performing anaglyph processing based on the left-eye and right-eye images IL2 and IR2 in FIGS.
[0146]
In the stereoscopic image of FIG. 19, the left-eye image IL2 (IL) and the right-eye image IR2 (IR) are synthesized. The left-eye image IL2 and the right-eye image IR2 each include an image of the object OB arranged on the reference plane BS. It also includes an image of the reference plane BS.
[0147]
As shown in A1 of FIG. 21, the object image of the left-eye image IL2 and the object image of the right-eye image IR2 match at the position of the reference plane BS (however, it is not always necessary to match completely). . That is, the printing position (display position) of the object image of the left-eye image IL2 and the printing position (display position) of the object image IR2 of the right-eye image are the same on the reference plane BS.
[0148]
On the other hand, as shown by A2 in FIG. 21, the distance between the object image of the left-eye image IL2 and the object image of the right-eye image IR2 increases as the distance from the reference plane BS increases. More specifically, the image of the portion of the object OB that is located above the reference plane BS is printed at the left eye image IL2 (display position) and at the right eye image IR2 (display position). ) Is off.
[0149]
Now, as shown in FIG. 20B, in the conventional stereoscopic vision, the stereoscopic printed matter PM (or the display screen of the display; the same applies to the following description) is arranged so that the plane is parallel to the vertical plane. It is assumed that the viewer sees the stereoscopic printed matter PM facing the viewer. Therefore, for example, the left-eye and right-eye images IL1 and IR1 as shown in FIGS. 15 and 16 are subjected to anaglyph processing as they are to create a stereoscopic print PM. Since the perspectives remain in the images of FIGS. 15 and 16, when the stereoscopic printed material PM is viewed in front as shown in FIG. 20B, the images are correct as far as perspective is concerned.
[0150]
However, when the viewer looks at the stereoscopic printed matter PM as shown in FIG. 20B, the focus (focal length) is the same on the entire surface of the PM. Accordingly, in the human brain, contradiction and error occur in the relationship between focus adjustment, binocular parallax, and convergence. Therefore, when the brain tries to associate with a solid forcibly, it feels unnatural or cannot be recognized as a solid. Further, if the stereoscopic printed matter PM created by the conventional method is arranged on a desk so as to be parallel to a horizontal plane, the depth feeling becomes inconsistent, resulting in an unnatural stereoscopic view. That is, the rectangular RTG in FIGS. 15 and 16 is a plane having a height of zero, and the rectangular RTG should not look three-dimensional.
[0151]
Therefore, in this embodiment, as shown in FIG. 20C, it is assumed that the viewer sees the stereoscopic printed matter PM (display screen) placed on a desk (reference plane BS parallel to the horizontal plane). Like to do. That is, such an arrangement is the default arrangement of this method. When the stereoscopic printed matter PM is arranged in parallel to the horizontal plane as described above, if the images of FIGS. 15 and 16 are subjected to anaglyph processing as they are to create the stereoscopic printed matter PM, a contradiction occurs in the perspective.
[0152]
Therefore, in the present embodiment, as described with reference to FIGS. 17, 18, and 20 (A), correction processing is performed to eliminate the perspective of the reference plane image. Then, the anaglyph process is performed based on the corrected images of FIGS. 17 and 18 in which the perspective on the reference plane is eliminated, and the stereoscopic printed matter PM is created. The created stereoscopic printed matter PM is shown in FIG. If the reference plane image (rectangular RTG) is arranged parallel to the horizontal plane as in (), an appropriate perspective can be obtained. In addition, when arranged as shown in FIG. 20C, the focal lengths of the respective points on the surface of the stereoscopic printed matter PM are not the same but different. For this reason, the focus adjustment is similar to that in the real world. Therefore, the shift in the relationship between the focus adjustment and the binocular parallax and the convergence is reduced, and a more natural and realistic stereoscopic vision can be realized.
[0153]
Note that, in the stereoscopic viewing method of the present embodiment, when the height of the object is high, there may be a shift in the depth feeling or the like. In such a case, for example, as shown in FIG. 22, two reference surfaces BS1 and BS2 (a plurality of reference surfaces in a broad sense) may be provided.
[0154]
Here, the reference plane BS1 is, for example, a plane parallel to the horizontal plane. On the other hand, the reference surface BS2 is a surface that forms a predetermined angle (for example, a right angle) with the reference surface BS1. The reference surfaces BS1 and BS2 are connected at the boundary BD.
[0155]
The object OB (object) is arranged above the reference surface BS1 and on the front side (VPL, VPR side) of the reference surface BS2. Then, the processing shown in FIG. 23 is performed instead of FIG.
[0156]
Steps S11 and S12 in FIG. 23 are the same as steps S1 and S2 in FIG. In step S13, correction processing for eliminating the perspective on the reference plane BS1 is performed on an area corresponding to the reference plane BS1 of the left-eye image IL1 (the first area on the BS1 side of IL1 with reference to the boundary BD). Apply to. Further, correction processing for eliminating the perspective on the reference surface BS2 is performed on the region corresponding to the reference surface BS2 of IL1 (the second region on the BS2 side of IL1 with reference to the boundary BD). Then, a left-eye image IL2 that is an image obtained by connecting the images generated by these correction processes is generated.
[0157]
In step S14, correction processing for eliminating the perspective on the reference surface BS1 is performed on the region corresponding to the reference surface BS1 of the right-eye image IR1 (the first region on the BS1 side of the IR1 with reference to the boundary BD). Apply to. Further, correction processing for eliminating the perspective on the reference surface BS2 is performed on the region corresponding to the reference surface BS2 of IR1 (the second region on the BS2 side of IR1 with reference to the boundary BD). Then, a right-eye image IR2 that is an image obtained by connecting the images generated by these correction processes is generated.
[0158]
And finally, like step S15, based on IL2 and IR2, for example, an anaglyph process etc. are performed and the image for stereoscopic vision is produced | generated. Then, the obtained stereoscopic image is printed on a print medium to produce a stereoscopic print or displayed on a display.
[0159]
In this way, as shown in FIG. 24, even when the OB is an object having a high height from the reference plane BS1, a more natural and realistic stereoscopic view can be realized. That is, in the region near the foot of the object OB (the first region below the boundary BS), stereoscopic processing using the reference plane BS1 can realize stereoscopic viewing that does not make sense of depth and focus adjustment. On the other hand, in other regions (second region on the upper side of the boundary BS), stereoscopic viewing without a sense of depth can be realized by the stereoscopic processing using the reference plane BS2.
[0160]
The reference plane is not limited to two, and three or more reference planes (a plurality of linked reference planes) may be used.
[0161]
9.2 Second stereoscopic viewing method
FIG. 25 shows a flowchart of the second stereoscopic viewing method of the present embodiment. The above-described method of FIG. 13 is an optimum method for creating a stereoscopic print using an image captured by a camera, whereas the method of FIG. 25 uses a CG image to provide a stereoscopic print. Is the best way to create
[0162]
First, in the projection direction connecting the left eye viewpoint position VPL and each point of the object OB, each point of OB is projected onto the reference surface BS (BS1 or BS2) and rendered on the reference surface BS to generate the left eye image IL. (Step S21).
[0163]
Next, in the projection direction connecting the right eye viewpoint position VPR and each point of the object OB, each point of OB is projected onto the reference surface BS (BS1 or BS2) and rendered on the reference surface BS to generate the right eye image IR. (Step S22). Note that the reference surface BS is a surface that is not orthogonal to, for example, the line-of-sight direction (the direction connecting the viewpoint position and the gazing point). That is, the reference plane BS is a plane different from the perspective projection screen that is always orthogonal to the line-of-sight direction.
[0164]
In the processing of steps S21 and S22, virtual light is projected from the VPL (or VPR) toward the object OB, and the image of the OB is a virtual that is the reference plane BS (BS1 or BS2) using the light. Render to virtual paper as if it were burned on paper. As a result, as shown in FIG. 26A, the images (properties such as colors) of the points P1, P2, P3, and P4 of the object OB are projected points P1 ′, P2 ′, P3 ′, Rendered to P4 ′. Note that the images of the points P5 and P6 on the reference plane BS are rendered as they are at the positions of the points P5 and P6. For example, as shown in FIG. 26B, rendering is performed so that the entire surface of the reference surface BS (virtual paper) is raster-scanned, so that the left-eye image IL, the right-eye image similar to the IL2 and IR2 in FIGS. An image IR can be generated. That is, it is possible to generate the left-eye and right-eye images IL and IR without the perspective of the reference plane image.
[0165]
Then, based on the left-eye and right-eye images IL and IR, for example, an anaglyph process is performed to generate a stereoscopic image (step S23). Thereby, a stereoscopic image as shown in FIG. 19 can be obtained. Then, the obtained stereoscopic image is printed on a print medium to produce a stereoscopic print or displayed on a display.
[0166]
For example, as shown in FIG. 26C, the stereoscopic printed matter PM (or display screen) is arranged so as to be parallel to the horizontal plane (reference plane), so that a more natural and realistic stereoscopic view can be obtained. realizable.
[0167]
For example, in FIG. 27A, an object OB is perspectively projected on a perspective projection screen SCR (a plane orthogonal to the line-of-sight direction) to generate a left-eye image and a right-eye image. Then, the obtained left-eye image and right-eye image are combined to generate a stereoscopic printed matter PM. Then, as shown in FIG. 27 (B), the viewer views the PM facing the stereoscopic printed material PM.
[0168]
In the method of FIG. 27A, the points P2 and P3 of the object OB are projected onto the points P2 ″ and P3 ″ on the projection projection screen SCR. Then, since the stereoscopic printed matter PM is viewed directly as shown in FIG. 27B, the focal length difference L2 between P2 ″ and P3 ″ becomes zero. That is, since the focal length difference L1 between the actual points P2 and P3 is not 0 but L2 is 0, the focus adjustment is different from the actual focus adjustment. Accordingly, a contradiction arises in the relationship between the focus adjustment and the binocular parallax, and the human brain is confused, resulting in an uncomfortable stereoscopic view.
[0169]
On the other hand, in the present embodiment, the stereoscopic printed matter PM (display screen) is placed on a desk (horizontal plane) as shown in FIG. 26C, and as shown in FIG. The focal distance difference L2 between the points P2 ′ and P3 ′ is not 0, like the actual focal distance difference L1 between the points P1 and P2. Therefore, the front part (point P2) is visible in the front and the back part (point P3) is visible in the back, so there is no contradiction between the focus adjustment and the binocular parallax, and the human brain is confused. Since it does not occur, more natural stereoscopic vision can be realized.
[0170]
That is, in this embodiment, since the stereoscopic printed matter PM is placed on a desk and viewed from an oblique direction, the desk surface and the reference plane BS (zero plane) on which the object OB to be stereoscopically viewed is placed are described. It becomes the same surface, is realistic, and does not cause unreasonable stereoscopic vision. The object OB only needs to be able to express the appearance that the object OB is lifted by a few centimeters with respect to the reference plane BS (zero plane), so that there is almost no contradiction in the depth direction. In addition, since the reference surface BS is a desk surface, it looks as if a three-dimensional object is actually placed on the desk, and the realism of the object is improved. That is, in the conventional method shown in FIGS. 27A and 27B, since the reference surface is dim, there is certainly a three-dimensional effect, but the real sense of the object has only become a phantom.
[0171]
25, as described with reference to FIG. 22, a plurality of reference planes may be set to generate a stereoscopic image. In this case, in steps S21 and S22 of FIG. 25, the points projected on the reference plane BS1 may be rendered on the reference plane BS1, and the points projected on the reference plane BS2 may be rendered on the reference plane BS2.
[0172]
9.3 Anaglyph processing
Next, the anaglyph process performed in step S5 in FIG. 13 will be described.
[0173]
In the anaglyph process, the left-eye image and the right-eye image are printed on a single print medium with different colors to create a stereoscopic print. The stereoscopic print is viewed through different color filters (for example, the left eye is red and the right eye is blue) between the left and right eyes. At this time, only the image for the left eye can be seen with the left eye, and only the image for the right eye can be seen with the right eye, thereby realizing stereoscopic viewing.
[0174]
For example, in monochrome anaglyph processing, the image for the left eye (IL2, IL) is converted to gray scale. Then, the converted image data is copied to the R channel of the anaglyph image (RGB). Next, the image for the right eye (IR2, IR) is converted to gray scale. Then, the converted image data is copied to the G channel and B channel of the anaglyph image (RGB). Thereby, a monochrome anaglyph image is generated. Note that the right-eye image may be copied only to the B channel.
[0175]
In color anaglyph processing, the R channel of the left-eye image (IL2, IL) is copied to the R channel of the anaglyph image (RGB). The G channel of the right eye image (IR2, IR) is copied to the G channel of the anaglyph image (RGB). Also, the B channel of the right eye image is copied to the B channel of the anaglyph image (RGB). Thereby, a color (pseudo-color) anaglyph image can be generated.
[0176]
Note that the method for realizing stereoscopic vision is not limited to anaglyph processing as long as it is realized using at least the left-eye images (IL2, IL) and the right-eye images (IR2, IR).
[0177]
For example, as shown in FIG. 28, using a special lens called a lenticular lens, only the image for the left eye enters the left eye EL of the viewer, and only the image for the right eye enters the right eye ER. Stereoscopic view may be realized by entering. When a special lens such as a lenticular lens is used in this way, a stereoscopic image is generated from the left-eye image LV and the right-eye image RV, for example, as shown in FIG. In this case, the scope of the present invention includes a case where stereoscopic display is performed not only with a twin-lens system but also with a multi-lens system such as a trinocular system and a four-lens system.
[0178]
In addition, a polarizing plate is disposed in front of the left-eye image and the right-eye image, and the polarizing direction is different between the polarizing plate placed in front of the left-eye image and the polarizing plate placed in front of the right-eye image. . Then, stereoscopic viewing may be realized by the viewer wearing spectacles in which a polarizing plate having a deflection direction corresponding thereto is attached to the lens portion.
[0179]
Also, the left-eye image and the right-eye image are displayed alternately, for example, with different frames. Then, the viewer wears glasses equipped with a shutter for the left eye (for example, a liquid crystal shutter) that opens in synchronization with the display of the image for the left eye and a shutter for the right eye that opens in synchronization with the display of the image for the right eye. Visualization may be realized.
[0180]
9.4 Setting the viewpoint position
Next, a method for setting the viewpoint position will be described.
[0181]
The left-eye and right-eye viewpoint positions VPL and VPR in FIGS. 14 and 22 are arranged based on the assumed positions of the left and right eyes of the viewer when the viewer actually views the stereoscopic print or the stereoscopic display screen. It is desirable to do. For example, in FIGS. 14 and 22, the distance DVB (for example, 40 cm) between the object OB (object, subject) and the viewer's eyes, the viewing angle θ (the viewing direction SL), and the distance DLR between the eyes (for example, 7 cm). Based on the above, the left-eye and right-eye viewpoint positions VPL and VPR are set.
[0182]
However, when performing reduction display or enlargement display, the positions of VPL and VPR are moved according to the reduction ratio and the enlargement ratio. In this case, it is desirable to move the viewpoint position by a method as shown in FIG.
[0183]
For example, when the distance DVB between the object OB (subject, object) and the viewpoint position (middle point CP of VPL and VPR) is increased, the left eye viewpoint position VPL is changed according to the change (ratio) of the length. The distance DLR between the right eye viewpoint position VPR is increased. That is, for example, the DLR is lengthened in proportion to the change in the length of DVB.
[0184]
Further, when changing the distance DVB between the object OB (subject, object) and the viewpoint position (middle point CP of VPL and VPR), a straight line LN (line-of-sight direction) forming a predetermined angle θ with respect to the reference plane BS. The viewpoint position (midpoint CP, VPL, VPR) is moved so as to move along.
[0185]
In this way, even when the VPL and VPR are moved, the distance DVB and the distance DLR change at the same magnification ratio, so that it is possible to prevent a situation in which the stereoscopic effect is broken. Thereby, reduction display and enlargement display can be realized while maintaining an appropriate stereoscopic effect.
[0186]
9.5 Image generation device
FIG. 31 shows an example of a block diagram of an image generating apparatus that generates a stereoscopic image. Note that the image generation apparatus does not need to include all the components (each unit) in FIG. 31, and may be configured such that some of them are omitted.
[0187]
This image generation device can be used as a device (game device) for generating a display image on a display. Further, it can be used as an image generation device (CG tool) for creating a stereoscopic image from a CG image and creating a stereoscopic print. Further, it can be used as an image generation device (personal computer) for taking a real image taken by a camera, creating a stereoscopic image from the real image, and creating a stereoscopic print.
[0188]
The operation unit 160 (lever, button) is for a player (operator) to input operation data. The storage unit 170 (RAM) is a work area such as the processing unit 100 or the communication unit 196. An information storage medium 180 (a computer-readable medium such as a CD, DVD, HDD, or ROM) stores programs and data. The information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).
[0189]
The display 190 displays images, and the sound output unit 192 outputs sounds such as sounds and game sounds. The portable information storage device 194 stores player personal data, game save data, and the like.
[0190]
The printing unit 195 performs processing for printing a stereoscopic image on a print medium. As a printing method in this case, there are various methods such as an inkjet method and a laser printing method. The communication unit 196 performs various controls for performing communication via a network such as the Internet. By using this communication unit 196, the generated stereoscopic image data can be transmitted via the network.
[0191]
The processing unit 100 (processor) performs various processes such as a game process, an image generation process, and a sound generation process based on operation data from the operation unit 160, a program, and the like. In this case, the processing unit 100 performs various processes using the main storage unit 172 in the storage unit 170 as a work area. The function of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.) or ASIC (gate array, etc.) and a program (game program).
[0192]
The processing unit 100 includes a game processing unit 110, a determination unit 112, an image generation unit 120, and a sound generation unit 130.
[0193]
Here, the game processing unit 110 performs various game processes based on operation data from the operation unit 160 (game controller). This game process includes a process for starting a game based on game start conditions, a process for advancing the game, a process for placing an object (display object) appearing in the game, object movement information (position, speed, acceleration), There are a process for obtaining motion information (motion information), a process for displaying an object, a process for calculating a game result, a process for ending a game when a game end condition is satisfied, and the like.
[0194]
The determination unit 112 performs various determination processes described with reference to FIG. That is, processing for determining the positional relationship between the stereoscopic display object and the moving member is performed based on the detection result from the detection device. Based on the determination result, a prize is paid out or a game result is calculated.
[0195]
The image generation unit 120 generates an image based on the results of various processes performed by the processing unit 100 and outputs the image to the display 190. The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.
[0196]
The image generation unit 120 includes a stereoscopic image generation unit 122. The stereoscopic image generation unit 122 performs a correction process to eliminate the perspective of the image on the reference plane with respect to the first left-eye image that is an image that can be seen from the left-eye viewpoint position (left-eye virtual camera). Then, a second left-eye image is generated. In addition, the first right-eye image, which is an image that can be seen from the right-eye viewpoint position (right-eye virtual camera), is subjected to a correction process for eliminating the perspective of the image on the reference plane, and thus the second right-eye image. Is generated.
[0197]
The correction process in this case is realized by the texture mapping unit 124 performing a texture mapping process as shown in FIG.
[0198]
That is, the perspective texture image TEX (first left eye image, first right eye image) is mapped to a polygon PLG (primitive surface) of a rectangle (a rectangle in a broad sense including a square). Specifically, the texture coordinates (TX1, TY1), (TX2, TY2), (TX3, TY3), (TX4, TY4) of the texture image TEX are coordinated with the vertices VX1, VX2, VX3, VX4 of the polygon PLG. Thus, the texture image TEX is mapped to the polygon PLG. As a result, it is possible to generate an image in which the perspective of the image of the reference plane is lost. Then, by performing such a texture mapping process for each of the first left-eye image and the first right-eye image, the second left-eye image and the second right-eye image for generating the stereoscopic image are generated. Generate an image.
[0199]
Note that the stereoscopic image generation unit 122 generates the left-eye image by projecting and rendering each point of the object on the reference plane in the projection direction connecting the left-eye viewpoint position and each point of the object. The right-eye image may be generated by projecting and rendering each point of the object on the reference plane in the projection direction connecting the right-eye viewpoint position and each point of the object.
[0200]
Next, the stereoscopic image generation unit 122 generates a stereoscopic image based on the second left-eye image (left-eye image) and the second right-eye image (right-eye image). For example, the second left-eye image (left-eye image) and the second right-eye image (right-eye image) are combined by anaglyph processing to generate a stereoscopic image and output it to the display 190. In this case, for example, the player plays the game wearing glasses with red and blue color filters provided on the left and right eyes.
[0201]
Alternatively, the stereoscopic image generation unit 122 performs a process of outputting the second left-eye image (left-eye image) and the second right-eye image (right-eye image) to the display 190 in different frames to perform stereoscopic viewing. It may be realized. In this case, the player plays the game wearing glasses with shutters that open and close in synchronization with the frame.
[0202]
Alternatively, in the case of stereoscopic viewing without glasses, the second left-eye image (left-eye image) and the second right-eye image (right-eye image) are alternately arranged in a strip shape so that the stereoscopic image is displayed. Is generated and output to the display 190. In this case, stereoscopic vision is realized by providing the display 190 with a special lens such as a lenticular lens.
[0203]
The present invention is not limited to that described in the above embodiment, and various modifications can be made.
[0204]
For example, terms (prize acquisition device, acquisition member / moving body, encoder, glasses, player, etc.) cited as broad terms (playing device, moving member, sensor, instrument, viewer, etc.) in the description or drawings ) Can be replaced by broad terms in other descriptions in the specification or drawings.
[0205]
In addition, the method for generating the left-eye image, the right-eye image, and the stereoscopic image is not limited to that described in the present embodiment, and various modifications can be made.
[0206]
In addition, a case where a stereoscopic image is generated by a method equivalent to the first and second stereoscopic methods described in the present embodiment is also included in the scope of the present invention.
[0207]
In the game device of the present invention, a stereoscopic image may be generated and displayed or printed by a method other than the first and second stereoscopic methods.
[0208]
The present invention can also be applied to a prize acquisition device as shown in FIG. 1 or a game device other than the game device as shown in FIGS. 11A and 11B (for example, a pachinko device or a medal game device).
[0209]
In the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.
[Brief description of the drawings]
FIG. 1 is an example of an amusement device of the present embodiment.
FIG. 2 is an example of the game device of the present embodiment.
FIGS. 3A and 3B are other examples of the game apparatus.
FIGS. 4A and 4B are examples of moving members. FIGS.
FIGS. 5A, 5B, and 5C are explanatory diagrams of a prize changing technique by image switching and a technique using a touch panel.
6A, 6B, and 6C are explanatory diagrams of a method using a winding mechanism, a switch element, and a proximity sensor.
FIGS. 7A and 7B are explanatory diagrams of a method of providing a sensor in a moving mechanism.
FIGS. 8A and 8B are explanatory diagrams of a method for detecting an intersection position of sensor surfaces.
FIGS. 9A and 9B are explanatory diagrams of a method of using a camera as a detection device.
FIGS. 10A and 10B are explanatory diagrams of a method of providing a viewpoint fixing unit.
FIGS. 11A and 11B are examples of a game apparatus using a moving body as a moving member.
FIGS. 12A, 12B, and 12C are explanatory diagrams of a method for setting probability information in a determination region.
FIG. 13 is a flowchart of the first stereoscopic viewing method.
FIG. 14 is an explanatory diagram of a first stereoscopic viewing method.
FIG. 15 is an example of a left-eye image IL1.
FIG. 16 is an example of a right-eye image IR1.
FIG. 17 is an example of a left-eye image IL2.
FIG. 18 is an example of a right-eye image IR2.
FIG. 19 is an example of a stereoscopic image (anaglyph image).
FIGS. 20A, 20B, and 20C are explanatory diagrams of correction processing for eliminating a perspective. FIGS.
FIG. 21 is an explanatory diagram of features of a stereoscopic image obtained by the present embodiment.
FIG. 22 is an explanatory diagram of a method for providing a plurality of reference planes.
FIG. 23 is a flowchart of a method for providing a plurality of reference planes.
FIG. 24 is an explanatory diagram of a method for providing a plurality of reference planes.
FIG. 25 is an explanatory diagram of a second stereoscopic viewing method.
FIGS. 26A, 26B, and 26C are explanatory diagrams of a second stereoscopic viewing method.
FIGS. 27A and 27B are explanatory diagrams of a conventional method.
FIG. 28 is an explanatory diagram of a method using a lenticular lens.
FIG. 29 is an explanatory diagram of a method using a lenticular lens.
FIG. 30 is an explanatory diagram of a viewpoint position setting method.
FIG. 31 is a configuration example of an image generation apparatus.
FIG. 32 is an explanatory diagram of a correction process using texture mapping.
[Explanation of symbols]
10 display, 11 second display, 12 printed matter,
13-1 to 13-4 Winding mechanism, 14-1, 14-2 switch element,
15 proximity sensor, 16-1, 16-2 detection target, 18 judgment area,
20 moving members, 22 moving bodies, 30 viewpoint fixing units, 40 operating units,
50 dispensing port, 60 moving mechanism, 62 moving unit,
63, 64, 65 encoder, 70 detection device,
72 camera, 74 sensor surface forming frame, 75 sensor surface,
80 judgment section, 90 payout mechanism,
SOB, SOB1-SOB8 stereoscopic display object
VPL left eye viewpoint position, VPR right eye viewpoint position,
OB object (object, subject), BS (BS1, BS2) reference plane,
IL1 first left-eye image, IR1 first right-eye image,
IL2 second left eye image, IR2 second right eye image,
IL image for left eye, IR image for right eye,

Claims (17)

立体視用画像を表示するディスプレイと、
ディスプレイの表示画面側空間において移動する移動部材と、
ディスプレイの表示画面側空間に立体視用画像に基づき仮想表示される立体視表示物と、移動部材との位置関係を検知するための検知デバイスと、
検知デバイスからの検知結果に基づいて、立体視表示物と移動部材との位置関係を判定する判定部と、
を含む遊戯装置。
A display for displaying a stereoscopic image;
A moving member that moves in the display screen space of the display;
A detection device for detecting a positional relationship between a stereoscopic display object that is virtually displayed on the display screen side space of the display based on a stereoscopic image and a moving member;
A determination unit that determines a positional relationship between the stereoscopic display object and the moving member based on a detection result from the detection device;
Game equipment including.
請求項1において、
前記立体視表示物が、
立体視表示物と移動部材とが所与の位置関係になった場合にプレーヤに付与される景品を表す表示物であり、
ディスプレイに表示される立体視用画像を切り替えることで、プレーヤの捕獲対象となる景品の種類、配置及び個数の少なくとも1つを変更することを特徴とする遊戯装置。
In claim 1,
The stereoscopic display object is
A display object representing a prize given to the player when the stereoscopic display object and the moving member have a given positional relationship;
A game apparatus characterized by changing at least one of the type, arrangement and number of prizes to be captured by a player by switching a stereoscopic image displayed on a display.
請求項1又は2において、
前記検知デバイスが、
ディスプレイに一体的に設けられたタッチパネルであり、
前記判定部が、
タッチパネルに対する移動部材のタッチ位置に基づいて、立体視表示物と移動部材との位置関係を判定することを特徴とする遊戯装置。
In claim 1 or 2,
The sensing device is
It is a touch panel provided integrally with the display,
The determination unit is
A game apparatus, wherein a positional relationship between a stereoscopic display object and a moving member is determined based on a touch position of the moving member with respect to the touch panel.
立体視用画像が印刷された印刷物と、
印刷物の印刷面側空間において移動する移動部材と、
印刷物の印刷面側空間に立体視用画像に基づき仮想表示される立体視表示物と、移動部材との位置関係を検知するための検知デバイスと、
検知デバイスからの検知結果に基づいて、立体視表示物と移動部材との位置関係を判定する判定部と、
を含む遊戯装置。
A printed material on which a stereoscopic image is printed;
A moving member that moves in the printing surface side space of the printed matter;
A detection device for detecting the positional relationship between the stereoscopic display object that is virtually displayed on the print surface side space of the printed material based on the stereoscopic image and the moving member;
A determination unit that determines a positional relationship between the stereoscopic display object and the moving member based on a detection result from the detection device;
Game equipment including.
請求項4において、
前記印刷物を所与の方向に巻き取る巻き取り機構を含み、
前記巻き取り機構により印刷物を巻き取って印刷面を移動させることで、印刷面側空間に仮想表示される立体視表示物の種類、配置及び個数の少なくとも1つを変更することを特徴とする遊戯装置。
In claim 4,
A winding mechanism for winding the printed matter in a given direction;
A game characterized in that at least one of the type, arrangement, and number of stereoscopic display objects virtually displayed in the space on the printing surface side is changed by winding the printed material by the winding mechanism and moving the printing surface. apparatus.
請求項4又は5において、
前記検知デバイスが、
印刷物の印刷面の裏面側に設けられたスイッチ素子であり、
前記判定部が、
移動部材によりスイッチ素子か押されたか否かに基づき、立体視表示物と移動部材との位置関係を判定することを特徴とする遊戯装置。
In claim 4 or 5,
The sensing device is
A switch element provided on the back side of the printed surface of the printed matter,
The determination unit is
A game apparatus, wherein a positional relationship between a stereoscopic display object and a moving member is determined based on whether or not a switch element is pressed by the moving member.
請求項4又は5において、
前記検知デバイスが、
移動部材に設けられた近接センサであり、
印刷物の印刷面の裏面側には、前記近接センサの検知対象が設けられ、
前記判定部が、
移動部材の近接センサが、印刷物の印刷面の裏面側の検知対象を検知したか否かに基づき、立体視表示物と移動部材との位置関係を判定することを特徴とする遊戯装置。
In claim 4 or 5,
The sensing device is
A proximity sensor provided on the moving member;
On the back side of the printed surface of the printed matter, a detection target of the proximity sensor is provided,
The determination unit is
A game apparatus, wherein a proximity sensor of a moving member determines a positional relationship between a stereoscopic display object and a moving member based on whether or not a detection target on the back side of a printed surface of a printed material is detected.
請求項1乃至5のいずれかにおいて、
前記検知デバイスが、
移動部材を移動させる移動機構に設けられ、移動部材の移動位置を検知するためのセンサであり、
前記判定部が、
前記センサからの検知結果に基づいて、立体視表示物と移動部材との位置関係を判定することを特徴とする遊戯装置。
In any one of Claims 1 thru | or 5,
The sensing device is
It is a sensor for detecting the moving position of the moving member, provided in the moving mechanism that moves the moving member,
The determination unit is
A game apparatus, wherein a positional relationship between a stereoscopic display object and a moving member is determined based on a detection result from the sensor.
請求項1乃至5のいずれかにおいて、
前記検知デバイスが、
所与のセンサ面と移動部材との交差位置を検知するためのセンサであり、
前記判定部が、
前記センサからの検知結果に基づいて、立体視表示物と移動部材との位置関係を判定することを特徴とする遊戯装置。
In any one of Claims 1 thru | or 5,
The sensing device is
A sensor for detecting a crossing position of a given sensor surface and a moving member;
The determination unit is
A game apparatus, wherein a positional relationship between a stereoscopic display object and a moving member is determined based on a detection result from the sensor.
請求項1乃至9のいずれかにおいて、
ディスプレイの表示画面或いは印刷物の印刷面を俯瞰する位置に設けられ、プレーヤの視点を固定するための視点固定部を含むことを特徴とする遊戯装置。
In any one of Claims 1 thru | or 9,
A game apparatus, comprising: a viewpoint fixing unit which is provided at a position overlooking a display screen of a display or a printed surface of a printed material, and fixes a player's viewpoint.
請求項1乃至10のいずれかにおいて、
ディスプレイの表示画面又は印刷物の印刷面を俯瞰する位置側に設けられ、前記移動部材をプレーヤが操作するための操作部を含むことを特徴とする遊戯装置。
In any one of Claims 1 thru | or 10.
A game apparatus, comprising: an operation unit provided on a position overlooking a display screen of a display or a printed surface of a printed material, and for a player to operate the moving member.
請求項1乃至11のいずれかにおいて、
前記移動部材が、
立体視表示物と移動部材とが所与の位置関係になった場合にプレーヤに付与される景品を捕獲するための捕獲部材であり、
前記立体視表示物が、
景品を表す表示物であり、
前記判定部が、
景品を表す立体視表示物と捕獲部材である移動部材とが所与の位置関係になったか否かに基づき、プレーヤに景品を付与するか否かを判定することを特徴とする遊戯装置。
In any one of Claims 1 thru | or 11,
The moving member is
A capture member for capturing a prize given to the player when the stereoscopic display object and the moving member have a given positional relationship;
The stereoscopic display object is
It is a display that represents a free gift
The determination unit is
A game apparatus characterized by determining whether or not to give a prize to a player based on whether or not a stereoscopic display object representing a prize and a moving member as a capture member have a given positional relationship.
請求項1乃至11のいずれかにおいて、
前記移動部材が、
プレーヤによる操作部の操作により移動する移動体であり、
前記立体視表示物が、
移動体とのヒット対象物を表す表示物であり、
前記判定部が、
ヒット対象物を表す立体視表示物と移動体である移動部材とが所与の位置関係になったか否かに基づき、プレーヤのゲーム結果を演算することを特徴とする遊戯装置。
In any one of Claims 1 thru | or 11,
The moving member is
It is a moving body that moves by operation of the operation unit by the player,
The stereoscopic display object is
It is a display object that represents a hit object with a moving object,
The determination unit is
A game apparatus that calculates a game result of a player based on whether or not a stereoscopic display object representing a hit object and a moving member that is a moving body have a given positional relationship.
請求項1乃至13のいずれかにおいて、
移動部材と仮想表示物との位置関係を判定するための判定領域が設定され、
前記判定部が、
判定領域を分割する各領域に対応づけられた確率情報に基づいて、プレーヤに景品を付与するか否かの判定、或いはプレーヤのゲーム結果演算を行うことを特徴とする遊戯装置。
In any one of Claims 1 thru | or 13.
A determination area for determining the positional relationship between the moving member and the virtual display object is set,
The determination unit is
A game apparatus characterized by determining whether or not to give a prize to a player, or calculating a game result of the player based on probability information associated with each area into which the determination area is divided.
請求項1乃至14のいずれかにおいて、
前記立体視用画像は、
第2の左目用画像と第2の右目用画像により生成され、
前記第2の左目用画像は、
第1の左目用画像の基準面での画像のパースペクティブを無くすための補正処理を、第1の左目用画像に対して施すことで生成され、
前記第2の右目用画像は、
第1の右目用画像の基準面での画像のパースペクティブを無くすための補正処理を、第1の右目用画像に対して施すことで生成されていることを特徴とする遊戯装置。
In any one of Claims 1 thru | or 14.
The stereoscopic image is
Generated by the second left-eye image and the second right-eye image,
The second left-eye image is
Generated by applying correction processing to the first left-eye image to eliminate the perspective of the image on the reference plane of the first left-eye image;
The second right-eye image is
A game apparatus, wherein the first right-eye image is generated by performing correction processing for eliminating the perspective of the image on the reference plane of the first right-eye image on the first right-eye image.
請求項1乃至14のいずれかにおいて、
前記立体視用画像は、
左目用画像と右目用画像により生成され、
前記左目用画像は、
オブジェクト空間内の左目用視点位置とオブジェクトの各点を結ぶ投影方向で、視線方向に非直交の基準面に対してオブジェクトの各点を投影して基準面にレンダリングすることで生成され、
前記右目用画像は、
オブジェクト空間内の右目用視点位置とオブジェクトの各点を結ぶ投影方向で、視線方向に非直交の基準面に対してオブジェクトの各点を投影して基準面にレンダリングすることで生成されていることを特徴とする遊戯装置。
In any one of Claims 1 thru | or 14.
The stereoscopic image is
It is generated from the image for the left eye and the image for the right eye,
The left-eye image is
It is generated by projecting each point of an object to a reference plane that is non-orthogonal to the line-of-sight direction in the projection direction connecting the left eye viewpoint position in the object space and each point of the object,
The right-eye image is
A projection direction that connects the viewpoint position for the right eye in the object space and each point of the object, and is generated by projecting each point of the object to a reference plane that is non-orthogonal to the line-of-sight direction and rendering it on the reference plane A game device characterized by
請求項1乃至14のいずれかにおいて、
前記立体視用画像は、
基準面に配置された物体の画像を含む左目用画像と右目用画像により生成され、
前記立体視用画像は、
左目用画像の物体画像と右目用画像の物体画像とが基準面位置において一致する画像であり、且つ、基準面から離れるほど左目用画像の物体画像と右目用画像の物体画像のずれが大きくなる画像であることを特徴とする遊戯装置。
In any one of Claims 1 thru | or 14.
The stereoscopic image is
Generated by the image for the left eye and the image for the right eye including the image of the object placed on the reference plane,
The stereoscopic image is
The object image of the left-eye image and the object image of the right-eye image coincide with each other at the reference plane position, and the deviation between the object image of the left-eye image and the object image of the right-eye image increases as the distance from the reference plane increases. A game device characterized by being an image.
JP2002370216A 2002-12-20 2002-12-20 Play equipment Expired - Lifetime JP3933570B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002370216A JP3933570B2 (en) 2002-12-20 2002-12-20 Play equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002370216A JP3933570B2 (en) 2002-12-20 2002-12-20 Play equipment

Publications (2)

Publication Number Publication Date
JP2004195090A true JP2004195090A (en) 2004-07-15
JP3933570B2 JP3933570B2 (en) 2007-06-20

Family

ID=32766205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002370216A Expired - Lifetime JP3933570B2 (en) 2002-12-20 2002-12-20 Play equipment

Country Status (1)

Country Link
JP (1) JP3933570B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008237303A (en) * 2007-03-26 2008-10-09 Taito Corp Game machine
WO2008132851A1 (en) * 2007-04-25 2008-11-06 Ssd Company Limited Entertainment apparatus, computer program, and computer-readable recording medium
JP2009183554A (en) * 2008-02-07 2009-08-20 Taito Corp Crane game machine
JP2013146361A (en) * 2012-01-18 2013-08-01 Taito Corp Crane game machine
WO2017204315A1 (en) * 2016-05-26 2017-11-30 株式会社ブランジスタゲーム Virtual crane game system
CN109364470A (en) * 2018-11-08 2019-02-22 北京顶喜乐科技有限公司 A kind of doll machine based on AR technology
JP2019198390A (en) * 2018-05-14 2019-11-21 株式会社セガゲームス Business-oriented game device and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107875631A (en) * 2017-10-26 2018-04-06 广州市雷军游乐设备有限公司 Control method, apparatus, terminal device and the readable storage medium storing program for executing of grabber movement

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008237303A (en) * 2007-03-26 2008-10-09 Taito Corp Game machine
WO2008132851A1 (en) * 2007-04-25 2008-11-06 Ssd Company Limited Entertainment apparatus, computer program, and computer-readable recording medium
JP2009183554A (en) * 2008-02-07 2009-08-20 Taito Corp Crane game machine
JP2013146361A (en) * 2012-01-18 2013-08-01 Taito Corp Crane game machine
WO2017204315A1 (en) * 2016-05-26 2017-11-30 株式会社ブランジスタゲーム Virtual crane game system
JP2019198390A (en) * 2018-05-14 2019-11-21 株式会社セガゲームス Business-oriented game device and program
CN109364470A (en) * 2018-11-08 2019-02-22 北京顶喜乐科技有限公司 A kind of doll machine based on AR technology

Also Published As

Publication number Publication date
JP3933570B2 (en) 2007-06-20

Similar Documents

Publication Publication Date Title
JP4823334B2 (en) Image generation system, image generation method, program, and information storage medium
KR102060453B1 (en) Image display system, control method of image display system, image transmission system and head mounted display
US8248462B2 (en) Dynamic parallax barrier autosteroscopic display system and method
JP5814532B2 (en) Display control program, display control apparatus, display control system, and display control method
US8249335B2 (en) Method of making printed material for stereoscopic viewing, and printed material for stereoscopic viewing
WO2006121957A2 (en) Three dimensional horizontal perspective workstation
JP2007536608A (en) Horizontal perspective hands-on simulator
JP4218937B2 (en) Stereoscopic display device and stereoscopic display method
JP5876983B2 (en) Display control program, display control device, display control method, and display control system
JP3933570B2 (en) Play equipment
JP4624587B2 (en) Image generating apparatus, program, and information storage medium
JP3579683B2 (en) Method for producing stereoscopic printed matter, stereoscopic printed matter
JP5649846B2 (en) Program and image generation system
JP4397217B2 (en) Image generation system, image generation method, program, and information storage medium
JP2004207780A (en) Photo taking apparatus
JP5582958B2 (en) 3D pointer device
JP2010253264A (en) Game device, stereoscopic view image generation method, program, and information storage medium
JP4746795B2 (en) Program, information storage medium, and stereoscopic image generation apparatus
JP4218938B2 (en) Stereoscopic prints
JP3640256B2 (en) Method for producing stereoscopic printed matter, stereoscopic printed matter
JP5085722B2 (en) Image generation system
KR200250437Y1 (en) 3-dimensional image generating device for generating a 3-dimensional image by synthesizing independent 3-dimensional multiple images using a concave mirror
JP4397216B2 (en) Method for producing stereoscopic printed matter, stereoscopic printed matter
JP2007044241A (en) Display device, its control method and game machine
JP2009169155A (en) Method for manufacturing stereoscopic printed matter, stereoscopic printed matter, image generation system, image generation method, program, and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070313

R150 Certificate of patent or registration of utility model

Ref document number: 3933570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100330

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100330

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100330

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100330

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120330

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120330

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140330

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250