JP5616622B2 - 拡張現実感提供方法及び拡張現実感提供システム - Google Patents

拡張現実感提供方法及び拡張現実感提供システム Download PDF

Info

Publication number
JP5616622B2
JP5616622B2 JP2009288176A JP2009288176A JP5616622B2 JP 5616622 B2 JP5616622 B2 JP 5616622B2 JP 2009288176 A JP2009288176 A JP 2009288176A JP 2009288176 A JP2009288176 A JP 2009288176A JP 5616622 B2 JP5616622 B2 JP 5616622B2
Authority
JP
Japan
Prior art keywords
portable terminal
content
server
content data
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009288176A
Other languages
English (en)
Other versions
JP2011128977A (ja
Inventor
政一 山内
政一 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aplix IP Holdings Corp
Original Assignee
Aplix IP Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aplix IP Holdings Corp filed Critical Aplix IP Holdings Corp
Priority to JP2009288176A priority Critical patent/JP5616622B2/ja
Publication of JP2011128977A publication Critical patent/JP2011128977A/ja
Application granted granted Critical
Publication of JP5616622B2 publication Critical patent/JP5616622B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は拡張現実感提供方法及び拡張現実感提供システムに関する。
従来から、現実空間の映像に情報(アノテーション)を重畳して表示する拡張現実感(Augmented Reality;AR)技術が開発されている。このAR技術はコンピュータグラフィックスの一つの応用といえる。例えば下記特許文献1には、景色に関する情報をデータベースから読み出し、当該情報とカメラで撮影された映像とを結合することで得られたイメージを表示する視覚システムが記載されている。また下記特許文献2,3にも、現実空間の映像に拡張コンテンツを重ねて表示する拡張現実表示システムが記載されている。
特表平9−505138号公報 特開2001−92995号公報 特開2001−142604号公報
しかしながら、拡張現実感を提供する技術は、予め用意されているコンテンツを現実空間の映像に重ねて表示するものであり、コンテンツの作成にユーザが参加する態様にはなっていない。
そこで本発明は、ユーザが作成したコンテンツを用いた拡張現実感を提供可能な拡張現実感提供方法及び拡張現実感提供システムを提供することを目的とする。
本発明の拡張現実感提供方法は、第1の携帯端末、第2の携帯端末、及びサーバを備える拡張現実感提供システムにより実行される拡張現実感提供方法であって、第1の携帯端末が、該第1の携帯端末の移動軌跡を検出するステップと、第1の携帯端末が、検出された移動軌跡を描線とするコンテンツデータを生成するステップと、第1の携帯端末が、生成されたコンテンツデータを該第1の携帯端末の現在位置を示す位置情報とともにサーバに送信するステップと、サーバが、第1の携帯端末から送信された位置情報及びコンテンツデータを関連付けて記憶装置に記憶するステップと、サーバが、第2の携帯端末の現在位置を示す位置情報を該第2の携帯端末から受信するステップと、サーバが、第2の携帯端末から受信した位置情報に基づいて、該第2の携帯端末の位置の周辺に対応するコンテンツデータを記憶装置から抽出するステップと、サーバが、抽出されたコンテンツデータを第2の携帯端末に送信するステップと、第2の携帯端末が、サーバから受信したコンテンツデータに基づいて、該第2の携帯端末により撮影された映像内の対応する位置にコンテンツを重畳して表示するステップと、第2の携帯端末が、該第2の携帯端末の移動軌跡を検出するステップと、第2の携帯端末が、検出された該第2の携帯端末の移動軌跡で示される描線のデータを、サーバから受信した、第2の携帯端末の位置の周辺に対応するコンテンツデータに追加するステップと、第2の携帯端末が、描線のデータが追加されたコンテンツデータをサーバに送信するステップと、サーバが、第2の携帯端末から送信されたコンテンツデータを記憶装置に記憶することによりコンテンツデータを更新するステップと、を含むことを特徴とする。
また本発明の拡張現実感提供システムは、第1の携帯端末と、第2の携帯端末と、サーバと、を備え、第1の携帯端末が、第1の携帯端末の移動軌跡を検出する第1検出手段と、第1検出手段により検出された移動軌跡を描線とするコンテンツデータを生成する生成手段と、生成手段により生成されたコンテンツデータを第1の携帯端末の現在位置を示す位置情報とともにサーバに送信する第1送信手段と、を備え、サーバが、第1の携帯端末から送信された位置情報及びコンテンツデータを関連付けて記憶装置に記憶する第1記憶手段と、第2の携帯端末の現在位置を示す位置情報を該第2の携帯端末から受信する受信手段と、受信手段により受信された位置情報に基づいて、第2の携帯端末の位置の周辺に対応するコンテンツデータを記憶装置から抽出する抽出手段と、抽出手段により抽出されたコンテンツデータを第2の携帯端末に送信する第2送信手段と、を備え、第2の携帯端末が、第2の携帯端末の現在位置を示す位置情報をサーバに送信する第3送信手段と、サーバから受信したコンテンツデータに基づいて、第2の携帯端末により撮影された映像内の対応する位置にコンテンツを重畳して表示する表示手段と、第2の携帯端末の移動軌跡を検出する第2検出手段と、第2検出手段により検出された移動軌跡で示される描線のデータを、サーバから受信した、前記第2の携帯端末の位置の周辺に対応するコンテンツデータに追加する追加手段と、追加手段により描線のデータが追加されたコンテンツデータをサーバに送信する第4送信手段と、を備え、サーバが、第4送信手段によって送信されたコンテンツデータを記憶装置に記憶することによりコンテンツデータを更新する第2記憶手段を更に備える、ことを特徴とする。
このような発明によれば、第1の携帯端末においてその移動軌跡に基づいて生成されたコンテンツデータが第1の携帯端末の位置情報とともにサーバに送られ、コンテンツデータとして記憶される。その後、第2の携帯端末がその位置情報をサーバに送ると、その端末の周辺に対応するコンテンツデータが読み出されてサーバから第2の携帯端末に送られる。そして、第2の携帯端末で撮影された映像に合わせてコンテンツが重畳表示される。これにより、ある地点で第1の携帯端末のユーザが作成したコンテンツを、その後に当該地点の近辺に来て撮影をしているユーザの携帯端末(第2の携帯端末)上に現実空間の映像と重ねて表示することができる。すなわち、第1の携帯端末のユーザが作成したコンテンツを用いた拡張現実感を第2の携帯端末のユーザに提供することができる。
また、第2の携帯端末においてその移動軌跡に基づいて生成された描線が、サーバから受信したコンテンツに追加される。そして、新たな描線を含むコンテンツ、すなわち編集されたコンテンツデータがサーバに送られて記憶される。これにより、現実空間の映像に重畳表示されるコンテンツを複数のユーザの共同作業により作成することができる。
本発明の拡張現実感提供方法では、コンテンツを重畳して表示するステップが、第2の携帯端末の位置情報とサーバから受信したコンテンツデータの位置情報とに基づいて算出した距離が所定の閾値以下である場合には、コンテンツの作者に対する所定の支援処理を行うための画面を表示するステップを含んでもよい。
この場合、第2の携帯端末にある程度近い位置で作成されたコンテンツの作者に対する支援処理の画面が表示されるので、コンテンツの作者に何らかの報奨を与えてコンテンツの制作を促すことが可能になる。
このような拡張現実感提供方法及び拡張現実感提供システムによれば、ある地点で第1の携帯端末により作成されたコンテンツが、その後に当該地点の近辺に位置した第2の携帯端末により取得され、第2の携帯端末の撮影画像に重ねて表示されるので、ユーザが作成したコンテンツを用いた拡張現実感を提供することができる。
実施形態に係る拡張現実感提供システムの全体構成を示す図である。 図1に示す第1端末の機能構成を示すブロック図である。 図1に示す携帯端末のハードウェア構成を示す図である。 (a),(b)図1に示す携帯端末の外観を示す図である。 (a)は第1端末の移動軌跡の例を示す図であり、(b)はその軌跡に基づいて表示される描線を示す図である。 (a),(b)は第1端末の移動軌跡に基づいて表示される描線の例を示す図である。 コンテンツの構成例を示す図である。 コンテンツデータの構成例を示す図である。 図1に示すコンテンツサーバの機能構成を示すブロック図である。 図1に示すコンテンツサーバのハードウェア構成を示す図である。 図1に示す第2端末の機能構成を示すブロック図である。 編集されたコンテンツデータの構成例を示す図である。 図1に示す拡張現実感提供システムによるコンテンツの生成及び表示の処理を示すシーケンス図である。 図1に示す拡張現実感提供システムによるコンテンツの編集及び更新の処理を示すシーケンス図である。 図1に示す拡張現実感提供システムによる送金処理を示すシーケンス図である。 (a),(b)は、アニメーションを生成するための軌跡の例を示す図である。 (a)〜(c)は、図16に示す軌跡に基づくアニメーションの表示例を示す図である。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
まず、実施形態に係る拡張現実感提供システム1の機能及び構成を説明する。拡張現実感提供システム1は、ある場所でユーザが携帯端末を動かした軌跡を描線とするコンテンツを作成すると、同じ場所をカメラ視界に入れた携帯端末のライブビュー画像に当該コンテンツが重畳して表示されるシステムである。すなわち、拡張現実感提供システム1はユーザが作成したコンテンツをアノテーションとして表示し拡張現実感を提供するシステム(ARシステム)である。
拡張現実感提供システム1は、最近注目されているアートパフォーマンスの一つであるライトペインティングという手法をARシステム内で実現するものである。ライトペインティングとは、遅いシャッタースピードのカメラにより夜景を長時間露光で撮影しつつ、カメラ視界内でペンライト等の光源を動かすことにより、夜景の映像に光の軌跡によるグラフィックを作成するものである。また、同じ場所で少しずつ光の軌跡を変化させた写真を撮影し、それらを連続的に表示することでアニメーションを作成する場合もある。
このようなライトペインティングと拡張現実感提供システム1を対比すると、ライトペインティングが特定地点で光源を動かすことによりグラフィックを作成するのに対し、拡張現実感提供システム1は特定地点で携帯端末を動かすことによりコンテンツを作成するものであり、いずれもユーザのアナログな操作によって描画が行われる。また、ライトペインティングが特定地点の夜景上で作成されるものであるのに対し、拡張現実感提供システム1はグラフィックコンテンツを特定地点のライブビュー画像に重畳して表示するものであり、いずれも特定地点の風景を背景としたものである。このように、拡張現実感提供システム1はライトペインティングを模した機能を実現する。
拡張現実感提供システム1の構成について説明する。拡張現実感提供システム1は、図1に示すように、ユーザの携帯端末10と、コンテンツデータを管理するコンテンツサーバ20と、寄付に関する処理を実行する送金サーバ30を備えている。携帯端末10とコンテンツサーバ20又は送金サーバ30とは、移動体通信網NaやインターネットNbを含むネットワークNを介して互いに通信することが可能である。図1では携帯端末10を2台示しているが、拡張現実感提供システム1は1台以上の携帯端末10があれば成立し得る。また、図1ではコンテンツサーバ20及び送金サーバ30を1台ずつしか示していないが、負荷分散などのために各サーバを複数設けてもよい。また、コンテンツサーバ20及び送金サーバ30の機能を1台のサーバに集約してもよい。以下では、図1における2台の携帯端末10を第1端末11,第2端末12と区別して説明する。
第1端末11は、ユーザが動かした軌跡を描線とするコンテンツを作成するために使用される。この第1端末11はデータ通信や撮影、測位、マルチメディア処理などの機能を有している。第1端末11の例としては携帯電話機や携帯情報端末(PDA)、携帯ゲーム機などが考えられるが、端末の種類は限定されない。図2に示すように、この第1端末11は機能的構成要素として測位部111、コンテンツ生成部112、送信部113及び3Dグラフィックス生成部114を備えている。
第1端末11のハードウェア構成は図3に示すようなものである。すなわち第1端末11は、オペレーティングシステムやアプリケーションプログラムなどを実行するCPU101と、ROMやRAMで構成される主記憶部102と、メモリなどで構成される補助記憶部103と、データ通信を行う通信制御部104と、入力キーなどで構成される操作部105と、液晶モニタなどで構成される表示部106と、GPS衛星からの信号を受信して測位を行うGPS受信機107と、地磁気を検出して方位を求める電子コンパス等の方位センサ108と、端末に与えられる加速度を検出する加速度センサ109と、カメラ110とを備えている。第1端末11の外観は例えば図4に示す通りであり、操作部105及び表示部106が配置された面(図4(a)参照)と対向する面にカメラ110のレンズが配置されている(図4(b)参照)。
図2に示す第1端末11の各機能は、CPU101及び主記憶部102の上に所定のプログラムを読み込ませ、CPU101の制御の下で通信制御部104、操作部105、表示部106、GPS受信機107、方位センサ108、加速度センサ109及びカメラ110を動作させるとともに、主記憶部102や補助記憶部103に対してデータの読み出し又は書き込みを行うことで実現される。
図2に戻って、測位部111は第1端末11の現在位置を取得する手段であり、GPS受信機107などにより実現される。測位部111は、GPS衛星から受信した電波などに基づいて第1端末11の現在位置(緯度経度)を算出し、その位置を示す位置情報を生成して生成部112bに出力する。
コンテンツ生成部112は、コンテンツを描くための操作画面をユーザに提供し、その画面を介してユーザから入力された指示を受け付けてコンテンツを生成する手段である。
コンテンツ生成部112の機能を説明する前に、図5,6を用いて、ユーザの立場から見たコンテンツ作成の方法を説明する。ユーザは操作画面上で所定のメニューを選択してコンテンツの作成を開始し、第1端末11を任意の方向に動かすことで、その軌跡を描線とするコンテンツを作成する。例えば図5(a)に示すように、ユーザが始点Sからハート形のような軌跡TRで第1端末11を動かし、終点Eでその移動(描画)を打ち切ると、軌跡TRに沿った三次元グラフィック(3Dグラフィック)L1が生成され、図5(b)に示すように第1端末11の表示部106に表示される。コンテンツ生成部112はこの3DグラフィックL1を成す軌跡データを一つの「パス」として管理する。なお、図5(b)の例では表示部106にカメラ110の映像(現実空間の映像)が表示されているが、これはコンテンツを構成しない。なお、生成されるグラフィックは二次元のものでもよい。
ユーザはそこで描画操作を止めてコンテンツを完成させてもよいし(図5(b)参照)、更に線を追加してより複雑なコンテンツを作成してもよい。例えば、ユーザは図6(a)に示すように3DグラフィックL2,L3を更に追加して、複数の描線で構成されるコンテンツを作ることができる。その場合にコンテンツ生成部112は、3DグラフィックL1,L2,L3を成す複数のパスを一つの「フレーム」として管理する。また、ユーザが図5(b)あるいは図6(a)に示すフレームを作成した時点で処理を終了させた場合には、コンテンツ生成部112はそのフレームを一つの「コンテンツ」として管理する。
ユーザは複数フレームで構成されるコンテンツを作成してもよい。例えば図6(b)に示すように、図6(a)に示すコンテンツのコピーから3DグラフィックL3を消去して代わりに3DグラフィックL4を追加することで、ユーザは図6(a),(b)に示す二つのフレームから成るアニメーションを得ることができる。この場合、コンテンツ生成部112はこれら二つのコンテンツ(フレーム)から成るコンテンツを一つのコンテンツとして管理する。
すなわち、コンテンツは一以上のフレームで構成され、フレームは一以上のパスで構成される。図7の例では、コンテンツCはフレームF1,F2から構成されている。フレームF1は三つのパスP11,P12,P13から構成され、フレームF2は三つのパスP21,P22,P23から構成されている。
上記のようなコンテンツの作成を実現するために、コンテンツ生成部112は軌跡検出部112a及び生成部112bを備えている。
軌跡検出部112aは第1端末11の移動軌跡を検出する手段であり、方位センサ108や加速度センサ109などにより実現される。具体的には、軌跡検出部112aは移動軌跡を示すデータ(軌跡データ)を検出し、そのデータを所定の時間間隔で生成部112bに出力する。検出される軌跡データは、例えば加速度センサ109から出力された加速度のデータである。
生成部112bは、軌跡検出部112aから入力された軌跡データを、パスをなすパスデータ、フレームをなすフレームデータ、コンテンツをなすコンテンツデータとして蓄積してコンテンツを生成する手段である。
コンテンツの作成を開始するための指示をユーザが入力すると、生成部112bは測位部111から位置情報を取得する。続いて、生成部112bは新規のコンテンツ・オブジェクトを初期化する処理を実行し、更にそのコンテンツを構成する新規のフレーム・オブジェクトを初期化する処理を実行する。
続いて、生成部112bは描線の属性(例えば色や幅など)を選択するための画面をユーザに提供し、ユーザが属性を確定して描画開始の指示を入力すると、生成部112bは軌跡検出部112aから入力される軌跡データを記録し始める。生成部112bは、所定の時間間隔毎に、記録された軌跡データに基づいてベクトルを算出し保持する。ユーザが一本の描線(パス)の作成を終えてその線を確定させる指示を入力すると、生成部112bは線の属性及び算出した一以上のベクトルを含むパスデータを生成し、フレーム・オブジェクトと関連付けて保持する。すなわち、生成部112bはパスデータをフレームに追加する。このようなパスデータの生成及び追加は、ユーザがフレームを確定させる指示を入力するまで繰り返し実行され得る。
1フレーム分の入力を確定させる指示をユーザが入力すると、生成部112bは一以上のパスデータから成るフレーム・オブジェクトをコンテンツ・オブジェクトに関連付けて保持する。すなわち、生成部112bはフレームをコンテンツに追加する。このようなフレームの作成及び追加は、ユーザがコンテンツを確定させる指示を入力するまで繰り返し実行され得る。
作成したコンテンツを確定させる指示をユーザが入力すると、生成部112bは確定されたコンテンツデータを送信部113に出力する。このコンテンツデータは、図8に示すように、コンテンツを識別するコンテンツIDと、測位部111から入力された位置情報と、フレームを識別するフレームIDと、パスの識別子、色、幅、及び一以上のベクトルから成るパスデータと、コンテンツの作者(第1端末11のユーザ)を示す作者IDとを含んで構成される。
図8のパスデータに関して言うと、例えばパスデータ「P(1)=(color,width,S(0),S(1),…,S(i))」は、識別子がP(1)であり、色がcolorであり、幅がwidthであり、且つi個のベクトルSで示されるパスを示している。作者IDは、コンテンツではなく個々のパスに関連付けられる。これは、あるユーザが作成したコンテンツに別のユーザがパス又はフレームを追加できるようにするためであるが、この詳細は後述する。
送信部113は、生成部112bから入力されたコンテンツデータをコンテンツサーバ20に送信する手段である。図8の例からも分かるように、この送信の時点でコンテンツデータには第1端末11の位置情報及び作者IDが関連付けられている。
3Dグラフィックス生成部114は、コンテンツ作成中に生成部112bから入力されてくるパスデータに基づいて3Dグラフィックスを生成し、表示部106に出力する手段である。これにより、表示部106には入力中のデータに基づく3Dグラフィックスが表示される。
コンテンツサーバ20は、第1端末11から受信したコンテンツデータを記憶し、第2端末12からの要求に応じてコンテンツを提供するコンピュータである。また、コンテンツサーバ20は第2端末12で編集されたコンテンツデータを当該端末から受信し記憶する。図9に示すように、このコンテンツサーバ20は機能的構成要素として受信部21、記憶部22、抽出部23及び送信部24を備えている。
コンテンツサーバ20のハードウェア構成は図10に示すようなものである。すなわちコンテンツサーバ20は、オペレーティングシステムやアプリケーションプログラムなどを実行するCPU201と、ROMやRAMで構成される主記憶部202と、ハードディスクなどで構成される補助記憶部203と、データの送受信を行う通信制御部204と、キーボードやマウスなどで構成される入力部205と、モニタなどで構成される出力部206とを備えている。図9に示すコンテンツサーバ20の各機能は、CPU201又は主記憶部202上に所定のプログラムを読み込ませ、CPU201の制御の下で通信制御部204、入力部205及び出力部206を動作させるとともに、主記憶部202又は補助記憶部203に対してデータの読み出し又は書き込みを行うことで実現される。
図9に戻って、受信部21は第1端末11又は第2端末12から送られてきたデータ又は信号を受信する手段である。具体的には、受信部21は第1端末11又は第2端末12からコンテンツデータを受信して記憶部22に出力する。また、受信部21は第2端末12の現在位置(緯度経度)を示す位置情報を当該端末から受信して抽出部23に出力する。
記憶部22は、受信部21から入力されたコンテンツデータを記憶する手段である。本実施形態では、入力された時点で既にコンテンツデータに位置情報及び作者IDが含まれているので、記憶部22はそのコンテンツデータをそのまま記憶すればよい。なお、記憶部22は補助記憶部203などにより実現されてもよいし、コンテンツサーバ20とネットワークで接続された別の記憶装置などにより実現されてもよい。
抽出部23は、受信部21から入力された第2端末12の位置情報に基づいて、当該端末の位置の周辺に対応するコンテンツデータを記憶部22から抽出する手段である。抽出部23は入力された位置情報と記憶部22に記憶されているコンテンツデータの位置情報とを比較して、第2端末12の位置から所定の範囲内(例えば半径数十メートルの範囲内)で作成されたコンテンツデータの情報(例えば位置情報)を記憶部22から読み出す。そして抽出部23は読み出したコンテンツデータの情報を送信部113に出力する。
送信部113は、抽出部23から入力されたデータや情報を第2端末12に送信する手段である。
第2端末12は、第1端末11のユーザが作成したコンテンツを取得し、そのコンテンツを現実空間の映像に重畳して表示する携帯端末である。すなわち、第2端末12はユーザに拡張現実感を提供する。この第2端末12も第1端末11と同様にデータ通信や撮影、測位、マルチメディア処理などの機能を有している。第2端末12の例としては、やはり第1端末11と同様に、携帯電話機や携帯情報端末(PDA)、携帯ゲーム機などが考えられるが、端末の種類は限定されない。
この第2端末12は、図11に示すように機能的構成要素として測位部121、送信部122、受信部123、表示制御部124、コンテンツ生成部125、及び送金指示部126を備えている。第2端末12のハードウェア構成は図3,4に示すものと同じであり、そのハードウェア上での各種機能の実現方法は第1端末11と同様なので、これらの説明を省略する。
測位部121は第2端末12の現在位置を取得する手段であり、GPS受信機107などにより実現される。カメラ110を起動して撮影しているユーザがコンテンツデータを得るための指示を入力すると、測位部121はGPS衛星から受信した電波などに基づいて第2端末12の現在位置(緯度経度)を算出し、その位置を示す位置情報を生成して送信部122に出力する。
送信部122は、各種データを送信する手段である。具体的には、送信部122は測位部121から入力された位置情報や、生成部125bから入力されたコンテンツデータをコンテンツサーバ20に送信する。また、送信部122は送金指示部126から入力された送金情報を送金サーバ30に送信する。
受信部123は、第2端末12の位置情報に基づいてコンテンツサーバ20で抽出及び送信されたコンテンツデータ又はその情報を受信する手段である。受信部123は受信したデータ又は情報を表示制御部124に出力する。
表示制御部124は、受信部123から入力されたコンテンツデータに基づいて生成した3Dグラフィックス(コンテンツ)を、第2端末12により撮影された映像内の対応する位置に重畳して表示する手段である。表示制御部124は方位センサ108の検出結果及びGPS受信機107による測位に基づいて現在の撮影範囲(カメラの視界)を算出する。続いて表示制御部124は、算出した撮影範囲とコンテンツデータの位置情報とを比較して、その範囲内に表示され得るコンテンツデータを選択する。続いて表示制御部124は、撮影範囲内におけるコンテンツの表示位置を算出した上で、そのコンテンツを示すアイコンを表示部106に映されている現実空間の映像に重畳して表示する。
これにより、ユーザはカメラ視界内のどこでコンテンツが作られたかを知ることができる。ユーザはアイコンを選択し、そのアイコンに対応するコンテンツを表示又は編集することができる。
ユーザが特定のアイコンを選択し、更にコンテンツ表示を選択すると、表示制御部124はそのアイコンに対応するコンテンツデータをコンテンツサーバ20から取得し、取得したデータに基づいて3Dグラフィックスを生成する。そして、表示制御部124はそのグラフィックスをコンテンツとして表示部106に表示する。このとき、表示制御部124はコンテンツデータと、方位センサ108の検出結果及びGPS受信機107による測位結果とに基づいて、表示部106における描画の位置、大きさ及び角度を決定し、3Dグラフィックスのレンダリングを行う。これにより、第1端末11で作成されたコンテンツがカメラ110で撮影されている現実空間の映像に重畳して表示される。ユーザが選択したアイコンのコンテンツが複数フレームで構成されている場合には、表示制御部124はそれらのフレームを順に切り替えることで被選択コンテンツをアニメーションとして表示する。
コンテンツ生成部125は、重畳表示されたコンテンツを編集するための操作画面をユーザに提供し、その画面を介してユーザから入力された指示を受け付けてコンテンツに描線を追加する手段である。
コンテンツ生成部125の機能を説明する前に、ユーザの立場から見たコンテンツ編集方法を説明する。ユーザが、表示制御部124により表示部106に表示されたアイコンを選択し、更にコンテンツ編集を選択すると、コンテンツへのフレームの追加、又は特定のフレームへのパスの追加を選択可能なメニュー画面が表示される。
フレーム追加を選択した場合には、アイコンに対応するコンテンツの各フレームがサムネイル表示される。ユーザはそのサムネイルから特定のフレームを選択することで、そのフレームの直後に新しいフレームを挿入できる。一方、パス追加を選択した場合にも、アイコンに対応するコンテンツの各フレームがサムネイル表示される。ユーザがそのサムネイルから特定のフレームを選択すると当該フレームが表示部106上にフルサイズ表示され、ユーザはそのフレームに新規のパスを追加できる。
上記のような編集処理を実現するために、コンテンツ生成部125は軌跡検出部125a及び生成部125bを備えている。軌跡検出部125aの機能は第1端末11の軌跡検出部112aと同様である。生成部125bの機能も基本的に第1端末11の生成部112bと同様だが、生成部125bは既に作成されたコンテンツデータを編集する手段でありこの点で生成部112bと異なるので、以下では生成部125bの機能について補足説明する。
ユーザがフレーム追加処理を選択すると、生成部125bは新規のフレーム・オブジェクトを初期化する処理を実行する。続いて生成部125bは、第1端末11の生成部112bと同様に、描線の属性を選択するための画面をユーザに提供し、ユーザが描線の属性を確定して描画開始の指示を入力すると、軌跡検出部125aから入力される軌跡データを記録し始める。そして生成部125bは、第1端末11の生成部112bと同様にパスデータを生成し、フレーム・オブジェクトと関連付けて保持する。その後、フレームを確定させる指示をユーザが入力すると、生成部125bはフレーム・オブジェクトを、ユーザに選択されているコンテンツデータに関連付けて保持する。すなわち、生成部125bはフレームをコンテンツに追加する。このようなフレームの追加は、ユーザがコンテンツを確定させる指示を入力するまで繰り返し実行され得る。
一方、ユーザがパス追加処理を選択すると、生成部125bは、描線の属性を選択するための画面をユーザに提供する。そしてユーザが描線の属性を確定して描画開始の指示を入力すると、生成部125bは上述したように軌跡検出部125aからの軌跡データに基づいてパスデータを生成し、ユーザに選択されているフレームのオブジェクトにそのパスデータを関連付けて保持する。すなわち、生成部125bは選択されているフレームにパスを追加する。このようなパスデータの追加は、ユーザがフレームを確定させる指示を入力するまで繰り返し実行され得る。
コンテンツを確定させる指示をユーザが入力すると、生成部125bは編集されたコンテンツデータを送信部122に出力する。例えば図8に示すコンテンツデータは生成部125bの処理により図12のように変更される。図12の例は、作者IDが「0002」である第2端末12のユーザにより、フレームF(2)とフレームF(4)(旧フレームF(3))との間にフレームF(3)が挿入され、フレームF(4)にパスP(k)が追加されたことを示している。
送金指示部126は、コンテンツ作者への送金に関する指示を受け付ける手段である。ユーザにより選択されたコンテンツが表示制御部124により表示部106に表示されると、送金指示部126は測位部121で算出された第2端末12の位置情報とそのコンテンツの位置情報とに基づいて、第2端末12からコンテンツの作成位置までの距離dを算出する。続いて送金指示部126は、予め内部に記憶している閾値と算出した距離dとを比較し、距離dがその閾値以下であれば、コンテンツの作者に寄付をするか否かをユーザに選択させるための画面を表示部106に表示する。
ユーザがその画面上で寄付を選択した場合には、送金指示部126は第2端末12のユーザからコンテンツ作者への寄付が発生することを示す送金情報を生成して送信部122に出力する。この送金情報には、第2端末12又はそのユーザを特定するIDと、コンテンツデータから取得された作者IDとが含まれる。なお、送金指示部126は寄付金額の入力を受け付け、入力された金額を送金情報に含めてもよい。この送金情報は送金サーバ30に送られ、所定の手法(例えばマイクロ・ペイメント・システム)により処理される。
次に、図13〜15を用いて、図1に示す拡張現実感提供システム1の動作を説明するとともに本実施形態に係る拡張現実感提供方法について説明する。
第1端末11で作成されたコンテンツを第2端末12で表示する処理は図13に示すように行われる。まず、第1端末11において測位部111が当該端末の現在位置を測定し(ステップS101)、続いてコンテンツ生成部112がユーザの操作に応じてコンテンツデータを生成する(ステップS102)。ステップS102の処理は、軌跡検出部112aが第1端末11の動きを検出して軌跡データを生成し、生成部112bがその軌跡データに基づいてパスデータやフレーム・オブジェクト、コンテンツ・オブジェクトを生成することで実現される。続いて、送信部113が生成されたコンテンツデータをコンテンツサーバ20に送信する(ステップS103)。このコンテンツデータには第1端末11の位置情報と、当該端末のユーザを示す作者IDとが含まれている。コンテンツサーバ20では、受信部21がコンテンツデータを受信し、記憶部22がそのデータを記憶する(ステップS104)。
その後、第2端末12においてそのユーザがコンテンツを取得する操作を実行すると、測位部121が当該端末の現在位置を測定し(ステップS105)、送信部122がその位置を示す位置情報をコンテンツサーバ20に送信する(ステップS106)。コンテンツサーバ20では、受信部21がその位置情報を受信し、抽出部23が第2端末12の位置の周囲で作成されたコンテンツデータをその位置情報に基づいて抽出する(ステップS107)。続いて、送信部24が抽出されたコンテンツデータを第2端末12に送信する(ステップS108)。
第2端末12では、受信部123がコンテンツデータを受信し、表示制御部124がカメラ110で撮影されている範囲に表示され得るコンテンツデータを受信データの中から抽出する(ステップS109)。そして表示制御部124は、ユーザが選択したコンテンツデータに基づいて3Dグラフィックスをレンダリングし、カメラ110の映像に重畳して表示する(ステップS110)。
第2端末12でのコンテンツの編集は図14に示すように行われる。図13に示す処理により第2端末12がコンテンツデータを取得した後に、ユーザが特定のコンテンツを編集する操作を行うと、コンテンツ生成部125がその操作に応じてコンテンツデータを編集する(ステップS201)。ステップS201の処理は、軌跡検出部125aが第2端末12の動きを検出して軌跡データを生成し、生成部125bがその軌跡データに基づいてパスデータやフレーム・オブジェクトを追加作成することで実現される。続いて、送信部122が編集されたコンテンツデータをコンテンツサーバ20に送信する(ステップS202)。コンテンツサーバ20では、受信部21がコンテンツデータを受信し、記憶部22がそのデータを記憶する(ステップS203)。これによりコンテンツデータが更新される。
第2端末12での送金指示は図15に示すように行われる。図13に示す処理により第2端末12がコンテンツデータを取得し、その中からユーザが特定のコンテンツを選択すると、送金指示部126が第2端末12と選択されたコンテンツとの距離を算出する(ステップS301)続いて送金指示部126は、その距離が所定の閾値以下である場合に、送金(寄付)の指示を受け付け、そこで第2端末12のユーザが寄付を選択した場合には送金情報を生成する(ステップS302)。そして、送信部122がその送金情報を送金サーバ30に送信する(ステップS303)。送金サーバ30は、その送金情報に基づいて所定の送金処理を実行する(ステップS304)。
以上説明したように、本実施形態によれば、第1端末11においてその移動軌跡に基づいて生成されたコンテンツデータ(コンテンツID、フレームID、パスデータ)が第1端末11の位置情報とともにコンテンツサーバ20に送られ、記憶される。その後、第2端末12がその位置情報をコンテンツサーバ20に送ると、その端末の周辺に対応するコンテンツデータが読み出されて第2端末12に送られる。そして、第2端末12で撮影された映像に合わせて、コンテンツデータから生成された3Dグラフィックスがレンダリングされ重畳表示される。これにより、ある地点で第1端末11のユーザが作成したコンテンツを、その後に当該地点の近辺に来たユーザの携帯端末(第2端末12)上に現実空間の映像と重ねて表示することができる。すなわち、第1端末11のユーザが作成したコンテンツを用いた拡張現実感を第2端末12のユーザに提供することができる。
また本実施形態によれば、第2端末12においてその移動軌跡に基づいて生成された描線が、コンテンツサーバ20から受信したコンテンツに追加される。そして、新たな描線を含むコンテンツ、すなわち編集されたコンテンツデータがコンテンツサーバ20に送られて記憶される。これにより、現実空間の映像に重畳表示されるコンテンツを複数のユーザの共同作業により作成することができる。
また本実施形態によれば、第2端末12にある程度近い位置で作成されたコンテンツの作者に対する送金(寄付)処理の画面が表示されるので、コンテンツの作者に金銭を与えてコンテンツの制作を促すことが可能になる。
また本実施形態によれば、ユーザは携帯端末10を動かすことでコンテンツを作成できるので、通常のライトペインティングのようにペンライトなどの光源の動きを長時間露光で撮影する手法と比較してコンテンツの作成が容易になる。また、一度完成したコンテンツに後から描線を追加することも容易になる。
このように本実施形態によれば、携帯端末10のユーザはコンテンツの作成に手軽に参加したり、従来にない拡張現実感を経験したりすることができる。
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
本発明で使用する携帯端末は、当然ながら上記実施形態における第1端末11及び第2端末12の双方の機能を備えたものでもよい。この場合には、1台の携帯端末でコンテンツの新規作成や編集、寄付行為などを行うことができる。また、このような携帯端末を使えば、ユーザは自作してコンテンツサーバ20に送ったコンテンツを再度取得して現実空間の映像に重ねて確認したり、そのコンテンツにさらに描線を加えてコンテンツサーバ20に保存したりすることもできる。
上記実施形態では、コンテンツの作者に送金(寄付)するための画面が第2端末12上で表示されたが、当該作者を支援する手法はこれに限定されない。例えば、作者に金銭以外の支援(例えば応援や評価のコメントなど)を送るための画面を第2端末12上に表示させてもよい。また、送金指示部126は、第2端末12とコンテンツとの距離を算出することなく、当該端末のユーザにより選択されたコンテンツの作者に寄付するための画面を表示してもよい。
第2の携帯端末は、コンテンツを現実空間の映像に重畳して表示する機能のみを備えてもよい。すなわち、上記のコンテンツ生成部125や送金指示部126に相当する機能は本発明において必須ではない。
また、上記実施形態では、コンテンツに含まれる複数のフレームを順に切り替えることでアニメーション表示を実現したが、アニメーション表示を実現する方法はこれに限るものではなく、種々の方法が可能である。例えば、第1の携帯端末11を図16(a),(b)に示す軌跡を描くように動かしてパスデータP31,P32を作成し、図17に示すように、パスデータP31から生成した3DグラフィックスGを、パスデータP32から生成された軌道R上で移動させることによりアニメーションを実現することも可能である。図17(a)は第1の携帯端末11の画面上に規定された軌道Rを示した図面であり、図17(b)は軌道R上に3DグラフィックスGを表示した状態を示す図面であり、図17(c)は軌道Rに沿って3DグラフィックスGを移動させる態様を説明するための図面である。図17(c)の例では、初期位置に表示された3DグラフィックスGを軌道Rに沿ってG´、G″と移動させることによりアニメーションを実現している。
さらに、上記実施形態では、パスデータから3Dグラフィックスを生成し、これをレンダリングして画面に表示する場合について説明したが、生成された3Dグラフィックスを軌道として光点(高輝度の点)を表示し、光点を移動させながら表示を行うようにしてもよい。この場合、光点の動いた軌跡の一部が残像として表示されるようにすれば、実世界におけるライトペインティングの一手法を拡張現実システムで再現することができる。
1…拡張現実感提供システム、11…第1端末(第1の携帯端末)、111…測位部、112…コンテンツ生成部(生成手段)、112a…軌跡検出部(検出手段)、112b…生成部、113…送信部(第1送信手段)、114…3Dグラフィックス生成部、12…第2端末(第2の携帯端末)、121…測位部、122…送信部(第3送信手段)、123…受信部、124…表示制御部(表示手段)、125…コンテンツ生成部、125a…軌跡検出部、125b…生成部、126…送金指示部、20…コンテンツサーバ、21…受信部(受信手段)、22…記憶部(記憶手段)、23…抽出部(抽出手段)、24…送信部(第2送信手段)、30…送金サーバ。

Claims (3)

  1. 第1の携帯端末、第2の携帯端末、及びサーバを備える拡張現実感提供システムにより実行される拡張現実感提供方法であって、
    前記第1の携帯端末が、該第1の携帯端末の移動軌跡を検出するステップと、
    前記第1の携帯端末が、検出された前記移動軌跡を描線とするコンテンツデータを生成するステップと、
    前記第1の携帯端末が、生成された前記コンテンツデータを該第1の携帯端末の現在位置を示す位置情報とともに前記サーバに送信するステップと、
    前記サーバが、前記第1の携帯端末から送信された位置情報及びコンテンツデータを関連付けて記憶装置に記憶するステップと、
    前記サーバが、前記第2の携帯端末の現在位置を示す位置情報を該第2の携帯端末から受信するステップと、
    前記サーバが、前記第2の携帯端末から受信した前記位置情報に基づいて、該第2の携帯端末の位置の周辺に対応するコンテンツデータを前記記憶装置から抽出するステップと、
    前記サーバが、抽出された前記コンテンツデータを前記第2の携帯端末に送信するステップと、
    前記第2の携帯端末が、前記サーバから受信したコンテンツデータに基づいて、該第2の携帯端末により撮影された映像内の対応する位置にコンテンツを重畳して表示するステップと、
    前記第2の携帯端末が、該第2の携帯端末の移動軌跡を検出するステップと、
    前記第2の携帯端末が、検出された該第2の携帯端末の移動軌跡で示される描線のデータを、前記サーバから受信した、前記第2の携帯端末の位置の周辺に対応するコンテンツデータに追加するステップと、
    前記第2の携帯端末が、前記描線のデータが追加されたコンテンツデータを前記サーバに送信するステップと、
    前記サーバが、前記第2の携帯端末から送信されたコンテンツデータを前記記憶装置に記憶することによりコンテンツデータを更新するステップと、
    を含むことを特徴とする拡張現実感提供方法。
  2. 前記コンテンツを重畳して表示するステップが、前記第2の携帯端末の位置情報と前記サーバから受信したコンテンツデータの位置情報とに基づいて算出した距離が所定の閾値以下である場合には、前記コンテンツの作者に対する所定の支援処理を行うための画面を表示するステップを含む、
    ことを特徴とする請求項1に記載の拡張現実感提供方法。
  3. 第1の携帯端末と、
    第2の携帯端末と、
    サーバと、
    を備え、
    前記第1の携帯端末が、
    前記第1の携帯端末の移動軌跡を検出する第1検出手段と、
    前記第1検出手段により検出された移動軌跡を描線とするコンテンツデータを生成する生成手段と、
    前記生成手段により生成されたコンテンツデータを前記第1の携帯端末の現在位置を示す位置情報とともに前記サーバに送信する第1送信手段と、
    を備え、
    前記サーバが、
    前記第1の携帯端末から送信された位置情報及びコンテンツデータを関連付けて記憶装置に記憶する第1記憶手段と、
    前記第2の携帯端末の現在位置を示す位置情報を該第2の携帯端末から受信する受信手段と、
    前記受信手段により受信された位置情報に基づいて、前記第2の携帯端末の位置の周辺に対応するコンテンツデータを前記記憶装置から抽出する抽出手段と、
    前記抽出手段により抽出されたコンテンツデータを前記第2の携帯端末に送信する第2送信手段と、
    を備え、
    前記第2の携帯端末が、
    前記第2の携帯端末の現在位置を示す位置情報を前記サーバに送信する第3送信手段と、
    前記サーバから受信した前記コンテンツデータに基づいて、前記第2の携帯端末により撮影された映像内の対応する位置にコンテンツを重畳して表示する表示手段と、
    前記第2の携帯端末の移動軌跡を検出する第2検出手段と、
    前記第2検出手段により検出された移動軌跡で示される描線のデータを、前記サーバから受信した、前記第2の携帯端末の位置の周辺に対応するコンテンツデータに追加する追加手段と、
    前記追加手段により前記描線のデータが追加されたコンテンツデータを前記サーバに送信する第4送信手段と、
    を備え、
    前記サーバが、
    前記第4送信手段によって送信されたコンテンツデータを前記記憶装置に記憶することによりコンテンツデータを更新する第2記憶手段を更に備える、
    ことを特徴とする拡張現実感提供システム。
JP2009288176A 2009-12-18 2009-12-18 拡張現実感提供方法及び拡張現実感提供システム Expired - Fee Related JP5616622B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009288176A JP5616622B2 (ja) 2009-12-18 2009-12-18 拡張現実感提供方法及び拡張現実感提供システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009288176A JP5616622B2 (ja) 2009-12-18 2009-12-18 拡張現実感提供方法及び拡張現実感提供システム

Publications (2)

Publication Number Publication Date
JP2011128977A JP2011128977A (ja) 2011-06-30
JP5616622B2 true JP5616622B2 (ja) 2014-10-29

Family

ID=44291495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009288176A Expired - Fee Related JP5616622B2 (ja) 2009-12-18 2009-12-18 拡張現実感提供方法及び拡張現実感提供システム

Country Status (1)

Country Link
JP (1) JP5616622B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5846075B2 (ja) * 2011-08-31 2016-01-20 辰巳電子工業株式会社 画像データ提供装置、写真撮影遊戯装置、画像データ提供システム、及び画像生成方法
IN2014CN03530A (ja) * 2011-11-08 2015-07-03 Vidinoti Sa
WO2015112926A1 (en) 2014-01-24 2015-07-30 Pcms Holdings, Inc. Methods, apparatus, systems, devices, and computer program products for augmenting reality in connection with the real world places
TWI615776B (zh) * 2016-12-23 2018-02-21 李雨暹 移動物件的虛擬訊息建立方法、搜尋方法與應用系統
JP6548241B1 (ja) * 2018-07-14 2019-07-24 株式会社アンジー 拡張現実プログラム及び情報処理装置
JP2022102041A (ja) * 2020-12-25 2022-07-07 時男 後藤 三次元アノテーション描写システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4140898B2 (ja) * 2003-08-20 2008-08-27 日本電信電話株式会社 情報提示装置および情報提示装置の使用方法
JP4377863B2 (ja) * 2005-09-01 2009-12-02 ソフトバンクモバイル株式会社 運動軌跡情報処理方法及び携帯情報装置
JP2007102462A (ja) * 2005-10-04 2007-04-19 Nippon Telegr & Teleph Corp <Ntt> 画像合成方法、システム、端末、および画像合成プログラム
US20070152961A1 (en) * 2005-12-30 2007-07-05 Dunton Randy R User interface for a media device
US20080071725A1 (en) * 2006-09-01 2008-03-20 Yahoo! Inc. User-converted media marketplace
JP2008305108A (ja) * 2007-06-06 2008-12-18 Sharp Corp 手書き入力装置およびその制御方法、手書き入力制御プログラム、並びに、該プログラムを記録した記録媒体
JP5067850B2 (ja) * 2007-08-02 2012-11-07 キヤノン株式会社 システム、頭部装着型表示装置、その制御方法
US7844229B2 (en) * 2007-09-21 2010-11-30 Motorola Mobility, Inc Mobile virtual and augmented reality system
US20090237328A1 (en) * 2008-03-20 2009-09-24 Motorola, Inc. Mobile virtual and augmented reality system
US8184092B2 (en) * 2008-05-22 2012-05-22 International Business Machines Corporation Simulation of writing on game consoles through the use of motion-sensing technology

Also Published As

Publication number Publication date
JP2011128977A (ja) 2011-06-30

Similar Documents

Publication Publication Date Title
US11663785B2 (en) Augmented and virtual reality
CN110300909B (zh) 用于显示交互式增强现实展示的***、方法和介质
MacIntyre et al. The Argon AR Web Browser and standards-based AR application environment
JP5616622B2 (ja) 拡張現実感提供方法及び拡張現実感提供システム
KR20230096043A (ko) 실시간 3d 신체 모션 캡처로부터의 사이드-바이-사이드 캐릭터 애니메이션
KR20230107844A (ko) 개인화된 아바타 실시간 모션 캡처
CN111701238A (zh) 虚拟画卷的显示方法、装置、设备及存储介质
KR20230023824A (ko) 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체
KR20110093664A (ko) 데이터 송신 방법 및 시스템
KR20230107655A (ko) 신체 애니메이션 공유 및 재혼합
JP2013162487A (ja) 画像表示装置及び撮像装置
CN105302860A (zh) 用于操纵全景的技术
KR20140082610A (ko) 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
JP5512378B2 (ja) オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法
CN116671121A (zh) 用于多视频片段捕获的ar内容
CN115777194A (zh) 包括外部资源停靠栏和抽屉的消息收发***
CN116710881A (zh) 针对多视频片段捕获选择音频
CN116685995A (zh) 向捕获的视频添加基于时间的字幕
CN113747199A (zh) 视频编辑方法、装置、电子设备、存储介质及程序产品
JP2011138258A (ja) 景観再現システム
CN115803783A (zh) 从2d图像重建3d对象模型
US20230140504A1 (en) Accessing web-based fragments for display
JP5596844B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
KR102248080B1 (ko) 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템
KR102161437B1 (ko) 증강현실의 공간맵을 이용한 콘텐츠 공유 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140912

R150 Certificate of patent or registration of utility model

Ref document number: 5616622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees