JP2011041020A - 携帯端末、表示方法及び表示システム - Google Patents

携帯端末、表示方法及び表示システム Download PDF

Info

Publication number
JP2011041020A
JP2011041020A JP2009186799A JP2009186799A JP2011041020A JP 2011041020 A JP2011041020 A JP 2011041020A JP 2009186799 A JP2009186799 A JP 2009186799A JP 2009186799 A JP2009186799 A JP 2009186799A JP 2011041020 A JP2011041020 A JP 2011041020A
Authority
JP
Japan
Prior art keywords
information
video data
server
mobile terminal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009186799A
Other languages
English (en)
Inventor
Shinji Sato
伸二 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Ericsson Mobile Communications Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications Japan Inc filed Critical Sony Ericsson Mobile Communications Japan Inc
Priority to JP2009186799A priority Critical patent/JP2011041020A/ja
Publication of JP2011041020A publication Critical patent/JP2011041020A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)

Abstract

【課題】簡易な構成によって、壁や障害物等の向こう側にある景色を携帯端末の表示画面上に表示させる。
【解決手段】所定の風景又は建築物を撮影して得られた複数の映像データを蓄積したサーバ20との間でデータの送受信を行う通信部13と、サーバ20から送信された映像データを表示する表示部12と、携帯端末10の位置情報を検出する位置検出部15と、携帯端末10の向いている方向の情報を検出する姿勢検出部16とを備えた。そして、位置検出部15で検出された位置情報と、姿勢検出部16で検出された方向の情報とに基づいて、サーバ20に対して所定の映像データを特定するための特定情報を生成して送信するとともに、特定情報に基づいてサーバ20によって抽出及び送信された映像データを表示部12に表示させるようにした。
【選択図】図1

Description

本発明は、携帯端末、表示方法及び表示システムに関し、特に室内あるいは障害物の陰等の場所において、室外あるいは障害物の向こう側の景色を携帯端末の画面上に表示させる技術に関する。
景色を携帯端末の表示画面上に表示するという観点においては、従来は、携帯端末に内蔵されたカメラによって撮影された映像を表示画面上に表示することが行われている。しかし、この手法においては、表示画面に表示できるのは携帯端末に内蔵されたカメラで捉えられる映像のみとなる。すなわち、携帯電話端末のユーザが室内あるいは障害物の陰に位置する場合には、室外あるいは障害物の向こう側にある景色をカメラは捉えることができないため、これらの景色を表示画面上に表示することはできない。
このような壁や障害物の向こう側の像を、X線やサーモグラフィを用いて得ることも技術的には可能である。また、壁や障害物の向こう側の像をCG(コンピュータグラフィックス)によって予め生成しておき、ゴーグル等の装置を通してCG画像を視聴可能とすることも行われている。例えば特許文献1には、CGにより作成した仮想立体映像情報を、ユーザがゴーグルを通して見ている現実空間内にはめ込んで表示させる技術が記載されている。
特開2000−155855号公報
しかしながら、上述したような従来の技術は、その実現にコストがかかってしまう、装置が大型化してしまう、人体に悪影響を与える場合もある、得られる画像の質があまり良くない等の問題がある。これにより、このような技術を携帯端末に組み込むことが困難であるという問題があった。
本発明はかかる点に鑑みてなされたものであり、簡易な構成によって、壁や障害物等の向こう側にある景色を携帯端末の表示画面上に表示させることを目的とする。
本発明の一側面の携帯端末は、所定の風景又は建築物を撮影して得られた複数の映像データを蓄積したサーバとの間でデータの送受信を行う通信部と、サーバから送信された映像データを表示する表示部とを備える。また、当該携帯端末の位置情報を検出する位置検出部と、当該携帯端末の向いている方向の情報を検出する姿勢検出部を備える。そして、位置検出部で検出された位置情報と、姿勢検出部で検出された方向の情報とに基づいて、サーバに対して所定の映像データを特定するための特定情報を生成して通信部に出力するとともに、特定情報に基づいてサーバによって抽出及び送信された映像データを表示部に表示させるようにした。
このように構成したことで、携帯端末の位置情報と姿勢(方向)情報とに基づいて、サーバ内に蓄積された映像データを特定するための特定情報が送信され、サーバから携帯端末に対して、特定情報に基づいて抽出及び送信された映像データが送信される。そして、その映像データが表示部に表示されるようになる。
本発明によると、携帯端末の位置情報と姿勢(方向)情報とに基づいてサーバから抽出・送信された映像データが携帯端末の表示部に表示されるため、表示部の画面上で、壁や障害物等の向こう側にある景色を観賞することができるようになる。
本発明の一実施の形態によるシステムの構成例を示すブロック図である。 本発明の一実施の形態による携帯電話端末における送信データの生成例を示す説明図である。 本発明の一実施の形態による映像データベースサーバの構成例を示す説明図である。 本発明の一実施の形態による携帯電話端末とサーバとにおける動作の例を示すフローチャートである。 本発明の一実施の形態によるシステム概要の例を示す説明図である。
以下、発明を実施するための形態(以下、本例とも称する)について説明する。
[システムの全体構成例]
図1は、本例の表示システムの構成例を示すブロック図である。図1に示す表示システムは、本発明の携帯端末の一実施形態としての携帯電話端末10と、サーバ20とで構成される。携帯電話端末10とサーバ20とは、例えば、無線の通信網によって接続されている。
まず、携帯電話端末10の構成例から説明すると、携帯電話端末10には、操作入力部11と、表示部12と、通信部13と、制御部14と、位置検出部15と、姿勢検出部16と、記憶部17とが含まれる。
操作入力部11は、数字や記号等のダイヤルキーや各種機能キー等で構成され、ユーザからの操作入力を受け付ける。例えば本例の表示システムを実現する機能がアプリケーションとして携帯電話端末10に搭載されている場合には、そのアプリケーションを起動するための操作等が操作入力部11に対して行われる。
また、操作入力部11は、後述する表示対象物(以下、単に対象物とも称する)の種別の情報等をパラメータとして設定するためのユーザインタフェースとしても使用される。表示対象物を特定するためのパラメータとしては、対象物のライブ映像かビデオ映像かの選択情報や、対象物の種別(建築物か風景か等)を特定する情報、ビデオ映像の撮影された時間、季節の情報、表示対象物までの距離の情報等がある。
表示部12は、例えば液晶パネルや有機EL(Electro Luminescence)パネル等で構成され、ユーザからの操作入力部11への操作入力内容に基づいて、電子メールの作成画面やウェブページ、障害物の向こう側の景色等を表示する。
通信部13は、サーバ20との通信を行う処理部であり、制御部14で生成される後述する対象物特定情報を含む映像データ取得要求のサーバ20への送信や、サーバ20から送信される映像データの受信等を行う。
制御部14は、例えばCPU(Central Processing Unit)等で構成され、携帯電話端末10を構成する各部の制御を行う。具体的には、操作入力部11への操作入力情報や位置検出部15での位置検出情報、姿勢検出部16での姿勢検出情報に基づいて、表示部12に表示させるための表示対象物を特定するための情報(以下、対象物特定情報と称する)を生成する処理等を行う。対象物特定情報の生成の詳細については、次の図2を参照して後述する。また制御部14では、図示せぬRTC(Real Time Clock)等により、現在の日付情報や時刻情報の取得も行う。
位置検出部15は、GPS(Global Positioning System)や地磁気センサ等で構成され、携帯電話端末10の位置する位置情報を検出する。携帯電話端末10の位置情報としては、GPSによって携帯電話端末10の位置する緯度情報、経度情報、高さ(標高)情報が検出され、地磁気センサによって携帯電話端末10の向いている方向(水平方向における左右方向)の情報等が検出される。姿勢検出部16は、ジャイロセンサ等で構成され、携帯電話端末10の上下方向の角度情報(仰角情報)を検出する。
なお、本例では携帯電話端末10が向いている方向の情報を、地磁気センサを用いて検出する構成を例に挙げているが、これに限定されるものではない。例えばジャイロセンサ等によって方向の情報を検出するようにしてもよい。この場合は、アプリケーションの初回起動時等に、携帯電話端末10の実際の向き情報と「北」等の特定の方位とを対応付ける初期化処理等を行うようにし、以降は対応付けによって得られた基準点からのズレ量を、方位情報として取得するようにすればよい。
記憶部17は、ROM(Read Only Memory)やRAM(Random Access Memory)で構成され、本例の携帯電話端末10を動作させるために必要なプログラムや、ユーザにより生成又は取得されたデータ等が記憶される。また記憶部17には、サーバ20から送信された映像データ等も保存される。
なお、図1においては、マイクロフォンやスピーカ、これらを制御する音声処理部の図示を省略しているが、本例の携帯電話端末10は、これらの機能も備えているものとする。
次に、同じく図1を参照して、サーバ20の構成例について説明する。サーバ20は、Webサーバ機能部21と、データ制御部22と、映像データベース23とで構成される。Webサーバ機能部21は、クライアントとしての携帯電話端末10からの映像データ取得要求に応じて、データ制御部22によって映像データベース23から抽出された映像データを、携帯電話端末10に送信する。ここでいう映像データ取得要求には、前述した対象物特定情報が含まれている。
データ制御部22には、映像データベース23とカメラC1〜カメラC3が接続されている。そして、データ制御部22は、操作入力部11に入力されるユーザからの操作内容に基づいて、映像データベース23に記憶された映像データ又はカメラC1〜カメラC3によりリアルタイムに得られる映像のいずれかを取得してWebサーバ機能部21に送信する。
映像データベース23は、著名な山や海等の風景に関する映像データや、著名な建物等の建築物に関する映像データ等が記憶されている。これらの映像データとしては、カメラC1〜カメラC3によって撮影されたものが蓄積される。すべての映像データには、パラメータとして緯度情報、経度情報、高さ情報、方向情報が設定されており、携帯電話端末10から映像データ取得要求が送信された場合に、その要求に基づいて映像データベース23の中から特定の映像データが抽出される。映像データベース23の詳細については、図3を参照して後述する。
カメラC1〜カメラC3は、携帯電話端末10の表示部12上に表示させる風景や建築物等を撮影するためのカメラである。事前に撮り貯めた映像を映像データベース23に出力したり、携帯電話端末10からの要求に応じてリアルタイムで撮影中の映像を出力する。
本例では、例としてカメラC1〜カメラC3の3台のカメラを図示してあるが、実際にはもっと多くのカメラを使用することが想定される。例えば、有名な建築物Laの周囲360°を、東西南北の各方面から撮影したい場合は、カメラは各方位に対応して4台必要となる。あるいは、30°の間隔で360°の映像を撮影したい場合には、12台のカメラが必要となる。
カメラC1〜カメラC3のそれぞれには、各カメラCの緯度情報、経度情報、高さ情報、方向情報がパラメータとして設定してあり、これらのパラメータは、カメラC1〜カメラC3によって撮影された各映像データの属性情報として、映像データベース23内に記憶される。また、携帯電話端末10より、リアルタイムで取得された映像の取得要求が送信された場合には、これらのパラメータに基づいて特定のカメラCが選択される。
次に、図2を参照して、携帯電話端末10の制御部14による対象物特定情報生成処理の例について説明する。図2の左側には、携帯電話端末10で取得される情報の例を示してあり、図2の右側には、携帯電話端末10で取得された各種情報に基づいて制御部14で生成される対象物特定情報の例を示してある。
図2の左側に示すように、携帯電話端末10では、携帯電話端末10の位置情報として、位置検出部15(図1参照)によって緯度情報、経度情報、高さ(高度)情報が取得される。また、操作入力部11に対する操作入力によって、携帯電話端末10から表示対象物までの距離が指定される。
携帯電話端末10から表示対象物までの距離とは、携帯電話端末10の表示部12の画面上に、携帯電話端末10が向いている方向にある風景や建築物のうち、どの位離れた位置にあるものを表示させるかを特定するための情報である。東京にいるユーザが、西南西の方向を向きながら、距離として500kmを指定した場合には、携帯電話端末10の表示部12上に京都の風景又は建築物を表示させることが可能となる。
また、姿勢検出部16によって、携帯電話端末10の向いている方向情報と、上下方向の向き情報である仰角情報が検出される。
携帯電話端末10の制御部14では、このようにして得られた携帯電話端末10の位置情報、携帯電話端末10から対象物までの距離情報、携帯電話端末10の向き情報から、対象物の緯度、経度、高さ、方向を算出する。そして、算出して得られた結果に基づいて、図2の右側に示すように対象物特定情報を生成する。
また、携帯電話端末10においては、図2の左側に示すように、制御部14によって現在の日付及び時刻の情報(現在日時情報)が取得され、操作入力部11への操作入力内容によって、対象物の種別(風景か建築物か)が選択される。さらに、操作入力部11への操作入力内容によって、カメラC1〜カメラC3によってリアルタイムに撮影されている映像か、映像データベース23内に蓄積された映像のいずれかが選択される。
携帯電話端末10の制御部14では、現在日時情報から、対象物を特定するための時間情報、季節情報を生成し、選択された対象物の種別情報に基づいて、抽出すべき映像の種別を特定する情報を生成する。また、操作入力部11を通して選択されたリアルタイム映像又は蓄積映像の情報に基づいて、カメラC1〜カメラC3又は、映像データベース23内の蓄積映像を選択するための制御情報を生成する。
すなわち携帯電話端末10の制御部14においては、携帯電話端末10内の各部で取得された様々な情報に基づいて、表示部12の画面上に表示させる対象物を特定するための対象物特定情報が生成される。
次に、図3を参照して、サーバ20内の映像データベース23の構成例について説明する。映像データベース23では、映像の属性情報と、実際の映像データとを対応付けて管理している。
映像の属性情報としては、映像中に写っている対象物の名称及び種別(建築物又は風景)と、その位置情報(緯度、経度、高さ)が設定されている。映像データは、方向別、時間別、季節別にそれぞれ異なるデータが用意されている。
図3に示した例では、「○○タワー」と名づけられた映像の位置情報として、緯度=XX°、経度=XX°、高さ=ZZmの情報が登録されている。また、種別情報として、映像が「風景」であることが記されている。
さらに、「○○タワー」という名称の映像の属性情報として、ライブ映像を示す情報と、予め撮影されたビデオ映像を示す情報とが、方向毎、時間毎、季節毎に登録されている。ライブ映像を示す情報としては、ライブ映像の撮影を行っているカメラの種類(カメラC1)が記述されている。予め撮影されたビデオ映像を示す情報としては、東・西・南・北の方向毎、朝・昼・夕方・夜の時間毎、春・夏・秋・冬の季節毎に、対応する映像の情報(ビデオV1−1〜ビデオV1−64)が記述されている。
同様の属性情報が、「△△山」や、その他の景色を撮影した映像毎に用意されているものとする。
携帯電話端末10から対象物特定情報が送信された場合は、このように構成された映像データベース23の中から、対象物特定情報中に記述された内容に合致するデータが抽出され、携帯電話端末10に送信される。
[システムの動作例]
次に、図4を参照して、携帯電話端末10とサーバ20による表示システムの動作の例について説明する。まず、携帯電話端末10において、操作入力部11を介してアプリケーションを起動する操作を受け付けると(ステップS11)、続いて、同じく操作入力部11を通して、表示部12に表示させたい対象物の種別情報と、映像の種類情報(リアルタイム映像又は蓄積映像)の入力も受け付ける(ステップS12)。
次に、制御部14(図1参照)による制御に基づいて、位置検出部15と姿勢検出部16から、それぞれ携帯電話端末10の位置情報と向き情報が取得される(ステップS13)。そして、制御部14において、ステップS13で取得された位置情報と向き情報に基づいて、対象物の緯度、経度、高さ、方向の情報が生成される(ステップS14)。
続いて、対象物の緯度、経度、高さ、方向の情報に加えて、対象物の種別情報と映像の種類情報も考慮して制御部14で生成された対象物特定情報が、映像データ取得要求として通信部13を通してサーバ20に送信される(ステップS15)。
対象物特定情報を含む映像データ取得要求を受信したサーバ20では、データ制御部22によって、受信した対象物特定情報に基づいて、映像データベース23(図1参照)から最適な映像データが抽出又は、対象物特定情報中で指定されるカメラCによる撮影映像が選択される(ステップS16)。そして、抽出又は選択された映像データが、Webサーバ機能部21によって携帯電話端末10に送信される(ステップS17)。
ステップS17で送信された映像データを受信した携帯電話端末10では、受信した映像データが記憶部17(図1参照)に保存される(ステップS18)。続いて、記憶部17に保存された映像データが、制御部14の制御に基づいて表示部12の画面上に表示される(ステップS19)。次に、携帯電話端末10の位置情報や姿勢情報(向き情報)に変化があったか否かが判断され(ステップS20)、変化があった場合には、ステップS12に戻って処理が続けられる。
携帯電話端末10の位置情報や姿勢情報(向き情報)に変化がなかった場合には、ユーザによるアプリケーション終了の操作を受け付けたか否かが判断される(ステップS21)。アプリケーション終了の操作を受け付けた場合には、処理は終了となる。アプリケーション終了の操作を受け付けていない場合には、ステップS20に戻って判断が続けられる。
表示システムがこのように構成及び処理されることで、図5に示すように、ユーザUが四方を壁で囲まれた部屋の中等にいる場合にも、壁の向こう側にある携帯電話端末10を向けた方向の延長線上にある風景や建築物を、表示部12の画面上に表示させることができるようになる。図5に示した例では、ユーザUは、携帯電話端末10を方向Aaの方向に向けることで、方向Aaの先にある建築物Laを画面上で見ることができ、方向Abに向けることで建築物Lbを見ることができ、方向Acに向けることで風景Lcを見ることができるようになる。
[実施の形態による効果]
上述した実施の形態によれば、ユーザUは、部屋等の中にいれば本来見ることのできない風景を、携帯電話端末10の画面を通して見ることができるようになる。例えば、観光地に出向いたが悪天候により室外に出られない場合や、自宅から見えていた美しい景色が、新たな建築物が建造されたことにより見られなくなってしまった場合等に、携帯電話端末10を使用して、ユーザUが所望の景色を見ることができるようになる。
また、上述した実施の形態によれば、朝、昼、夕方、夜等の任意の時間をユーザが設定できるようにしてあるため、夜であるが故に見えない昼間の景色を、携帯電話端末10の画面上に表示させることができるようになる。逆に、昼間に夜景をみることも可能となる。
また、上述した実施の形態によれば、表示部12に表示させたい対象物として風景と建築物とを選択することができるため、携帯電話端末10の画面上に、ユーザUが求める映像を適切に表示させることができる。
また、上述した実施の形態によれば、カメラC1〜カメラC3によりリアルタイムに撮影されている映像と、映像データベース23内に蓄積されている蓄積映像とを選択して取得できるため、ユーザUは好みの映像を選択して見ることができるようになる。例えば映像データベース23には、天候のよい時に撮影された絵として美しい風景又は建築物の映像データを蓄積しておくことで、ユーザUに、美しい風景と、現在撮影されている生の映像とのうち好みの映像を選択させることができる。
また、上述した実施の形態によれば、操作入力部11を介して、携帯電話端末10から対象物までの距離を指定することができるため、カメラCのズーム(望遠)を行うような操作感で、ユーザUは、遠方の所望の建築物や風景を携帯電話端末10の画面に表示させることができる。
また、上述した実施の形態によれば、X線やサーモグラフィの使用や、CGによる映像の生成等を行う必要なく、障害物の向こう側の建築物や風景を携帯電話端末10の画面上に表示させることができるため、携帯電話端末10の製造コストを低減することができる。
なお、上述した実施の形態では、携帯端末を携帯電話端末10に適用した例を挙げたが、これに限定されるものではない。例えば、PDA(Personal Digital Assistants)や通信機能を有するゲーム機、同じく通信機能を有する音楽データ再生装置等の他の携帯端末に適用してもよい。もしくは、表示部12をゴーグルとして独立させた構成に適用してもよい。
10…携帯電話端末、11…操作入力部、12…表示部、13…通信部、14…制御部、15…位置検出部、16…姿勢検出部、17…記憶部、20…サーバ、21…Webサーバ機能部機能部、22…データ制御部、23…映像データベース、C1〜C3…カメラ

Claims (11)

  1. 所定の風景又は建築物を撮影して得られた複数の映像データを蓄積したサーバとの間でデータの送受信を行う通信部と、
    前記サーバから送信された映像データを表示する表示部と、
    当該携帯端末の位置情報を検出する位置検出部と、
    当該携帯端末の向いている方向の情報を検出する姿勢検出部と、
    前記位置検出部で検出された位置情報と、前記姿勢検出部で検出された方向の情報とに基づいて、前記サーバに対して所定の映像データを特定するための特定情報を生成し、前記通信部に出力するとともに、前記特定情報に基づいて前記サーバによって抽出及び送信された映像データを、前記表示部に表示させる制御を行う制御部とを備えた、
    携帯端末。
  2. 前記位置検出部で検出される前記位置情報は、当該携帯端末が位置する位置の緯度、経度、高度の各情報よりなり、前記姿勢検出部で検出される方向の情報は、当該携帯端末の水平方向における左右の向き情報と、当該携帯端末の仰角情報よりなる
    請求項1記載の携帯端末。
  3. ユーザからの指示が入力される操作入力部を備え、
    前記操作入力部からは、前記サーバに蓄積された映像データの種別を特定する種別特定情報が入力される
    請求項2記載の携帯端末。
  4. 前記操作入力部からは、前記サーバに蓄積された映像データ中の被写体の位置と、当該携帯端末の位置との間の距離とを指定する距離特定情報が入力される
    請求項3記載の携帯端末。
  5. 前記制御部は、前記位置検出部で検出された位置情報と、前記姿勢検出部で検出された方向の情報と、前記種別特定情報と、前記距離特定情報とに基づいて、前記特定情報を生成する
    請求項4記載の携帯端末。
  6. 前記制御部は、前記特定情報の中に、前記サーバに蓄積された映像データと、前記サーバに接続されたカメラによる撮影映像とのいずれかを選択するための映像データ種類特定情報を記述する
    請求項5記載の携帯端末。
  7. 当該携帯端末の位置情報を検出するステップと、
    当該携帯端末の向いている方向の情報を検出するステップと、
    前記検出された位置情報と、前記検出された方向の情報とに基づいて、所定の風景又は建築物を撮影して得られた複数の映像データを蓄積したサーバに対して、所定の映像データを特定するための特定情報を生成して送信するステップと、
    前記特定情報に基づいて前記サーバによって抽出及び送信された映像データを、前記表示部に表示させるステップとを含む
    表示方法。
  8. 所定の風景又は建築物を撮影して得られた複数の映像データを蓄積したサーバとの間でデータの送受信を行う第1の通信部と、
    前記サーバから送信された映像データを表示する表示部と、
    当該携帯端末の位置情報を検出する位置検出部と、
    当該携帯端末の向いている方向の情報を検出する姿勢検出部と、
    前記位置検出部で検出された位置情報と、前記姿勢検出部で検出された方向の情報とに基づいて、前記サーバに対して所定の映像データを特定するための特定情報を生成し、前記第1の通信部に出力するとともに、前記特定情報に基づいて前記サーバによって抽出及び送信された映像データを、前記表示部に表示させる制御を行う第1の制御部とを有する携帯端末と、
    前記携帯端末との間でデータの送受信を行う第2の通信部と、
    前記映像データを蓄積する映像データ蓄積部と、
    前記携帯端末から送信された特定情報に基づいて、前記映像データ蓄積部から特定の映像データを抽出して前記第2の通信部に出力する第2の制御部とを有するサーバとを備えた
    表示システム。
  9. 前記サーバには、リアルタイムで映像を撮影するカメラが接続される
    請求項8記載の表示システム。
  10. 前記第2の制御部は、前記携帯端末よりカメラによる撮影映像の取得要求が送信された場合には、前記カメラによる撮影映像を取得して前記第2の通信部に出力する
    請求項9記載の表示システム。
  11. 前記映像データ蓄積部に蓄積された映像データには、前記映像データの属性情報として、前記映像データ中の被写体の位置情報と、前記被写体が撮影された時間の情報と、前記被写体が撮影された季節の情報と、前記被写体の種別の情報とが定義され、
    前記携帯端末の第1の制御部では、前記映像データの属性情報を特定するための特定情報が生成される
    請求項10記載の表示システム。
JP2009186799A 2009-08-11 2009-08-11 携帯端末、表示方法及び表示システム Withdrawn JP2011041020A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009186799A JP2011041020A (ja) 2009-08-11 2009-08-11 携帯端末、表示方法及び表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009186799A JP2011041020A (ja) 2009-08-11 2009-08-11 携帯端末、表示方法及び表示システム

Publications (1)

Publication Number Publication Date
JP2011041020A true JP2011041020A (ja) 2011-02-24

Family

ID=43768329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009186799A Withdrawn JP2011041020A (ja) 2009-08-11 2009-08-11 携帯端末、表示方法及び表示システム

Country Status (1)

Country Link
JP (1) JP2011041020A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235304A (ja) * 2013-05-31 2014-12-15 株式会社第一興商 背景映像表示システム
CN110383322A (zh) * 2017-03-10 2019-10-25 洋马株式会社 产量信息显示***

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235304A (ja) * 2013-05-31 2014-12-15 株式会社第一興商 背景映像表示システム
CN110383322A (zh) * 2017-03-10 2019-10-25 洋马株式会社 产量信息显示***
CN110383322B (zh) * 2017-03-10 2023-08-22 洋马动力科技有限公司 产量信息显示***

Similar Documents

Publication Publication Date Title
JP7192923B2 (ja) 装置、方法、プログラム、システム
US10586365B2 (en) Server, user terminal, and service providing method, and control method thereof
JP6075066B2 (ja) 画像管理システム、画像管理方法、及びプログラム
US10403044B2 (en) Telelocation: location sharing for users in augmented and virtual reality environments
KR100651508B1 (ko) 증강현실을 이용한 지역 정보 제공 방법 및 이를 위한지역 정보 서비스 시스템
JP2017033154A (ja) 拡張現実システム、および拡張現実方法
JP2014010611A (ja) 送信装置、画像共有システム、送信方法、及びプログラム
JP2017212510A (ja) 画像管理装置、プログラム、画像管理システム及び情報端末
KR20110070210A (ko) 위치 감지 센서와 방향 감지 센서를 이용하여 증강현실 서비스를 제공하기 위한 이동단말기 및 방법
US10102675B2 (en) Method and technical equipment for determining a pose of a device
JP6011117B2 (ja) 受信装置、画像共有システム、受信方法、及びプログラム
JP2016053961A (ja) 情報処理装置、情報処理方法及びプログラム
JP6304300B2 (ja) 送信装置、通信方法、プログラムおよび受信装置
JP2010276364A (ja) ナビ情報作成装置、ナビゲーションシステム、ナビゲーション情報作成方法、およびナビゲーション方法
JP2011041020A (ja) 携帯端末、表示方法及び表示システム
JP5817012B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2010134881A (ja) 撮影画像表示システムおよび撮影画像表示方法
EP3829159A1 (en) Image capturing device, image communication system, and method for display control, and carrier means
JP5942637B2 (ja) 付加情報管理システム、画像共有システム、付加情報管理方法、及びプログラム
JP2011174805A (ja) 情報提示システム及びプログラム
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
US11700455B2 (en) Image capturing device, image communication system, and method for display control
JP2018014141A (ja) システム、画像共有システム、通信方法、及びプログラム
JP5670092B2 (ja) 地形表示システム、携帯端末、地形表示方法およびプログラム
JP6233451B2 (ja) 画像共有システム、通信方法及びプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121106