JP6711885B2 - 送信端末、受信端末、送受信システム、およびそのプログラム - Google Patents
送信端末、受信端末、送受信システム、およびそのプログラム Download PDFInfo
- Publication number
- JP6711885B2 JP6711885B2 JP2018209211A JP2018209211A JP6711885B2 JP 6711885 B2 JP6711885 B2 JP 6711885B2 JP 2018209211 A JP2018209211 A JP 2018209211A JP 2018209211 A JP2018209211 A JP 2018209211A JP 6711885 B2 JP6711885 B2 JP 6711885B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual object
- hmd
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005540 biological transmission Effects 0.000 title claims description 28
- 238000003384 imaging method Methods 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 claims 1
- 230000010365 information processing Effects 0.000 description 47
- 230000003190 augmentative effect Effects 0.000 description 34
- 210000003128 head Anatomy 0.000 description 27
- 238000012545 processing Methods 0.000 description 23
- 238000000034 method Methods 0.000 description 21
- 238000012790 confirmation Methods 0.000 description 15
- 210000003811 finger Anatomy 0.000 description 13
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 210000003813 thumb Anatomy 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000005684 electric field Effects 0.000 description 2
- 210000005224 forefinger Anatomy 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
前記仮想物体を共有するか否かを選択する選択手段と、
前記現実物体が表示され、かつ前記現実物体の近傍に前記選択手段により共有すると選択されうる又は選択された仮想物体を仮想空間内における第1の視点から見た画像が表示される第1の表示手段と、
装着者同士の身体接触に基づき、前記仮想物体の共有に係るグループを設定するグループ設定手段と、
を有することを特徴とする。
前記3次元形状データと指標画像を投影するための指標画像元データとを受信する受信手段と、
前記現実物体の上に投影された指標画像を撮像して第2の指標画像撮像データを得る第2の撮像手段と、
前記現実物体が表示され、かつ前記現実物体の近傍に前記選択手段により共有すると選
択された前記仮想物体を仮想空間内における第2の視点から見た画像が表示される第2の表示手段と、
前記指標画像元データ、および前記第2の指標画像撮像データに基づいて、
現実空間における、前記指標画像の位置姿勢、および前記第2の撮像手段の位置姿勢、の関係と、
前記仮想空間における、前記仮想物体の位置姿勢、および前記第2の視点の位置姿勢、の関係とが
略同じになるように前記第2の視点の位置姿勢を決定する計算手段と
を有し、
前記第2の撮像手段の位置姿勢および前記第2の視点の位置姿勢は、前記第2の使用者の頭部または顔部の位置姿勢の変化に逐次追随する
ことを特徴とする。
投影手段は、指標画像元データに基づいて指標画像を現実物体の上に投影する。
第1の撮像手段は、前記投影手段によって前記現実物体の上に投影された前記指標画像を撮像して第1の指標画像撮像データを得る。
第1の表示手段には、前記現実物体が表示され、かつ前記現実物体の近傍に前記仮想物体を仮想空間内における第1の視点から見た画像が表示される。
送信手段は、1)仮想物体を表示するための3次元形状データ、2)前記指標画像元データ、および3)前記指標画像撮像データを送信する。
前記投影手段の位置姿勢、前記第1の撮像手段の位置姿勢および前記第1の視点の位置姿勢は、前記第1の使用者の頭部または顔部の位置姿勢の変化に逐次追随する。
受信手段は、送信端末から送信された1)仮想物体を表示するための3次元形状データ、2)前記指標画像元データ、および3)前記第1の指標画像撮像データと、を受信する。
第2の撮像手段は、前記現実物体の上に投影された前記指標画像を撮像して第2の指標画像撮像データを得る。
第2の表示手段には、前記現実物体が表示され、かつ前記現実物体の近傍に前記仮想物体を仮想空間内における第2の視点から見た画像が表示される。
計算手段は、前記指標画像元データ、前記第1の指標画像撮像データ、および前記第2の指標画像撮像データに基づいて、
現実空間における、前記指標画像の位置姿勢、および前記第2の撮像手段の位置姿勢、の関係と、
前記仮想空間における、前記仮想物体の位置姿勢、および前記第2の視点の位置姿勢、の関係とが
略同じになるように前記第2の視点の位置姿勢を決定する。
そして、前記第2の撮像手段の位置姿勢および前記第2の視点の位置姿勢は、前記第2の使用者の頭部または顔部の位置姿勢の変化に逐次追随する。
本実施形態に係る情報処理端末(送受信端末)を図1、図2、図3、図6等を参照して説明する。
情報処理端末(送受信端末)は、情報処理機能を有したコンピュータを基本要素として構成される。以下の説明では、情報処理端末として、人の頭部に装着されるHMD(Head Mounted Display)の例で説明する。以下の説明では、説明の便宜上、原則的に「情報処理端末」の代わりに「HMD」と記す。2つのHMDはそれぞれ使用者の頭部に装着する装着手段と、投影手段と、撮像手段と、表示手段と、情報処理手段と、を備えている。
図1の(A)〜(C)に示したHMD100は、上記のいわゆるゴーグル・タイプに相当するものである。
表示部104は、図1の(B),(C)に示すように番号110,114,115を付した複数の部材から構成される。また記号の「L」と「R」は前述の通り左眼用と右眼用を示す。使用者の眼の位置に相対するように、眼鏡における眼鏡レンズに相当する位置に設けられたものであり、具体的には、カラー液晶ディスプレイ114が表示する画像を光学プリズム115によって導き、スクリーン110に表示する。
これに対して、HMD100が前述のグラス・シースルー型である場合は、スクリーン110はいわゆるハーフミラーで構成される。すなわち、一定の透過度を有し、使用者が現実空間の光景を光学的に見ることができるようになっている。同時に、表面または裏面もしくは内部に埋め込まれて設けられたミラーにより、カラー液晶ディスプレイ114が表示し光学プリズム115によって導かれたグラフィックスの画像を使用者の眼の方向に反射する。即ち、グラス・シースルー型の場合には、現実空間の光景と仮想オブジェクト(仮想物体)の画像とが、スクリーン110において光学的に重畳される。
ビデオ・シースルー型HMD100の場合には、カラー液晶ディスプレイ114は、撮像センサ116によって取得された現実空間画像と仮想オブジェクトの画像とを電気的に重畳(画像合成)した拡張現実画像を表示する。
一方、グラス・シースルー型HMD100の場合には、カラー液晶ディスプレイ114は、原則として、仮想オブジェクトの画像のみを表示する。
図6に示されるように、HMD100は、さらに、電子回路要素として、表示制御部130、撮像制御部140、CPU150、メモリ160、電源部170、通信部180、投影制御部190を備えている。これらの電子回路要素は、HMD100の本体(頭部装着部101を含む)の内部に埋め込まれ、外観としては図示されない。
上記において、CPU150、メモリ160、表示制御部130、撮像制御部140、投影制御部190は、HMD100の情報処理手段を構成している。
メモリ160はワーク領域および不揮発性領域より成る。ワーク領域には、不揮発性領域から読み出されたプログラムやシステム制御用の定数、変数が展開される。また、現実空間に重畳して表示する仮想オブジェクトの画像のデータが、表示のために保持される。また、撮像部102により撮像されA/D変換された撮像データが、画像解析や画像処理等の目的で展開される。
通信部180は、CPU150の制御に基づき、WiFiDirect等の規格に従って他のHMD100との通信を行い3次元形状データや位置姿勢に関するデータ等を送受信する。
投影制御部190は、投影部103の投影動作の制御を行う。
図2は上記構成を有する第1のHMD100で実行される判断および処理の流れを示し、図3は上記構成を有する第2のHMD100(受信端末)で実行される判断および処理の流れを示している。なお、この判断および処理は、CPU150がメモリ160の不揮発性領域に記録されたプログラムをワーク領域に展開して実行することで実現する。
まず図2を参照して、データの共有を指示するユーザ(使用者)の使用に係る第1のHMD100(送信端末)の判断・処理の流れを説明する。
ステップS201では、第1のHMD100は、これを使用するユーザにより電源が投入されると、撮像部102により現実空間の撮像を開始する。
例えばユーザの管理に係る記憶領域を象徴的に表す立体アイコン(ストレージアイコン)を表示していた場合に、ユーザのジェスチャー操作等により「開く」が指示されたときは、その記憶領域に記憶されているファイル等を表すグラフィックスを表示する。また、例えば、「靴」のデザインデータを象徴的に表すアイコンを表示していた場合において、ユーザのジェスチャー操作等により「開く」が指示されたときは、その「靴」の立体モデルを現実空間の画像に重畳して表示する。
また、HMD100の姿勢(水平方向に対する角度θ)がθ≦-45°またはθ≧45°であるときは略水平な面に向けて投影するものと推定できる。
ステップS208において、投影面が略垂直な面または略水平な面のどちらかに応じて指標画像をいわゆる台形補正する。
ステップS209において、補正された指標画像を投影部103によって投影面に投影する。
これにより、例えば、実在のオブジェクト(投影面)の上に模様などが描かれていて、可視光線による連続投影では投影された指標画像と投影面の模様との区別が困難なため、指標としての認識が困難な場合であっても、指標画像の認識を容易とすることができる。赤外光による投影・認識により模様等の影響を取り除いたり、一定の時間間隔で不連続に投影し、投影前後の撮像画像の差分から投影された画像を抽出したりすることによって、指標画像の認識を容易とすることが可能となる。
また、ステップS213では、表示部104に「共有設定中」であることを示す表示を行う。この表示は、例えば「共有設定中」等の文字を表示するものであってもよいし、仮想オブジェクトのグラフィックスをそれまでと異なる色彩や透過度で表示したり、点滅させて表示するようなものでもよい。
ただし、所定の終了条件を設け、条件を充足したとき(例えば、所定の時間の経過があったとき)は待機を終了する(ステップS215)。確認信号を受信したときは「共有設定中」の表示を消去する(ステップS216)。
図3を参照して、第2のHMD100(受信端末)の判断・処理の流れを説明する。
ステップS301で、第2のHMD100は、これを使用する第2のユーザにより電源が投入されると、撮像部102により現実空間の撮像を開始する。
そして、ステップS302で、第2のHMD100は、他の第1のHMD100から送信される、共有指示された仮想物体に係る情報(3次元形状データ、位置姿勢データ)と指標画像に係る情報(指標画像元データ、指標画像撮像データ)を受信するまで待機する。
ただし、所定の終了条件を設け、条件を充足したとき(例えばユーザの所定の操作があったとき)は待機を終了する(ステップS303)。
ステップS306では、指標画像があったときは、まず、その旨の「確認信号」を第1のHMD100に発信する。これは、すなわち、当該仮想オブジェクトを共有した旨を第1のHYMD100(およびそのユーザ)に通知するものである。第2のHMD100の撮像部102による撮像方向は、これを使用するユーザの視点および視線と一致している。
例えば、指標画像の模様が点対称でもなく、線対称でもなければ、受信した指標画像元データと第1の指標画像撮像データとを比較することによって、指標画像が投影された現実物体(投影面)の位置姿勢と投影面に対する第1の撮像手段の位置姿勢が特定できる。
また、受信した指標画像元データと第2の指標画像撮像データとを比較することによって、投影面に対する第2の撮像手段の位置姿勢が特定できる。
そして、第1の撮像手段の位置姿勢と、投影面の位置姿勢と、第2の撮像手段の位置姿勢との関係が特定されれば、
仮想空間内の第1の視点の位置姿勢と、投影面上またはその近傍に重畳して表示される仮想物体の位置姿勢と、仮想空間内の第2の視点の位置姿勢との関係を特定することができる。
ステップS309では、レンダリングにより得られたバーチャル情報の画像(仮想グラフィックスの画像)を撮像部102が撮像する現実空間の画像に重畳して、表示部104に表示する。
このようにして位置姿勢が特定され、投影面上またはその近傍に重畳して表示される仮想物体(例えば、投影面の約1cm上方に配置され、第1の視点から右側面が見える仮想物体)を、仮想空間内の第2の視点から見た画像が第2の表示部104に表示される。
例えば、図5Cに示すような位置関係であれば、ユーザP3の表示部には、投影面の約1cm上方に配置され、「右」側面から見た仮想物体(靴)が表示され、ユーザP1の表示部には、投影面の約1cm上方に配置され、「左」側面から見た仮想物体が表示される。
また、仮に、上記の特定の位置が使用者の視界(すなわち撮像画像)から外れれば、一旦、仮想オブジェクトのグラフィックスを消去する。しかし、当該特定の位置が再び使用者の視界に入ったときは、メモリ160に記憶した特徴点の情報に基づき、その位置に実在しているように仮想オブジェクトのグラフィックスを再表示する。
以上をまとめると、第1のHMD100は、それが拡張現実表示している仮想オブジェクトについて、そのユーザ(使用者)から「共有」にする指示があったときは、その拡張現実表示している方向に向けて指標画像を投影する。第2のHMD100は、その投影された指標画像を撮像し、当該指標画像と、送信された共有を指示された仮想物体に係る情報および指標画像に係る情報とに基づき、仮想物体を拡張現実表示する。
第2のHMD100の撮像画像における上記の指標画像は、当然、第2のHMD100の視点から見たものであり、また現実物体(例えば「テーブル」等)の投影される面の傾き等を反映したものである。
そこで、例えば第1のユーザがその仮想物体を指などの現実物体によって指し示すと、第2の表示部には、その仮想物体とその現実物体とが重畳表示され、第2のユーザには第1のユーザがその仮想物体を指し示しているように見える。よって、第1のユーザと第2のユーザとが仮想物体を「共有」しているのに適した拡張現実表示が可能となる。
いわゆるジオタグ(geotag)によっても同様の見え方をさせることは可能であるが、本発明の情報処理端末(例えば上記実施形態で説明したHMD100)は、仮想オブジェクトにあらかじめ緯度・経度の情報を付与する必要がない。また各端末の緯度・経度の情報を取得する必要もない。
本発明の情報処理端末を用いたシステムでは、第1のユーザと第2のユーザが存在する現実空間内に指標画像を投影可能な現実物体が存在し、第1の端末から投影面に投影された指標画像を、第1の端末と第2の端末のそれぞれが撮像可能であればよい。
共通の指標画像を第1の端末と第2の端末のそれぞれの位置姿勢からそれぞれが撮像することによって、現実空間における第1の撮像部の位置姿勢と、投影面の位置姿勢と、第2の撮像部の位置姿勢との相対的な関係(第1の相対的関係)を特定することができる。
そして、仮想空間における第1の端末の視点の位置姿勢と、仮想物体の位置姿勢と、第2の端末の視点の位置姿勢との相対的な関係(第2の相対的関係)が第1の相対的関係と略同じになるように第2の端末の視点の位置姿勢を特定する。
これにより投影面の近傍に重畳表示される仮想物体を、第1の視点から見た画像を第1の表示手段に表示し、同じ仮想物体を第2の視点から見た画像を第2の表示手段に表示することができ、共有の拡張現実表示が可能である点に発明の効果を有している。
次に、図4A,4Bを参照して、使用者によりバーチャル情報の画像を共有する指示があったときに指標画像を投影する第1のHMD100の動作例について説明する。図4A,4Bでは、第1のHMD100の表示部104における表示遷移を一連の表示状態(401)〜(408)で示している。前半の4つの表示状態(401)〜(404)は図4Aに示され、後半の4つの表示状態(405)〜(408)は図4Bに示される。
これは、ユーザに対してグラフィックスを指でつまむ視覚的な感覚を生じさせるためになされるものであって、撮像画像から人の指の甲側部分と腹側部分とをそれぞれ識別し抽出する画像処理技術に基づくものである。このような画像処理技術は、例えば特開2012−53674号公報が開示するように既に公知となっている。
もちろん、いわゆる「開く」を指示するジェスチャーとして、他のジェスチャーが割り当てられていても問題はない。
例えば仮想オブジェクトの下に影を表示するなどによって、仮想オブジェクトである「靴」が現実のオブジェクトの「テーブル」の上に置かれているかのように拡張現実表示されているため、図の上では仮想と現実の見分けがつけられないようになっている。
つまり、「非共有」のファイルに係るオブジェクトについては拡張現実表示をせず、「共有」のファイルに係るオブジェクトについては拡張現実表示をするように表示様態を変更することが合理的である。
次に、図5A,5B,5Cを参照して、前述した第1および第2のHMD100を使用して仮想オブジェクトの「共有」を行うための一連の手順の例を説明する。この例ではHMD100を頭部に装着した複数の使用者が特定の場所に集まってミーティング等を行う。このような場合に、1人の使用者により仮想オブジェクトの「共有」が指示され、他の使用者がその仮想オブジェクトをそれぞれの視点から共通の位置座標に関連させて拡張現実表示する様子を、模式的に表したものである。
第3の意義を実現可能とするためには、HMD100が、それぞれ、例えば電界状態の変移等によりHMD100の装着者同士の身体接触を検知する手段を備えてることが必要となる。なお、電界状態の変移により身体接触を検知する技術は、例えば特開2010−193129号公報等が開示するように、公知な技術である。
しかし、HMD100の使用者(装着者)P1〜P3の各表示手段に、あたかもテーブル5021の上に実際に置かれているかのように各使用者の視点から見た仮想オブジェクト5051が表示されていることを模式的に示している。
このため、説明の内容が分かりやすくなる。あるいは、他の使用者が「ここはこうした方が…」等と、指等で指し示しながら意見を言えば、それがどの部分についての意見かも明確である。また、仮想オブジェクト5051について、グループのユーザが編集・改変をする操作が可能となっているときは、例えば色彩や模様を変更しながら打ち合わせを進めるといった利用が可能である。
この実施形態では、バーチャル情報の画像の共有指示に係る指標画像を撮像したとき、所定の確認信号を発信するHMD100の例について説明する。
本実施形態にかかるHMD100は、図3のステップS306において説明したように、指標画像を撮像したとき、その旨の「確認信号」を、当該指標画像を投影表示しているHMD100に発信する。
あるいは、グループ設定されたHMD100が3以上ある場合において、その多くから「確認信号」を受信しないときは、指標画像の投影状態が適切でないと推測できる。このため、指標画像を投影するHMD100はその使用者に対して投影状態を改善するように表示することとしてもよい。
逆に、グループ設定されたHMD100が3以上ある場合において、その多くから「確認信号」を受信し、ごく一部から「確認信号」を受信しないときは、「確認信号」を発信しないHMD100の指標画像の撮像状態が適切でないと推測できる。この場合、その少ない数のHMD100の使用者に対して撮像状態を改善するように表示することとしてもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するコンピュータプログラムを、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
以上の実施形態で説明された構成、形状、大きさおよび配置関係については本発明が理解・実施できる程度に概略的に示したものにすぎない。従って本発明は、説明された実施形態に限定されるものではなく、特許請求の範囲に示される技術的思想の範囲を逸脱しない限り様々な形態に変更することができる。
101 頭部装着部
102 撮像部
103 投影部
104 表示部
130 表示制御部
140 撮像制御部
150 CPU
160 メモリ
170 電源部
180 通信部
190 投影制御部
4082 仮想オブジェクト
5021 テーブル
5031 仮想オブジェクト
5041 指標画像
5051 仮想オブジェクト
Claims (8)
- 第1の装着者の頭部または顔部に装着され、仮想物体を表示するための3次元形状データを送信する送信端末と、他の装着者の頭部または顔部に装着され、前記仮想物体を表示するための3次元形状データを前記送信端末から受信しうる1以上の受信端末とを含む送受信システムであって、
前記送信端末は、
前記仮想物体を共有するか否かを選択する選択手段と、
現実物体が表示され、かつ前記現実物体の近傍に前記選択手段により共有すると選択されうる又は選択された仮想物体を仮想空間内における第1の視点から見た画像が表示される第1の表示手段と、
前記1以上の受信端末の1つを頭部または顔部に装着した第2の装着者と、前記第1の装着者との間に所定の形式の身体接触があった場合に、前記第1の装着者と前記第2の装着者とを、前記仮想物体を共有する装着者のグループに属すると設定するグループ設定手段と、を有し、
前記1以上の受信端末のそれぞれは、前記現実物体と、仮想物体とを含む画像が表示されうる第2の表示手段を有するものであって、
前記1以上の受信端末のうち、前記仮想物体を共有する装着者のグループに属することが設定された前記第2の装着者が装着する受信端末では、
前記第2の表示手段において、前記現実物体が表示され、かつ前記現実物体の近傍に、前記選択手段により共有すると選択された前記仮想物体を前記仮想空間内における第2の視点から見た画像が表示され、
前記1以上の受信端末のうち、前記仮想物体を共有する装着者のグループに属することが設定されていない受信端末では、
前記第2の表示手段において、前記選択手段により共有すると選択された前記仮想物体は表示されないことを特徴とする送受信システム。 - 前記送信端末は、
前記送信端末と前記受信端末の間の距離に基づいて、前記仮想物体の共有に係るグループを解除するグループ解除手段を更に有することを特徴とする請求項1に記載の送受信システム。 - 前記所定の形式の身体接触とは、握手をするというジェスチャーであることを特徴とする請求項1または2に記載の送受信システム。
- 撮像部により撮像された現実空間の撮像画像、及び、装着者同士の身体接触を検知する手段による検知結果に基づいて、前記第1の装着者と前記第2の装着者との間に前記所定の形式の身体接触があったかを判定する判定手段を有することを特徴とする請求項1乃至3のいずれか1項に記載の送受信システム。
- 前記送信端末は、
指標画像元データに基づいて指標画像を現実物体の上に投影する投影手段と、
前記3次元形状データと前記指標画像元データとを送信する送信手段と、を更に有し、
前記投影手段は、前記選択手段により共有すると選択された場合、前記指標画像を投影することを特徴とする請求項1に記載の送受信システム。 - 前記送信端末では、
前記投影手段の位置姿勢、前記第1の視点の位置姿勢は、前記第1の装着者の頭部または顔部の位置姿勢の変化に逐次追随することを特徴とする請求項5に記載の送受信システム。 - 前記送信端末は、
前記投影手段により投影される指標画像を撮像して第1の指標画像撮像データを得る第1の撮像手段を更に有することを特徴とする請求項5または6に記載の送受信システム。 - コンピュータを、請求項1〜7のいずれか1項に記載の送受信システムの各手段として機能させるための、コンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018209211A JP6711885B2 (ja) | 2018-11-06 | 2018-11-06 | 送信端末、受信端末、送受信システム、およびそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018209211A JP6711885B2 (ja) | 2018-11-06 | 2018-11-06 | 送信端末、受信端末、送受信システム、およびそのプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014070615A Division JP2015192436A (ja) | 2014-03-28 | 2014-03-28 | 送信端末、受信端末、送受信システム、およびそのプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020092932A Division JP7024010B2 (ja) | 2020-05-28 | 2020-05-28 | 送信端末、受信端末、送受信システム、およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019075125A JP2019075125A (ja) | 2019-05-16 |
JP6711885B2 true JP6711885B2 (ja) | 2020-06-17 |
Family
ID=66543213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018209211A Active JP6711885B2 (ja) | 2018-11-06 | 2018-11-06 | 送信端末、受信端末、送受信システム、およびそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6711885B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3813018A1 (en) * | 2019-10-24 | 2021-04-28 | XRSpace CO., LTD. | Virtual object operating system and virtual object operating method |
JPWO2023008277A1 (ja) * | 2021-07-26 | 2023-02-02 | ||
JP7138392B1 (ja) * | 2021-08-11 | 2022-09-16 | 株式会社Abal | 仮想空間体感システム |
WO2024111790A1 (ko) * | 2022-11-21 | 2024-05-30 | 삼성전자주식회사 | 가상 객체를 제어하기 위한 시각적 객체를 표시하기 위한 웨어러블 장치 및 그 방법 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5776201B2 (ja) * | 2011-02-10 | 2015-09-09 | ソニー株式会社 | 情報処理装置、情報共有方法、プログラム及び端末装置 |
JP5912059B2 (ja) * | 2012-04-06 | 2016-04-27 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理システム |
-
2018
- 2018-11-06 JP JP2018209211A patent/JP6711885B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019075125A (ja) | 2019-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015192436A (ja) | 送信端末、受信端末、送受信システム、およびそのプログラム | |
JP6711885B2 (ja) | 送信端末、受信端末、送受信システム、およびそのプログラム | |
JP6393367B2 (ja) | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 | |
JP6693060B2 (ja) | 表示システム、表示装置、表示装置の制御方法、及び、プログラム | |
RU2670784C2 (ru) | Ориентация и визуализация виртуального объекта | |
JP6376807B2 (ja) | 表示装置、表示制御方法及びプログラム | |
JP2020080543A (ja) | 撮像装置、方法及びプログラム | |
CN110168615B (zh) | 信息处理设备、信息处理方法和存储介质 | |
JP2019159076A (ja) | 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム | |
CN111385669B (zh) | 电子装置、控制方法和计算机可读介质 | |
JP2009010987A (ja) | 電子カメラ | |
JP2008017501A (ja) | 電子カメラ | |
CN114648623A (zh) | 信息处理装置、信息处理方法以及计算机可读介质 | |
CN112840379A (zh) | 信息处理装置、信息处理方法及程序 | |
JP7024010B2 (ja) | 送信端末、受信端末、送受信システム、およびそのプログラム | |
JP6683218B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP2021069045A (ja) | 表示制御装置、表示制御方法、プログラムおよび記憶媒体 | |
JP2016142966A (ja) | 頭部装着型表示装置、情報処理装置、画像表示装置、画像表示システム、頭部装着型表示装置の表示を共有する方法、コンピュータープログラム | |
JP7157444B2 (ja) | カメラ付き情報端末及プログラム | |
JP7313822B2 (ja) | 電子機器、その制御方法、プログラム及び記憶媒体 | |
JP7208002B2 (ja) | 電子機器及びその制御方法 | |
US20240073511A1 (en) | Electronic apparatus, control method for electronic apparatus and storage medium | |
JP7204482B2 (ja) | 電子機器及びその制御方法 | |
JP7278774B2 (ja) | 電子機器及びその制御方法 | |
JP7214475B2 (ja) | 電子機器及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200305 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200528 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6711885 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |