JP2021180458A - Information processing system, information processing apparatus, information processing method, and program - Google Patents
Information processing system, information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2021180458A JP2021180458A JP2020086116A JP2020086116A JP2021180458A JP 2021180458 A JP2021180458 A JP 2021180458A JP 2020086116 A JP2020086116 A JP 2020086116A JP 2020086116 A JP2020086116 A JP 2020086116A JP 2021180458 A JP2021180458 A JP 2021180458A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- image
- display
- user
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Telescopes (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、情報処理システム、情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing system, an information processing device, an information processing method and a program.
望遠カメラが搭載された電子双眼鏡を用いて、各々の電子双眼鏡で任意の被写体を観察している、例えば、バードウォッチングや野生動物観察などのシーンでは、他者が観察している被写体を自分の電子双眼鏡でも観察したい場合がある。観察時に動画や静止画を撮影して観察後に共有するのではなく、自分の電子双眼鏡を用いてリアルタイムに、自分の所望する画角で被写体を観察できることが望まれる。 Using electronic binoculars equipped with a telephoto camera, we are observing any subject with each electronic binocular, for example, in scenes such as bird watching and wildlife observation, we are observing the subject being observed by others. You may want to observe with electronic binoculars. It is desirable to be able to observe the subject at the angle of view desired by oneself in real time using one's own electronic binoculars, instead of taking a moving image or a still image at the time of observation and sharing it after the observation.
例えば、特許文献1では、他者が観察している被写体を自分の電子双眼鏡で撮影するための技術が開示されている。他者が観察している被写体を自分の電子双眼鏡で撮影するためには、自分の電子双眼鏡をどの方位にどのくらい移動させれば良いのか、目の前の表示部に方位や回動角度を表示する方法である。 For example, Patent Document 1 discloses a technique for photographing a subject being observed by another person with his / her own electronic binoculars. In order to take a picture of a subject being observed by another person with your own electronic binoculars, the direction and rotation angle are displayed on the display in front of you, as to what direction and how much you should move your electronic binoculars. How to do it.
しかしながら、特許文献1に開示された技術では、電子双眼鏡を向ける方向や角度が通知されてから向きを合わせるまでの間、被写体となる対象物を見ることができない。対象物が動物等の動く物体であった場合、自分の電子双眼鏡の向きを合わせる間に被写体の様子が変化して所望のシーンが観察できない場合や、あるいは被写体が移動してしまい見失う場合もある。そこで、本発明は、他者が撮影している画像をリアルタイムで共有し、かつ、自分の所望する画角で被写体を観察できるようにすることを目的とする。 However, in the technique disclosed in Patent Document 1, it is not possible to see the object as a subject from the time when the direction or angle at which the electronic binoculars are directed is notified until the direction is adjusted. If the object is a moving object such as an animal, the appearance of the subject may change while the direction of the electronic binoculars is adjusted, and the desired scene may not be observed, or the subject may move and lose sight of it. .. Therefore, an object of the present invention is to share an image taken by another person in real time and to be able to observe the subject at an angle of view desired by oneself.
本発明に係る情報処理システムは、被写体を撮影する撮像手段と、ユーザーの頭部又は視線の少なくとも一方の動きを検出する検出手段と、前記検出手段により検出された動きに基づいて前記撮像手段を回動する回動制御手段と、前記撮像手段により撮影された撮影画像に基づく第1の表示画像を表示する表示手段とをそれぞれ有し、相互に通信可能な第1の情報処理装置と第2の情報処理装置とを有し、前記第1の情報処理装置は、前記第1の情報処理装置が有する前記撮像手段により撮影される第1の撮影画像又は前記第1の撮影画像から切り出した画像を、前記第2の情報処理装置に送信する第1の送信手段を有し、前記表示手段は、前記検出手段により検出された前記第1の情報処理装置のユーザーの動きに基づいて生成される前記第1の表示画像を表示し、前記第2の情報処理装置は、前記第1の情報処理装置から送信された前記第1の撮影画像又は前記第1の撮影画像から切り出した画像を受信する第1の受信手段を有し、前記表示手段は、前記検出手段により検出された前記第2の情報処理装置のユーザーの動きに応じた、前記第1の受信手段により受信した前記第1の情報処理装置からの画像に基づく第2の表示画像を表示することを特徴とする。 The information processing system according to the present invention captures an image pickup means for photographing a subject, a detection means for detecting the movement of at least one of the user's head or the line of sight, and the image pickup means based on the movement detected by the detection means. A first information processing device and a second information processing device, each having a rotating rotation control means and a display means for displaying a first display image based on a captured image captured by the image pickup means, and capable of communicating with each other. The first information processing device has the information processing device of the above, and the first information processing device is a first captured image captured by the imaging means of the first information processing apparatus or an image cut out from the first captured image. The display means has a first transmission means for transmitting the information to the second information processing apparatus, and the display means is generated based on the movement of the user of the first information processing apparatus detected by the detection means. The first display image is displayed, and the second information processing apparatus receives the first captured image transmitted from the first information processing apparatus or an image cut out from the first captured image. The display means has the first receiving means, and the display means receives the first information by the first receiving means according to the movement of the user of the second information processing apparatus detected by the detecting means. It is characterized in that a second display image based on an image from a processing device is displayed.
本発明によれば、他者が撮影している画像をリアルタイムで共有し、かつ、自分の所望する画角で被写体を観察することができる。 According to the present invention, it is possible to share an image taken by another person in real time and observe the subject at a desired angle of view.
以下、本発明の実施形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(第1の実施形態)
図1〜図9を参照して、本発明の第1の実施形態における情報処理装置としての電子双眼鏡について説明する。本実施形態では、第1の装置である電子双眼鏡を使用しているユーザーAと、第2の装置である電子双眼鏡を使用しているユーザーBとが、各々の電子双眼鏡でそれぞれ所望の被写体を観察する場合を想定している。本実施形態では、ユーザーAが使用する電子双眼鏡とユーザーBが使用する電子双眼鏡とが相互で通信を行う情報処理システムを構成し、画像の共有を実現する。
(First Embodiment)
The electronic binoculars as the information processing apparatus according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 9. In the present embodiment, the user A using the electronic binoculars, which is the first device, and the user B, who is using the electronic binoculars as the second device, each use the electronic binoculars to capture a desired subject. It is supposed to be observed. In the present embodiment, an information processing system in which the electronic binoculars used by the user A and the electronic binoculars used by the user B communicate with each other is configured to realize image sharing.
図1は、本実施形態における電子双眼鏡100のメカ構成の例を示す図である。本実施形態における電子双眼鏡100は、例えば図1に示すような、ヘッドマウントディスプレイ装置を適用した眼鏡型のウェアラブルな形態の電子双眼鏡である。図1(a)は電子双眼鏡100を前方側から見た外観斜視図であり、図1(b)は電子双眼鏡100を後方側から見た外観斜視図である。
FIG. 1 is a diagram showing an example of the mechanical configuration of the
電子双眼鏡100は、眼鏡型のフレームを有し、右眼用の第1の表示部(ディスプレイ)104a、左眼用の第2の表示部(ディスプレイ)104b、および観察対象を撮影するカメラ(撮像部)101を有する。第1の表示部(ディスプレイ)104aは右眼用の画像を表示し、左眼用の第2の表示部(ディスプレイ)104bは左眼用の画像を表示する。以下、第1の表示部104aと第2の表示部104bとの双方合わせて表示部104とも記載する。カメラ101は、図1(a)中に矢印で示すように、パン方向およびチルト方向に回動可能であり、図1(b)に示すパンニング部102aおよびチルト部102bに内蔵されたアクチュエータによって駆動する。
The
また、カメラ101は、焦点距離を複数の段階で設定することができ、ユーザー操作により切り替えて使用することができる。カメラ101の焦点距離の切り替えや、電子双眼鏡100の電源ON/OFFなどの操作は、操作部材110を介してユーザーが行うことができる。また、電子双眼鏡100は、ユーザー(装着者)の頭の振れを検出するためのジャイロセンサ111や、ユーザーの視線方向をそれぞれ検出するための右眼用の第1の視線検出部105aおよび左眼用の第2の視線検出部105bを有する。以下、第1の視線検出部105aと第2の視線検出部105bとの双方合わせて視線検出部105とも記載する。
In addition, the focal length of the
本実施形態では、一例として、カメラ101は、焦点距離を100mmと400mm(35mmフルサイズ換算での焦点距離)の2段階で切り替えて使用できるものとする。カメラ101は、焦点距離400mmのときには、光学ズームと電子ズームを併用して撮影する。そして、カメラ101は、撮影された画像(以下、撮影画像)からユーザー設定の画角に合わせて表示範囲を切り出して、ユーザーが観察する表示画像を生成する。生成された表示画像は、リアルタイムに表示部104に表示される。
In the present embodiment, as an example, the
また、カメラ101は、オートフォーカス機能を有し、観察範囲内に含まれる観察対象に関して、自動的に合焦する。ピント調整で駆動する不図示のフォーカシングレンズの停止位置によって、ピントが合う被写体距離は一意に決まる。そのため、予めフォーカシングレンズの停止位置と被写体距離との関係をシステム内に保持しておくと、オートフォーカスで停止したフォーカシングレンズの停止位置から、被写体距離を検出することができる。すなわち、カメラ101は、被写体距離を検出する機能も有する。
Further, the
図2は、電子双眼鏡100の構成例を示すブロック図である。CPU109は、電子双眼鏡100が有する各部を制御する。カメラ101、回動制御部103、2つの表示部104(104a、104b)、2つの視線検出部105(105a、105b)、通信部106、操作部材110、及びジャイロセンサ111の各々は、CPU109と接続されている。さらに、CPU109は、撮影した画像と視線検出部105での視線検出の結果から、表示部104に表示する画像の範囲を算出し、撮影した画像から任意の画像を切り出して、新な画像を生成する機能も有する。回動制御部103は、カメラ101のパン方向およびチルト方向の回動を制御する。通信部106は、Wi−FiやBluetooth等の無線通信規格を利用して、同様の構成を有する他の電子双眼鏡と通信を行い、データの送受信を行う機能を有する。
FIG. 2 is a block diagram showing a configuration example of the
図3Aおよび図3Bは、第1の実施形態における電子双眼鏡100の処理例を示すフローチャートである。図3Aおよび図3Bに示す処理は、電子双眼鏡100のCPU109が、電子双眼鏡100の各部を制御したり、各種演算処理を行ったりすることによって実現される。ここでは、ユーザーAが使用する電子双眼鏡100を親機とし、ユーザーBが使用する電子双眼鏡100を子機として、画像の共有を行う例を示している。図3Aおよび図3Bには、撮影を開始して画像共有モードを実行・終了し、再度通常の撮影に戻るまでの処理の流れを示している。図3Aが処理の前半部で、撮影を開始して画像共有モードを開始するまでの処理を示し、図3Bが処理の後半部で、撮影画像を共有する処理を示している。
3A and 3B are flowcharts showing a processing example of the
なお、図3Aおよび図3Bにおいて、左側がユーザーAが使用する電子双眼鏡100(第1の装置)に係るフローチャートであり、右側がユーザーBが使用する電子双眼鏡100(第2の装置)に係るフローチャートである。また、図3Aおよび図3Bにおいて、図中の破線の矢印は無線通信によるデータの送受信を示す。 In FIGS. 3A and 3B, the left side is a flowchart relating to the electronic binoculars 100 (first device) used by the user A, and the right side is a flowchart relating to the electronic binoculars 100 (second device) used by the user B. Is. Further, in FIGS. 3A and 3B, the broken line arrow in the figure indicates the transmission / reception of data by wireless communication.
ユーザーAが使用する電子双眼鏡100は、通常の撮影を開始(S301)するとき、ステップS302でユーザーにより操作部材110で電源ON操作がなされると、カメラ101が起動し、表示部104による撮影画像のリアルタイムでの表示を開始する。本実施形態では、電子双眼鏡100は、100mmと400mmの2段階で焦点距離を切り替え可能としたが、電源ON直後に関しては、観察対象を見つけやすいように焦点距離はより広角である100mmに設定するよう制御する。
When the
電子双眼鏡100のユーザーは観察対象を見つけると、操作部材110を介して焦点距離を400mmと切り替える。また、ステップS303において、ユーザーAが使用する電子双眼鏡100は、取得画像からオートフォーカス(AF)処理や自動露出制御(AE)処理を行う。これにより、電子双眼鏡100のユーザーは、カメラ101が撮影した画像を通じて、被写体の観察を始めることができる。このときのカメラ101の方向501aは、図4(a)に示すように、視線検出部105によって検出された視線方向502aと平行な方向にカメラの光軸が向く方向(以下、基準方向とも記す)である。図4(a)はカメラ101のパン方向が分かるように、ユーザーの頭上からの視点で描いた図であるが、チルト方向に関しても同様である。なお、以下の説明では、カメラの表示範囲に関してはすべてパン方向に関する説明に絞るが、チルト方向に関しても同様の制御を行い、表示範囲の算出と変更動作を行うこととする。
When the user of the
次いで、撮影が開始されると、ステップS304において、ユーザーAが使用する電子双眼鏡100は、現在撮影中の撮影画像Aについて、設定された画角となるよう撮影画像Aの表示範囲を算出し、その範囲の画素を読み出すことで表示画像Aを生成する。そして、ユーザーAが使用する電子双眼鏡100は、生成した表示画像Aを表示部104に表示する。図6は、画像の表示範囲及び表示画像を説明する図である。図6(a)に示す画像601は、ユーザーAが使用する電子双眼鏡100のカメラ101により撮影された撮影画像である。また、画像602は、ユーザーAが設定した画角に切り出された、ユーザーAが使用する電子双眼鏡100の表示画像である。ゆえに、ユーザーAは、図6(c)に示すように電子双眼鏡100の表示部104に表示される表示画像602を観察することができる。
Next, when shooting is started, in step S304, the
ユーザーAが使用する電子双眼鏡100は、撮影を開始し、表示画像602が表示部104に表示された後、ステップS305において、ユーザーAの視線を検出する。続いて、ステップS306において、ユーザーAが使用する電子双眼鏡100は、ステップS305での視線の検出結果を用いて、カメラ101のパン方向の回動量θを算出し、パン方向に回動量θだけ回動することでカメラ101が視線方向に向くよう制御する。
The
ここで、図4及び図5を参照して、ステップS304以降の処理で行われる視線の検出とパンチルトの回動制御について説明する。図4は、被写体と視線方向、カメラ方向の関係を説明する図であり、図5は、図4に対応する撮影画像の例を示す図である。 Here, with reference to FIGS. 4 and 5, the line-of-sight detection and pan-tilt rotation control performed in the processes after step S304 will be described. FIG. 4 is a diagram for explaining the relationship between the subject, the line-of-sight direction, and the camera direction, and FIG. 5 is a diagram showing an example of a captured image corresponding to FIG.
使用しているユーザーの視線方向が表示部104の中心を向いているのは前述した基準方向(図4(a))であり、このとき表示104に表示される画像は図5(a)となり、画像上のユーザーの視線位置504aが撮影画像の中心505と一致する。それに対して、図4(b)に示すようにユーザーの視線方向502bとカメラ方向501bが平行でない場合、表示部104に表示される画像は図5(b)となり、ユーザーの視線位置504bが画像中心505から距離dだけ離れたところに位置する。したがって、ユーザーの視線位置504bが距離dだけ画像中心に近づくように、カメラ101をパン方向にθだけ回動しカメラ方向501b’に向ける必要がある。
The line-of-sight direction of the user is facing the center of the
カメラ101の回動量θの算出について、図7を参照して説明する。図7は、被写体の位置と回動量θとの関係を説明する図である。図7に示すように、カメラ101の光軸が被写体701(図7において★で示す)を向くために回転する回転角度θは、θ=atan(D/Lf)と算出できる。Lfは被写体距離であり、Dは画像上の距離dを実空間相当の距離に換算した値である。
The calculation of the rotation amount θ of the
被写体距離Lfは、前述したように、不図示のフォーカシングレンズの停止位置から得られる。また、被写体距離Lfとユーザーが設定した表示画像の画角設定とによって、被写体距離Lfが得られれば画像上の距離dから一意に距離Dが算出される。距離Dについては、被写体距離と表示画像上の単位長さ当たりの関係に基づいて予め記憶しておくことができ、それを用いることで、リアルタイムで被写体距離Lfが得られれば、同時に距離Dも算出できる。 As described above, the subject distance Lf is obtained from the stop position of the focusing lens (not shown). Further, if the subject distance Lf is obtained by the subject distance Lf and the angle of view setting of the display image set by the user, the distance D is uniquely calculated from the distance d on the image. The distance D can be stored in advance based on the relationship between the subject distance and the unit length on the displayed image, and if the subject distance Lf can be obtained in real time by using this, the distance D can be obtained at the same time. Can be calculated.
また、回動量θの回転方向については、図5(b)に示すように視線位置504bがX軸上の正の領域に位置する場合にはマイナス方向であり、逆に、視線位置504bがX軸方向の負の領域に位置する場合にはプラス方向に回転させる。 Further, the rotation direction of the rotation amount θ is a negative direction when the line-of-sight position 504b is located in the positive region on the X-axis as shown in FIG. 5 (b), and conversely, the line-of-sight position 504b is X. If it is located in the negative region in the axial direction, rotate it in the positive direction.
このようにして得られた回転量θと回転方向を用いて、フィードバック制御等により、ユーザーの視線位置504bが表示画像の中心に位置するよう、カメラ101について回動制御を逐次行う。
Using the rotation amount θ and the rotation direction thus obtained, rotation control is sequentially performed on the
ユーザーBが使用する電子双眼鏡100においても、ステップS401〜S406において、前述したステップS301〜S306と同様の処理をそれぞれ行う。
In the
次に、ユーザーAが使用する電子双眼鏡100が撮影している画像を共有したい場合の処理の流れについて説明する。図3Aに示すフローチャートでのステップS307以降、及びステップS407以降の処理が対応する。
Next, a process flow when it is desired to share an image taken by the
ユーザーAが使用する電子双眼鏡100は、ユーザーAによる操作部材110に対する操作によって、現在撮影している被写体を共有したい状態であることが示されると(S307においてYES)、ステップS308へ進む。ステップS308において、ユーザーAが使用する電子双眼鏡100は、予め通信可能な状態にしておいたユーザーBが使用する電子双眼鏡100に対し、無線通信により被写体を共有したい状態であることを示す共有トリガを送信する。共有トリガとは、予め登録しておいた、共有したい意思を伝える電気的な信号である。なお、ユーザーAによって、現在撮影している被写体を共有したい状態であることが示されない場合(S307においてNo)、ステップS304に戻り、ステップS304〜S307の処理を繰り返す。
When it is indicated that the
ユーザーBが使用する電子双眼鏡100は、ユーザーAが使用する電子双眼鏡100からの共有トリガを受信すると(S407においてYes)、ステップS408へ進む。ステップS408において、ユーザーBが使用する電子双眼鏡100は、共有トリガの受信に対するユーザーBによる操作部材110の操作に基づいて、被写体の共有を承認するか拒否するかを判定する。
When the
被写体の共有を拒否する場合(S408においてNo)、ステップS409において、ユーザーBが使用する電子双眼鏡100は、ユーザーAが使用する電子双眼鏡100に対し、無線通信により共有拒否の通知を送信する。一方、被写体の共有を承認する場合(S408においてYes)、ステップS410において、ユーザーBが使用する電子双眼鏡100は、ユーザーAが使用する電子双眼鏡100に対し、無線通信により共有承認の通知を送信する。ステップS410において共有承認の通知を送信した後、ユーザーBが使用する電子双眼鏡100は、画像共有モード(S411)へ移行する。
When refusing to share the subject (No in S408), in step S409, the
ここで、ユーザーBが使用する電子双眼鏡100は、ステップS409において共有拒否の通知をした場合、ステップS404に移行し、ユーザーBが所望の被写体を観察している状態に戻る。また、ユーザーBが使用する電子双眼鏡100は、ユーザーAが使用する電子双眼鏡100からの共有トリガを受信していない場合(S407においてNo)、ステップS404に戻り、ステップS404〜S407の処理を繰り返す。
Here, when the
ユーザーAが使用する電子双眼鏡100は、ステップS308において共有トリガを送信した後、ステップS309において、ユーザーBが使用する電子双眼鏡100からの共有承認の通知または共有拒否の通知を受信するまで待機する。ユーザーAが使用する電子双眼鏡100は、共有承認の通知または共有拒否の通知を受信すると(S309においてYes)、ステップS310において、受信した通知が共有承認であるか否かを判定する。
After transmitting the sharing trigger in step S308, the
受信した通知が共有承認ではない、すなわち共有拒否の通知である場合(S310においてNo)、ユーザーAが使用する電子双眼鏡100は、ステップS304に移行し、ユーザーAが所望の被写体を観察している状態に戻る。一方、受信した通知が共有承認である場合(S310においてYes)、ユーザーAが使用する電子双眼鏡100は、画像共有モード(S311)へ移行する。
When the received notification is not a sharing approval, that is, a notification of refusal to share (No in S310), the
次に、図3Bを参照して、画像共有モードでの処理について説明する。ユーザーAが使用する電子双眼鏡100は、画像共有モードを開始(S311)すると、ステップS312において、ユーザーの頭部の振れをキャンセルし画像共有モードの開始直前の撮影範囲を維持するように、カメラ101の回動制御を開始する。同様に、ユーザーBが使用する電子双眼鏡100は、画像共有モードを開始(S411)すると、ステップS412において、ユーザーの頭部の振れをキャンセルし画像共有モードの開始直前の撮影範囲を維持するように、カメラ101の回動制御を開始する。
Next, processing in the image sharing mode will be described with reference to FIG. 3B. When the
具体的には、電子双眼鏡100に搭載されたジャイロセンサ111は、図8に示すようにユーザーの頭部の振れθhを検出可能で、カメラ101は、この頭部の振れ角度θhをキャンセルするために、パン方向に−θhだけ回動する。画像共有中は、常に、この回動制御を行い画像共有前の画角を維持する。これにより、画像共有中に共有している画像の不用意な揺れを防止しつつ、画像共有モードが終了した時には画像共有前に撮影していた撮影範囲から撮影を再開することで、違和感なくスムーズな撮影が可能である。
Specifically, the
ただし、カメラの回動可能な範囲以上に頭部が振れてしまった場合については、画像共有前の撮影範囲を維持できない。そのため、頭部の振れ角度が制御不可能な領域に近づいてきた場合には、表示部104を介してユーザーに頭部の振れが大きい故を警告し、表示部104に元の撮影範囲の方向を示す矢印を表示するようにしてもよい。ユーザーが矢印に従い頭部を回転することで元の撮影範囲を維持するための制御が可能となれば画像共有モードは維持するが、一定時間以上たっても改善されず、画像共有前の撮影範囲が維持できなくなったら、画像共有モードは終了するようにしてもよい。
However, if the head swings beyond the rotatable range of the camera, the shooting range before image sharing cannot be maintained. Therefore, when the head shake angle approaches an uncontrollable area, the user is warned via the
次に、図3Bに示すフローチャートのステップS313〜S318、及びステップS413〜S418において行われる、画像共有モードにおける共有画像の表示範囲の算出と表示範囲の変更動作について説明する。以下では、図6を適宜参照して説明する。図6(a)、図6(b)に示す画像601及び画像611は、ユーザーAが使用する電子双眼鏡100のカメラ101で撮影された撮影画像である。画像601及び画像611は、ユーザーが設定した画角に切り出して表示部104に表示する表示画像になる前の、元画像である。図6(c)、図6(d)に示す画像602及び画像612は、ユーザーAが使用する電子双眼鏡100の表示部104に表示される表示画像である。また、図6(e)、図6(f)に示す画像621及び画像622は、ユーザーBが使用する電子双眼鏡100の表示部104に表示される表示画像である。また、図6(a)、図6(c)、図6(e)に示す画像は画像共有モードに入った直後の画像であるが、図6(b)、図6(d)、図6(f)に示す画像は画像共有モードに入って各々のユーザーが所望の画角で共有画像を観察している時の画像の一例である。
Next, the operation of calculating the display range of the shared image and changing the display range in the image sharing mode, which are performed in steps S313 to S318 and steps S413 to S418 of the flowchart shown in FIG. 3B, will be described. Hereinafter, FIG. 6 will be described with reference to the appropriate reference. The
ユーザーAが使用する電子双眼鏡100は、ステップS312での回動制御を開始した後、ステップS313において、共有する画像である表示部104に表示されている表示画像602を、無線通信によりユーザーBが使用する電子双眼鏡100へ送信する。また、ユーザーBが使用する電子双眼鏡100は、ステップS412での回動制御を開始した後、ユーザーAが使用する電子双眼鏡100から送信された表示画像602を受信すると(S413においてYes)、ステップS414へ進む。
The
ステップS414において、ユーザーBが使用する電子双眼鏡100は、受信した表示画像602を表示部104に表示する。このとき、ユーザーBが使用する電子双眼鏡100は、図6(e)に示すように、ユーザーBが使用する電子双眼鏡100のカメラ101が撮影中の画像621の上に共有画像602を重ねて表示部104に表示する。このようにして、画像共有中は画像共有前から撮影している画角の変化を見逃さず、画像共有モードの終了時は違和感なくスムーズに撮影画像に戻ることを可能にしている。
In step S414, the
その後、ユーザーAが使用する電子双眼鏡100は、ステップS314において、視線検出部105により表示画像602を観察するユーザーAの視線を検出する。このステップS314では、視線検出部105が瞳の位置から視線の方向を検出し、表示部104に映る表示画像602においてユーザーAがどの位置を見ているのか、視線位置(図6(c)に示す651)の情報を得る。
After that, the
次に、ステップS315において、ユーザーAが使用する電子双眼鏡100は、ステップS314で得られた視線位置651が画像の中心で、かつ、予め設定された画角となるように表示画像の表示範囲を算出する。そして、ユーザーAが使用する電子双眼鏡100は、算出した表示範囲に基づいて撮影画像601から表示画像を再生成して表示範囲の変更動作を行い、図6(d)に示すように、新に生成された表示画像612を表示部104に表示する。
Next, in step S315, the
また、ユーザーBが使用する電子双眼鏡100は、受信した表示画像602を表示部104に表示した後、ユーザーAが使用する電子双眼鏡100と同様に、ステップS415において、視線検出部105によりユーザーBの視線を検出する。次に、ステップS416において、ユーザーBが使用する電子双眼鏡100は、ステップS415での検出結果である視線位置の情報を、ユーザーAが使用する電子双眼鏡100に送信する。
Further, after the received
ユーザーAが使用する電子双眼鏡100は、ユーザーBが使用する電子双眼鏡100からユーザーBの視線の検出結果を受信すると(S316においてYes)、ステップS317において、受信した視線位置652の情報を基づいて表示範囲の変更動作を行う。ステップS317では、ユーザーAが使用する電子双眼鏡100は、視線位置652が画像の中心で、かつ、予め設定された画角となるように表示画像の表示範囲を算出し、撮影画像611から切り出して表示画像613を生成する。次に、ステップS318において、ユーザーAが使用する電子双眼鏡100は、生成した表示画像613を、再度無線通信によりユーザーBが使用する電子双眼鏡100に送信する。
When the
ここで、ステップS315及びS317で生成する表示部104に表示する表示画像として、元となる撮影画像の画像範囲を超える画像は生成できない。具体的に、図9に示す仮の撮影画像901を用いて説明する。視線位置が撮影画像901の端部周辺(斜線部902以外の場所)に位置し、生成される表示画像が撮影画像の撮影範囲を超えてしまう場合には、電子双眼鏡100は、新たに表示画像を生成せずに、表示画像は現状の画像に維持して次の処理に移行する。すなわち、電子双眼鏡100は、視線位置が撮影画像の所定の範囲(図9の斜線部902の範囲)に存在するときだけ、表示画像を再生成し、表示範囲の変更動作を行う。図9の斜線部902は、ユーザーが設定する画角によってその範囲が変更されるが、撮影画像の4隅に表示画像を作成したときの画像の中心を結ぶ四角形の領域である。
Here, as the display image to be displayed on the
ユーザーBが使用する電子双眼鏡100は、ユーザーAが使用する電子双眼鏡100から表示画像613を受信すると(S417においてYes)、ステップS418において、受信した表示画像613を表示部104に表示する。このときもステップS414と同様に、ユーザーBが使用する電子双眼鏡100は、図6(f)に示すように、ユーザーBが使用する電子双眼鏡100のカメラ101が撮影中の画像622の上に表示画像613を重ねて表示部104に表示する。
When the
前述までの処理により、ユーザーAが使用する電子双眼鏡100が撮影し、表示部104に表示された画像602について、ユーザーBが使用する電子双眼鏡100と共有し、各々のユーザーは、各々の視線の位置情報に合わせた表示画像を観察できる。そして、このまま継続してユーザーAが使用する電子双眼鏡100が撮影する画像をユーザーBが使用する電子双眼鏡100で共有する場合、それぞれステップS314の処理、ステップS415の処理に戻り、各々の視線の位置情報に合わせて画像を共有する。
By the process up to the above, the
一方、ユーザーAが使用する電子双眼鏡100又はユーザーBが使用する電子双眼鏡100は、使用しているユーザーが画像共有モードを終了し通常の撮影に戻りたい場合、無線通信を用いて画像共有モードの終了を他方の電子双眼鏡100に送信する。
On the other hand, the
ユーザーAが使用する電子双眼鏡100は、画像共有モードの終了の通知を送信あるいは受信すると(S319においてYes)、ステップS320へ進む。ステップS320において、ユーザーAが使用する電子双眼鏡100は、ステップS312で開始した、頭部の振れをキャンセルし画像共有モードの開始直前の撮影範囲を維持するためのカメラ101の回動制御を終了する。そして、ユーザーAが使用する電子双眼鏡100は、ステップS321において画像共有モードを終了した後、ステップS322において前述したステップS304へ戻り通常の撮影を再開する。
When the
同様に、ユーザーBが使用する電子双眼鏡100は、画像共有モードの終了の通知を送信あるいは受信すると(S419においてYes)、ステップS420へ進む。ステップS420において、ユーザーBが使用する電子双眼鏡100は、ステップS412で開始した、頭部の振れをキャンセルし画像共有モードの開始直前の撮影範囲を維持するためのカメラ101の回動制御を終了する。そして、ユーザーBが使用する電子双眼鏡100は、ステップS421において画像共有モードを終了した後、ステップS422において前述したステップS404へ戻り通常の撮影を再開する。
Similarly, when the
前述したように、ステップS312およびS412でのカメラの回動制御を行っていたため、通常の撮影を再開すると、各々の電子双眼鏡100のカメラ101は、画像共有モードの開始直前の撮影範囲を撮影する。これにより、ユーザーは画像共有モード直前に任意で観察していた撮影範囲から撮影を再開でき、違和感なくスムーズな撮影が可能である。
As described above, since the rotation control of the camera was performed in steps S312 and S412, when the normal shooting is resumed, the
第1の実施形態では、親機となる電子双眼鏡100が撮影する画像に対して、子機となる1台の電子双眼鏡100がその画像を共有する手法について説明した。同様の手法で、親機となる電子双眼鏡100が撮影する画像を、子機となる複数台の電子双眼鏡100が共有しつつ、子機となる電子双眼鏡100の各々が任意の画角で表示画像を観察することも可能である。その場合には、親機となる電子双眼鏡100はステップS313〜S319までの処理を、子機となる電子双眼鏡100の台数分だけ繰り返すことになる。これは、親機となる電子双眼鏡100が子機となる複数台の電子双眼鏡100に対して、撮影画像を送信し、視線検出結果を受信して画像の表示範囲の算出と表示範囲の変更動作を行い、再度表示画像の送信作業を行うためである。ゆえに、親機となる電子双眼鏡100に演算負荷が集中し、処理時間が増加してしまう。
In the first embodiment, a method of sharing an image by one electronic binocular 100 as a slave unit with respect to an image taken by the
そこで、親機となる電子双眼鏡100に演算負荷が集中せずに、子機となる電子双眼鏡100が複数台となった場合に有効な画像共有モードを有する例を、以下の第2の実施形態で説明する。
Therefore, an example having an image sharing mode effective when there are a plurality of
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第2の実施形態における情報処理装置としての電子双眼鏡100の構成は、第1の実施形態における電子双眼鏡100の構成と同様であるので、その説明は省略する。第2の実施形態では、共有する表示画像を送受信するのではなく、表示画像の元画像である撮影画像を送受信して、子機となる電子双眼鏡100が表示画像を生成する。以下では、第2の実施形態における電子双眼鏡100の処理において、前述した第1の実施形態と異なる、画像共有モード開始後の処理についてのみ説明する。
(Second embodiment)
Next, a second embodiment of the present invention will be described. Since the configuration of the
図10は、第2の実施形態における電子双眼鏡100の処理例を示すフローチャートである。図10には、第1の実施形態において図3Bに対応する、画像共有モードの開始後の処理を示している。
FIG. 10 is a flowchart showing a processing example of the
ユーザーAが使用する電子双眼鏡100は、画像共有モードを開始(S1001)すると、ステップS1002において、ユーザーの頭部の振れをキャンセルし画像共有モードの開始直前の撮影範囲を維持するように、カメラ101の回動制御を開始する。同様に、ユーザーBが使用する電子双眼鏡100は、画像共有モードを開始(S1101)すると、ステップS1102において、ユーザーの頭部の振れをキャンセルし画像共有モードの開始直前の撮影範囲を維持するように、カメラ101の回動制御を開始する。
When the
ユーザーAが使用する電子双眼鏡100は、ステップS1002での回動制御を開始した後、ステップS1003において、共有する画像である表示部104に表示されている表示画像602を、ユーザーBが使用する電子双眼鏡100へ送信する。そして、ユーザーAが使用する電子双眼鏡100は、ステップS1004において、視線検出部105により表示画像602を観察するユーザーAの視線を検出し、ユーザーAの視線位置の情報を得る。
The
次に、ステップS1005において、ユーザーAが使用する電子双眼鏡100は、第1の実施形態と同様に、視線位置の情報と撮影画像611から、表示画像612を生成して表示部104に表示する。次に、ステップS1006において、ユーザーAが使用する電子双眼鏡100は、撮影画像611を送信する。
Next, in step S1005, the
また、ユーザーBが使用する電子双眼鏡100は、ステップS1102での回動制御を開始した後、ユーザーAが使用する電子双眼鏡100から送信された表示画像602を受信すると(S1103においてYes)、ステップS1104へ進む。ステップS1104において、ユーザーBが使用する電子双眼鏡100は、受信した表示画像602を表示部104に表示する。
Further, when the
その後、ユーザーBが使用する電子双眼鏡100は、ステップS1105において、視線検出部105によりユーザーBの視線を検出し、ユーザーBの視線位置の情報を得る。そして、ステップS1106において、ユーザーBが使用する電子双眼鏡100は、ステップS1105で得られた視線位置が画像の中心で、かつ、予め設定された画角となるように表示画像の表示範囲を算出する。
After that, the
次に、ユーザーBが使用する電子双眼鏡100は、ユーザーAが使用する電子双眼鏡100から送信された撮影画像611を受信すると(S1107においてYes)、ステップS1108へ進む。ステップS1108において、ユーザーBが使用する電子双眼鏡100は、ステップS1106で算出した表示範囲となるよう表示範囲の変更動作を行い、撮影画像611を切り出して表示画像613を生成する。次に、ステップS1109において、ユーザーBが使用する電子双眼鏡100は、生成した表示画像613を表示部104に表示する。
Next, when the
前述までの処理により、ユーザーAが使用する電子双眼鏡100が撮影し、表示部104に表示された画像602について、ユーザーBが使用する電子双眼鏡100と共有し、各々のユーザーは、各々の視線の位置情報に合わせた表示画像を観察できる。そして、継続してユーザーAが使用する電子双眼鏡100が撮影する画像をユーザーBが使用する電子双眼鏡100で共有する場合、それぞれステップS1004の処理、ステップS1105の処理に戻り、各々の視線の位置情報に合わせて画像を共有する。
By the process up to the above, the
一方、ユーザーAが使用する電子双眼鏡100又はユーザーBが使用する電子双眼鏡100は、使用しているユーザーが画像共有モードを終了し通常の撮影に戻りたい場合、無線通信を用いて画像共有モードの終了を他方の電子双眼鏡100に送信する。
On the other hand, the
ユーザーAが使用する電子双眼鏡100は、画像共有モードの終了の通知を送信あるいは受信すると(S1007においてYes)、ステップS1008へ進む。ステップS1008において、ユーザーAが使用する電子双眼鏡100は、ステップS1002で開始した、頭部の振れをキャンセルし画像共有モードの開始直前の撮影範囲を維持するためのカメラ101の回動制御を終了する。そして、ユーザーAが使用する電子双眼鏡100は、ステップS1009において画像共有モードを終了した後、ステップS1010において図3Aに示したステップS304へ戻り通常の撮影を再開する。
When the
また、ユーザーBが使用する電子双眼鏡100は、画像共有モードの終了の通知を送信あるいは受信すると(S1110においてYes)、ステップS1111へ進む。ステップS1111において、ユーザーBが使用する電子双眼鏡100は、ステップS1102で開始した、頭部の振れをキャンセルし画像共有モードの開始直前の撮影範囲を維持するためのカメラ101の回動制御を終了する。そして、ユーザーBが使用する電子双眼鏡100は、ステップS1112において画像共有モードを終了した後、ステップS1113において図3Aに示したステップS404へ戻り通常の撮影を再開する。
Further, when the
子機となる電子双眼鏡100が複数台ある場合には、親機となる電子双眼鏡100は、図10に示したステップS1003での表示画像の送信とステップS1006での撮影画像の送信を、子機となる電子双眼鏡100の台数分だけ繰り返せばよい。第2の実施形態では、第1の実施形態と異なり、ユーザーの視線の位置情報から表示画像の表示範囲を算出し、表示画像を生成する表示範囲の変更動作を子機となる電子双眼鏡100が行う。そのため、第2の実施形態では、親機となる電子双眼鏡100に演算負荷が集中せず、親機となる電子双眼鏡100の演算処理時間が短縮できる。
When there are a plurality of
このように第1及び第2の実施形態によれば、あるユーザーが使用する電子双眼鏡100が撮影した画像を、他のユーザーが使用する電子双眼鏡100と共有し、かつ、各々のユーザーは、視線位置に合わせた任意の画角で表示部104を介して観察可能である。したがって、他者が撮影している画像をリアルタイムで共有し、かつ、自分の所望する画角で被写体を観察することができる。さらに、画像共有中のカメラのパン方向およびチルト方向の回動制御によって、画像共有中に共有する画像の不用意なブレの影響を無くし、不快感無く画像共有することが可能である。そして、画像共有モードが終了すると、画像共有モードの開始直前の撮影範囲から撮影を再開できるのでスムーズな撮影再開が可能となる。
As described above, according to the first and second embodiments, the image taken by the
(本発明の他の実施形態)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Embodiments of the present invention)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-described embodiments are merely examples of embodiment of the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.
100:情報処理装置(電子双眼鏡) 101:カメラ 102a:パンニング部 102b:チルト部 103:回動制御部 104(104a、104b):表示部 105(105a、105b):視線検出部 106:通信部 109:CPU 110:操作部材 111:ジャイロセンサ
100: Information processing device (electronic binoculars) 101:
Claims (15)
ユーザーの頭部又は視線の少なくとも一方の動きを検出する検出手段と、
前記検出手段により検出された動きに基づいて前記撮像手段を回動する回動制御手段と、
前記撮像手段により撮影された撮影画像に基づく第1の表示画像を表示する表示手段と
をそれぞれ有し、相互に通信可能な第1の情報処理装置と第2の情報処理装置とを有し、
前記第1の情報処理装置は、
前記第1の情報処理装置が有する前記撮像手段により撮影される第1の撮影画像又は前記第1の撮影画像から切り出した画像を、前記第2の情報処理装置に送信する第1の送信手段を有し、
前記表示手段は、前記検出手段により検出された前記第1の情報処理装置のユーザーの動きに基づいて生成される前記第1の表示画像を表示し、
前記第2の情報処理装置は、
前記第1の情報処理装置から送信された前記第1の撮影画像又は前記第1の撮影画像から切り出した画像を受信する第1の受信手段を有し、
前記表示手段は、前記検出手段により検出された前記第2の情報処理装置のユーザーの動きに応じた、前記第1の受信手段により受信した前記第1の情報処理装置からの画像に基づく第2の表示画像を表示することを特徴とする情報処理システム。 An imaging means for shooting a subject,
A detection means that detects the movement of at least one of the user's head or line of sight,
A rotation control means for rotating the image pickup means based on the movement detected by the detection means, and a rotation control means.
Each has a display means for displaying a first display image based on a captured image taken by the image pickup means, and has a first information processing device and a second information processing device capable of communicating with each other.
The first information processing device is
A first transmission means for transmitting a first captured image captured by the image pickup means of the first information processing apparatus or an image cut out from the first captured image to the second information processing apparatus. Have and
The display means displays the first display image generated based on the movement of the user of the first information processing apparatus detected by the detection means.
The second information processing device is
It has a first receiving means for receiving the first photographed image transmitted from the first information processing apparatus or an image cut out from the first photographed image.
The display means is a second based on an image from the first information processing device received by the first receiving means according to the movement of the user of the second information processing device detected by the detecting means. An information processing system characterized by displaying an image.
前記第2の情報処理装置から送信された前記第2の情報処理装置のユーザーの動きの情報を受信する第2の受信手段と、
前記第2の受信手段により受信した前記第2の情報処理装置のユーザーの動きの情報に基づいて、前記第1の撮影画像から前記第2の表示画像を生成する生成手段とを有し、
前記第1の送信手段は、前記生成手段により生成された前記第2の表示画像を送信し、
前記第2の情報処理装置は、
前記検出手段により検出された前記第2の情報処理装置のユーザーの動きの情報を前記第1の情報処理装置に送信する第2の送信手段を有し、
前記表示手段は、前記第1の受信手段により受信した前記第1の情報処理装置からの前記第2の表示画像を表示することを特徴とする請求項1〜3の何れか1項に記載の情報処理システム。 The first information processing device is
A second receiving means for receiving information on the movement of the user of the second information processing device transmitted from the second information processing device, and
It has a generation means for generating the second display image from the first captured image based on the information of the user's movement of the second information processing apparatus received by the second receiving means.
The first transmission means transmits the second display image generated by the generation means, and the first transmission means transmits the second display image.
The second information processing device is
It has a second transmission means for transmitting information on the movement of the user of the second information processing apparatus detected by the detection means to the first information processing apparatus.
The display means according to any one of claims 1 to 3, wherein the display means displays the second display image from the first information processing apparatus received by the first receiving means. Information processing system.
前記第2の情報処理装置は、
前記検出手段により検出された前記第2の情報処理装置のユーザーの動きに基づいて、前記第1の受信手段により受信した前記第1の撮影画像から前記第2の表示画像を生成する生成手段を有し、
前記表示手段は、前記生成手段により生成された前記第2の表示画像を表示することを特徴とする請求項1〜3の何れか1項に記載の情報処理システム。 The first transmission means included in the first information processing apparatus transmits the first captured image to the second information processing apparatus.
The second information processing device is
A generation means for generating the second display image from the first captured image received by the first receiving means based on the movement of the user of the second information processing apparatus detected by the detection means. Have and
The information processing system according to any one of claims 1 to 3, wherein the display means displays the second display image generated by the generation means.
被写体を撮影する撮像手段と、
ユーザーの頭部又は視線の少なくとも一方の動きを検出する検出手段と、
前記検出手段により検出されたユーザーの動きに応じた、前記撮像手段により撮影された撮影画像に基づく第1の表示画像を表示する表示手段と、
前記他の情報処理装置のユーザーの動きの情報を受信する受信手段と、
前記受信手段により受信した前記他の情報処理装置のユーザーの動きの情報に基づいて、前記撮影画像から第2の表示画像を生成する生成手段と、
前記生成手段により生成された前記第2の表示画像を前記他の情報処理装置に送信する送信手段とを有することを特徴とする情報処理装置。 An information processing device that can communicate with other information processing devices.
An imaging means for shooting a subject,
A detection means that detects the movement of at least one of the user's head or line of sight,
A display means for displaying a first display image based on a captured image taken by the image pickup means according to the movement of the user detected by the detection means, and a display means.
A receiving means for receiving information on the movement of the user of the other information processing device, and
A generation means for generating a second display image from the captured image based on information on the movement of the user of the other information processing apparatus received by the reception means.
An information processing apparatus comprising: a transmission means for transmitting the second display image generated by the generation means to the other information processing apparatus.
被写体を撮影する撮像手段と、
ユーザーの頭部又は視線の少なくとも一方の動きを検出する検出手段と、
前記撮像手段により撮影された撮影画像に基づく第1の表示画像を表示する表示手段と、
前記他の情報処理装置で撮影された撮影画像を受信する受信手段と、
前記検出手段により検出されたユーザーの動きに基づいて、前記受信手段により受信した前記撮影画像から第2の表示画像を生成する生成手段を有し、
前記表示手段は、前記第1の表示画像および前記生成手段により生成された前記第2の表示画像を表示することを特徴とする情報処理装置。 An information processing device that can communicate with other information processing devices.
An imaging means for shooting a subject,
A detection means that detects the movement of at least one of the user's head or line of sight,
A display means for displaying a first display image based on a captured image taken by the image pickup means, and a display means.
A receiving means for receiving a captured image captured by the other information processing device, and
It has a generation means for generating a second display image from the captured image received by the reception means based on the movement of the user detected by the detection means.
The information processing device is characterized in that the display means displays the first display image and the second display image generated by the generation means.
ユーザーの頭部又は視線の少なくとも一方の動きを検出する検出工程と、
検出されたユーザーの動きに応じた、前記撮像手段により撮影された撮影画像に基づく第1の表示画像を前記表示手段に表示する表示工程と、
通信可能な他の情報処理装置のユーザーの動きの情報を受信する受信工程と、
受信した前記他の情報処理装置のユーザーの動きの情報に基づいて、前記撮影画像から第2の表示画像を生成する生成工程と、
生成された前記第2の表示画像を前記他の情報処理装置に送信する送信工程とを有することを特徴とする情報処理方法。 It is an information processing method of an information processing apparatus having an image pickup means for photographing a subject and a display means for displaying an image.
A detection process that detects the movement of at least one of the user's head or line of sight,
A display step of displaying a first display image based on a captured image captured by the imaging means on the display means according to the detected movement of the user.
The receiving process that receives information on the movements of users of other information processing devices that can communicate,
A generation step of generating a second display image from the captured image based on the received information on the movement of the user of the other information processing device.
An information processing method comprising a transmission step of transmitting the generated second display image to the other information processing apparatus.
ユーザーの頭部又は視線の少なくとも一方の動きを検出する検出工程と、
通信可能な他の情報処理装置で撮影された撮影画像を受信する受信工程と、
検出されたユーザーの動きに基づいて、受信した前記撮影画像から第2の表示画像を生成する生成工程と、
前記撮像手段により撮影された撮影画像に基づく第1の表示画像及び生成された前記第2の表示画像を前記表示手段に表示する表示工程とを有することを特徴とする情報処理方法。 It is an information processing method of an information processing apparatus having an image pickup means for photographing a subject and a display means for displaying an image.
A detection process that detects the movement of at least one of the user's head or line of sight,
The receiving process of receiving captured images taken by other information processing devices that can communicate,
A generation step of generating a second display image from the received captured image based on the detected movement of the user, and
An information processing method comprising: a display step of displaying a first display image based on a captured image captured by the image pickup means and the generated second display image on the display means.
ユーザーの頭部又は視線の少なくとも一方の動きを検出する検出ステップと、
検出されたユーザーの動きに応じた、前記撮像手段により撮影された撮影画像に基づく第1の表示画像を前記表示手段に表示する表示ステップと、
通信可能な他の情報処理装置のユーザーの動きの情報を受信する受信ステップと、
受信した前記他の情報処理装置のユーザーの動きの情報に基づいて、前記撮影画像から第2の表示画像を生成する生成ステップと、
生成された前記第2の表示画像を前記他の情報処理装置に送信する送信ステップとを実行させるためのプログラム。 A computer of an information processing device having an image pickup means for photographing a subject and a display means for displaying an image.
A detection step that detects the movement of at least one of the user's head or line of sight,
A display step of displaying a first display image based on a captured image captured by the imaging means on the display means according to the detected movement of the user.
A reception step that receives information on the user's movements of other information processing devices that can communicate,
A generation step of generating a second display image from the captured image based on the received information on the movement of the user of the other information processing apparatus.
A program for executing a transmission step of transmitting the generated second display image to the other information processing apparatus.
ユーザーの頭部又は視線の少なくとも一方の動きを検出する検出ステップと、
通信可能な他の情報処理装置で撮影された撮影画像を受信する受信ステップと、
検出されたユーザーの動きに基づいて、受信した前記撮影画像から第2の表示画像を生成する生成ステップと、
前記撮像手段により撮影された撮影画像に基づく第1の表示画像及び生成された前記第2の表示画像を前記表示手段に表示する表示ステップとを実行させるためのプログラム。 A computer of an information processing device having an image pickup means for photographing a subject and a display means for displaying an image.
A detection step that detects the movement of at least one of the user's head or line of sight,
A reception step to receive a captured image captured by another information processing device capable of communication,
A generation step of generating a second display image from the received captured image based on the detected user movement, and
A program for executing a first display image based on a captured image captured by the imaging means and a display step of displaying the generated second display image on the display means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020086116A JP2021180458A (en) | 2020-05-15 | 2020-05-15 | Information processing system, information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020086116A JP2021180458A (en) | 2020-05-15 | 2020-05-15 | Information processing system, information processing apparatus, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021180458A true JP2021180458A (en) | 2021-11-18 |
Family
ID=78510560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020086116A Pending JP2021180458A (en) | 2020-05-15 | 2020-05-15 | Information processing system, information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021180458A (en) |
-
2020
- 2020-05-15 JP JP2020086116A patent/JP2021180458A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH1073783A (en) | Video observation system | |
JP5695809B1 (en) | Display device, display method, and program | |
JP2012186612A (en) | Imaging device | |
JP7418104B2 (en) | Image processing device and method of controlling the image processing device | |
JP2021034756A (en) | Imaging apparatus and control method of the same | |
JP5701729B2 (en) | Imaging apparatus, imaging method, and program | |
JP2021180458A (en) | Information processing system, information processing apparatus, information processing method, and program | |
JP4946914B2 (en) | Camera system | |
JP5695536B2 (en) | Imaging apparatus, imaging method, and program | |
JP6001111B2 (en) | Imaging apparatus, imaging method, and program | |
JP2012209626A (en) | Conference device, program for conference device and control method | |
JP2017055266A (en) | Imaging device and control method, program therefor, and storage medium | |
JP7446780B2 (en) | display device | |
JP5750792B1 (en) | Imaging apparatus, imaging method, and program | |
JP6080825B2 (en) | Imaging apparatus and control method thereof | |
JP2015019215A (en) | Imaging apparatus and imaging method | |
JP7423270B2 (en) | display device | |
JP2023157521A (en) | Electronic apparatus, method for controlling electronic apparatus, program, and storage medium | |
JP7343621B2 (en) | interval imaging device | |
JP2012199759A (en) | Information processing device, program therefor, and information processing method | |
JP2022122479A (en) | Imaging system, display device, imaging device and control method of imaging system | |
JP5281904B2 (en) | Viewfinder system and imaging apparatus having the same | |
JP2024017297A (en) | Imaging apparatus, wearable device, control method, program, and system | |
JP2020118717A (en) | Imaging device and control method therefor | |
JP2022122720A (en) | Platform control device and camera |