JP2020149635A - 撮像装置、画像通信システム、画像処理方法、プログラム - Google Patents

撮像装置、画像通信システム、画像処理方法、プログラム Download PDF

Info

Publication number
JP2020149635A
JP2020149635A JP2019049128A JP2019049128A JP2020149635A JP 2020149635 A JP2020149635 A JP 2020149635A JP 2019049128 A JP2019049128 A JP 2019049128A JP 2019049128 A JP2019049128 A JP 2019049128A JP 2020149635 A JP2020149635 A JP 2020149635A
Authority
JP
Japan
Prior art keywords
image
unit
attention point
point
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019049128A
Other languages
English (en)
Other versions
JP7192592B2 (ja
Inventor
英樹 城
Hideki Shiro
英樹 城
健一郎 森田
Kenichiro Morita
健一郎 森田
安中 英邦
Hidekuni Yasunaka
英邦 安中
毅史 本間
Takashi Homma
毅史 本間
拓也 曽根田
Takuya Soneda
拓也 曽根田
智慎 相川
Tomochika Aikawa
智慎 相川
貴文 武田
Takafumi Takeda
貴文 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019049128A priority Critical patent/JP7192592B2/ja
Priority to US16/785,658 priority patent/US11206351B2/en
Publication of JP2020149635A publication Critical patent/JP2020149635A/ja
Priority to US17/537,483 priority patent/US11956547B2/en
Priority to JP2022196234A priority patent/JP2023039975A/ja
Application granted granted Critical
Publication of JP7192592B2 publication Critical patent/JP7192592B2/ja
Priority to US18/606,279 priority patent/US20240223904A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/12Panospheric to cylindrical image transformations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00129Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a display device, e.g. CRT or LCD monitor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00458Sequential viewing of a plurality of images, e.g. browsing or scrolling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/354Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying sequentially
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

【課題】画像の撮像元がリアルタイムに注目点を指定することができる画像通信システムを提供すること。【解決手段】画像を撮像する撮像装置5と、前記画像を画面に表示する通信端末1〜4とを有する画像通信システム10であって、前記画像における注目点を定義する注目点定義部194と、前記撮像装置の姿勢情報を取得する姿勢情報取得部15aと、前記姿勢情報取得部が取得した前記姿勢情報に応じて、前記注目点定義部が定義した注目点を変換する注目点変換部196と、前記注目点変換部が変換した注目点を含む所定領域を前記画像から切り出す切出処理部220と、前記切出処理部が切り出した注目点を含む所定領域を前記画面に表示する出力部224と、を有することを特徴とする。【選択図】図1

Description

本発明は、撮像装置、画像通信システム、画像処理方法、及び、プログラムに関する。
魚眼レンズや超広角レンズなどの広角なレンズを複数使用して周囲360度又は全方位(以下、全天球という。)を一度に撮像する撮像装置が知られている。この撮像装置では、各々のレンズからの像を各撮像素子に投影し、得られる各画像を画像処理によってつなぎ合わせることで、全天球画像を生成する。例えば、180度を超える画角を有する2つの広角なレンズを用いて、全天球の被写体が撮像された全天球画像を生成することができる。
しかしながら、撮像装置で生成される全天球画像は球面座標系にて表現されているのに対し、ディスプレイなどの通常の表示装置は平面であるため、一度に全体を表示することが困難である。このため、全天球画像を表示する際には、通常、全天球画像の一部の画角を通常の表示装置に適合した画像へ変換する専用ビューアが用いられる。
全天球画像のうち任意の画角を端末側が表示できるように、注目点を決定する技術が考案されている(例えば、特許文献1参照。)。特許文献1には、ユーザが撮像装置を傾けたり回転させたりすることで注目点を変更し、注目点を通常の表示装置に表示する方法が開示されている。
しかしながら、従来の技術では、画像の撮像元がリアルタイムに注目点を指定することが困難であるという問題があった。リアルタイムに注目点を指定したいユースケースの1つとして、不動産の内見を例に説明する。
上記の撮像装置を不動産の内見に利用する場合、撮像装置は物件の部屋の全体を撮像できるので、内見をしたい顧客が物件まで移動しなくても物件の全体的な様子を把握でき、移動する手間を省くことができる。例えば、以下のような仕組みで内見が実現される。
1.不動産業者が物件に赴き、撮像装置で物件を撮像する。
2.内見をしたい顧客が撮像装置の映像を通信端末で受信してリアルタイムに遠隔で閲覧する。
3.映像だけでなく音声もつながっているので顧客は不動産業者と会話しながら内見できる。
しかし、顧客は全天球画像のある画角しか見えないので、不動産業者が説明している箇所を顧客が見ているとは限らないし、その箇所を平面デバイスですぐに表示させることも困難である。つまり、顧客は全天球画像のどこに注目をしたらよいかわからない。例えば、現地の不動産業者が「この部屋には最新のエアコンが備え付けられています! これです!」と言っても、遠隔で内見をしている顧客は全天球画像の中でエアコンの方向を見ているとは限らず、リアルタイムに指定された注目点について意思疎通することが難しい。
このような不都合に対し、不動産業者が携帯する通信端末に全天球画像のプレビューを表示して、注目点を指示する操作を行えば、不動産業者の通信端末が遠隔で内見している顧客の通信端末に注目点を送信でき、不動産業者と顧客が同じ注目点に注目できる。しかし、不動産業者が撮像装置で撮像しながら通信端末を操作するのは困難である。不動産業者が複数人で現地に赴けば可能であるが、人員の確保が困難な場合も多い。
全天球画像を解析して注目点を推定する技術もあるが、あくまでも推定であるため、不動産業者が説明する箇所を、注目点として推定するとは限らない。
本発明は、上記課題に鑑み、画像の撮像元がリアルタイムに注目点を指定することができる画像通信システムを提供することを目的とする。
上記課題に鑑み、本発明は、画像を撮像する撮像装置と、前記画像を画面に表示する通信端末とを有する画像通信システムであって、前記画像における注目点を定義する注目点定義部と、前記撮像装置の姿勢情報を取得する姿勢情報取得部と、前記姿勢情報取得部が取得した前記姿勢情報に応じて、前記注目点定義部が定義した注目点を変換する注目点変換部と、前記注目点変換部が変換した注目点を含む所定領域を前記画像から切り出す切出処理部と、前記切出処理部が切り出した注目点を含む所定領域を前記画面に表示する出力部と、を有することを特徴とする。
画像の撮像元がリアルタイムに注目点を指定することができる画像通信システムを提供することができる。
任意の方向の注目点が指定された全天球画像を拠点Aから拠点Bの間に送信する画像通信システムの概略的な動作を説明する図である。 (a)は撮像装置の左側面図であり、(b)は撮像装置の正面図であり、(c)は撮像装置の平面図である。 撮像装置の使用イメージ図である。 (a)は撮像装置で撮像された半球画像(前)、(b)は撮像装置で撮像された半球画像(後)、(c)は正距円筒射影図法により表された画像を示した図である。 (a)正距円筒射影画像で球を被う状態を示した概念図、(b)全天球パノラマ画像を示した図である。 全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。 (a)は図6の立体斜視図、(b)は通信端末のディスプレイに所定領域の画像が表示されている状態を示す図である。 所定領域情報と所定領域Tの画像との関係を示した図である。 球座標による3次元ユークリッド空間内の点を示した図である。 本実施形態の画像通信システムの構成の概略図である。 撮像装置の一例のハードウェア構成図である。 通信端末3,4の一例のハードウェア構成図である 通信管理システムの一例のハードウェア構成図である。 通信端末1,2の一例のハードウェア構成図である。 画像通信システムの機能をブロック状に示す一例の機能ブロック図である(その1)。 画像通信システムの機能をブロック状に示す一例の機能ブロック図である(その2)。 画像種類管理テーブルを示す概念図である。 撮像装置管理テーブルを示す概念図である。 所定領域情報管理テーブルを示す概念図である。 セッション管理テーブルを示す概念図である。 画像種類管理テーブルを示す概念図である。 所定領域情報管理テーブルを示す概念図である。 特定の通信セッションへの参加処理を示した一例のシーケンス図である。 通信セッション(仮想の会議室)の一例の選択画面を示した図である。 撮像装置の一例の座標軸を説明する図である。 基準となる撮像装置の姿勢の一例を説明する図である。 加速度・方位センサが検出する値の一例を説明する図である。 (a)は撮像者が対象を指し示す様子の概念図、(b)は天頂補正なしに全天球画像が正距円筒図法で表された一例の正距円筒画像、(c)は天頂補正ありに全天球画像が正距円筒図法で表された一例の正距円筒画像、である。 撮像装置が有する画像処理部の一例の機能ブロック図である。 一例の変換テーブル及び平面座標系から球面座標系への変換の一例を説明する図である。 姿勢情報に基づく変換テーブルの補正の一例を説明する図である。 画像回転部による一例の画像回転処理を模式的に示す図である。 映像通話における全天球画像及び音データの通信処理を示す一例のシーケンス図である。 撮像装置が全天球画像を生成する一例の処理と、通信端末が全天球画像を表示する処理を示す一例のフローチャート図である。 ディスプレイに表示された一例の映像表示画面を示す図である。
以下、本発明を実施するための形態の一例として、画像処理システムと画像処理システムが行う画像処理方法について図面を参照しながら説明する。
<画像通信システムの概略>
まず、図1を用いて、画像通信システム10の概略的な動作について説明する。図1は、任意の方向の注目点が指定された全天球画像を拠点Aから拠点Bの間に送信する画像通信システム10の概略的な動作を説明する図である。
(1)本実施形態の撮像装置5aには注目点座標が予め定義されている。注目点座標は、例えば撮像装置5aの長手方向(上側)の被写体が写る撮像素子の画素又はある範囲を示すx、y座標である。なお、注目点座標は、撮像素子上の座標であり出荷時に予め設定されている。
(2)拠点Aの撮像者8がエアコン140を拠点Bのユーザに注目して欲しい場合、撮像者8は撮像装置5aの長手方向(上側)をエアコン140に向ける。撮像装置5aは後述する天頂補正のために常に姿勢情報を取得している。撮像装置5aは全天球画像を撮像し、姿勢情報に基づいて天頂補正を行うので、エアコン140が傾いて撮像されるようなことはない。また、注目点座標にはエアコン140が写っているので、注目点座標の被写体がエアコンである。そして、撮像者8が撮像装置5aを傾けることで、注目点座標がどこに変化したかは姿勢情報そのものである。従って、天頂補正により、定義されている注目点座標の変換後の注目点座標を特定できる。
(3)撮像装置5aは通信端末1を介して全天球画像と変換後の注目点座標を拠点Bの通信端末2に送信する。
(4)通信端末2はそれまで表示していた所定領域画像に関わりなく、注目点座標を含む所定範囲を切り出して、所定領域画像を生成してディスプレイ等に表示するので、撮像者8は注目して欲しい対象をユーザに注目させることができる。また、撮像者ビュー情報で生成された所定領域画像は、少なくとも一定時間、閲覧者が変更できない。すなわち、強制的に撮像者ビュー情報で生成された所定領域画像が表示される。
このように、本実施形態の画像通信システム10は、撮像装置5aに予め注目点座標が定義されており、撮像者がこの注目点座標で見せたい対象を指し示すことで、注目点座標を姿勢情報に応じて変換してユーザに送信するので、撮像者8は拠点Bのユーザをリアルタイムに注目点に注目させることができる。
<用語について>
定義される注目点とは上記のように撮像素子上の1点又はある範囲である。撮像装置5aからみて常に同じ方向の被写体が写る。本実施形態では長手方向の上側の被写体が写る撮像素子の画素又はある範囲を定義された注目点とするが、注目点の場所は任意に決定できる。例えば、長手方向の下側が指す方向、レンズの光軸方向、又は、撮像装置5aの突起部分が指す方向、の被写体が写る撮像素子の画素などでもよい。
撮像装置の姿勢情報は、撮像装置の任意の方向が指し示す方向を特定できる情報であればよい。例えば、正立状態からどの位倒れているかを示す情報や、三次元空間の各軸の回転に関する情報である。
<全天球画像の生成方法>
図2乃至図9を用いて、全天球画像の生成方法について説明する。
まず、図2を用いて、撮像装置5aの外観を説明する。撮像装置5aは、3次元の全天球(360°)画像の元になる撮像画像を得るためのデジタルカメラである。なお、図2(a)は撮像装置5aの左側面図であり、図2(b)は撮像装置5aの正面図であり、図2(c)は撮像装置5aの平面図である。
図2(a)に示されているように、撮像装置5aは、人間が片手で持つことができる大きさである。また、図2(a),図2(b),図2(c)に示されているように、撮像装置5aの上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。これら撮像素子(画像センサ)103a,103bは、半球画像(画角180°以上)の撮像が可能な光学部材(例えば、後述する図11の魚眼レンズ102a,102b)と併せて用いられる。また、図2(b)に示されているように、撮像装置5aの正面側と反対側の面には、シャッターボタン等の操作部115が設けられている。
次に、図3を用いて、撮像装置5aの使用状況を説明する。なお、図3は、撮像装置の使用イメージ図である。撮像装置5aは、図3に示されているように、例えば、ユーザが手に持ってユーザの周りの被写体を撮像するために用いられる。この場合、図2に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。
次に、図4及び図5を用いて、撮像装置5aで撮像された画像から全天球画像が作成されるまでの処理の概略を説明する。なお、図4(a)は撮像装置で撮像された半球画像(前側)、図4(b)は撮像装置で撮像された半球画像(後側)、図4(c)は正距円筒図法により表された画像(以下、「正距円筒画像」という)を示した図である。図5(a)は正距円筒画像で球を被う状態を示した概念図、図5(b)は全天球画像を示した図である。
図4(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図4(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮像装置5aによって合成され、図4(c)に示されているように、正距円筒画像が作成される。
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図5(a)に示されているように、正距円筒画像が球面を覆うように貼り付けられ、図5(b)に示されているような全天球画像が作成される。このように、全天球画像は、正距円筒画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2−Dimensions)及び3D(3−Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像は、静止画であっても動画であってもよい。
以上のように、全天球画像は、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球画像の一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図6及び図7を用いて説明する。
なお、図6は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。また、図7(a)は図6の立体斜視図、図7(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図7(a)では、図6に示されている全天球画像CEが、三次元の立体球CSで表されている。このように生成された全天球画像CEが、立体球CSであるとすると、図6に示されているように、仮想カメラICが全天球画像CEの外部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮像領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの撮像方向と画角を示す所定領域情報によって特定される。
そして、図7(a)に示されている所定領域Tは、図7(b)に示されているように、所定のディスプレイに、仮想カメラICの撮像領域の画像として表示される。図7(b)に示されている画像は、例えば初期設定された所定領域情報によって表された所定領域画像である。なお、所定領域情報は、仮想カメラICの位置座標ではなく、所定領域Tである仮想カメラICの撮像領域(X,Y,Z)によって示してもよい。以下では、仮想カメラICの撮像方向(rH,rV)と画角(α)を用いて説明する。
図8を用いて、所定領域情報と所定領域Tの画像の関係について説明する。なお、図8は、所定領域情報と所定領域Tの画像の関係との関係を示した図である。図8に示されているように、rHはHorizontal Radian、rVはVertical Radian、αは画角(Angle)を示す。即ち、撮像方向(rH,rV)で示される仮想カメラICの注視点が、仮想カメラICの撮像領域である所定領域Tの中心点CPとなるように、仮想カメラICの姿勢を変更することになる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。fは仮想カメラICから中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図8では、一般的に以下の式(A)で示される三角関数が成り立つ。
L/f=tan(α/2)・・・(A)
図9は、球座標による3次元ユークリッド空間内の点を示した図である。中心点CPを球面極座標系で表現したときの位置座標を(r、θ、φ)とする。(r、θ、φ)は、それぞれ動径、極角、方位角である。動径rは、全天球画像を含む三次元の仮想空間の原点から中心点CPまでの距離であるため、fに等しい。図9は、これらの関係を表した図である。以降、位置座標(r,θ、φ)を用いて中心点を説明する。
<画像通信システムの概略>
続いて、図10を用いて、本実施形態の画像通信システム10の構成の概略について説明する。図10は、本実施形態の画像通信システム10の構成の概略図である。
図10に示されているように、本実施形態の画像通信システム10は、拠点A〜拠点Dに配置された各通信端末1〜4がインターネット等の通信ネットワーク100を介して通信して、各拠点の通信端末1〜4が映像を共有することができる。拠点Aには撮像装置5aと通信端末1が配置されており、拠点Bには通信端末2と撮像装置5bが配置されており、拠点Cには撮像装置5c、通信端末3,及び、ディスプレイ6cが配置されており、拠点Dには通信端末4とディスプレイ6dが配置されている。
撮像装置5a,5cは、上述のように、被写体や風景等を撮像して全天球画像の元になる2つの半球画像を得るための特殊なデジタルカメラである。一方、撮像装置5bは、被写体や風景等を撮像して一般の平面画像を得るための一般のデジタルカメラである。
通信端末3、4はビデオ会議専用のビデオ会議端末であり、USB(Universal Serial Bus)ケーブル等の有線ケーブルを介して映像通話(ビデオ通話)の画像を、それぞれディスプレイ6c,6dに表示する。通信端末3,4は、通常は後述の図12のカメラ312でユーザ等を撮像するが、撮像装置5cを取り付けるクレードル7に有線ケーブルで接続されると、撮像装置5cが優先され、全天球画像を得ることができる。有線ケーブルを利用する場合、クレードル7は、撮像装置5cと通信端末3との間の通信を行うだけでなく、撮像装置5cに電源供給及び撮像装置5cを支える役割を果たす。
通信端末1,2はビデオ会議用のアプリケーションソフトを動作させることで他の拠点と通信する汎用的な情報処理装置である。通信端末1は例えば、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、カーナビ、ゲーム機、PDA(Personal Digital Assistant)、ウェアラブルPC又はデスクトップPC等である。しかし、これらには限られない。
通信端末1は、自装置に設けられた後述のディスプレイ917に映像通話の画像を表示する。通信端末1は、通常は自装置に設けられた後述のCMOS(Complementary Metal Oxide Semiconductor)センサ905等で撮像するが、Wi−Fi(Wireless Fidelity)やBluetooth(登録商標)等の無線通信技術を利用して、撮像装置5aで得られた全天球画像を取得することができる。
通信端末2は、自装置に設けられた後述のディスプレイ917に映像通話の画像を表示する。通信端末2は、外付けされた撮像装置5bでユーザ等を撮像する。
また、通信端末1〜4には、OpenGL ESがインストールされており、全天球画像の一部の領域を示す所定領域情報を作成したり、他の通信端末から送られて来た全天球画像から所定領域画像を作成したりすることができる。従って、各通信端末1〜4は全天球画像から切り出した所定領域画像を表示できる。
拠点Aには、少なくとも一人の撮像者8が存在し、撮像装置5aを手に把持したり棒状部材に取り付けたりして保持している。撮像者8は撮像装置5aと共に移動することができる。また、通信端末1は、撮像装置5a〜5c及び通信端末4のカメラ312が撮像する映像をディスプレイ917に表示する。
拠点Bには一人のユーザ9bが存在し、通信端末2は撮像装置5a〜5c及び通信端末4のカメラ312が撮像する映像をディスプレイ917に表示する。拠点Bのユーザ9bは、撮像者8により指定された注目点に注目するユーザの一人である。ただし、ユーザの人数は一例である。
拠点Cには二人のユーザ9c1,9c2が存在し、通信端末3は撮像装置5a〜5c及び通信端末4のカメラ312が撮像する映像をディスプレイ6cに表示する。拠点Cのユーザ9c1,9c2は、撮像者8により指定された注目点に注目するユーザの一人である。ただし、ユーザの人数は一例である。
拠点Dには一人のユーザ9dが存在し、通信端末4は撮像装置5a〜5c及び通信端末4のカメラ312が撮像する映像をディスプレイ6dに表示する。拠点Dのユーザ9dは、撮像者8により指定された注目点に注目するユーザの一人である。ただし、ユーザの人数は一例である。
通信管理システム50は、通信端末1〜4の通信を管理及び制御する。よって、通信管理システム50は通信制御システムでもある。なお、通信管理システム50は、ビデオ通信のサービスを行うサービス会社等に設置されている。また、通信管理システム50は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
なお、図10に示した、拠点数、各拠点に配置される通信端末1〜4の種類、撮像装置5a〜5cの種類、及び、ユーザの人数は一例であり、本実施形態では、拠点Aと他の1つの拠点があればよい。また、拠点Bは撮像装置5bを有していなくてもよく、拠点Aから送信される全天球画像を表示できればよい。
また、拠点Aの撮像装置5aと通信端末1は一体でもよい。つまり、撮像装置5aが通信ネットワーク100に接続する機能を有していれば、通信端末1はなくてよい。この場合、撮像装置5aが通信端末1となる。本実施形態では、撮像者8が撮像装置5aだけで注目点を指定できるためである。しかし、通信端末1があることで、撮像者8は通信端末1を操作して注目点を指定できる。また、通信端末1は拠点Aの撮像装置5aと通信せずに記憶媒体を介して全天球画像と注目点座標を受信してもよい。
以降、撮像装置5a〜5cのうち任意の撮像装置を表す場合には、「撮像装置5」として表す。更に、ディスプレイ6c,6dのうち任意のディスプレイを表す場合には、「ディスプレイ6」として表す。
<<実施形態のハードウェア構成>>
次に、図11〜図14を用いて、本実施形態の撮像装置5a、5c、通信端末1〜4、通信管理システムのハードウェア構成を詳細に説明する。なお、撮像装置5cは、一般のカメラであるため、詳細な説明は省略する。
<撮像装置5a、5cのハードウェア構成>
まず、図11を用いて、撮像装置5a、5cのハードウェア構成を説明する。図11は、撮像装置5a、5cのハードウェア構成図である。以下では、撮像装置5a、5cは、2つの撮像素子を使用した全天球(全方位)撮像装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置5a、5cと同じ機能を有するようにしてもよい。
図11に示されているように、撮像装置5a、5cは、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOSセンサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、加速度・方位センサ118、及び、ジャイロセンサ119なども接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図4(c)に示されているような正距円筒画像のデータを作成する。
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置5a、5cによっては、ディスプレイ(例えば、通信端末1、3が有するディスプレイ)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置5a、5cには表示部(ディスプレイ)が設けられていないが、表示部を設けてもよい。
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、撮像装置5a、5cの全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒画像のデータを記憶する。
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わない。DRAM114に記憶された正距円筒画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。
通信部117は、撮像装置5a、5cに設けられたアンテナ117aを介して、Wi−FiやNFC(Near Field Communication)等の近距離無線技術によって、通信端末1,3等の外部装置と通信を行う。この通信部117によっても、正距円筒画像のデータを通信端末1,3等の外部装置に送信することができる。
加速度・方位センサ118は、地球の磁気から撮像装置5a、5cの方位及び傾き(ロール角、ヨー角、ピッチ角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。
ジャイロセンサ119は、X、Y、Z軸それぞれの回りの回転速度を検出する3軸又は6軸のセンサである。回転速度を蓄積(積分)することで回転角(姿勢情報)が得られる。
<通信端末3,4(ビデオ会議端末)のハードウェア構成>
次に、図12を用いて、通信端末3,4のハードウェア構成を説明する。図12は、通信端末3,4のハードウェア構成図である。図12に示されているように、通信端末3,4は、CPU301、ROM302、RAM303、フラッシュメモリ304、SSD305、メディアI/F307、操作ボタン308、電源スイッチ309、バスライン310、ネットワークI/F311、カメラ312、撮像素子I/F313、マイク314、スピーカ315、音入出力I/F316、ディスプレイI/F317、外部機器接続I/F318、近距離通信回路319、近距離通信回路319のアンテナ319aを備えている。
これらのうち、CPU301は、通信端末3,4全体の動作を制御する。ROM302は、IPL(Initial Program Loader)等のCPU301の駆動に用いられるプログラムを記憶する。RAM303は、CPU301のワークエリアとして使用される。フラッシュメモリ304は、通信用プログラム、画像データ、及び音データ等の各種データを記憶する。SSD(Solid State Drive)305は、CPU301の制御に従ってフラッシュメモリ304に対する各種データの読み出し又は書き込みを制御する。なお、SSDに代えてHDDを用いてもよい。メディアI/F307は、フラッシュメモリ等の記録メディア306に対するデータの読み出し又は書き込み(記憶)を制御する。操作ボタン308は、通信端末3,4の宛先を選択する場合などに操作されるボタンである。電源スイッチ309は、通信端末3,4の電源のON/OFFを切り換えるためのスイッチである。
また、ネットワークI/F311は、インターネット等の通信ネットワーク100を利用してデータ通信をするためのインタフェースである。カメラ312は、CPU301の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F313は、カメラ312の駆動を制御する回路である。マイク314は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F316は、CPU301の制御に従ってマイク314及びスピーカ315との間で音信号の入出力を処理する回路である。ディスプレイI/F317は、CPU301の制御に従って外付けのディスプレイ6に画像データを送信する回路である。外部機器接続I/F318は、各種の外部機器を接続するためのインタフェースである。近距離通信回路319は、NFC(登録商標)、Bluetooth(登録商標)等の通信回路である。
また、バスライン310は、図12に示されているCPU301等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
ディスプレイ6は、被写体の画像や操作用アイコン等を表示する液晶や有機EL(electro luminescence)によって構成された表示手段の一種である。また、ディスプレイ6は、ケーブル6yによってディスプレイI/F317に接続される。このケーブル6yは、アナログRGB(VGA)信号用のケーブルであってもよいし、コンポーネントビデオ用のケーブルであってもよいし、HDMI(High−Definition Multimedia Interface)(登録商標)やDVI(Digital Video Interactive)信号用のケーブルであってもよい。
なお、カメラ312は、レンズや、光を電荷に変換して被写体の画像(映像)を電子化する固体撮像素子を含み、固体撮像素子として、CMOSセンサや、CCDセンサ等が用いられる。外部機器接続I/F318には、USB(Universal Serial Bus)ケーブル等によって、外付けカメラ、外付けマイク、及び外付けスピーカ等の外部機器がそれぞれ接続可能である。外付けカメラが接続された場合には、CPU301の制御に従って、内蔵型のカメラ312に優先して、外付けカメラが駆動する。同じく、外付けマイクが接続された場合や、外付けスピーカが接続された場合には、CPU301の制御に従って、それぞれが内蔵型のマイク314や内蔵型のスピーカ315に優先して、外付けマイクや外付けスピーカが駆動する。
また、記録メディア306は、通信端末3,4に対して着脱自在な構成となっている。また、CPU301の制御に従ってデータの読み出し又は書き込みを行う不揮発性メモリであれば、フラッシュメモリ304に限らず、EEPROM(Electrically Erasable and Programmable ROM)等を用いてもよい。
<通信管理システムのハードウェア構成>
次に、図13を用いて、通信管理システム50のハードウェア構成を説明する。図13は、通信管理システムのハードウェア構成図である。
通信管理システム50は、通信管理システム50全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503、通信管理システム50用のプログラム等の各種データを記憶するHD504、CPU501の制御に従ってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508、通信ネットワーク100を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512、着脱可能な記録媒体の一例としてのCD−RW(Compact Disc−ReWritable)513に対する各種データの読み出しを制御するCD−RWドライブ514、及び、上記各構成要素を図13に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
<通信端末1,2のハードウェア構成>
次に、図14を用いて、通信端末1,2のハードウェアについて説明する。図14は、通信端末1,2のハードウェア構成図である。図14に示されているように、通信端末1,2は、CPU901、ROM902、RAM903、EEPROM904、CMOSセンサ905、加速度・方位センサ906、メディアI/F908、GPS受信部909を備えている。
これらのうち、CPU901は、通信端末1,2全体の動作を制御する。ROM902は、IPL等のCPU901の駆動に用いられるプログラムを記憶する。RAM903は、CPU901のワークエリアとして使用される。EEPROM904は、CPU901の制御に従って、通信端末1,2用プログラム等の各種データの読み出し又は書き込みを行う。CMOSセンサ905は、CPU901の制御に従って被写体(主に自画像)を撮像し画像データを得る。加速度・方位センサ906は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F908は、フラッシュメモリ等の記録メディア907に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部909は、GPS衛星からGPS信号を受信する。
また、通信端末1,2は、遠距離通信回路911、カメラ912、撮像素子I/F913、マイク914、スピーカ915、音入出力I/F916、ディスプレイ917、外部機器接続I/F918、近距離通信回路919、近距離通信回路919のアンテナ919a、及びタッチパネル921を備えている。
これらのうち、遠距離通信回路911は、通信ネットワーク100を介して、他の機器と通信する回路である。カメラ912は、CPU901の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F913は、カメラ912の駆動を制御する回路である。マイク914は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F916は、CPU901の制御に従ってマイク914及びスピーカ915との間で音信号の入出力を処理する回路である。ディスプレイ917は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F918は、各種の外部機器を接続するためのインタフェースである。近距離通信回路919は、NFCやBluetooth(登録商標)等の通信回路である。タッチパネル921は、利用者がディスプレイ917を押下することで、通信端末1,2を操作する入力手段の一種である。
また、通信端末1,2は、バスライン910を備えている。バスライン910は、CPU901等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
なお、上記各プログラムが記憶されたCD−ROM等の記録媒体、並びに、これらプログラムが記憶されたHDは、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。
<<実施形態の機能構成>>
次に、図15〜図22を用いて、本実施形態の機能構成について説明する。図15及び図16は、画像通信システム10の機能をブロック状に示す機能ブロック図である。
<撮像装置5aの機能構成>
図15に示されているように、撮像装置5aは、受付部12a、撮像部13a、集音部14a、姿勢情報取得部15a、画像処理部16a、通信部18a、及び記憶・読出部19aを有している。これら各部は画像処理部16aを除いて、図11に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮像装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。画像処理部16aはASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)等の回路モジュールで実現されるとするが、ソフト的に実現されてもよい。
また、撮像装置5aは、図11に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000aを有している。記憶部1000aには、自装置のGUID(Globally Unique Identifier)が記憶されている。
(撮像装置5aの各機能構成)
撮像装置5aの受付部12aは、主に、図11に示されている操作部115及びCPU111の処理によって実現され、撮像者8からの操作入力を受け付ける。
撮像部13aは、主に、図11に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、風景等を撮像し、撮像画像データ(全天球画像)を得る。
集音部14aは、図11に示されている108及び音処理ユニット109、並びにCPU111の処理によって実現され、撮像装置5aの周囲の音を集音する。
姿勢情報取得部15aは、撮像装置の姿勢(三次元空間の傾き)に関する姿勢情報を取得する。画像処理部16aは2つの半球画像を1つの正距円筒画像に合成する処理を行う。この処理の際に、姿勢情報に基づいて天頂補正を行う過程があり、長手方向(上側)が指し示す注目点座標を、撮像者が指し示す方向を表す球面座標系(正距円筒座標)の座標に変換できる。
通信部18aは、主に、CPU111の処理によって実現され、通信端末1の通信部98と、NFC規格、Bluetooth(登録商標)、WiーFi等による近距離無線通信技術によって通信することができる。
記憶・読出部19aは、主に、図11に示されているCPU111の処理によって実現され、記憶部1000aに各種データ(又は情報)を記憶したり、記憶部1000aから各種データ(又は情報)を読み出したりする。
なお、撮像装置5cは、受付部12c、撮像部13c、集音部14c、姿勢情報取得部15c、画像処理部16c、通信部18c、記憶・読出部19c、及び記憶部1000cを有しているが、それぞれ、撮像装置5aにおける受付部12a、撮像部13a、集音部14a、姿勢情報取得部15a、画像処理部16a、通信部18a、記憶・読出部19a及び記憶部1000aと同様の機能を実現するため、これらの説明を省略する。
<通信端末1の機能構成>
図15に示されているように、通信端末1は、送受信部91、受付部92、画像・音処理部93、表示制御部94、判断部95、作成部96、算出部97、通信部98、及び記憶・読出部99を有している。これら各部は、図14に示されている各構成要素のいずれかが、EEPROM904からRAM903上に展開された通信端末1用プログラムに従ったCPU901からの命令によって動作することで実現される機能又は手段である。
また、通信端末1は、図14に示されているROM902、RAM903、及びEEPROM904によって構築される記憶部9000を有している。この記憶部9000には、画像種類管理DB9001、撮像装置管理DB9002、及び所定領域管理DB9003が構築されている。
これらのうち、画像種類管理DB9001は、図17に示されている画像種類管理テーブルによって構成されている。撮像装置管理DB9002は、図18に示される撮像装置管理テーブルによって構成されている。所定領域管理DB9003は、図19に示されている所定領域情報管理テーブルによって構成されている。
(画像種類管理テーブル)
図17は、画像種類管理テーブルを示す概念図である。この画像種類管理テーブルでは、画像データID、送信元端末の宛先の一例であるIPアドレス、及びソース名が関連付けて記憶されて管理されている。これらのうち、画像データIDは、ビデオ通信を行う際の画像データを識別するための画像データ識別情報の一例である。同じ送信元端末から送信される画像データには、同じ画像データIDが付加されている。これにより、送信先端末(受信側の通信端末)は、受信した画像データの送信元端末を特定することができる。送信元端末のIPアドレスは、関連付けられている画像データIDで示される画像データを送信する通信端末のIPアドレスを示す。ソース名は、関連付けられている画像データIDで示される画像データを出力する撮像装置を特定するための名称であり、画像種類情報の一例である。このソース名は、所定の名称の命名規則に従って、通信端末3等によって作成された名称である。
例えば、IPアドレスがそれぞれ「1.2.1.3」、「1.2.2.3」、「1.3.1.3」、「1.3.2.3」の4つの通信端末は、それぞれ、画像データID「RS001」、「RS002」、「RS003」、「RS004」によって示される画像データを送信していることが表されている。更に、各通信端末のソース名によって示される画像の種類は、「Video_Wide」、「Video_ Wide」、「Video」、「Video」であり、これらは順に画像種類が「特殊画像」、「特殊画像」、「一般画像」、「一般画像」である旨を示している。なお、特殊画像は、ここでは、全天球画像である。
なお、画像データ以外のデータについても、画像データIDと関連付けて管理してもよい。画像データ以外のデータは、例えば、音データ、画面共有時の資料データである。また、画像データ以外のデータについても、画像データIDと関連付けて管理してもよい。画像データ以外のデータは、例えば、音データ、画面共有時の資料データである。
(撮像装置管理テーブル)
図18は、撮像装置管理テーブルを示す概念図である。この撮像装置管理テーブルでは、全天球画像の元になる2つの半球画像を得ることができる撮像装置のGUIDのうちのベンダIDとプロダクトIDが記憶されて管理されている。GUIDとしては、例えば、USBデバイスで利用されるベンダID(VID)とプロダクトID(PID)が利用できる。このベンダIDとプロダクトIDは、通信端末3、4の工場出荷時から記憶されているが、工場出荷後に追加で記憶してもよい。
(所定領域情報管理テーブル)
図19は、所定領域情報管理テーブルを示す概念図である。この所定領域情報管理テーブルでは、撮像画像データの送信元の通信端末のIPアドレス、撮像画像データの送信先の通信端末のIPアドレス、及び、撮像画像データの送信先の通信端末で表示中の所定領域画像を示す所定領域情報が関連付けられて記憶されて管理されている。なお、撮像画像データの送信先の通信端末は、所定領域情報の送信元の通信端末でもある。所定領域情報は、図6及び図7に示されているように、撮像画像から、この撮像画像における所定領域Tの画像(所定領域画像)に変換するための変換テーブルである。なお、IPアドレスは、宛先情報の一例であって、宛先情報には、MAC(Media Access Control)アドレス、通信端末を特定するための端末ID(Identification)等が含まれる。また、ここでは、IPアドレスは、IPv4アドレスを簡略化して表されている。IPアドレスは、IPv6でもよい。
例えば、図19の所定領域情報管理テーブルの1行目から3行目までは、通信端末3のIPアドレスが「1.2.1.3」の場合、通信端末3から送信された撮像画像データが、通信管理システム50を介して、IPアドレスが「1.2.2.3」の通信端末4、IPアドレスが「1.3.1.3」の通信端末2、及びIPアドレスが「1.3.2.3」の通信端末1に送信された旨が管理されている。更に、通信端末4は、所定領域情報(r=10,θ=20,φ=30)の送信元の通信端末である旨が管理されている。同様に、通信端末2は、所定領域情報(r=20,θ=30,φ=40)の送信元の通信端末である旨が管理されている。また、通信端末1は、所定領域情報(r=30,θ=40,φ=50)の送信元の通信端末である旨が管理されている。つまり、通信端末1,2,4がどのような所定領域情報で全天球画像を見ているか管理されている。
また、送受信部31cによって、既に管理されている撮像画像データの送信元の通信端末のIPアドレス及び撮像画像データの送信先の通信端末のIPアドレスと同じ組のIPアドレスを含む所定領域情報が新たに受信された場合には、記憶・読出部39cは既に管理している所定領域情報を新たに受信された所定領域情報に書き換える。
(通信端末1の各機能構成)
通信端末1の送受信部91は、主に、図14に示されている遠距離通信回路911及びCPU901の処理によって実現され、通信ネットワーク100を介して、通信管理システム50と各種データ(又は情報)の送受信を行う。
受付部92は、主にタッチパネル921及びCPU901による処理によって実現され、利用者から各種の選択又は入力を受け付ける。また、タッチパネル921だけでなく、他の入力手段として音声入力等を用いてもよい。
画像・音処理部93は、図14に示されているCPU901からの命令によって実現され、カメラ912が被写体を撮像して得た画像データに対して画像処理を行う。また、画像・音処理部93は、マイク914によって利用者の音声が音声信号に変換された後、この音声信号に係る音データに対して音声処理を行う。
更に、画像・音処理部93は、表示制御部94がディスプレイ917に画像を表示させるため、ソース名等の画像種類情報に基づき、他の通信端末から受信された画像データに対して画像処理を行う。また、画像・音処理部93は、他の通信端末から通信管理システム50を介して受信された音データに係る音声信号をスピーカ915に出力し、スピーカ915から音声を出力させる。
表示制御部94は、主にディスプレイ917及びCPU901の処理によって実現され、ディスプレイ917に各種画像や文字等を表示させるための制御を行う。
判断部95は、主にCPU901の処理によって実現され、例えば、撮像装置5aから受信された画像データに係る画像種類を判断する。
作成部96は、主にCPU901の処理によって実現され、判断部95によって、一般画像又は特殊画像(ここでは、全天球画像)と判断された結果に基づき、上述の命名規則に従って、画像種類情報の一例であるソース名を作成する。例えば、判断部95が、一般画像であると判断した場合には、作成部96は、一般画像である旨を示すソース名「Video」を作成する。一方、判断部95が、特殊画像であると判断した場合には、作成部96は、特殊画像である旨を示すソース名「Video_Wide」を作成する。
算出部97は、主にCPU901の処理によって実現され、所定領域Tを示す所定領域情報、及び送受信部91によって他の通信端末から受信された所定領域情報に基づき、撮像画像において所定領域T1の位置(位置情報)を算出する。また、撮像画像の全体が表示された場合の画像は、「全体画像」ともいう。
通信部98は、主に、近距離通信回路919、アンテナ919a、及びCPU901の処理によって実現され、撮像装置5aの通信部18aと、NFC、Bluetooth(登録商標)、Wi−Fi等による近距離無線技術によって通信することができる。なお、通信部98と送受信部91は通信ユニットを別個に有する構成で説明したが、共用構成であってもよい。
記憶・読出部99は、主に、図14に示されているCPU901の処理によって実現され、記憶部9000に各種データ(又は情報)を記憶したり、記憶部9000から各種データ(又は情報)を読み出したりする。
<通信端末2の機能構成>
次に、通信端末2の機能構成について詳細に説明する。通信端末2は、基本的に通信端末1と同じ機能を有している。即ち、図16に示されているように、通信端末2は、送受信部71、受付部72、画像・音処理部73、表示制御部74、判断部75、作成部76、算出部77、通信部78、及び記憶・読出部79を有している。しかし、各機能はそれぞれ、通信端末1における送受信部91、受付部92、画像・音処理部93、表示制御部94、判断部95、作成部96、算出部97、通信部98、及び記憶・読出部99と同様の機能を実現するため、これらの説明を省略する。
また、通信端末2は、図14に示されているROM902、RAM903、及びEEPROM904によって構築される記憶部7000を有している。この記憶部7000には、画像種類管理DB7001、撮像装置管理DB7002、及び所定領域管理DB7003が構築されている。なお、画像種類管理DB7001、撮像装置管理DB7002、及び所定領域管理DB7003は、それぞれ通信端末1における画像種類管理DB9001、撮像装置管理DB9002、及び所定領域管理DB9003と同じデータ構造であるため、これらの説明を省略する。
<通信端末3の機能構成>
次に、通信端末3の機能構成について説明する。通信端末3は、基本的に通信端末1と同じ機能を有している。即ち、図15に示されているように、通信端末3は、送受信部31c、受付部32c、画像・音処理部33c、表示制御部34c、判断部35c、作成部36c、算出部37c、通信部38c、記憶・読出部39cを有している。しかし、これらは、通信端末1における送受信部91、受付部92、画像・音処理部93、表示制御部94、判断部95、作成部96、算出部97、通信部98、記憶・読出部99、及び記憶部9000と同様の機能を実現するため、これらの説明を省略する。
また、通信端末3は、図12に示されているROM302、RAM303、及びSSD305によって構築される記憶部3000cを有している。記憶部3000cには、画像種類管理DB3001c、撮像装置管理DB3002c、及び所定領域管理DB3003cが構築されているが、これらは、通信端末1における画像種類管理DB9001、撮像装置管理DB9002、及び所定領域管理DB9003と同様の機能を実現するため、これらの説明を省略する。
<通信端末4の機能構成>
次に、通信端末4の機能構成について説明する。通信端末4は、基本的に通信端末1と同じ機能を有している。即ち、図16に示されているように、通信端末4は、送受信部31d、受付部32d、画像・音処理部33d、表示制御部34d、判断部35d、作成部36d、算出部37d、通信部38d、記憶・読出部39d、及び記憶部3000dを有している。しかし、これらは、通信端末1における送受信部91、受付部92、画像・音処理部93、表示制御部94、判断部95、作成部96、算出部97、通信部98、記憶・読出部99、及び記憶部9000と同様の機能を実現するため、これらの説明を省略する。
また、通信端末4は、図12に示されているROM302、RAM303、及びSSD305によって構築される記憶部3000dを有している。記憶部3000dには、画像種類管理DB3001d、撮像装置管理DB3002d、及び所定領域管理DB3003dが構築されているが、これらは、通信端末1における画像種類管理DB9001、撮像装置管理DB9002、及び所定領域管理DB9003と同様の機能を実現するため、これらの説明を省略する。
<通信管理システムの機能構成>
次に、通信管理システム50の各機能構成について詳細に説明する。通信管理システム50は、送受信部51、判断部55、生成部56、及び記憶・読出部59を有している。これら各部は、図13に示されている各構成要素のいずれかが、HD504からRAM503上に展開された通信管理システム50用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、通信管理システム50は、図13に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、セッション管理DB5001、画像種類管理DB5002、及び所定領域管理DB5003が構築されている。このうち、セッション管理DB5001は、図20に示されているセッション管理テーブルによって構成されている。画像種類管理DB5002は、図21に示される画像種類管理テーブルによって構成されている。所定領域管理DB5003は、図22に示される所定領域情報管理テーブルによって構成されている。
(セッション管理テーブル)
図20は、セッション管理テーブルを示す概念図である。このセッション管理テーブルでは、セッションID、及び参加した通信端末のIPアドレスが関連付けて記憶されて管理されている。このうち、セッションIDは、映像通話を実現する通信セッションを識別するためのセッション識別情報の一例であり、仮想の会議室ごとに生成される。セッションIDは、通信端末1〜4でも管理されており、各通信端末において通信セッションの選択の際に利用される。参加した通信端末のIPアドレスは、関連付けられているセッションIDで示される仮想の会議室に参加した通信端末のIPアドレスを示している。
(画像種類管理テーブル)
図21は、画像種類管理テーブルを示す概念図である。図21に示されている画像種類管理テーブルは、図17に示されている画像種類管理テーブルで管理されている各情報に加え、セッション管理テーブルで管理されているセッションIDと同じセッションIDが関連付けて管理されている。ここでは、同じセッションID「se101」で示される仮想の会議室には、IPアドレスがそれぞれ「1.2.1.3」、「1.2.2.3」、「1.3.1.3」の3つの通信端末が参加していることが示されている。なお、通信管理システム50において、通信端末1〜4(ビデオ会議端末)等の通信端末で管理される、画像データID、送信元端末のIPアドレス、及び画像種類情報を同じものを管理するのは、新たな通信端末が仮想の会議室に入る場合等に、既に映像通話中の通信端末と新たに参加した通信端末に、画像種類情報等を送信するためである。これにより、既に映像通話中の通信端末と新たに参加した通信端末との間で、画像種類情報等の送受信を行う必要がない。
(所定領域情報管理テーブル)
図22は、所定領域情報管理テーブルを示す概念図である。この所定領域情報管理テーブルは、基本的に図19に示されている所定領域情報管理テーブルと同様のデータ構造を有している。但し、後述のように、送受信部51は、各通信端末に一定期間(例えば30秒)毎に最新の所定領域情報を送信するため、所定領域情報が一定期間毎に送信されるまでの間に、送受信部51によって受信された全ての所定領域情報は削除されずに保存されている。図22では、新しい所定領域情報ほど上位で管理されている。
(通信管理システムの各機能構成)
通信管理システム50の送受信部51は、主に、図13に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク100を介して通信端末1〜4と各種データ(又は情報)の送受信を行う。
判断部55は、主にCPU501の処理によって実現され、各種判断を行う。
生成部56は、主にCPU501の処理によって実現され、画像データIDを生成する。
記憶・読出部59は、主に、図13に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データ(又は情報)を記憶したり、記憶部5000から各種データ(又は情報)を読み出したりする。
<参加の処理>
まず、図23及び図24を用いて、特定の通信セッションへの参加処理について説明する。図23は、特定の通信セッションへの参加処理を示したシーケンス図である。図24は、通信セッション(仮想の会議室)の選択画面を示した図である。
まず、拠点Aの撮像者8が、通信端末1において、通信セッション(仮想の会議室)の選択画面の表示を行う操作をすると、受付部92が選択画面を表示する操作を受け付け、表示制御部94が通信端末1のディスプレイ917に、図24に示されているような選択画面を表示する(ステップS21)。この選択画面には、選択対象である各仮想の会議室R1,R2,R3等を示す選択ボタンb1,b2,b3等が表示されている。また、各選択ボタンb1等には、各セッションIDが関連付けられている。
ここで、撮像者8が仮想の会議室の所望の選択ボタン(ここでは選択ボタンb1)を選択すると、受付部92は、通信セッションの選択を受け付ける(ステップS22)。選択される会議室は例えば不動産の内見を行うために予め決まっている会議室である。
そして、送受信部91は、通信管理システム50に対して、仮想の会議室への参加要求を送信する(ステップS23)。この参加要求には、ステップS22で選択を受け付けられた通信セッションを示すセッションID、及び要求元端末である通信端末1のIPアドレスが含まれている。これにより、通信管理システム50の送受信部51は、参加要求を受信する。
次に、通信管理システム50の記憶・読出部59は、セッション管理DB5001において、ステップS23で受信されたセッションIDと同じセッションIDのレコードにおける参加端末IPアドレスのフィールドに、ステップS23で受信されたIPアドレスを追加することで、通信セッションへの参加処理を行う(ステップS24)。
そして、送受信部51は、通信端末1に対して、参加要求応答を送信する(ステップS25)。この参加要求応答には、ステップS23によって受信されたセッションID、及び参加処理結果が含まれている。これにより、通信端末1の送受信部91は、参加要求応答を受信する。以降、参加処理が成功した場合について説明する。
なお、同様の参加要求を拠点B〜Dの通信端末2〜4も行い、それぞれが同じ会議室を選択することで、通信端末1〜4が同一のセッションに参加し、互いに映像通話が可能になる。また、図23、図24に示したセッションへの参加方法は一例に過ぎず、撮像者8は宛先の通信端末又はユーザの識別情報を指定してセッションを確立してもよい。この場合、宛先に指定された宛先の通信端末又はユーザは呼び出しに応答することでセッションが確立する。
<姿勢情報について>
次に、図25〜図27を用いて撮像装置5aの姿勢情報について説明する。図25は、撮像装置5aの座標軸を説明する図の一例であり、図26は基準となる撮像装置5aの姿勢を説明する図の一例である。基準となる撮像装置5aの姿勢とは、撮像装置の姿勢の初期状態である。
図25に示すように、撮像装置5aの長手方向をZ軸、シャッターボタンSBがある面からない面に向かって2つのレンズを通過する方向をY軸、撮像装置5aの幅方向をX軸とする。この軸は撮像装置5aと共に移動する。撮像装置5aはX軸、Y軸、Z軸のそれぞれを中心に回転することができる。X軸を中心とする回転角をα、Y軸を中心とする回転角をβ、Z軸を中心とする回転角をγとする。
図26に示すように、撮像者8が対象180を指し示す際は長手方向(上側)を対象180に向ける。正立した時を初期状態とすれば、図26の状態はα=−90度、β=0度、γ=0度となる。
図27は加速度・方位センサ118が検出する値を説明する図である。加速度・方位センサ118が検出する値を(ax, ay, az)とすると、図27(a)のように本体はX軸を中心にα回転しており、その角度は
α= atan2(ay,−az) ay^2+az^2 ≧ threshR^2
= 0 ay^2+az^2 < threshR^2
と表せる。αは−π<α≦πの値をとる。
Y軸に関する回転は,図27(b)のように表せる。Z軸に関する回転は,図27(c)のように表せる。しかし、応答性を向上させるためにはジャイロセンサ119を使用するとよい。ジャイロセンサ119の値(gα,gβ,gγ)は角速度[rad/sec]に相当する値が出力される。撮像装置5aの回転角(姿勢情報)α,β、γは,ジャイロセンサ119の値を用いて,
α(n+1)=α(n)+k*gα*dt
β(n+1)=β(n)+k*gβ*dt
γ(n+1)=γ(n)+k*gγ*dt
として算出できる。
ただし、初期状態の向き(α(0)、β(0)、γ(0))=(α0、0、0)とする。kはジャイロセンサ119の感度に関する係数である。初期値を,k=1.0とする。手振れなどの影響を避ける場合はk=0.5とするなどすればローパスフィルタの効果を持たせられる。こうして得られた (α、β、γ) が姿勢情報である。なお、Z軸回りの回転角のγは指し示す方向に影響しないので、γは算出しなくてもよい。
X軸回りの回転角のαは加速度・方位センサ118の信号により、初期値がゼロでなくても正しい値を得られる。また、Z軸回りの回転角のγは指し示す方向に影響しない。これに対し、Y軸回りの回転角のβは単に初期値を0にするだけなので、例えば、電源ON時の初期状態が傾いていると正しい回転角のβが得られない。そこで、撮像者8が対象を指し示す際は、撮像装置5aを成立させ、所定のボタンを長押しするなどの回転角のα、β、γの初期化を行うことが好ましい。
あるいは、Y軸回りの回転角のβについてもX軸回りの回転角のαと同様に、加速度・方位センサ118の出力から初期値を求めるとよい。
<撮像者が指し示した注目点座標が天頂補正でどのように処理されるか>
図28を用いて、撮像者8が指し示した注目点座標が天頂補正でどのように処理されるかのイメージを説明する。図28(a)は撮像者8が対象を指し示す様子を示す。撮像者8は撮像装置5aで人形190を指し示している。
例えば、撮像装置5aの長手方向(上側)の被写体が写る画素又はある範囲を注目点座標とすると、図28(a)の状態で撮像された画像は図28(b)のようになる。図28(b)は全天球画像が正距円筒図法で表された正距円筒画像である。この正距円筒画像は"天頂補正が行われていない"。正距円筒画像を作成する際、長手方向(上側)の被写体は上端部に横方向に拡大して変換される。すなわち、天頂補正しなければ長手方向(上側)の被写体は上端部に配置され、正距円筒画像なので上端部の被写体は横に広がる。天頂補正しない場合、注目点座標は正距円筒画像において常に同じ場所になる。
撮像装置5aは撮像装置5aの姿勢に関わらず、実空間の上にあるものは画像の上側、下にあるものは画像の下側に表示するため、姿勢情報に基づいて画像を天頂補正する。図28(c)は"天頂補正された"正距円筒画像を示す。天頂補正の方向と量は姿勢情報によって決まるので、天頂補正のために画像を回転させる座標変換情報で、定義されている元の注目点座標を回転させれば正距円筒画像における注目点座標になる。図28(c)では注目点座標を丸191で囲んで示すが、丸191の中に図28(a)の人形190が写っている。つまり、注目点座標で撮像者8が指し示す対象を特定できる。
<画像処理部16aの機能について>
図29は、撮像装置5aが有する画像処理部16aの主要な機能ブロックを示す。画像処理部16aは、撮像画像取得部202と、つなぎ合わせ処理部204と、天頂補正部206と、全天球画像生成部208と、画像圧縮部210と、注目点定義部194と、注目点変換部196と、注目点指定有無判断部198と、を有する。
撮像画像取得部202は、上述した2つの撮像素子130A,130Bを制御し、それぞれからの撮像画像を取得する。静止画の場合は、シャッターが押されたタイミングで取得された1フレーム分の2つの撮像画像が取得される。動画の場合は、連続したフレームが順次撮像され、各フレーム毎に2つの撮像画像が取得される。撮像素子130各々で撮像される画像は、概ね全天球のうちの半球を視野に収めた魚眼画像であり、全天球画像の部分的な画像を構成する。以下、撮像素子130それぞれが撮像した画像を部分画像と参照する場合がある。
つなぎ合わせ処理部204は、取得された2つの部分画像間のつなぎ位置を検出し、2つの部分画像をつなぎ合わせるための処理を実行する。つなぎ位置検出処理では、フレーム毎に、複数の部分画像間に存在する重複領域において、複数の対応点各々の位置ずらし量を検出する処理が行われる。
注目点定義部194は平面画像の中で注目点座標(x,y)を定義し保持している。注目点座標はユーザ(撮像者8等)が設定するのではなく、製造時、設計時、又は出荷時等に予め定義されている(固定されている)。なお、注目点座標が複数あってもよい。この場合、撮像者8は自分が使いたい注目点座標を撮像装置5a又は通信端末1を操作して選択する。
注目点指定有無判断部198は、撮像者8が注目点を指定しようとしているか否かを判断する。例えば、撮像装置5aの本体上のボタンが押下されている間、注目点指定有無判断部198は撮像者8が注目点を指定していると判断する。押下されていない間、注目点が指定されていないと判断する。
天頂補正部206は、姿勢情報取得部15aが取得した姿勢情報に基づいて、生成される全天球画像の天頂方向が所定の基準方向に一致するようにするための補正処理を実行する。具体的には後述する変換テーブルを補正する。ここで、所定の基準方向とは、典型的には、鉛直方向であり、重力加速度が作用する方向である。全天球画像の天頂方向が鉛直方向(天方向)に一致するよう補正することにより、特に動画像において、閲覧時に視野の変更を行う場合でもユーザに3次元酔いなどの違和感を与えないようにすることが可能となる。なお、変換テーブルについては図30にて説明する。
注目点変換部196は、注目点定義部194と注目点指定有無判断部198と、補正された変換テーブルを元に、平面座標上の注目点座標(x,y)を球面座標上の注目点座標(θ,φ)に変換する。つまり、姿勢情報に基づいて天頂補正された後の注目点座標を決定する。注目点変換部196は注目点情報に球面座標上の注目点座標(θ,φ)を設定する。
表1は注目点情報の一例を示す。注目点情報は球面座標系の注目点座標(θ,φ)と注目点指定の有無を有する。注目点指定有無判断部198は注目点が指定されている場合、注目点指定の有無に「あり」を設定し、指定されてない場合、注目点指定の有無に「なし」を設定する。なお、注目点自体は注目点情報に常に含まれる。
全天球画像生成部208は、注目点変換部196の処理結果が反映された状態で、撮像された2つの部分画像から全天球画像を生成する処理を実行する。説明する実施形態においては、2つの部分画像から全天球画像を生成するためにも変換テーブルが使用される。全天球画像生成部208は、補正された変換テーブルを用いて、2つの部分画像から全天球画像を生成する。このように処理することにより、最終的な全天球画像を得るための処理負荷を軽減することができる。
しかしながら、上述した実施形態に限定されるものではなく、2つの部分画像をつなぎ合わせて全天球画像を生成し、生成された全天球画像に対して天頂補正処理を施して、天頂補正が施された全天球画像を生成するよう構成することもできる。
画像圧縮部210は、静止画圧縮ブロックを含み構成され、静止画を撮像する場合、撮像された画像を、JPEG(Joint Photographic Experts Group)などの所定の静止画形式の画像データに圧縮する。画像圧縮部210は、動画を撮像する場合、撮像された連続する画像フレームを所定の動画形式の画像データに圧縮する。動画圧縮形式としては、特に限定されるものではないが、H.264/MPEG−4 AVC(Advanced Video Coding)、H.265/HEVC(High Efficiency Video Coding)、Motion JPEG、Motion JPEG2000などの種々の動画圧縮形式を挙げることができる。生成された画像データは、伝送部211により他の拠点B〜Dに送信される。伝送部211は撮像装置5aの通信部18aと通信端末1の送受信部91に相当する。
<各通信端末の表示制御部の機能>
他の拠点から送信された全天球画像を受信すると、通信端末1〜4は全天球画像を表示する。
図29に示すように、通信端末2の表示制御部74は、画像展開部212と、注目点決定部214と、画像回転部216と、切出処理部220と、拡大/レターボックス処理部222と、出力部224とを有する。図29では表示制御部74の機能を説明するが、通信端末3の表示制御部34c、通信端末4の表示制御部34d、及び、通信端末1の表示制御部94も同様になる。
画像展開部212は、撮像装置5aから送信された全天球画像を読み出し、全天球画像を取得する。取得された全天球画像は、メモリ上に展開される。
画像回転部216は、注目点変換部196により決定された注目点に応じて、全天球画像を回転させる。これにより、注目点座標は正距円筒画像の中央に移動する。回転処理については図32にて説明する。
切出処理部220は、回転された全天球画像の一部(中央)を切り出して、切出画像を生成する。切り出すとはある部分を取り出すことをいう。また、トリミングといってもよい。好ましい実施形態では、切出処理部220は、変換後全天球画像の中央部分を切り出す処理であり、これにより、全天球画像における注目点を中心とした一定サイズの部分に対応した画像が切り出される。
なお、説明する実施形態では、切出処理部220は、画像の一部を切り出して切出画像を生成する機能を有するものとして説明する。しかしながら、他の実施形態では、切出処理部220が備える機能としては、画像の一部を切り出して切出画像を生成するという機能のみならず、解像度を低下させる機能であってもよい。
拡大/レターボックス処理部222は、切出処理部220で切り出された画像に対し、出力先のディスプレイやプロジェクタなどの映像出力装置の解像度及びアスペクト比に応じて拡大処理を実行し、切り出された画像部分の上下に黒帯を追加する処理を行い、表示画像を生成する。出力部224は、拡大/レターボックス処理部222により処理されて生成された表示画像を、映像出力インタフェース129を介して出力する(表示する)。なお、拡大/レターボックス処理部222による処理は、切出画像が映像出力装置の解像度及びアスペクト比に対応している場合には省略することができる。
静止画の場合は、少なくとも注目点が変化する毎、典型的には所定インターバル毎に、同一の全天球画像に対し、上記機能部(画像回転部216と、切出処理部220と、拡大/レターボックス処理部222と、出力部224)による映像出力処理が繰り返し実行され、その時点の注目点に応じて表示画像が更新される。動画の場合は、典型的にはフレーム毎に、上記機能部による映像出力処理が繰り返し実行され、表示画像が更新される。
撮像者8が、撮像装置5aを真上方向に向けた状態を基準とし、前後左右に傾けたり、回転させたりすることにより、注目点を変更し、変更された注目点に応じた全天球画像の表示画像をユーザが閲覧することが可能となる。
<変換テーブルについて>
図30は変換テーブル及び平面座標系から球面座標系への変換を説明する図である。図30(a)は、本実施形態による撮像装置5aが用いる変換テーブルを説明する図である。変換テーブルは、撮像素子の平面座標系(x、y)で表現される部分画像から、球面座標系(θ、φ)の正距円筒画像(以下、補正後画像という)への射影を規定する。変換テーブルは、各魚眼レンズごとに、補正後画像の座標値(θ,φ)と、該座標値(θ,φ)にマッピングされる補正前の部分画像の座標値(x、y)とを対応付ける情報を、全座標値(θ,φ)に対して保持したものである。図30の例示では、1画素が担当する角度は、φ方向及びθ方向いずれも1/10度であり、変換テーブルは、各魚眼レンズについて、3600×1800の対応関係を示す情報を有している。オリジナルの変換テーブルは、事前に製造元等で理想的なレンズモデルからの歪みを補正した上で計算され、テーブル化されたものを用いることができる。
図30(b)に示すように、変換テーブルにより、平面座標系(x、y)で表現される注目点座標199Aが球面座標系(θ、φ)に射影される。平面座標系(x、y)で表現される注目点座標199Aは撮像装置5aから見て常に一定方向である。従って、変換テーブルが固定なら球面座標系(θ、φ)における注目点座標199Bも一定になる。
しかし、撮像装置5aはユーザの持ち方によって姿勢が変わるので、姿勢情報に応じて変換テーブルを補正しないと、実空間の天地方向と補正後画像の天地方向が一致しない。このため、天頂補正では、この変換テーブルが姿勢情報に応じて補正される。
<変換テーブルの補正>
図31は、姿勢情報に基づく変換テーブルの補正を説明する図である。ここで、座標変換前の3次元直交座標を(x1,y1,z1)、(x1,y1,z1)の球面座標を(θ1,φ1)と表記し、座標変換後の3次元直交座標を(x2,y2,z2)、(x2,y2,z2)の球面座標を(θ2,φ2)と表記する。
変換テーブルの補正処理では、式(1)〜(6)を用いて、球面座標(θ1、φ1)から球面座標(θ2、φ2)への変換を行う。
まず、3次元直交座標を用いて回転変換する必要があるため、式(1)〜(3)を用いて、球面座標(θ1,φ1)から3次元直交座標(x1、y1、z1)へ変換する処理が行われる。
次に、対象を指し示す撮像装置5aの姿勢情報α、β、γを用いて、式(4)により、3次元直交座標系(x1,y1,z1)を、3次元直交座標系(x2,y2,z2)に変換する。式(4)は、元の座標系を、x軸を軸にα回転させ、y軸を軸にβ回転させ、z軸を軸にγ回転させることにより、変換後の座標系になることを意味している。
最後に、式(5)及び式(6)を用いて、変換後の3次元直交座標(x2,y2,z2)を球面座標(θ2,φ2)に戻す変換を行う。(θ1,φ1)を変換テーブルの補正前の球面座標系の座標とすれば、撮像装置5aの姿勢情報に応じて、変換テーブルの球面座標を(θ2,φ2)に補正できる。
注目点変換部196が補正後の変換テーブルで平面座標系の注目点座標を球面座標系の注目点座標に変換すれば、それが天頂補正後の球面座標系の注目点座標になる。
<画像回転部による画像回転処理>
続いて、図32を用いて、画像回転部216による回転処理について説明する。図32は画像回転部216の画像回転処理を模式的に示す図である。画像回転とは球面座標上で注目点座標を画像中央に移動させる処理をいう。
・回転後の新しい座標を(θNN)
・注目点座標を(θ00)
・回転の対象となる任意の座標を(θ、φ)
とする。
式(7)(8)により注目点座標を画像中央に移動させることができる。
θN=θ−θ0 + 180° (θ−θ0 ≦ 180°)
θ−θ0 − 180° (θ−θ0 > 180°) … (7)
φN=φ−φ0 + 90° (φ−φ0 ≦ 90°)
φ−φ0 − 90° (φ−φ0 > 90°) … (8)
式(7)(8)は、中央点と注目点座標のθ方向とφ方向の差だけ任意の画素を回転(移動)させている。
<全天球画像の送信手順>
続いて、図33を用い、拠点Aで得られた全天球画像及び音データが、通信管理システム50を介して、他の各通信端末2〜4へ送信される処理について説明する。図33は、映像通話における全天球画像及び音データの通信処理を示すシーケンス図である。
まず、撮像装置5aの通信部18aから通信端末1の通信部98に対して、被写体や風景等を撮像して得た全天球画像及び集音して得た音データを送信する(ステップS101)。撮像装置5aは注目点指定有無判断部198の判断結果に関わらず注目点情報を添付する。これにより、通信端末1の通信部98は、全天球画像及び音データを受信する。
次に、通信端末1の送受信部91は、通信管理システム50に対して、撮像装置5aから送られてきた全天球画像、音データ、及び注目点情報を送信する(ステップS102)。この送信には、送信対象である撮像画像データを識別するための画像データIDが含まれている。これにより、通信管理システム50の送受信部51は、全天球画像(画像データID)、音データ、及び注目点情報を受信する。
次に、通信管理システム50の送受信部51は、通信端末1と同じ映像通話に参加している通信端末2〜4に対して、全天球画像(画像データID)、音データ、及び注目点情報を送信する(ステップS103,S104,S105)。これら各送信には、送信対象である全天球画像を識別するための画像データIDが含まれている。これにより、通信端末2の送受信部71、通信端末3の送受信部31c及び通信端末4の送受信部31dは、それぞれ、全天球画像(画像データID)、音データ、及び注目点情報を受信する。なお、一般には通信端末1も自拠点の全天球画像を通信管理システム50から受信して表示するが、図33では省略されている。
次に、図34を用いて、撮像装置5aが全天球画像を生成する処理の詳細と、通信端末2〜4が全天球画像を表示する処理の詳細を説明する。図34は、撮像装置5aが全天球画像を生成する処理と、通信端末2〜4が全天球画像を表示する処理を示すフローチャート図の一例である。
図34(a)は撮像装置5aの処理を示す。なお、通信端末1については省略した。
注目点定義部194に平面座標系における注目点座標が定義される(S200)。定義は図29で説明したように、予め静的に設定しておく。
撮像時、注目点指定有無判断部198は、センサ情報に基づいて撮像者8が注目点を指定しているかを判断する(S201)。センサ情報とは、撮像装置5aのボタンを押下しているか否かが検出された情報である。押下されている場合、注目点が指定されていると判断する。注目点が指定されている場合、表1の注目点情報の注目点指定をありに設定する。
撮像画像取得部202は、撮像素子130A,130Bからの撮像画像を取得する(S202)。
次に、つなぎ合わせ処理部204が取得された2つの部分画像間の重複領域におけるつなぎ位置を検出し、変換テーブルに対しつなぎ位置検出の結果を反映する(S203)。つなぎ位置検出の結果の反映により、図30(a)に示す変換テーブルは、補正後画像の座標値(θ,φ)に対し、つなぎ位置の補正を反映した部分画像の座標値(x、y)が対応付けられるように修正される。
天頂補正部206は姿勢情報に基づいて変換テーブルを補正する(S204)。すなわち、天頂補正を行う。
次に、注目点変換部196は変換テーブルを用いて、注目点定義部194が定義する注目点座標を球面座標系の注目点座標に変換する(S205)。また、表1の注目点情報に、変換で得た球面座標系の注目点座標を設定する。なお、ステップS201で注目点が指定されていないと判断された場合も、注目点座標が設定されるが、注目点が指定されていないと判断された場合、注目点座標は設定されなくてもよい。
以上の処理で生成された全天球画像と注目点情報は図33で説明したように通信端末2〜4に送信される。
図34(b)は通信端末2〜4の表示制御部34の処理を示すフローチャート図である。
まず、画像回転部216は全天球画像に添付された注目点情報における注目点指定が"あり"か否かを判断する(S210)。
注目点指定がありの場合、画像回転部216は注目点が正距円筒画像の中央に来るように回転させる(S211)。それまで、表示していた所定領域画像に関わりなく、強制的に注目点が表示される。
次に、切出処理部220が、全天球画像の中央部分を切り出して、切出画像を生成する(S212)。切り出す広さは予め決まっているものとする。図8を例にすれば、中心点CPが注目点座標であり、画角αと距離fが予め決まっている。
注目点指定がなしの場合、ユーザが任意に全天球画像を回転させることができる。静止画の場合は、最後にユーザが全天球画像を回転させた所定領域Tが表示され、動画の場合、最後にユーザが回転させた所定領域Tの表示を維持する。切出処理部220は、ユーザが操作して決定した所定領域Tを切り出す(S213)。
拡大/レターボックス処理部222は、出力先の解像度及びアスペクト比に応じて、切り出された画像を拡大及び黒帯追加を行い、表示画像を生成する(S214)。
出力部224は生成された表示画像を、ディスプレイI/F317、ディスプレイ917に出力する(S215)。
<通信端末の表示例>
図35は、拠点Bにおいて通信端末2のディスプレイ917に表示された映像表示画面250の一例である。映像表示画面250の左側の表示領域(レイアウト番号「1」)には拠点Aの全天画像が表示され、右側上段の表示領域(レイアウト番号「2」)には拠点Cの全天球画像が表示されている。更に、映像表示画面250の右側中段の表示領域(レイアウト番号「3」)には拠点Dの画像が表示され、右側下段の表示領域(レイアウト番号「4」)には拠点B(自拠点)の画像が表示されている。レイアウト番号「1」の表示領域は主表示領域であり、レイアウト番号「2」、「3」及び「4」の表示領域は副表示領域である。主表示領域の画像と副表示領域の画像は、各通信端末で変更することができる。通常、各拠点では、主表示領域に、映像通話の中心人物がいる拠点の画像が表示される。
なお、レイアウト番号1とレイアウト番号2の表示領域には、全天球アイコン192が表示されている。これにより、表示領域に表示されている映像が全天球画像であることがわかり、ユーザは所定領域Tを変更できる。また、レイアウト番号1の表示領域には注目点アイコン193が表示されている。注目点アイコン193は、注目点情報の注目点指定がありの場合に表示制御部74が表示させる。注目点アイコン193は、注目点が指定されている旨を示す。これにより、ユーザは現在、注目点が表示されており、所定領域Tを変更できないことが分かる。
所定領域Tを変更できないとは、受付部72が表示領域の変更を受け付けないか、又は、表示領域の変更を受け付けるが、ユーザ9bが表示領域の変更の操作をやめると、注目点変換部196が変換した注目点を切出処理部220が画像から切り出して再度、表示することをいう。例えば、ユーザ9bはドラッグしている間だけ(マウスはクリックしたまま)又はスワイプして指をタッチさせたままの間だけ任意の表示領域を表示できる。
なお、ユーザ9bが注目点の表示を停止させることができてもよい。この場合、例えば所定のボタンが用意される。このボタンを1回、押下すると注目点の表示が停止され、ユーザ9bは任意の所定領域Tを表示できる。更にこのボタンを1回、押下すると、注目点が自動で表示される。
図35に示すように、多拠点で映像通信できるので、ユーザ9bと9dが知り合いだが、内見はもちろん一緒に不動産店舗に行けないような場合も、臨場感のある内見が可能になる。例えば、ユーザ9bとユーザ9dが夫婦であり、一人は店舗に行けるが、他の一人は行けない場合、それぞれの拠点から物件を見て、その場で感想を言い合うような使い方が可能になる。
<まとめ>
以上説明したように、本実施形態の画像通信システム10は、撮像装置5aに予め注目点座標が定義されており、撮像者がこの注目点座標で見せたい対象を指し示すことで、撮像者8は撮像装置だけでリアルタイムに他の拠点のユーザに注目点を注目点させることができる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
例えば、本実施形態では不動産の内見を例にして説明したが、画像通信システム10の適用例はこれに限られない。例えば、展示会、展覧会、工場見学、観光、視察、など現地の対象を指し示す場合に適用できる。
また、本実施形態では人間が撮像装置5aで対象を指し示したが、機械やロボット、動物が指し示してもよい。例えば、移動可能な機械などの進行方向に撮像装置5aを固定すれば、常に進行方向の対象を表示でき、必要であれば画像を回転させて周囲の状況も確認することができる。この場合、注目点座標を表示するかどうかを、全天球画像を受信する側で切り替えられるとよい。
また、本実施形態では全天球画像を例にしてその一部の注目点を表示させたが、全天球画像は必ずしも周囲360度を撮像できなくてもよい。例えば、半球だけを撮像できてもよいし、水平方向にだけ360度を撮像できてもよい。また、ディスプレイに収まりきらない画素数が多い平面画像でもよい。
また、図15、図16、図29などの構成例は、画像通信システム10による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。画像通信システム10の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
複数の通信管理システム50が存在してもよいし、通信管理システム50の機能が複数のサーバに分散していてもよい。画像データと音データを中継する中継装置があってもよい。
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
1〜4 通信端末
5 撮像装置
8 撮像者
10 画像通信システム
特開2016−167739号公報

Claims (11)

  1. 画像を撮像する撮像装置であって、
    前記画像における注目点を定義する注目点定義部と、
    前記撮像装置の姿勢情報を取得する姿勢情報取得部と、
    前記姿勢情報取得部が取得した前記姿勢情報に応じて、前記注目点定義部が定義した注目点を変換する注目点変換部と、
    前記注目点変換部が変換した注目点を含む所定領域を前記画像から切り出す切出処理部と、
    を有することを特徴とする撮像装置。
  2. 前記姿勢情報取得部が取得した前記姿勢情報を用いて画像の天頂補正に関する処理を行う天頂補正部を有し、
    前記注目点変換部は、前記天頂補正部による天頂補正の結果を用いて、前記注目点定義部が定義した注目点を変換することを特徴とする請求項1に記載の撮像装置。
  3. 前記天頂補正部は、撮像素子の座標値を球面座標系の座標値に変換する変換テーブルに、前記姿勢情報を用いて天頂補正を施し、
    前記注目点変換部は前記注目点定義部が定義した注目点を撮像素子の座標値とし、前記姿勢情報で天頂補正が施された変換テーブルを用いて、前記注目点定義部が定義した注目点を球面座標系の座標値に変換することを特徴とする請求項2に記載の撮像装置。
  4. 前記天頂補正は、前記撮像装置の姿勢に関わらず、前記画像の上側に実空間の上側が写るように補正するものであり、
    前記撮像装置の長手方向の上側が指し示す対象が写る撮像素子の座標値を、前記注目点定義部が前記注目点として定義することを特徴とする請求項2又は3に記載の撮像装置。
  5. 前記撮像装置が撮像する際、撮像者が注目点を指定しているか否かを判断する注目点指定有無判断部を有し、
    前記注目点指定有無判断部は、撮像者が注目点を指定していると判断した場合、注目点が指定されている旨を前記画像に添付し、
    前記注目点が指定されている旨が前記画像に添付されている場合、前記注目点変換部は前記注目点定義部が定義した注目点を変換することを特徴とする請求項1〜4のいずれか1項に記載の撮像装置。
  6. 撮像装置が撮像した画像を通信端末が画面に表示する画像通信システムであって、
    前記画像における注目点を定義する注目点定義部と、
    前記撮像装置の姿勢情報を取得する姿勢情報取得部と、
    前記姿勢情報取得部が取得した前記姿勢情報に応じて、前記注目点定義部が定義した注目点を変換する注目点変換部と、
    前記注目点変換部が変換した注目点を含む所定領域を前記画像から切り出す切出処理部と、
    前記切出処理部が切り出した注目点を含む所定領域を前記画面に表示する出力部と、
    を有することを特徴とする画像通信システム。
  7. 前記出力部が表示する前記画像の表示領域の変更を受け付ける受付部を有し、
    前記注目点変換部が変換した注目点を前記切出処理部が前記画像から切り出して前記出力部が表示している場合、
    前記受付部は、前記表示領域の変更を受け付けないか、又は、
    前記表示領域の変更を受け付けるが、前記表示領域の変更を受け付けなくなると、前記注目点変換部が変換した注目点を前記切出処理部が前記画像から切り出して前記出力部が表示することを特徴とする請求項6に記載の画像通信システム。
  8. 前記出力部は、前記注目点が指定されている旨が前記画像に添付されている場合、前記注目点が指定されている旨を表示することを特徴とする請求項6又は7に記載の画像通信システム。
  9. 画像を撮像する撮像装置と、前記画像を画面に表示する通信端末とを有する画像通信システムが行う画像処理方法であって、
    姿勢情報取得部が、前記撮像装置の姿勢情報を取得するステップと、
    前記姿勢情報取得部が取得した前記姿勢情報に応じて、注目点定義部が定義している注目点を注目点変換部が変換するステップと、
    切出処理部が、前記注目点変換部が変換した注目点を含む所定領域を前記画像から切り出すステップと、
    出力部が、前記切出処理部が切り出した注目点を含む所定領域を前記画面に表示するステップと、
    を有することを特徴とする画像処理方法。
  10. 画像を撮像する撮像装置を、
    前記画像における注目点を定義する注目点定義部と、
    前記撮像装置の姿勢情報を取得する姿勢情報取得部と、
    前記姿勢情報取得部が取得した前記姿勢情報に応じて、前記注目点定義部が定義した注目点を変換する注目点変換部と、
    前記注目点変換部が変換した注目点を含む所定領域を前記画像から切り出す切出処理部、
    として機能させるためのプログラム。
  11. 画像を撮像する撮像装置から取得した前記画像を画面に表示する通信端末を、
    姿勢情報取得部が取得した前記撮像装置の姿勢情報に応じて変換された、注目点定義部が定義している注目点、及び、前記画像を受信する受信部と、
    前記受信部が受信した前記注目点を含む所定領域を前記画像から切り出す切出処理部と、
    前記切出処理部が切り出した注目点を含む所定領域を前記画面に表示する出力部、
    として機能させるためのプログラム。
JP2019049128A 2019-03-15 2019-03-15 撮像装置、画像通信システム、画像処理方法、プログラム Active JP7192592B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019049128A JP7192592B2 (ja) 2019-03-15 2019-03-15 撮像装置、画像通信システム、画像処理方法、プログラム
US16/785,658 US11206351B2 (en) 2019-03-15 2020-02-10 Omnidirectional camera system with improved point of interest selection
US17/537,483 US11956547B2 (en) 2019-03-15 2021-11-30 Omnidirectional camera system with improved point of interest selection
JP2022196234A JP2023039975A (ja) 2019-03-15 2022-12-08 通信端末、画像通信システム、表示方法、プログラム
US18/606,279 US20240223904A1 (en) 2019-03-15 2024-03-15 Omnidirectional camera system with improved point of interest selection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019049128A JP7192592B2 (ja) 2019-03-15 2019-03-15 撮像装置、画像通信システム、画像処理方法、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022196234A Division JP2023039975A (ja) 2019-03-15 2022-12-08 通信端末、画像通信システム、表示方法、プログラム

Publications (2)

Publication Number Publication Date
JP2020149635A true JP2020149635A (ja) 2020-09-17
JP7192592B2 JP7192592B2 (ja) 2022-12-20

Family

ID=72424225

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019049128A Active JP7192592B2 (ja) 2019-03-15 2019-03-15 撮像装置、画像通信システム、画像処理方法、プログラム
JP2022196234A Pending JP2023039975A (ja) 2019-03-15 2022-12-08 通信端末、画像通信システム、表示方法、プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022196234A Pending JP2023039975A (ja) 2019-03-15 2022-12-08 通信端末、画像通信システム、表示方法、プログラム

Country Status (2)

Country Link
US (3) US11206351B2 (ja)
JP (2) JP7192592B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020043387A (ja) 2018-09-06 2020-03-19 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、及び、記憶媒体
JP7400195B2 (ja) * 2019-03-11 2023-12-19 株式会社リコー 画像通信システム、撮像装置、通信端末、モード切替方法、プログラム
JP2022050979A (ja) 2020-09-18 2022-03-31 株式会社リコー 通信端末、画像通信システム、画像表示方法およびプログラム
JP2022057800A (ja) * 2020-09-30 2022-04-11 株式会社リコー 画像通信システム、通信管理装置、通信管理方法及びプログラム
JP2022057771A (ja) 2020-09-30 2022-04-11 株式会社リコー 通信管理装置、画像通信システム、通信管理方法及びプログラム
JP2022186117A (ja) * 2021-06-04 2022-12-15 株式会社リコー 通信端末、画像通信システム、画像表示方法およびプログラム
JP2023048464A (ja) 2021-09-28 2023-04-07 株式会社リコー メディア配信システム、通信システム、配信制御装置、配信制御方法及びプログラム
JP2023081226A (ja) 2021-11-30 2023-06-09 株式会社リコー 通信管理装置、通信システム、通信管理方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167739A (ja) * 2015-03-10 2016-09-15 株式会社リコー 画像処理システム、画像処理方法およびプログラム
JP2019024206A (ja) * 2018-09-06 2019-02-14 株式会社リコー 画像表示システム、画像表示装置、画像表示方法、およびプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6075066B2 (ja) 2012-12-28 2017-02-08 株式会社リコー 画像管理システム、画像管理方法、及びプログラム
JP6617547B2 (ja) 2015-12-11 2019-12-11 株式会社リコー 画像管理システム、画像管理方法、プログラム
US9602795B1 (en) * 2016-02-22 2017-03-21 Gopro, Inc. System and method for presenting and viewing a spherical video segment
KR20180031437A (ko) * 2016-09-20 2018-03-28 엘지전자 주식회사 디스플레이 장치
US10264302B2 (en) 2016-09-30 2019-04-16 Ricoh Company, Ltd. Communication management apparatus, method and computer-readable storage medium for generating image data identification information
US10721116B2 (en) 2016-09-30 2020-07-21 Ricoh Company, Ltd. Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium
KR102598082B1 (ko) * 2016-10-28 2023-11-03 삼성전자주식회사 영상 표시 장치, 모바일 장치 및 그 동작방법
JP6756269B2 (ja) 2017-01-05 2020-09-16 株式会社リコー 通信端末、画像通信システム、通信方法、及びプログラム
JP6805861B2 (ja) 2017-02-09 2020-12-23 株式会社リコー 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP6919334B2 (ja) * 2017-05-26 2021-08-18 株式会社リコー 画像処理装置、画像処理方法、プログラム
US10664947B2 (en) * 2017-06-30 2020-05-26 Canon Kabushiki Kaisha Image processing apparatus and image processing method to represent part of spherical image in planar image using equidistant cylindrical projection
JP2019054322A (ja) 2017-09-12 2019-04-04 株式会社リコー 通信端末、画像通信システム、通信方法、及びプログラム
EP3461124B1 (en) 2017-09-25 2024-05-01 Ricoh Company, Ltd. Communication terminal, image communication system, display control method, and carrier means
JP6907861B2 (ja) 2017-09-25 2021-07-21 株式会社リコー 通信端末、画像通信システム、表示方法、及びプログラム
JP7031280B2 (ja) * 2017-12-18 2022-03-08 株式会社リコー 画像処理装置、画像処理システムおよびプログラム
JP7095361B2 (ja) 2018-03-29 2022-07-05 株式会社リコー 通信端末、画像通信システム、表示方法、及びプログラム
US10554883B2 (en) 2018-03-30 2020-02-04 Ricoh Company, Ltd. VR system, communication method, and non-transitory computer-readable medium
JP2019180027A (ja) 2018-03-30 2019-10-17 株式会社リコー 通信端末、画像通信システム、表示方法、及びプログラム
JP7164831B2 (ja) 2018-03-30 2022-11-02 株式会社リコー 通信管理システム、通信システム、通信方法、及びプログラム
JP7400195B2 (ja) * 2019-03-11 2023-12-19 株式会社リコー 画像通信システム、撮像装置、通信端末、モード切替方法、プログラム
JP2021089382A (ja) * 2019-12-05 2021-06-10 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167739A (ja) * 2015-03-10 2016-09-15 株式会社リコー 画像処理システム、画像処理方法およびプログラム
JP2019024206A (ja) * 2018-09-06 2019-02-14 株式会社リコー 画像表示システム、画像表示装置、画像表示方法、およびプログラム

Also Published As

Publication number Publication date
US11206351B2 (en) 2021-12-21
US20200296302A1 (en) 2020-09-17
US20240223904A1 (en) 2024-07-04
US20220086346A1 (en) 2022-03-17
JP2023039975A (ja) 2023-03-22
JP7192592B2 (ja) 2022-12-20
US11956547B2 (en) 2024-04-09

Similar Documents

Publication Publication Date Title
JP7400195B2 (ja) 画像通信システム、撮像装置、通信端末、モード切替方法、プログラム
JP7322940B2 (ja) 画像通信システム、画像通信端末、画像通信方法、プログラム、及び記録媒体
US11558431B2 (en) Communication terminal, communication system, communication method, and display method
JP7452596B2 (ja) 通信端末、表示方法、プログラム及び画像通信システム
JP7192592B2 (ja) 撮像装置、画像通信システム、画像処理方法、プログラム
JP6907861B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
US10721116B2 (en) Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium
JP7095361B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP2019180027A (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP2019054322A (ja) 通信端末、画像通信システム、通信方法、及びプログラム
JP2022050979A (ja) 通信端末、画像通信システム、画像表示方法およびプログラム
JP2022057800A (ja) 画像通信システム、通信管理装置、通信管理方法及びプログラム
JP7017045B2 (ja) 通信端末、表示方法、及びプログラム
JP7151316B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP2019145959A (ja) 通信端末、通信システム、通信方法、及びプログラム
JP7354733B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP7326789B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP7371369B2 (ja) 通信端末および画像通信システム
JP6992338B2 (ja) 通信システム、通信管理方法、プログラム、システム及び通信方法
JP7006133B2 (ja) 通信システム及び通信方法
JP7210892B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP2022186117A (ja) 通信端末、画像通信システム、画像表示方法およびプログラム
JP2022130180A (ja) 画像処理方法、プログラム、画像処理装置および画像処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221121

R151 Written notification of patent or utility model registration

Ref document number: 7192592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151