JP2018074420A - 表示装置、表示システム及び表示装置の制御方法 - Google Patents

表示装置、表示システム及び表示装置の制御方法 Download PDF

Info

Publication number
JP2018074420A
JP2018074420A JP2016213061A JP2016213061A JP2018074420A JP 2018074420 A JP2018074420 A JP 2018074420A JP 2016213061 A JP2016213061 A JP 2016213061A JP 2016213061 A JP2016213061 A JP 2016213061A JP 2018074420 A JP2018074420 A JP 2018074420A
Authority
JP
Japan
Prior art keywords
image
display
information
imaging range
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016213061A
Other languages
English (en)
Inventor
和彦 志村
Kazuhiko Shimura
和彦 志村
和男 神田
Kazuo Kanda
和男 神田
佳之 福谷
Yoshiyuki Fukutani
佳之 福谷
伸之 志摩
Nobuyuki Shima
伸之 志摩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2016213061A priority Critical patent/JP2018074420A/ja
Priority to US15/797,715 priority patent/US10559132B2/en
Priority to CN201711030799.9A priority patent/CN108012141A/zh
Publication of JP2018074420A publication Critical patent/JP2018074420A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】外部機器による撮像範囲を視認できる表示装置を提供する。【解決手段】表示装置100は、撮像して第1の画像を取得する画像入力部131と、画像入力部131の第1の撮像範囲に係る情報を含む第1の撮像範囲情報として取得する情報取得部130と、撮像して第2の画像を取得する外部機器から前記外部機器の第2の撮像範囲に係る情報を含む第2の撮像範囲情報を取得する通信を行う通信部140と、前記第1の撮像範囲及び前記第2の撮像範囲に含まれる領域を対応範囲として取得する制御部110と、前記対応範囲を示す表示情報を生成する表示制御部111と、前記表示情報を表示する表示部120とを備える。【選択図】図1

Description

本発明は、表示装置、表示システム及び表示装置の制御方法に関する。
近年のICT(Information and Communications Technology:情報通信技術)活用において、例えばウェアラブル端末を含むIoT(Internet of Things)機器への注目が高まっている。ここで、「ICT活用」は、例えばこれまで以上に情報通信の自由度が上がった環境や機器を活用することを意味している。また、「IoT」は、あらゆる「モノ」がインターネットにつながること又はインターネットの一部を構成することを示し、「IoT機器」は、通信機能を有してインターネットに限らずネットワークへ接続するものを指すことが多い。ウェアラブル端末には、例えば眼鏡型、腕時計型のウェアラブル端末が含まれる。また、近年はこのようなIoT機器がカメラを搭載することも多い。
例えば特許文献1には、携帯端末装置に付随するカメラで撮像している映像にエアタグと呼ばれる仮想的画像を付加して表示する拡張現実(AR)技術によって、当該エアタグが示す事物・事象の地理上の位置と現在位置との位置関係を容易に把握することができる経路案内装置に係る技術が開示されている。
特開2015−224982号公報
本発明は、外部機器による撮像範囲を視認できる表示装置、表示システム及び表示装置の制御方法を提供することを目的とする。
本発明の一態様によれば、表示装置は、撮像して第1の画像を取得する画像入力部と、前記画像入力部の第1の撮像範囲に係る情報を含む第1の撮像範囲情報として取得する情報取得部と、撮像して第2の画像を取得する外部機器から前記外部機器の第2の撮像範囲に係る情報を含む第2の撮像範囲情報を取得する通信を行う通信部と、前記第1の撮像範囲及び前記第2の撮像範囲に含まれる領域を対応範囲として取得する制御部と、前記対応範囲を示す表示情報を生成する表示制御部と、前記表示情報を表示する表示部とを備える。
本発明の一態様によれば、表示システムは、前記表示装置と、撮像して第2の画像を取得する外部機器とを含む。
本発明の一態様によれば、表示装置の制御方法は、撮像して第1の画像を取得することと、前記画像入力部の第1の撮像範囲に係る情報を含む第1の撮像範囲情報として取得することと、撮像して第2の画像を取得する外部機器から前記外部機器の第2の撮像範囲に係る情報を含む第2の撮像範囲情報を取得する通信を行うことと、前記第1の撮像範囲及び前記第2の撮像範囲に含まれる領域を対応範囲として取得することと、前記対応範囲を示す表示情報を生成することと、前記表示情報を表示することとを含む。
本発明によれば、外部機器による撮像範囲を視認できる表示装置、表示システム及び表示装置の制御方法を提供できる。
図1は、第1の実施形態に係る表示システムの構成例の概略を示すブロック図である。 図2は、第1の実施形態に係る表示装置の備える画像入力部及び表示部とユーザの視界との位置関係の一例を示す模式図である。 図3は、第1の実施形態に係るユーザの視界と表示部との位置関係の一例を示す模式図である。 図4は、第1の実施形態に係る表示装置制御処理の一例を示すフローチャートである。 図5は、第1の実施形態に係る表示システムの構成の一例を示す模式図である。 図6Aは、第1の実施形態に係る対応範囲を取得する方法の一例を示す模式図である。 図6Bは、第1の実施形態に係る対応範囲を取得する方法の一例を示す模式図である。 図7は、第1の実施形態に係る対応範囲が重畳表示された表示部における表示の一例を示す模式図である。 図8は、第1の実施形態に係る監視カメラ制御処理の一例を示すフローチャートである。 図9は、第2の実施形態に係る表示システムの構成例の概略を示すブロック図である。 図10は、第2の実施形態に係る表示装置の構成例の概略を示す模式図である。 図11は、第2の実施形態に係る表示装置の備える画像入力部及び表示部とユーザの視界との位置関係の一例を示す模式図である。 図12は、第2の実施形態に係るユーザの視界と表示部との位置関係の一例を示す模式図である。 図13は、第2の実施形態に係る表示システムの構成の一例を示す模式図である。 図14は、第2の実施形態に係る対応範囲が重畳表示された表示部における表示の一例を示す模式図である。 図15は、第2の実施形態に係るドローンの取得画像が重畳表示された表示部における表示の一例を示す模式図である。 図16は、第2の実施形態に係る操縦部制御処理の一例を示すフローチャートである。 図17は、第2の実施形態に係る表示装置制御処理の一例を示すフローチャートである。 図18は、第2の実施形態に係るドローン制御処理の一例を示すフローチャートである。
[第1の実施形態]
近年のICT(Information and Communications Technology:情報通信技術)活用において、例えばウェアラブル端末を含むIoT(Internet of Things)機器への注目が高まっている。ここで、「ICT活用」は、例えばこれまで以上に情報通信の自由度が上がった環境や機器を活用することを意味している。また、「IoT」は、あらゆる「モノ」がインターネットにつながること又はインターネットの一部を構成することを示し、「IoT機器」は、通信機能を有してインターネットに限らずネットワークへ接続するものを指すことが多い。ウェアラブル端末には、例えば眼鏡型、腕時計型のウェアラブル端末が含まれる。また、近年はこのようなIoT機器がカメラを搭載することも多い。
<表示システムの構成>
本実施形態に係る表示システム1の構成例の概略を図1にブロック図として示し、これを参照して表示装置100と外部機器に含まれる監視カメラ200とを含む表示システム1の構成について説明する。なお、上述したような観点から、表示装置100、監視カメラ200等の本実施形態に係る表示システム1に含まれる各々の機器はIoT機器であると表現できる。
表示装置100は、制御部110と、表示部120と、情報取得部130と、通信部140と、操作部150とを備える。制御部110は、表示装置100の各部の動作を制御する。制御部110は、表示制御部111を備える。表示制御部111は、例えば通信部140を介して監視カメラ200から取得する情報を表示するための表示情報を生成する。表示部120は、表示制御部111の生成する表示情報に基づいて表示を行う。表示部120は、例えば液晶ディスプレイ、有機ELディスプレイ、ハーフミラーを含む。ディスプレイは、リアルな画像に基づいた画像を表示すると共に、取得された情報を可視化して表示するために、これら画像と情報との合成画像をユーザから見えるように表示する。なお、この合成は電気的(電子的)に行われても、光学的に行われてもよい。情報取得部130は、表示装置100に係る情報を取得する。
情報取得部130は、画像入力部131と、位置入力部132と、方位入力部133と、距離入力部134とを備える。画像入力部131は、例えば撮像光学系と撮像素子とを備える第1の撮像部を含み、撮像光学系を介して撮像素子の撮像面に結像した被写体像に基づいて画像を第1の画像として取得する。なお、以下の説明では、第1の撮像部による撮像を第1の撮像と記載することとする。位置入力部132は、例えばGPSセンサ、気圧センサ等を含み、表示装置100の位置や高度に係る情報を取得する。方位入力部133は、例えば電子コンパス等のセンサを含み、第1の撮像の方向を取得する。距離入力部134は、表示装置100と監視カメラ200との間の距離に係る情報を取得する。なお、当該距離は、例えば画像入力部131の備える撮像素子による像面位相差方式の測距の検出結果に基づいて測距されて取得されてもよい。また、当該距離は、制御部110が位置入力部132の出力と監視カメラ200の出力する位置情報とに基づいて算出して取得されてもよい。距離の測定は光投射式のレーダー利用のもの、三角測距方式、レンズの合焦によるコントラスト方式等がある。表示装置100と特定のものとの間の距離を測定する場合は、予め、特定の指標の大きさを決めておいて、それがどのような大きさで検出できるかによって距離測定が行われてもよい。また、対象物と表示装置100とのそれぞれでGPS等の信号や情報を取得して得られた対象物と表示装置100との間の位置情報の差異等に基づいても距離の測定は可能である。さらに、目視で距離を入力する応用例もあり得る。以下、情報取得部130又は情報取得部130の備える各部の取得する第1の撮像の撮像範囲に係る情報を第1の撮像範囲情報と称することとする。
通信部140は、監視カメラ200との間で通信を行う。なお、当該通信は、例えばBluetooth(登録商標) Low Energy(BLE)、Wi-Fi(登録商標)等の無線通信でもよいし、有線の通信でもよい。また、これら通信はインターネット等の電気通信回線を介して行われてもよい。操作部150は、例えばボタン、スライダ、つまみ、ダイヤル等を含み、ユーザの操作結果を取得する。なお、操作部150はタッチパネルであってもよいし、ユーザの動作、目線を検知するセンサを備えて操作結果を取得するものであってもよい。
監視カメラ200は、制御部210と、情報取得部230と、通信部240とを備える。制御部210は、監視カメラ200の各部の動作を制御する。情報取得部230は、監視カメラ200に係る情報を取得する。情報取得部230は、画像入力部231と、撮像範囲入力部232とを備える。画像入力部231は、例えば撮像光学系と撮像素子とを備える第2の撮像部を含み、撮像光学系を介して撮像素子の撮像面に結像した被写体像に基づいて画像を第2の画像として取得する。なお、以下の説明では、第2の撮像部による撮像を第2の撮像と記載することとする。また、監視カメラ200のような表示システム1の含む外部機器のうち撮像機能を有する外部機器を撮像機器と記載することとする。撮像範囲入力部232は、例えばGPSセンサ等を含み、監視カメラ200の撮像範囲に係る情報を第2の撮像範囲情報として取得する。なお、第2の撮像範囲情報は、その撮像機器(ここでは監視カメラ200)の位置や撮像時の向き(ここでは単純化して下向き)、又は撮像素子のサイズ及び撮像光学系の焦点距離等から決まる画角に相当する範囲等を含んだり、総合したりしたものである。当該第2の撮像範囲情報の一部又は全部は、予め監視カメラ200の内部に記録されていてもよいし、画像入力部231がそのときの状況に応じて、画角等をどのように設定しているか、どこを向いているか等を判定して取得されてもよいし、例えば画角等が設定された時の情報に基づいて取得されてもよい。通信部240は、表示装置100の備える通信部140との間で通信を行う。
本実施形態に係る表示装置100の備える画像入力部131及び表示部120とユーザU1の視界との位置関係の一例を模式図として図2に示す。また、本実施形態に係るユーザU1の視界と表示部120との位置関係の一例を模式図として図3に示す。
本実施形態では、表示装置100は、例えば図2に示すような眼鏡型のウェアラブル端末である場合を例として説明をするが、これに限定されない。表示装置100は、例えば時計型のウェアラブル端末であってもよい。また、表示装置100は、ウェアラブル端末ではなくても表示、通信及び撮像機能を有する端末であればよい。なぜなら、ウェアラブルであるかどうかは、その機器(端末)がユーザの体にハンズフリー状態で装着されているか否かで決まるものであり、ここでは、装着した時と同様の状態とすることを、ユーザが手持ちで行ってもよいからである。ウェアラブルであれば、手持ちでなくてもよいので、両手が他の用途に使えるという利点がある。また、眼鏡型のウェアラブル機器であれば、一般的な大人の目の高さ等を仮定して、歩行時に表示を確認するシーン等を想定した設計にしたりできる。さらに、眼鏡型のウェアラブル機器は、目で見える表示の位置の制御を行いやすいというメリットがある。これも、目の位置と表示の位置(目で見て見える表示位置)の制御、設計等が単純化できる。もちろん、ウェアラブルタイプでなくとも、表示位置を制御して目で見た時に見える位置を制御することは、様々な方法で実現可能である。目の位置と表示の位置を光学的に一致させる場合には、表示部と目の位置の関係を表示部から目を撮像したりして検出して、この結果から表示位置が制御されてもよい。また電子的に画像合成する場合、当該制御は、撮像した画像の位置に対し、仮想的な情報の位置を調整して表示すれば実現可能である。
なお、図3に示すように、本実施形態に係る表示装置100の備える表示部120は、ユーザU1の左視界VL及び右視界VRと、それぞれ概ね重なるように配置されている。また、表示装置100の備える画像入力部131は、例えば図2に示すようにユーザU1の目線方向と第1の撮像の方向とが同じ方向となるように配置されている。なお、表示装置100は虚像投影型のものであっても、網膜投影型のものであってもよい。
<表示システムの動作>
本実施形態に係る表示装置制御処理の一例をフローチャートとして図4に示し、これを参照して表示装置100の動作について説明をする。また、本実施形態に係る表示システム1の構成の一例を模式図として図5に示す。ここでは、例えば図5に示すように、ユーザU1が警備員として表示装置100を装着している状態で見回りをしている場合を例として表示システム1の動作について説明をする。なお、以下に記載されている水平、垂直、平行等の表現は、厳密に水平、垂直、平行等を要求するものではなく、概ね水平、垂直、平行等とみなせるものであればよい。また、以下の説明は、説明を単純化するために、概ね水平、垂直、平行等とみなせるものを水平、垂直、平行であると仮定して行う場合を含む。
ステップS101において、制御部110は、画像入力部131に第1の撮像をさせて第1の画像を取得する。また、制御部110は、当該第1の画像を表示部120に表示させる。したがってユーザU1は、自身の視界と同様の第1の画像に基づいたライブビュー表示を見ながら見回りをすることができる。
ステップS102において、制御部110は、監視カメラ200の出力する信号を取得するか否かを、例えばユーザU1の操作に応じた操作部150の出力に基づいて判定する。例えばユーザU1は、図5に示すように、建物O1の近くにある監視カメラ200が何を写しているのか確認したいと思ったとき、監視カメラ200がどこを写しているのか確認したいと思ったとき等に信号を取得すると操作することになる。表示装置制御処理は、取得すると判定された場合はステップS103へ進み、取得しないと判定された場合はステップS101へ戻り、ライブビュー表示を続ける。
このような情報取得は、例えば特定の規則を標準化によって定めて行われてもよい。例えば、情報が送受信される際の信号の形式、通信規格等が標準化によって定められていれば、表示装置100を含むウェアラブル端末と監視カメラ200を含む外部機器との組み合わせに関係なく本技術が利用できるようになる。
一方で、上述のような情報取得は、ウェアラブル端末による外部機器信号の解釈によって判定されて行われてもよい。ここで解釈とは、例えばウェアラブル端末と外部機器との間の通信規格等が標準化されていなくても、ウェアラブル端末が当該信号を解析して外部機器の仕様を判定することを示している。ウェアラブル端末は、組み合わせ可能な全ての外部機器の仕様を記憶している必要はなく、適宜、インターネット、サーバ等に構築されているデータベース等、クラウド上に記録されている情報に基づいて判定すればよい。このようなネットワーク上のデータベースからの情報の読み出しに際して、ウェアラブル端末は、自機器の位置情報に基づいて情報を検索してもよいし、外部機器の発信する信号に基づいて検索してもよい。外部機器の発信する信号は、例えば外部機器の個体識別番号、製品種別、位置情報等を含む。
また、上述のような情報取得は、ウェアラブル端末から独自の情報発信が為されて行われてもよい。すなわち、上述のような外部機器からの情報、外部機器の仕様を取得する際には、ウェアラブル端末から各種情報を要求する形態であってもよい。ウェアラブル端末が情報を要求するタイミングは、ユーザによる端末の操作があったときでもよいし、当該ウェアラブル端末が所定の位置又は範囲に位置したときでもよい。また、外部機器が定期的に又は常に情報を発信していてもよく、ウェアラブル端末が当該信号を受信したときに情報の送受信が開始されてもよい。
ステップS103において、制御部110は、例えばユーザの操作に応じた操作部150の出力に基づいて、監視カメラ200の取得する第2の画像を取得して表示部120に表示させるか否かを判定する。例えばユーザU1は、監視カメラ200が何を写しているのかを確認したいと思うとき等に第2の画像を表示させるべく上述の情報取得や表示を行うための操作ボタン等を操作(何も操作せずとも近づくだけで常に表示してもよい)し、一方で、監視カメラ200の撮像範囲を知りたいと思うとき等に第2の画像を表示させる操作とは異なる操作をすることになる。表示装置制御処理は、第2の画像を表示させる状態になった又は操作があったと判定された場合はステップS108へ進み、表示させないと判定された場合はステップS104へ進む。
ステップS104において、制御部110は、位置入力部132から表示装置100の位置情報を取得する。ステップS105において、制御部110は、通信部140を介して監視カメラ200の出力する監視カメラ200の位置情報を取得する。したがって、ステップS104及びステップS105において制御部110は、図5に示すように表示装置100を装着したユーザU1の位置を示す点P0の座標(I0、K0)と監視カメラ200の位置を示す点P1の座標(I1、K1)とを取得することになる。ここで制御部110は、例えば点P0の座標と点P1の座標とに基づいて、これら2点間の距離D1を算出する。
ステップS106において、制御部110は、通信部140を介して監視カメラ200の出力する監視カメラ200の撮像範囲を示す信号を第2の撮像範囲情報として取得する。第2の撮像範囲情報は、例えば監視カメラ200の撮像する画角、監視カメラ200の取得する撮像範囲に係るGPS測位値(又は設置時に入力された緯度、経度情報)等を含む。ここでは向き(傾き)は単純化して鉛直方向(地面に対して略垂直)向きとした。こうした情報は、どこからどこまでの範囲かを示すものなので、いちいち換算する必要がないように、緯度経度情報群であってもよい。したがって、制御部110は、ここで例えば図5に示すように監視カメラ200の撮像範囲が矩形である場合、第2の撮像範囲A2の頂点を示す4つの座標(I1±ΔI1、K1±ΔK1)を取得することになる。以下、例えば経緯度で表されるΔI1とΔK1とに相当する長さがともにΔD1である場合を例として説明を続ける。
ステップS107において、制御部110は、第1の画像のうち第2の撮像範囲に対応する部位に対して画像処理を行う。当該画像処理に先立って、制御部110は、表示装置100の備える第1の撮像部の画角を含む第1の撮像範囲情報を取得する。第1の撮像範囲情報は、例えば第1の撮像部の位置、高度、方位、傾き等を含む。これら第1の撮像範囲情報に含まれる情報の値は、眼鏡型端末のようなウェアラブル機器の場合、立った人間の目の高さ、まっすぐ前を見るという状態であること等を仮定して、予め決めた値で代用されてもよい。ユーザU1が特定の位置まで来たら補助表示が見えるような仕様でもよく、その場合も、位置情報を単純化したりできる。もちろん、ユーザU1が、その位置から監視位置(監視カメラ200の撮像範囲)を確認する場合は、方位や傾きが特定の値になる状況を想定してもよい。この場合も情報の種類、量の削減が可能となる。なお、第1の撮像範囲情報は、ステップS101における撮像時の状況に応じた値としてもよく、ステップS104における表示装置100の位置情報取得時等に取得されていてもよい。また、制御部110は、当該画像処理後の画像を表示部120へ表示させる。
ここで、第1の画像のうち当該画像処理を施す領域が取得される方法について説明をする。以下、当該領域を対応範囲と称する。本実施形態に係る制御部110が当該対応範囲を取得する方法の一例について、図6A及び図6Bに示す模式図を参照して説明する。なお、このとき既に、点P0と点P1との間の距離D1と、第1の撮像範囲情報に含まれる水平方向と平行な方向の画角Θ0及び垂直画角Ψ0と、第2の撮像範囲情報に含まれる長さΔD1とがそれぞれ取得されている状態である。
また、ここでは図6Aに示すように、ユーザU1は表示装置100を頭部に装着して監視カメラ200に向かって正対しており、かつ、表示装置100の備える第1の撮像部の撮像方向は地面と平行であるとした場合を例として説明をする。また、表示装置100と第1の撮像部との高さ及び位置の差異は既知である。以下、第1の撮像部の位置する地上の点の位置がP0であり、点P0から点P1へ向かう方向をX+方向と、X方向と直行する地面と平行な方向をY方向と、点P0をX方向の原点(X=0)として説明を続ける。
制御部110は、位置入力部132から第1の撮像部の高さH0を取得する。制御部110は、取得した高さH0と距離D1とに基づいて、第1の撮像部と点P1との距離D11を算出する。また、制御部110は、第1の撮像の方向と、第1の撮像部と点P1とを結ぶ直線との成す角である画角Ψ1を算出する。
したがって、算出された画角Ψ1と垂直画角Ψ0とに基づいて、第1の画像に含まれる点のうち何れの点が点P1に対応するかが明らかとなる。以下、点P1に対応する第1の画像に含まれる点を点P1´と記載する。
図6Bに示す点P11と点P12とは、点P1とX方向に同じ位置であり、それぞれ点P1との間の距離がΔD1となる点である。以下、点P11と点P12とを結ぶ線分を線分L1と称する。すなわち、線分L1は、点P1を含むY方向の直線のうち対応範囲に含まれる範囲であると表現できる。また、図6Bに示す模式図は、距離D11を示す直線と線分L1とによって張られる平面を示している。
図6Bに示すように、制御部110は、距離D11と長さΔD1とに基づいて、第2の撮像範囲に対応するY方向の画角Θ1を算出する。
したがって、算出された画角Θ1と画角Θ0とに基づいて、第1の画像に含まれる点P1´を含むY方向の直線のうち、線分L1に対応する範囲が明らかとなる。以下、線分L1に対応する第1の画像に含まれる線分を線分L1´と記載する。
このようにして、対応範囲のうち、X=D1の位置でのY方向の範囲に係る情報が取得されることになる。制御部110は、上述した場合と同様にして、D1−ΔD1≦X≦D1+ΔD1の範囲で、それぞれのX方向の位置に対応する画角Ψ1及び画角Θ1を取得し、第1の画像に含まれる領域のうち、何れの領域が対応範囲に相当するかを判定する。
なお、監視カメラ200の第2の撮像範囲が矩形である場合には、D1−ΔD1<X<D1+ΔD1の位置に係る対応範囲を算出せずに、第2の撮像範囲の4つの頂点又はX=D1±ΔD1の位置に係る対応範囲を算出するだけで同様の対応範囲が算出できることは明らかである。
なお、このようにして取得され得る対応範囲は、第1の撮像範囲及び第2の撮像範囲に含まれる領域であるとも表現できる。また、第1の撮像部の撮像する方向とユーザの視界の方向VDとが同一の方向若しくは同一の方向であるとみなせる場合又は補正若しくは換算によって同一の方向として取り扱える場合等には、対応範囲は、視認可能な画像処理対応範囲と表現されてもよい。
本実施形態に係る表示部120における画像処理後の画像表示の一例を模式図として図7に示す。本実施形態に係る表示制御部111は、当該対応範囲を示す表示情報を第1の画像に重畳させた重畳表示画像を表示するための表示情報を出力して表示部120に表示させる。図7に示すように、第2の撮像範囲A2を示す対応範囲が画像処理によって塗りつぶされた画像が第1の画像に重畳表示されており、ユーザU1は建物O1の付近にある監視カメラ200がどこを写しているのかを視認して、容易に把握することができる。
ここで、図4を再び参照して表示システム1の動作について説明を続ける。
ステップS108において、制御部110は、通信部140を介して監視カメラ200から第2の画像を取得する。ステップS109において、制御部110は、ステップS108で取得した第2の画像を表示部120に表示させる。その後、表示装置制御処理はステップS102へ戻る。
なお、本実施形態に係る表示装置100の備える表示部120はユーザU1の左視界VL及び右視界VRの各々に概ね重なっており、ユーザU1は画像入力部131の撮像する第1の画像を見て見回りをしている場合がある。このような場合において、急に第2の画像を表示部120へ表示させた場合、ユーザU1の視界が急に奪われることとなる。そのため、制御部110は、表示部120に表示させる画像を切り替える際には、例えば第1の画像に、第2の画像を徐々に透明度を低くしながら重畳表示させるようにしてもよい。また、制御部110は、表示部120の一部に第2の画像を表示させるようにしてもよい。
本実施形態に係る監視カメラ制御処理の一例をフローチャートとして図8に示し、これを参照して監視カメラ200の動作について説明をする。
ステップS201において、制御部210は、監視カメラ200の備える画像入力部231に撮像させて、第2の画像を取得する。制御部210は、通信部240に当該第2の画像を表示装置100へ送信させる。なお、本ステップは例えばステップS108において送信された制御信号を受信したときに実行される。
ステップS202において、制御部210は、通信部240に監視カメラ200の位置を示す位置信号を表示装置100へ送信させる。なお、監視カメラ200の位置は、予め監視カメラの内部に記録されていてもよいし、制御部210が取得してもよい。なお、本ステップは例えばステップS105に対応する。
ステップS203において、制御部210は、監視カメラ200の撮像範囲に係る情報を第2の撮像範囲情報として、通信部240に送信させる。なお、第2の撮像範囲情報は、例えば、監視カメラ200の画像入力部231の備える撮像部の画角、GPS測位値等を含む。本ステップは例えばステップS106に対応する。その後、監視カメラ制御処理はステップS201へ戻り、ステップS201乃至ステップS203の処理を繰り返す。
<表示システムに係る変形例>
なお、本実施形態では、表示装置100の備える撮像部が監視カメラ200に正対しており、かつ、地面と平行な方向で第1の撮像が行われる場合を例として説明したが、これに限定されない。例えば情報取得部130が撮像方向の上下左右の傾きを検出し、これに基づいて方位、距離等を補正して上述の重畳表示が行われ得る。また、表示装置100の備える撮像部は、第1の撮像における撮像の方向が、例えば図2に示すようにユーザU1の目線の方向と一致するように配置されているがこれに限定されない。各々の位置と方向との差異が既知又は取得可能であれば、画像処理等によって補正されて重畳表示が実現し得る。
なお、例えば撮像素子が位相差を検出できる場合等には、距離D1は当該位相差に基づいて算出されてもよい。また、監視カメラ200の位置を示す点P1は、予め監視カメラ200の内部に記憶されていてもよいし、監視カメラ200が都度取得していてもよい。
また、表示装置100の高さH0は、手入力されて取得されてもよいし、気圧センサ、高度センサ、GPS等によって測定されて取得されてもよいし、例えば大人の平均的な身長等に基づいて150cm、160cm等と値が予め設定されていてもよい。
長さΔD1の値は、例えば監視カメラ200の画角Φと高さH1とに基づいて算出されてもよいし、予め監視カメラの内部に記録されていてもよい。また、一度接続した監視カメラ200の情報は、表示装置100に記録され得る。また、本実施形態に係る技術は、撮像範囲が矩形でない場合にも適用可能である。
また、本実施形態では距離D11を算出して、これを用いて重畳表示に要求される各々の値を算出したが、例えば点P0と点P1とが十分に離れているとき等、画角Ψ1が十分に小さいとき等には、簡単のためにD1≒D11として算出してもよい。また、本実施形態で説明した場合のように、第1の撮像部が水平方向を撮像しているときであって、第1の撮像部の高さH0が既知である場合には、垂直画角Ψ0は使わなくてもよい。
なお、本実施形態では監視カメラ200のように据え置きの外部機器が、情報を発信し続けている場合を例として説明したが、監視カメラ200は、信号や第2の撮像範囲情報等を常時発信している必要はなく、定期的に発信してもよいし、表示装置100から要求があったときだけ発信してもよい。さらに監視カメラ200は、第2の画像を解析して、変化を検出した場合に発信するものであってもよい。
本実施形態に係る表示システム1において、監視カメラ200はその撮像方向、焦点距離が可変であってもよく、本実施形態に係る技術は、ユーザが表示装置100を操作して監視カメラ200の動作を制御できるものであってもよい。
<表示システムの利点>
本実施形態に係る表示システム1は、監視カメラ200の第2の撮像範囲情報を表示装置100の取得する第1の画像に重畳表示する。したがって、本実施形態に係る表示システム1を使用すれば、ユーザU1は表示装置100の備える表示部120を見ながら、簡易に監視カメラ200の撮像範囲又は取得画像を視認して把握することができる。
また、本技術を適用すれば、表示装置100は、通信規格等の標準化、ネットワークに構築されたデータベースの利用等によって、どのような監視カメラ200からでも情報を取得することができる。同様にして、ユーザがどのような表示装置100を使用していても、監視カメラ200は情報を提供できる。
また、本実施形態に係る表示システム1を利用すれば、ユーザは、例えば監視員として見回りをしているとき等に監視できていない範囲があるか否かを簡単に視認して把握できる。さらに、本技術を利用すれば、例えば監視カメラ200の管理者は、プライバシーの観点等から監視カメラ200が撮影している画像を公開したくないときでも、例えば監視員等の特定の手続きを経たアクセス権のあるユーザ等に撮影範囲のみを確認させることもできる。
[第2の実施形態]
本発明における第2の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については同一の符号を付してその説明を省略する。
<第2の実施形態に係る表示システムの構成>
本実施形態に係る表示システム1の構成例の概略をブロック図として図9に示し、これを参照して表示システム1の構成について説明をする。
第1の実施形態では、表示装置100と据え置きの監視カメラ200とを含む表示システム1について説明したが、本実施形態では、表示装置100と飛行移動して撮像可能なドローン300とドローン300を操縦する操縦部410とを含む表示システム1について説明を行う。なお、ドローン300は、例えば小型無人機、特定航空用機器、模型航空機、無人航空機を含む。
本実施形態に係る表示装置100は、第1の実施形態に係る表示装置100の備える距離入力部134がないことを除き、同様の構成を有する。なお、例えばドローン300との距離を像面位相差方式によって取得でき得る場合等には、本実施形態に係る表示装置100が距離入力部134を備えていてもよい。
ドローン300は、制御部310と、移動制御部320と、情報取得部330と、通信部340と、操縦通信部350とを備える。
制御部310は、ドローン300の各部の動作を制御する。情報取得部230は、ドローン300に係る情報を取得する。移動制御部320は、ドローン300の移動に係る制御を行う。移動制御部320は、例えば移動機構を含む。
情報取得部330は、画像入力部331と、位置入力部332と、音声入力部333と、画角入力部334とを備える。画像入力部331は、例えば撮像光学系と撮像素子とを備える第3の撮像部を含み、撮像光学系を介して撮像素子の撮像面に結像した被写体像に基づいて画像を第3の画像として取得する。なお、以下の説明では、第3の撮像部による撮像を第3の撮像と記載することとする。位置入力部332は、例えばGPSセンサ等を含み、ドローン300の位置情報を取得する。位置入力部332は、例えば高度センサ、方位センサ等を含み、ドローン300の高度、移動方向等を取得するようにしてもよい。音声入力部333は、例えばマイクロフォンを含む収音部を備え、ドローン300の周囲の音声データを取得する。画角入力部334は、画像入力部331の備える撮像部の撮像する画角に係る情報を取得する。以下、例えば情報取得部330の取得するドローン300の撮像範囲を第3の撮像範囲と、当該第3の撮像範囲に係る位置、高度、方位、画角等の情報を第3の撮像範囲情報とそれぞれ称することとする。
通信部340は、表示装置100の備える通信部140との間で通信を行う。操縦通信部350は、操縦部410との間で通信を行い、操縦部410の出力する制御信号を取得し、制御部310へ出力する。
操縦部410は、例えばユーザの操作結果を取得する操作部を備え、ユーザU1の操作に応じて、ドローン300を操作するための制御信号を生成して出力する。なお、操縦部410は、表示装置100に含まれていてもよい。
本実施形態に係る表示システム1は、表示制御部400を含み得る。表示制御部400は、例えば表示装置100の備える制御部110と、通信部140と、操作部150と、ドローン300の備える制御部310と、通信部340と、操縦通信部350と、操縦部410とを含む。表示制御部400は、表示システム1における表示装置100の備える表示部120へ表示される表示情報を生成するものである。
本実施形態に係る表示装置100の構成例の概略を図10に模式図として示す。本実施形態では、表示装置100が図10に示すような眼鏡装着型のウェアラブル端末である場合を例として説明をする。図10に示すように、本実施形態に係る表示装置100は、表示パネル121と、回路収納部122と、導光部123とをさらに備える。表示パネル121は、表示制御部111の出力した表示情報に基づいて表示を行う。回路収納部122は、表示装置100の動作に係る例えば電気回路を格納する。導光部123は、表示パネル121からの光をユーザU1の瞳まで導く。したがって、ユーザU1は、導光部123を介して表示パネル121からの光を表示121aとして視認できることになる。
本実施形態に係る表示装置100の備える画像入力部131及び表示部120とユーザU1の視界との位置関係の一例を模式図として図11に示す。また、本実施形態に係るユーザU1の視界と表示部120との位置関係の一例を模式図として図12に示す。図11に示すように、表示装置100の備える画像入力部131は、例えば図2に示す第1の実施形態に係る表示装置100と同様に、ユーザU1の目線方向と第1の撮像の方向とが同じ方向となるように配置されている。一方で、その表示部120の大きさ、形状等は、第1の実施形態に係る表示部120とは異なる。第2の実施形態に係る表示部120は、図12に示すように、ユーザU1の視界の一部にのみ重なっている。
このように、本実施形態に係る表示装置100は、例えば瞳孔径の半分程度の幅の棒状光学系で映像を表示するため、ユーザU1は、外界視界を十分に確保しながら、表示部120の表示を見ることができ得る。さらに、表示パネル121の出力する光が無駄なく利用されるため、低消費電力で明るい画面表示が実現し得る。
<表示システムの概要>
本実施形態に係る表示システム1の構成の一例を模式図として図13に示す。ここでは、例えば図13に示すように、ユーザU1が表示装置100を装着し、操縦部410を手にしている状態でドローン300を操縦して、例えば山O2の手前にある畑において、木O3の近傍にある農作物の生育状況等を確認している場合を例として本実施形態に係る表示システム1の概要について説明をする。
また、以下の説明においては、図13に示すように、ユーザU1の位置を位置P2と、ドローン300の位置を位置P3と、ドローン300の撮像範囲を第3の撮像範囲A3とし、ドローン300の地面側に地面方向を撮像し得るように画像入力部331が配置されているものとする。なお、画像入力部331の配置、撮像方向は地面側に限らず、水平方向であっても、上空側であってもよい。撮像方向は、可変であってもよい。
例えば、本実施形態に係る表示システム1がこのような構成である場合における、表示装置100の備える表示部120の表示例について説明をする。第2の実施形態に係る対応範囲が重畳表示された表示部における表示の一例を模式図として図14に示す。本実施形態に係る表示システム1は、表示装置100の取得する位置、方位等に基づいてユーザU1の視界を取得する。表示システム1は、当該視界に係る情報と、ドローン300の位置、高度、画角等を含む第3の撮像範囲情報とに基づいて、例えば図5乃至図7を参照して上述した場合と同様にして、ユーザU1の視界内に設けられた表示パネル121に重畳表示するための表示情報を生成する。この表示情報は、図14に示すように、例えば画像入力部131によって取得される、表示部120によって遮られている部分のライブビュー画像に第3の撮像範囲情報を表す表示を重畳した情報である。当該ライブビュー表示は、例えば図14に示すようにユーザU1の視界と連続するように行われてもよい。したがって、ユーザU1は、図14に示すように、視界にドローン300を捉えて操縦しながら、ドローン300の撮像範囲を視認して容易に確認することができる。
なお、図14では、ユーザU1の視界と、当該視界に重畳表示された表示部120の表示との境界が一致する場合が示されているが、これに限定されない。本実施形態に係る表示システム1が実現するものは、ユーザU1の視界にドローン300の撮像範囲が分かる表示情報が重畳表示されるものであればよい。
第2の実施形態に係るドローン300の取得画像が重畳表示された表示部における表示の一例を模式図として図15に示す。図15に示すように、ユーザU1の視界に重畳表示されるものはドローン300の取得する第3の画像であってもよく、この場合、ユーザU1は、視界にドローン300を捉えて操縦しながらドローン300の撮像画像を容易に確認することができる。図14の表示と図15の表示とを適宜に切り替えることで、ユーザU1は、例えば農作物の育成具合等を確認できると共に、当該画像が何れの領域を撮像したものであるかを容易に把握でき得る。
<表示システムの動作>
本実施形態に係る操縦部制御処理の一例をフローチャートとして図16に示し、これを参照して表示システム1の動作について説明をする。
ステップS301において、操縦部410は、例えばユーザの操作結果を取得するまで待機状態を維持する。操縦部制御処理は、ユーザによる操作を検知した場合はステップS302へ進む。
ステップS302において、操縦部410は、ステップS301において取得したユーザ操作が、ドローン300を移動させる操作であるか否かを判定する。操縦部制御処理は、操縦部410が取得した操作結果がドローン300に係る移動操作であると判定された場合はステップS303へ進み、その他の操作であると判定された場合はステップS304へ進む。ステップS303において、操縦部410は、取得した移動操作に係るユーザの操作結果に応じた移動制御信号を生成し、これをドローン300の備える操縦通信部350へ出力する。その後、操縦部制御処理はステップS301へ戻る。
ステップS304において、操縦部410は、ステップS301において取得したユーザ操作が、ライブビュー表示を要求する操作であるか否かを判定する。操縦部制御処理は、操縦部410が取得した操作結果がライブビュー表示の要求であると判定された場合はステップS305へ進み、その他の操作であると判定された場合はステップS306へ進む。ステップS305において、操縦部410は、ドローン300に第3の画像を取得させて当該画像を表示装置100へ送信させるための制御信号を生成し、当該制御信号をドローン300の備える操縦通信部350へ出力する。その後、操縦部制御処理はステップS301へ戻る。
ステップS306において、操縦部410は、ステップS301において取得したユーザ操作が、ドローン300の位置情報を要求する操作であるか否かを判定する。例えばユーザは、ドローン300の現在のどこを撮像しているのか知りたいと思ったとき等に位置情報を要求する操作を行う。操縦部制御処理は、操縦部410が取得した操作結果がドローン300の位置情報を示す位置信号の要求であると判定された場合はステップS307へ進み、位置信号の要求ではないと判定された場合はステップS301へ戻り、ユーザの操作があるまで待機する。ステップS307において、操縦部410は、ドローン300に現在位置を取得させて当該位置を示す位置信号を表示装置100へ送信させるための制御信号を生成し、当該制御信号をドローン300の備える操縦通信部350へ出力する。なお、位置信号に限らず、第3の撮像範囲情報に含まれる情報が要求され得る。その後、操縦部制御処理はステップS301へ戻る。
本実施形態に係る表示装置制御処理の一例をフローチャートとして図17に示し、これを参照して表示システム1の動作について説明をする。
ステップS401において、制御部110は、操縦部410によってドローン300との通信が行われたか否かを判定する。表示装置制御処理は、行われたと判定された場合はステップS402へ進み、行われていないと判定された場合はステップS401へ戻る。本ステップは操縦部制御処理のステップS301に対応する。
ステップS402において、制御部110は、操縦部410によってドローン300へライブビュー要求がされたか否かを判定する。表示装置制御処理は、要求されたと判定された場合はステップS403へ進み、要求されていないと判定された場合はステップS402へ進む。本ステップは操縦部制御処理のステップS304に対応する。
ステップS403において、制御部110は、操縦部410によってドローン300へ位置信号要求がされたか否かを判定する。表示装置制御処理は、要求されたと判定された場合はステップS404へ進み、要求されていないと判定された場合はステップS411へ進む。本ステップは操縦部制御処理のステップS306に対応する。
ステップS404において、制御部110は、画像入力部131に撮像させ、第1の画像を取得する。また、制御部110は、第1の画像を表示部120に表示させる。ステップS405において、制御部110は、表示装置100の位置情報を取得する。ステップS406において、制御部110は、通信部140を介してドローン300の位置情報を取得する。本ステップは操縦部制御処理のステップS307に対応する。
ステップS407において、制御部110は、通信部140を介してドローン300の第3の撮像範囲情報を取得する。上述したように、第3の撮像範囲情報は例えばドローン300の高度、画角等の情報を含む。本ステップは操縦部制御処理のステップS307に対応する。
ステップS408において、制御部110は、画像入力部131の備える撮像部の撮像範囲に係る情報を第1の撮像範囲情報として取得する。また、図5乃至図7を参照して上述した場合と同様にして、制御部110は、第1の撮像範囲及び第3の撮像範囲に含まれる領域を、対応範囲として取得して、第1の画像に含まれる領域のうち何れの領域が第3の撮像範囲に対応するかを判定する。制御部110は、対応する対応範囲があれば、当該領域に対して画像処理を施し、第1の画像に第3の撮像範囲又は第3の画像を重畳表示するための表示情報を生成する。制御部110は、当該表示情報を表示部120へ出力し、表示させる。その後、表示装置制御処理はステップS401へ戻る。
ステップS409において、制御部110は、ユーザによってライブビュー要求がされたとステップS402で判定されたため、通信部140を介してドローン300の撮像した第3の画像を取得する。本ステップは操縦部制御処理のステップS305に対応する。ステップS410において、制御部110は、ステップS409で取得した第3の画像を表示部120に表示させる。その後、表示装置制御処理はステップS401へ戻る。
ステップS411において、制御部110は、ユーザによってライブビュー表示も位置信号要求もされなかったとステップS402及びステップS403で判定されたため、表示部120によるライブビュー表示等、表示部120の表示を終了させる。本実施形態に係る表示装置100等のウェアラブルデバイスは、その軽量化の要求、ハンズフリーであること等の理由からバッテリ消費を極力抑えることが望まれるため、本ステップのような処理は効果がある。その後、表示装置制御処理はステップS401へ戻る。
本実施形態に係るドローン制御処理の一例をフローチャートとして図18に示し、これを参照して表示システム1の動作について説明をする。
ステップS501において、制御部310は、操縦部410からの信号を受信するまで待機する。ドローン制御処理は、信号を受信した場合はステップS502へ進む。
ステップS502において、制御部310は、操縦部410から受信した制御信号がドローン300の移動操作に係る制御信号であるか否かを判定する。ドローン制御処理は、移動操作通信が行われ、移動操作信号を受信した場合はステップS503へ進み、その他の信号であると判定された場合はステップS504へ進む。本ステップは操縦部制御処理のステップS302に対応する。ステップ503において、制御部310は、操縦通信部350を介して操縦部410から受信した移動制御信号に基づいて、移動制御部320に制御信号を出力し、ドローン300をユーザの操作結果に応じて移動させる。その後、ドローン制御処理はステップS501に戻る。
ステップS504において、制御部310は、操縦部410から受信した制御信号がライブビュー要求に係る制御信号であるか否かを判定する。ドローン制御処理は、ライブビュー要求を受信した場合はステップS505へ進み、その他の信号であると判定された場合はステップS506へ進む。本ステップは操縦部制御処理のステップS304に対応する。ステップS505において、制御部310は、画像入力部331の備える撮像部が取得した第3の画像を表示装置100へ送信する。なお、例えばドローン300又は表示装置100の消費電力を低減させる観点から、本ステップのようにライブビュー要求を受けてライブビュー表示を行う場合の他に、制御部310が定期的に第3の画像を取得して解析し、変化等を検出した場合に表示装置100へプッシュ通知してライブビュー表示の開始を促すといった形態も考えられる。その後、ドローン制御処理はステップS501へ戻る。
ステップS506において、制御部310は、操縦部410から受信した制御信号が位置信号要求に係る制御信号であるか否かを判定する。ドローン制御処理は、位置信号要求を受信した場合はステップS507へ進み、その他の信号であると判定された場合はステップS501へ戻り、通信があるまで待機する。本ステップは操縦部制御処理のステップS306に対応する。ステップS507において、制御部310は、情報取得部330の取得したドローン300の位置情報を表示装置100へ送信する。ステップS508において、制御部310は、情報取得部330の取得したドローン300の高度情報を表示装置100へ送信する。ステップS509において、制御部310は、情報取得部330の取得したドローン300の画角情報を表示装置100へ送信する。なお、ステップS507乃至ステップS509で表示装置100へ送信される情報はこれらに限らず、第3の撮像範囲情報に含まれる情報が送信され得る。その後、ドローン制御処理はステップS501へ戻る。
なお、本実施形態では、ユーザU1がドローン300を操縦する場合を例として説明をしたが、ドローン300は自律飛行型のものであってもよい。この場合、例えばドローン300は、第3の画像を解析して変化を検出した場合に表示装置100へプッシュ通知を行うものであってもよいし、定期的に第3の撮像範囲情報、第3の画像等を発信するものであってもよい。
また、本実施形態に係る表示システム1は、例えば取得された第3の画像及び第3の撮像範囲情報がドローン300内に記録され、ユーザが任意のタイミングで任意の画像及びその取得された位置を把握できるようなものであってもよい。さらに、これらの既記録の第3の画像は、ユーザU1が当該画像の取得された位置に近づいたとき等に重畳表示されてもよい。
<第2の実施形態に係る利点>
本実施形態に係る表示システム1は、第1の実施形態で得られる利点に加えて、以下のような利点を有する。本実施形態に係る表示システム1は、ドローン300の第3の撮像範囲情報又は第3の画像を第1の画像に重畳表示する。また、本実施形態に係る表示装置100は、例えば瞳孔径の半分程度の幅の棒状光学系で映像を表示するため、ユーザは、外界視界を十分に確保しながらドローン300を目視で操縦でき、またドローン300の第3の撮像範囲情報又は第3の画像を同時に視認して確認できる。
さらに、本実施形態に係る表示装置100は、表示パネル121の出力する光が無駄なく利用されるため、低消費電力で明るい画面表示が実現し得る。また、本実施形態に係る表示装置100は、ユーザの視界を妨げないため、ライブビュー表示として第1の画像を常時表示させる必要がなくウェアラブルデバイス等に要求される低消費電力、軽量化の観点からも有用である。
また、本実施形態に係る表示装置100は、第1の実施形態に係る監視カメラ200と組み合わせて使用することも可能である。
[変形例]
なお、重畳表示に係る画像処理において、例えば第1の画像内に第2の撮像範囲又は第3の撮像範囲等の外部機器の撮像範囲が含まれていない場合、すなわち、対応範囲が存在しない場合には、当該処理が行われなくてもよいし、第1の画像内に第2の撮像範囲又は第3の撮像範囲が第1の画像の示す第1の撮像範囲に対して何れの方向にあるか等の補助表示を重畳表示させる画像処理が行われてもよい。
第1の実施形態及び第2の実施形態において、例えばGPSセンサによる測位値に基づいて位置情報が取得される例を示したが、これに限定されない。位置情報は、例えば携帯電話等の基地局、Wi-Fi等の無線LANのアクセスポイント等から取得されてもよい。また、例えば一度撮像された領域において画像内の特徴物が位置情報と共に記録されて、当該特徴物に基づいた画像処理によって位置情報が取得されてもよい。
図7及び図14に示すように、第2の撮像範囲A2又は第3の撮像範囲A3を塗りつぶすようにして重畳表示が行われる場合が例として示されているが、これに限定されない。重畳表示は、第1の画像に含まれる領域のうち何れの領域が第2の撮像範囲A2又は第3の撮像範囲A3であるか分かるものであれば何でもよく、例えば枠線、線分、図形、文字列等によって示されるものであってもよい。さらに、当該部位には第2の画像又は第3の画像が重畳表示されてもよい。また、第1の画像に対して重畳表示されるとして説明したが、第1の画像は必ずしも画像入力部131で取得される画像でなくてもよく、例えば画像入力部131以外から取得した地図を第1の画像としてもよい。
また、第1の実施形態及び第2の実施形態において、表示装置100の備える画像入力部131が取得する第1の画像に対して、監視カメラ200の第2の撮像範囲情報又はドローン300の取得する第3の撮像範囲情報を重畳表示する場合を例として説明したが、これに限定されない。例えば、監視カメラ200の取得する第2の画像又はドローン300の取得する第3の画像に対して、表示装置100の取得する第1の撮像範囲情報が重畳されてもよい。例えば、ユーザU1が第2の画像又は第3の画像を確認した結果、当該画像が取得された場所を訪れる場合もあり得る。このようなとき、ユーザU1は、現在視認できる範囲のうち、何れの領域が先ほど確認した領域であるかを視認して簡易に把握し得る。
第1の実施形態及び第2の実施形態において、表示システム1が含む外部カメラとして監視カメラ200とドローン300とを例として説明したが、これに限定されない。表示システム1は、撮像機能を備える自走式ロボットを含み得る。また、表示装置100がウェアラブルデバイスである場合を例として説明したが、これに限定されない。例えば、表示装置100としてスマートフォン、タブレットPC等が用いられても同様の効果が得られ得る。
第1の実施形態及び第2の実施形態に係る技術は、例えば内視鏡、内視鏡カプセルの撮像位置等の撮像範囲情報を表示装置100に表示させることも可能である。このようなとき、例えば第1の画像はレントゲン画像、CT画像等であったりすることが考えられ得る。
また、表示システム1は、表示装置100と複数の外部機器とを含むものであってもよい。さらに、複数のユーザがそれぞれ表示装置100を使用する状況も考えられ得る。
なお、フローチャートで示した各々の処理及び各々の処理内の各ステップは、その順序を変更可能であり、また、追加及び削除も可能である。これら各々の処理は、表示装置100、監視カメラ200、ドローン300又は操縦部410の内部に記録された各々のプログラムによって実行される。各々のプログラムは、予め表示装置100、監視カメラ200、ドローン300又は操縦部410の内部に記録されていても、別の記録媒体に記録されていてもよい。これら記録の方法は様々であり、製品出荷時に記録されるものでもよく、配布された記録媒体が利用されて記録されるものでもよく、インターネット等通信回線が利用されて記録されるものでもよい。
1…表示システム、100…表示装置、110…制御部、111…表示制御部、120…表示部、121…表示パネル、122…回路収納部、123…導光部、130…情報取得部、131…画像入力部、132…位置入力部、133…方位入力部、134…距離入力部、140…通信部、150…操作部、200…監視カメラ、210…制御部、230…情報取得部、231…画像入力部、232…撮像範囲入力部、240…通信部、300…ドローン、310…制御部、320…移動制御部、330…情報取得部、331…画像入力部、332…位置入力部、333…音声入力部、334…画角入力部、340…通信部、350…操縦通信部、400…表示制御部、410…操縦部。

Claims (10)

  1. 撮像して第1の画像を取得する画像入力部と、
    前記画像入力部の第1の撮像範囲に係る情報を含む第1の撮像範囲情報として取得する情報取得部と、
    撮像して第2の画像を取得する外部機器から前記外部機器の第2の撮像範囲に係る情報を含む第2の撮像範囲情報を取得する通信を行う通信部と、
    前記第1の撮像範囲及び前記第2の撮像範囲に含まれる領域を対応範囲として取得する制御部と、
    前記対応範囲を示す表示情報を生成する表示制御部と、
    前記表示情報を表示する表示部と
    を備える、表示装置。
  2. 前記表示制御部は、前記第1の画像に前記表示情報を重畳した重畳表示画像をさらに生成する、請求項1に記載の表示装置。
  3. 前記表示制御部は、前記第1の画像に含まれる領域のうち前記対応範囲に相当する領域を塗りつぶす画像処理が施された画像を前記重畳表示画像として生成する、請求項2に記載の表示装置。
  4. 前記通信部は、前記外部機器から前記第2の画像を取得する通信をさらに行い、
    前記表示制御部は、前記第1の画像に含まれる前記対応範囲に前記第2の画像に含まれる前記対応範囲を重畳して前記重畳表示画像を生成する、請求項2に記載の表示装置。
  5. 前記表示制御部は、前記対応範囲が存在しない場合に、前記第1の撮像範囲情報と前記第2の撮像範囲情報とに基づいて、前記第1の画像に前記第2の撮像範囲を示す補助表示を重畳して前記重畳表示画像を生成する、請求項2に記載の表示装置。
  6. 前記通信部は、前記外部機器から前記第2の画像を取得する通信をさらに行い、
    前記表示制御部は、前記第2の画像に前記表示情報を重畳した重畳表示画像をさらに生成する、請求項1に記載の表示装置。
  7. 前記第1の撮像範囲情報は、少なくとも前記第1の画像が取得された時の前記表示装置の位置、画角、撮像方向及び撮像高さを含み、
    前記第2の撮像範囲情報は、少なくとも前記第2の画像が取得された時の前記外部機器の位置、画角、撮像方向及び撮像高さを含む、
    請求項1に記載の表示装置。
  8. 前記画像入力部の撮像する方向とユーザの視界の方向とは同一である、請求項1乃至7のうち何れか1項に記載の表示装置。
  9. 請求項1に記載の表示装置と、
    撮像して第2の画像を取得する外部機器と
    を含む、表示システム。
  10. 撮像して第1の画像を取得することと、
    前記撮像の第1の撮像範囲に係る情報を含む第1の撮像範囲情報として取得することと、
    撮像して第2の画像を取得する外部機器から前記外部機器の第2の撮像範囲に係る情報を含む第2の撮像範囲情報を取得する通信を行うことと、
    前記第1の撮像範囲及び前記第2の撮像範囲に含まれる領域を対応範囲として取得することと、
    前記対応範囲を示す表示情報を生成することと、
    前記表示情報を表示することと
    を含む、表示装置の制御方法。
JP2016213061A 2016-10-31 2016-10-31 表示装置、表示システム及び表示装置の制御方法 Pending JP2018074420A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016213061A JP2018074420A (ja) 2016-10-31 2016-10-31 表示装置、表示システム及び表示装置の制御方法
US15/797,715 US10559132B2 (en) 2016-10-31 2017-10-30 Display apparatus, display system, and control method for display apparatus
CN201711030799.9A CN108012141A (zh) 2016-10-31 2017-10-30 显示装置、显示***和显示装置的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016213061A JP2018074420A (ja) 2016-10-31 2016-10-31 表示装置、表示システム及び表示装置の制御方法

Publications (1)

Publication Number Publication Date
JP2018074420A true JP2018074420A (ja) 2018-05-10

Family

ID=62021743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016213061A Pending JP2018074420A (ja) 2016-10-31 2016-10-31 表示装置、表示システム及び表示装置の制御方法

Country Status (3)

Country Link
US (1) US10559132B2 (ja)
JP (1) JP2018074420A (ja)
CN (1) CN108012141A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101765235B1 (ko) * 2016-11-28 2017-08-04 한국건설기술연구원 사물인터넷 기반 센서와 무인비행체를 이용한 시설물 유지관리 시스템 및 그 방법
US10528780B2 (en) * 2016-12-12 2020-01-07 Symbol Technologies, Llc Wearable mobile electronic devices
JP2021089382A (ja) * 2019-12-05 2021-06-10 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005103680A (ja) * 2003-09-29 2005-04-21 Toshiba Corp 監視システムおよび監視ロボット
JP5532026B2 (ja) * 2011-08-10 2014-06-25 カシオ計算機株式会社 表示装置、表示方法及びプログラム
JP6192940B2 (ja) 2013-01-23 2017-09-06 オリンパス株式会社 撮影機器及び連携撮影方法
JP6370056B2 (ja) * 2014-02-20 2018-08-08 オリンパス株式会社 撮像装置、通信機器、及び撮像方法
US10228562B2 (en) * 2014-02-21 2019-03-12 Sony Interactive Entertainment Inc. Realtime lens aberration correction from eye tracking
JP2015186021A (ja) * 2014-03-24 2015-10-22 オリンパス株式会社 撮影機器、撮像観察機器、画像比較表示方法、画像比較表示プログラム及び画像比較表示システム
JP2015186020A (ja) * 2014-03-24 2015-10-22 オリンパス株式会社 表示機器、撮影機器及び表示方法
JP2015224982A (ja) 2014-05-28 2015-12-14 株式会社Screenホールディングス 経路案内装置、経路案内方法、および経路案内プログラム
US9819911B2 (en) * 2015-07-13 2017-11-14 Honeywell International Inc. Home, office security, surveillance system using micro mobile drones and IP cameras
US10764539B2 (en) * 2016-03-22 2020-09-01 Sensormatic Electronics, LLC System and method for using mobile device of zone and correlated motion detection
JP2017192086A (ja) * 2016-04-15 2017-10-19 キヤノン株式会社 画像生成装置、画像観察装置、撮像装置および画像処理プログラム

Also Published As

Publication number Publication date
CN108012141A (zh) 2018-05-08
US20180122145A1 (en) 2018-05-03
US10559132B2 (en) 2020-02-11

Similar Documents

Publication Publication Date Title
US10579320B2 (en) Display system, display device, information display method, and program
US10198870B2 (en) Information processing apparatus, information processing system, and information processing method
US9736368B2 (en) Camera in a headframe for object tracking
US10809530B2 (en) Information processing apparatus and information processing method
KR101845350B1 (ko) 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법
US11178344B2 (en) Head-mounted display apparatus, display system, and method of controlling head-mounted display apparatus
US20140176814A1 (en) Wearable display device
CN108139799A (zh) 基于用户的兴趣区(roi)处理图像数据的***和方法
JP6280011B2 (ja) 領域リクエストに基づいたデータ低減処理を行う画像送受信システム及び方法
JP2020005146A (ja) 出力制御装置、表示端末、情報処理装置、移動体、遠隔制御システム、出力制御方法、プログラムおよび撮影制御装置
JP6540572B2 (ja) 表示装置および表示制御方法
EP3076660B1 (en) Method and apparatus for displaying framing information
JP2018074420A (ja) 表示装置、表示システム及び表示装置の制御方法
JP2017517232A (ja) 少なくとも1つの観測エリアをリモートモニタリングするシステム及び方法
US11785411B2 (en) Information processing apparatus, information processing method, and information processing system
US8842202B2 (en) Mobile terminal, method for adjusting magnification of camera and program
WO2019085945A1 (zh) 探测装置、探测***和探测方法
WO2020129029A2 (en) A system for generating an extended reality environment
US11546509B2 (en) Portable device
KR20200114350A (ko) 증강현실 모바일 기기를 포함한 감시 카메라 시스템 및 그 제어 방법
WO2018008101A1 (ja) 画像提供システム、画像提供方法、およびプログラム
EP4325476A1 (en) Video display system, information processing method, and program
JP5670092B2 (ja) 地形表示システム、携帯端末、地形表示方法およびプログラム
WO2022208628A1 (ja) 携帯情報端末およびその表示方法
JP2024017297A (ja) 撮像装置、ウェアラブルデバイス、制御方法、プログラムおよびシステム