JP2017021656A - 表示装置及びその制御方法 - Google Patents
表示装置及びその制御方法 Download PDFInfo
- Publication number
- JP2017021656A JP2017021656A JP2015139933A JP2015139933A JP2017021656A JP 2017021656 A JP2017021656 A JP 2017021656A JP 2015139933 A JP2015139933 A JP 2015139933A JP 2015139933 A JP2015139933 A JP 2015139933A JP 2017021656 A JP2017021656 A JP 2017021656A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- devices
- information
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 33
- 238000012545 processing Methods 0.000 claims abstract description 239
- 238000003384 imaging method Methods 0.000 claims abstract description 137
- 238000004891 communication Methods 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 9
- 238000011161 development Methods 0.000 claims description 9
- 239000003550 marker Substances 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000010365 information processing Effects 0.000 description 53
- 238000006243 chemical reaction Methods 0.000 description 41
- 238000012544 monitoring process Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 239000000203 mixture Substances 0.000 description 17
- 230000008569 process Effects 0.000 description 14
- 238000003745 diagnosis Methods 0.000 description 8
- 238000005401 electroluminescence Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009607 mammography Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 150000002894 organic compounds Chemical class 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4092—Image resolution transcoding, e.g. by using client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- General Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】複数の画像機器の共通機能や連携可能性をユーザが容易に把握することを可能にする。
【解決手段】撮像手段と、前記撮像手段により複数の機器を撮影して得られた撮影画像を取得する第1の取得手段と、前記撮影画像に写っている各機器を認識する認識手段と、前記各機器の画像処理機能の情報を取得する第2の取得手段と、前記撮影画像を表示するとともに、前記認識された機器のうちに、共通の画像処理機能を有する機器の組み合わせがある場合、当該組み合わせの情報及び共通の画像処理機能の情報の少なくともいずれかを示す画像を表示する表示手段と、を備える表示装置。
【選択図】図2
【解決手段】撮像手段と、前記撮像手段により複数の機器を撮影して得られた撮影画像を取得する第1の取得手段と、前記撮影画像に写っている各機器を認識する認識手段と、前記各機器の画像処理機能の情報を取得する第2の取得手段と、前記撮影画像を表示するとともに、前記認識された機器のうちに、共通の画像処理機能を有する機器の組み合わせがある場合、当該組み合わせの情報及び共通の画像処理機能の情報の少なくともいずれかを示す画像を表示する表示手段と、を備える表示装置。
【選択図】図2
Description
本発明は、表示装置及びその制御方法に関する。
近年、フルHD(1920×1080)の4倍の解像度をもつ4K(3840×2160)とよばれる画像を撮影可能なカメラや、4Kの解像度を表示可能なディスプレイが登場してきている。4Kは、従来のフルHDの4倍の画素をもち、画像データの広い伝送帯域を必要とするため、ディスプレイに4K画像を表示する際には、複数本のSDIケーブルを接続して表示する必要がある。
4Kカメラには、RAW(センサ出力の生データ)で記録可能なカメラがある。4KのRAWデータをディスプレイに表示するためには、ディスプレイが4K画像に対応していることに加え、RAWデータをデベイヤーしてRGBデータに変換する機能が必要になる。さらに、RAWデータのフォーマットはメーカ毎に独自であるため、RAWデータを表示するにはディスプレイが当該RAWデータのフォーマットに対応している必要もある。
メーカ毎に仕様が異なる機能としては、画像データの階調を定義するガンマも挙げられる。近年のカメラは、従来の指数ガンマだけでなく、Log(対数)ガンマも扱うことが可能である。このLogガンマにより、従来の指数ガンマよりも広いダイナミックレンジの画像データを扱うことできる。しかしながら、カメラから出力されたLogガンマの画像データを表示するためには、ディスプレイもLogガンマに対応している必要がある。また、Logガンマの曲線はメーカ毎に異なるため、あるメーカのLogガンマの画像データを表示するには、そのメーカのLogガンマに対応したガンマテーブルを使用する必要がある。また、色域についても、メーカ毎に独自に定義した色域が存在する。
このように、カメラやディスプレイ等の機器が処理する画像データの規格には、解像度(4K、2K等)、RAWデータのフォーマット、ガンマ、色域等、種々のものがあり、規格が互いに共通の機器同士でしか適切な処理が行えない。そのため、このような機器を複数接続して画像表示や画像記録等の処理を行う場合、ユーザは、各機器が処理する画像データの規格を適切に把握する必要がある。
ところで、スマート―フォンやタブレッド等の携帯端末の処理性能が飛躍的に向上し、広く普及している。これらの携帯端末にはカメラユニットがついており、携帯端末を撮像装置(カメラ)としても利用することができる。カメラを利用した機能の一つにAR(Augmented Reality:拡張現実)がある。ARとは、カメラによる撮像により得られた撮影
画像にオブジェクトの画像を合成することで、その画像の観察者に、そのオブジェクトが実際に存在するかのような観察体験を与えることができる技術である。オブジェクトの情報は、例えば、モノクロ2値の矩形を2次元に並べて構成したマーカ(ARコード)により符号化する。空間にARコードを配置してカメラで撮影することで、カメラから出力される撮影画像におけるARコードの画像の位置に当該ARコードに対応するオブジェクトの画像が重畳され、空間内にオブジェクトが存在するかのような合成画像が生成される。
画像にオブジェクトの画像を合成することで、その画像の観察者に、そのオブジェクトが実際に存在するかのような観察体験を与えることができる技術である。オブジェクトの情報は、例えば、モノクロ2値の矩形を2次元に並べて構成したマーカ(ARコード)により符号化する。空間にARコードを配置してカメラで撮影することで、カメラから出力される撮影画像におけるARコードの画像の位置に当該ARコードに対応するオブジェクトの画像が重畳され、空間内にオブジェクトが存在するかのような合成画像が生成される。
ARを用いて、プリンタやスキャナ等の機器が設置された空間を撮影して得られた撮影画像にそれらの機器の情報を示す画像を個別に合成することで、機器使用時のユーザビリティを向上させる技術がある。特許文献1には、プリンタやスキャナ等のネットワーク上の複数の装置を用いてデータ処理を実行する際に、ユーザが各装置の物理的な位置関係を容易に把握することができるように、ステータスを仮想空間に表示することが記載されて
いる。また、特許文献1には、プリンタ等による画像データの処理に伴うデータの流れを示すデータフロー情報を仮想空間に表示することも示されている。特許文献2には、ヘッドマウントディスプレイの画像データから空間内の機器を認識し、認識した機器を操作するためのユーザインターフェイスを表示し、ARにより機器を操作する技術が記載されている。
いる。また、特許文献1には、プリンタ等による画像データの処理に伴うデータの流れを示すデータフロー情報を仮想空間に表示することも示されている。特許文献2には、ヘッドマウントディスプレイの画像データから空間内の機器を認識し、認識した機器を操作するためのユーザインターフェイスを表示し、ARにより機器を操作する技術が記載されている。
従来技術では撮影画像に個々の機器の情報を表示するのみであったため、ユーザが撮影画像に写っている機器同士の共通機能や連携可能性の有無を把握することは難しかった。
本発明の目的は、複数の画像機器の共通機能や連携可能性をユーザが容易に把握することを可能にする技術を提供することである。
本発明の目的は、複数の画像機器の共通機能や連携可能性をユーザが容易に把握することを可能にする技術を提供することである。
本発明は、撮像手段と、
前記撮像手段により複数の機器を撮影して得られた撮影画像を取得する第1の取得手段と、
前記撮影画像に写っている各機器を認識する認識手段と、
前記各機器の画像処理機能の情報を取得する第2の取得手段と、
前記撮影画像を表示するとともに、前記認識された機器のうちに、共通の画像処理機能を有する機器の組み合わせがある場合、当該組み合わせの情報及び共通の画像処理機能の情報の少なくともいずれかを示す画像を表示する表示手段と、
を備える表示装置である。
前記撮像手段により複数の機器を撮影して得られた撮影画像を取得する第1の取得手段と、
前記撮影画像に写っている各機器を認識する認識手段と、
前記各機器の画像処理機能の情報を取得する第2の取得手段と、
前記撮影画像を表示するとともに、前記認識された機器のうちに、共通の画像処理機能を有する機器の組み合わせがある場合、当該組み合わせの情報及び共通の画像処理機能の情報の少なくともいずれかを示す画像を表示する表示手段と、
を備える表示装置である。
本発明は、撮像手段を備える表示装置の制御方法であって、
前記撮像手段により撮像する工程と、
前記撮像手段により複数の機器を撮影して得られた撮影画像を取得する工程と、
前記撮影画像に写っている各機器を認識する工程と、
前記各機器の画像処理機能の情報を取得する工程と、
前記撮影画像を表示するとともに、前記認識された機器のうちに、共通の画像処理機能を有する機器の組み合わせがある場合、当該組み合わせの情報及び共通の画像処理機能の情報の少なくともいずれかを示す画像を表示する工程と、
を有する表示装置の制御方法である。
前記撮像手段により撮像する工程と、
前記撮像手段により複数の機器を撮影して得られた撮影画像を取得する工程と、
前記撮影画像に写っている各機器を認識する工程と、
前記各機器の画像処理機能の情報を取得する工程と、
前記撮影画像を表示するとともに、前記認識された機器のうちに、共通の画像処理機能を有する機器の組み合わせがある場合、当該組み合わせの情報及び共通の画像処理機能の情報の少なくともいずれかを示す画像を表示する工程と、
を有する表示装置の制御方法である。
本発明は、撮像手段を備える表示装置の制御方法に係る各工程をコンピュータに実行させるプログラムであって、
前記撮像手段により撮像する工程と、
前記撮像手段により複数の機器を撮影して得られた撮影画像を取得する工程と、
前記撮影画像に写っている各機器を認識する工程と、
前記各機器の画像処理機能の情報を取得する工程と、
前記撮影画像を表示するとともに、前記認識された機器のうちに、共通の画像処理機能を有する機器の組み合わせがある場合、当該組み合わせの情報及び共通の画像処理機能の情報の少なくともいずれかを示す画像を表示する工程と、
をコンピュータに実行させるプログラムである。
前記撮像手段により撮像する工程と、
前記撮像手段により複数の機器を撮影して得られた撮影画像を取得する工程と、
前記撮影画像に写っている各機器を認識する工程と、
前記各機器の画像処理機能の情報を取得する工程と、
前記撮影画像を表示するとともに、前記認識された機器のうちに、共通の画像処理機能を有する機器の組み合わせがある場合、当該組み合わせの情報及び共通の画像処理機能の情報の少なくともいずれかを示す画像を表示する工程と、
をコンピュータに実行させるプログラムである。
本発明により、複数の機器の共通機能や連携可能性をユーザが容易に把握することが可能になる。
(実施例1)
本発明の実施例1について説明する。実施例1は、カメラやディスプレイ等の複数の機器を利用して画像処理を行わせる際に、タブレットやスマートフォン等の携帯端末の画面上に、どの機器同士を組み合わせて連携動作させることが可能か情報表示する方法に関する。
実施例1に係る表示装置及びその制御方法の適用対象の機器群を図2に示す。機器群には画像表示装置100、撮像装置120及び携帯端末150が含まれる。
撮像装置120は、動画を撮影可能なカメラである。撮像装置120の撮影により得られた撮影画像は画像ケーブル210により接続された画像表示装置100へ出力され、画像表示装置100により表示される。
本発明の実施例1について説明する。実施例1は、カメラやディスプレイ等の複数の機器を利用して画像処理を行わせる際に、タブレットやスマートフォン等の携帯端末の画面上に、どの機器同士を組み合わせて連携動作させることが可能か情報表示する方法に関する。
実施例1に係る表示装置及びその制御方法の適用対象の機器群を図2に示す。機器群には画像表示装置100、撮像装置120及び携帯端末150が含まれる。
撮像装置120は、動画を撮影可能なカメラである。撮像装置120の撮影により得られた撮影画像は画像ケーブル210により接続された画像表示装置100へ出力され、画像表示装置100により表示される。
携帯端末150には、カメラ151が搭載されている(図1参照)。携帯端末150は、カメラ151により複数の機器を撮影して得られた撮影画像に、当該機器に関する情報表示を行うことができる。例えば、撮影画像に写っている複数の機器を認識し、認識された機器のうちに、共通の画像処理機能を有する機器の組み合わせがある場合に、当該組み合わせの情報や、当該共通の画像処理機能の情報である。例えば、認識した機器がLogガンマで画像記録が可能なカメラ及びLogガンマの画像を表示可能なディスプレイの場
合、共通の画像処理機能はLogガンマである。この場合、携帯端末150は、これらのカメラとディスプレイの組み合わせや、これらのカメラとディスプレイで共通の画像処理機能がLogガンマであることを示す情報表示を、撮影画像の表示とともに行う。例えば、携帯端末150は、当該情報を示す画像を撮影画像に合成(重畳)することで、情報表示と撮影画像の表示とを行う。
合、共通の画像処理機能はLogガンマである。この場合、携帯端末150は、これらのカメラとディスプレイの組み合わせや、これらのカメラとディスプレイで共通の画像処理機能がLogガンマであることを示す情報表示を、撮影画像の表示とともに行う。例えば、携帯端末150は、当該情報を示す画像を撮影画像に合成(重畳)することで、情報表示と撮影画像の表示とを行う。
実施例1では、携帯端末150のカメラ151で、撮像装置120と画像表示装置100を撮影して得られた撮影画像に機能情報画像240を合成して、携帯端末画面220に示すような表示を行うことにより情報表示を行う。
画像表示装置100、撮像装置120及び携帯端末150は、アクセスポイント230を介して無線ネットワーク170(図1参照)に接続しており、相互に通信が可能である。これにより、携帯端末150は、画像表示装置100及び撮像装置120の画像処理機能の情報(機能情報)や現在の設定状態を取得することができる。また、携帯端末150から画像表示装置100及び撮像装置120の設定を変更することもできる。
画像表示装置100、撮像装置120及び携帯端末150は、アクセスポイント230を介して無線ネットワーク170(図1参照)に接続しており、相互に通信が可能である。これにより、携帯端末150は、画像表示装置100及び撮像装置120の画像処理機能の情報(機能情報)や現在の設定状態を取得することができる。また、携帯端末150から画像表示装置100及び撮像装置120の設定を変更することもできる。
図1は、上記の機器群の機能構成を示すブロック図である。以下、各機器の機能構成について説明する。
(画像表示装置100)
画像表示装置100のブロック図について説明する。
入力部101は、撮像装置120から画像データを受信し、画像表示装置100の内部で処理する画像データに変換し、表示画像制御部102に出力する。例えば、画像表示装置100の内部で処理する画像データの信号タイミングが60Hz、撮像装置120から入力される画像データの信号タイミングが30Hzとする。この場合、入力部101は、入力された画像データを60Hzの信号タイミングの画像データに変換して、表示画像制御部102に出力する。
(画像表示装置100)
画像表示装置100のブロック図について説明する。
入力部101は、撮像装置120から画像データを受信し、画像表示装置100の内部で処理する画像データに変換し、表示画像制御部102に出力する。例えば、画像表示装置100の内部で処理する画像データの信号タイミングが60Hz、撮像装置120から入力される画像データの信号タイミングが30Hzとする。この場合、入力部101は、入力された画像データを60Hzの信号タイミングの画像データに変換して、表示画像制御部102に出力する。
表示画像制御部102は、入力部101から入力された画像データに対して、画像処理を施し、表示パネル103に出力する。表示画像制御部102が行う画像処理は、例えば、ガンマ変換、色域変換、カラーフォーマット変換等である。
表示パネル103は、液晶パネルや有機EL(Electro-Luminescence)パネルやMEMS(Micro Electro Mechanical Systems)シャッター式パネル等の表示デバイスである。液晶パネルやMEMSシャッター式パネルは、画素毎に光の透過率を調節するが、パネル自身は発光しない。表示パネル103が液晶パネルやMEMSシャッター式パネル等を含む構成の場合、表示パネル103には光源となるバックライトも含まれる。一方、有機ELパネルは、有機化合物から成る発光素子であり、自発光デバイスである。表示パネル103が有機ELパネルを含む構成この場合、表示パネル103にはバックライトは含まれない。
表示パネル103は、液晶パネルや有機EL(Electro-Luminescence)パネルやMEMS(Micro Electro Mechanical Systems)シャッター式パネル等の表示デバイスである。液晶パネルやMEMSシャッター式パネルは、画素毎に光の透過率を調節するが、パネル自身は発光しない。表示パネル103が液晶パネルやMEMSシャッター式パネル等を含む構成の場合、表示パネル103には光源となるバックライトも含まれる。一方、有機ELパネルは、有機化合物から成る発光素子であり、自発光デバイスである。表示パネル103が有機ELパネルを含む構成この場合、表示パネル103にはバックライトは含まれない。
ディスプレイ設定部104は、画像表示装置100の設定を行う。例えば、画像表示装置100のガンマをLog(対数)ガンマに設定する場合、ディスプレイ設定部104は、表示画像制御部102にガンマテーブルをLogガンマに設定するように要求する。
表示装置通信部105は、無線ネットワーク170により、携帯端末150や撮像装置120と通信する。
表示装置通信部105は、無線ネットワーク170により、携帯端末150や撮像装置120と通信する。
(撮像装置120)
撮像装置120のブロック図について説明する。
撮像部121は、光学像を電気信号に変換し画像データとして出力する。撮像部121には、CCD(charge-coupled device)やCMOS(complementary metal-oxide semiconductor)等の撮像素子、シャッターユニット、レンズ等が含まれる。撮像部121は、撮像により得られた画像データを画像処理部123へ出力する。
出力部122は、画像処理部123により画像処理が施された画像データを、外部機器である画像表示装置100に出力する。実施例1では、撮像装置120の出力する画像データのフォーマットは、2K(1920×1080)又は4K(3840×2160)のいずれかに設定できるものとする。
撮像装置120のブロック図について説明する。
撮像部121は、光学像を電気信号に変換し画像データとして出力する。撮像部121には、CCD(charge-coupled device)やCMOS(complementary metal-oxide semiconductor)等の撮像素子、シャッターユニット、レンズ等が含まれる。撮像部121は、撮像により得られた画像データを画像処理部123へ出力する。
出力部122は、画像処理部123により画像処理が施された画像データを、外部機器である画像表示装置100に出力する。実施例1では、撮像装置120の出力する画像データのフォーマットは、2K(1920×1080)又は4K(3840×2160)のいずれかに設定できるものとする。
画像処理部123は、撮像部121から入力される画像データに対して画像処理を施して出力部122に出力する。
カメラ設定部124は、撮像装置120の設定を行う。カメラ設定部124は、例えば、撮像装置120の記録フォーマット、記録ガンマ、色域、出力する画像データのフォーマット等の設定を行う。
撮像装置通信部125は、無線ネットワーク170により、画像表示装置100や携帯端末150と通信する。
カメラ設定部124は、撮像装置120の設定を行う。カメラ設定部124は、例えば、撮像装置120の記録フォーマット、記録ガンマ、色域、出力する画像データのフォーマット等の設定を行う。
撮像装置通信部125は、無線ネットワーク170により、画像表示装置100や携帯端末150と通信する。
(携帯端末150)
携帯端末150のブロック図について説明する。
カメラ151は、撮像手段であり、CCDやCMOS等の撮像素子、シャッターユニット、レンズ等を有する小型のカメラユニットである。カメラ151は、撮像により得られた画像データを機器認識部153及び画像合成部158に出力する。
表示部152は、携帯端末150の画面を構成する表示手段である。表示部152は、画像合成部158から入力される画像データに基づく画像を表示する。
携帯端末150のブロック図について説明する。
カメラ151は、撮像手段であり、CCDやCMOS等の撮像素子、シャッターユニット、レンズ等を有する小型のカメラユニットである。カメラ151は、撮像により得られた画像データを機器認識部153及び画像合成部158に出力する。
表示部152は、携帯端末150の画面を構成する表示手段である。表示部152は、画像合成部158から入力される画像データに基づく画像を表示する。
機器認識部153は、カメラ151により撮影して得られた撮影画像を取得する第1の取得手段であり、取得した撮影画像に写っている画像表示装置100や撮像装置120等の各機器を認識する認識手段である。実施例1では、機器認識部153は、ARコードに基づき機器を認識する。画像表示装置100や撮像装置120の筺体は、機器の識別情報が符号化されたマーカであるARコードを有する。機器認識部153は、撮影画像に含まれるARコードの画像を解析することで、撮影画像に写っている機器を認識する。ARコードは、印刷等により筺体に固定的に表示されたものや、画像表示装置100や撮像装置120のように画面を有する機器の場合には画面に画像として表示されたものが考えられる。画像として表示されるARコードは、例えば機器の設定や状態に応じて可変にすることもできる。
ARコードの例を図25に示す。画像表示装置2020に表示されたARコード2010は、白黒2値をとる矩形が2次元に並べられて構成されるマーカであり、この2次元の並べ方によって、情報を埋め込む。
機器認識部153は、カメラ151で撮影して得られた撮影画像に含まれるARコードの画像の形状から、各機器の空間的な位置関係を検出する。図25に示すように正方形の形状を有するARコードは、撮影画像において、カメラ151と機器との位置関係に応じて台形や菱形等に歪む。機器認識部153は、ARコードのこの幾何学的な歪みに基づき、各機器の空間的な位置を検出する。
機器認識部153は、カメラ151で撮影して得られた撮影画像に含まれるARコードの画像の形状から、各機器の空間的な位置関係を検出する。図25に示すように正方形の形状を有するARコードは、撮影画像において、カメラ151と機器との位置関係に応じて台形や菱形等に歪む。機器認識部153は、ARコードのこの幾何学的な歪みに基づき、各機器の空間的な位置を検出する。
機器認識部153は、各機器の認識及び位置の検出が完了すると、各機器の識別情報を機能情報取得部155へ送信する。また、機器認識部153は、カメラ151で撮影して得られた撮影画像内の各機器の画像の位置(XY座標)を取得し、生成部157に送信する。機器認識部153は、例えば、画像解析により撮影画像内の各機器の画像を検出してその位置を取得しても良いし、また、撮影画像内のARコードの画像の位置を検出してそれを各機器の画像の位置として取得しても良い。
端末通信部154は、無線ネットワーク170により、画像表示装置100や撮像装置120と通信する。
機能情報取得部155は、機器認識部153が認識した各機器(ここでは撮像装置120と画像表示装置100)の画像処理機能の情報(機能情報)を取得する第2の取得手段である。機能情報は、各機器が実行可能な画像処理の機能や設定に関する情報である。機能情報取得部155は、端末通信部154を介して、各機器から機能情報を取得する。機能情報取得部155は、取得した各機器の機能情報を機能情報処理部156に送信する。
機能情報取得部155は、機器認識部153が認識した各機器(ここでは撮像装置120と画像表示装置100)の画像処理機能の情報(機能情報)を取得する第2の取得手段である。機能情報は、各機器が実行可能な画像処理の機能や設定に関する情報である。機能情報取得部155は、端末通信部154を介して、各機器から機能情報を取得する。機能情報取得部155は、取得した各機器の機能情報を機能情報処理部156に送信する。
機能情報処理部156は、機能情報取得部155が取得した各機器の機能情報に基づき、機器認識部153が認識した機器のうちに、共通の画像処理機能を有する機器の組み合わせがあるか判定する。機能情報処理部156は、そのような組み合わせがある場合、当該組み合わせの情報及び当該共通の画像処理機能の情報の少なくともいずれかを生成部157へ出力する。例えば、撮像装置120が4K画像の撮影が可能で、かつ画像表示装置100が4K画像の表示が可能な場合には、「4K表示」が共通の画像処理機能である。機能情報処理部156は、共通の画像処理機能の情報を生成部157に送信する。
なお、各機器が、設定を変更することにより複数の画像処理機能を切り替えて実行可能な機器である場合、機能情報取得部155は、当該複数の画像処理機能の情報を取得する。この場合、機能情報処理部156は、認識した機器のうちに、切り替え可能な複数の画像処理機能のうちに少なくとも1つの共通の画像処理機能を有する機器の組み合わせがあるか判定する。そのような組み合わせがある場合、当該組み合わせの情報及び共通の画像処理機能の情報の少なくともいずれかを生成部157へ出力する。
生成部157は、機能情報処理部156から入力される共通の画像処理機能の情報に基づき、当該共通の画像処理機能の情報を示す画像(機能情報画像)を生成する。生成部157は、生成した画像を画像合成部158に出力する。
図2に一例を示す。図2において、機能情報画像240として表示されている画像が、生成部157により生成される、画像表示装置100と撮像装置120の共通の画像処理機能の情報を示す画像である。機能情報画像が撮影画像とともに携帯端末150の画面に表示されることにより、ユーザは、例えば、撮像装置120を画像表示装置100に接続して4K画像を表示させるという連携動作が可能であることを把握することができる。
生成部157は、機器認識部153から取得した画像表示装置100と撮像装置120の画像の位置情報(XY座標)に基づいて、画像表示装置100と撮像装置120の画像に重ならないように、機能情報画像240の表示位置を決定する。生成部157は生成した機能情報画像240の画像とその表示位置の情報とを画像合成部158に出力する。
図2に一例を示す。図2において、機能情報画像240として表示されている画像が、生成部157により生成される、画像表示装置100と撮像装置120の共通の画像処理機能の情報を示す画像である。機能情報画像が撮影画像とともに携帯端末150の画面に表示されることにより、ユーザは、例えば、撮像装置120を画像表示装置100に接続して4K画像を表示させるという連携動作が可能であることを把握することができる。
生成部157は、機器認識部153から取得した画像表示装置100と撮像装置120の画像の位置情報(XY座標)に基づいて、画像表示装置100と撮像装置120の画像に重ならないように、機能情報画像240の表示位置を決定する。生成部157は生成した機能情報画像240の画像とその表示位置の情報とを画像合成部158に出力する。
図4に他の例を示す。図4(A)と図4(C)は、撮像装置120と画像表示装置100が接続された状態を、カメラ151で異なる視点から撮影して得られた撮影画像を示す。それぞれの撮影画像において機能情報画像410,420を表示したものが図4(B)と図4(D)である。それぞれ、撮像装置120と画像表示装置100の画像の位置に応じて、それらの機器の画像に重ならない位置に、機能情報画像410,420が表示されている。
なお、撮影画像中に、機能情報画像だけでなく、各機器の情報を示す画像も表示されるようにしても良い。その場合、生成部157は、機器情報を示す画像を生成し、例えば撮影画像における各機器の画像の近傍に機器情報が表示されるように表示位置を決定し、機器情報の画像を画像合成部158に出力する。例えば、撮像装置120に関する機器情報は、撮像装置120の画像の近くに表示する。
画像合成部158は、カメラ151から入力される撮影画像と、生成部157から入力される機能情報画像とを合成して、合成画像を表示部152に出力する。
画像合成部158は、カメラ151から入力される撮影画像と、生成部157から入力される機能情報画像とを合成して、合成画像を表示部152に出力する。
機器操作部159は、各機器に対し、所定の画像処理機能で動作するよう設定する設定
手段である。実施例1では、機能情報処理部156により共通の画像処理機能があると判定された機器の組み合わせがある場合に、当該組み合わせに含まれる機器に対し、当該共通の画像処理機能で動作するよう設定する。図2の例では、機器操作部159は、撮像装置120と画像表示装置100の設定を変更する。例えば共通の画像処理機能が「4K表示」である場合、各機器の連携により実際に4K画像表示ができるように、機器操作部159は、無線ネットワーク170を介して、各機器に対して4K表示に対応する動作を行うよう指示を出す。ここでは、機器操作部159は、撮像装置120のカメラ設定部124及び画像表示装置100のディスプレイ設定部104に対して、それぞれの機器の設定を4K表示に対応させるよう要求する。画像表示装置100は、設定により2K表示と4K表示のいずれも可能であるところ、この要求に応じて4K表示に対応するよう設定されることになる。
手段である。実施例1では、機能情報処理部156により共通の画像処理機能があると判定された機器の組み合わせがある場合に、当該組み合わせに含まれる機器に対し、当該共通の画像処理機能で動作するよう設定する。図2の例では、機器操作部159は、撮像装置120と画像表示装置100の設定を変更する。例えば共通の画像処理機能が「4K表示」である場合、各機器の連携により実際に4K画像表示ができるように、機器操作部159は、無線ネットワーク170を介して、各機器に対して4K表示に対応する動作を行うよう指示を出す。ここでは、機器操作部159は、撮像装置120のカメラ設定部124及び画像表示装置100のディスプレイ設定部104に対して、それぞれの機器の設定を4K表示に対応させるよう要求する。画像表示装置100は、設定により2K表示と4K表示のいずれも可能であるところ、この要求に応じて4K表示に対応するよう設定されることになる。
実施例1における、撮像装置120と画像表示装置100の機能情報画像を表示する処理を図3のフローチャートを用いて説明する。
(S301)
ステップS301において、携帯端末150のカメラ151は、ユーザの携帯端末150の操作(例えば撮影ボタンを押す操作)に応じて、図2に示すように画像表示装置100と撮像装置120を撮影する。カメラ151は、撮影画像を画像合成部158に出力する。画像合成部158は、撮影画像を表示部152に出力する。これにより、携帯端末150の画面上にカメラ151により撮影された画像が表示(撮影画像のライブ表示)される。カメラ151は、撮影画像を機器認識部153に出力する。
(S301)
ステップS301において、携帯端末150のカメラ151は、ユーザの携帯端末150の操作(例えば撮影ボタンを押す操作)に応じて、図2に示すように画像表示装置100と撮像装置120を撮影する。カメラ151は、撮影画像を画像合成部158に出力する。画像合成部158は、撮影画像を表示部152に出力する。これにより、携帯端末150の画面上にカメラ151により撮影された画像が表示(撮影画像のライブ表示)される。カメラ151は、撮影画像を機器認識部153に出力する。
(S302)
ステップS302において、機器認識部153は、撮影画像に写っているARコードを検出し、ARコードに符号化されている情報に基づき、撮影画像に写っている機器を認識する。ARコードの解析により得られる情報の例を図7(A)に示す。画像表示装置100のARコードを解析して得られた情報は、識別ID「ID−1378−3578」、型番「DISP−20X」であるとする。撮像装置120のARコードを解析して得られた情報は、識別ID「ID−6984−8735」、型番「CAM−10D」であるとする。機器認識部153は、ARコードを解析して得られた、撮影画像に写っている各機器の識別情報(識別ID、型番のリスト)を、機能情報取得部155に通知する。
ステップS302において、機器認識部153は、撮影画像に写っているARコードを検出し、ARコードに符号化されている情報に基づき、撮影画像に写っている機器を認識する。ARコードの解析により得られる情報の例を図7(A)に示す。画像表示装置100のARコードを解析して得られた情報は、識別ID「ID−1378−3578」、型番「DISP−20X」であるとする。撮像装置120のARコードを解析して得られた情報は、識別ID「ID−6984−8735」、型番「CAM−10D」であるとする。機器認識部153は、ARコードを解析して得られた、撮影画像に写っている各機器の識別情報(識別ID、型番のリスト)を、機能情報取得部155に通知する。
(S303)
ステップS303において、機器認識部153は、撮影画像に写っている機器を認識できたか判定する。機器を認識できなかった場合は、処理を終了する。この場合、携帯端末150は、通常のカメラ151の撮影画像をライブ表示した状態を維持する。機器を認識できた場合は、ステップS304に進む。
ステップS303において、機器認識部153は、撮影画像に写っている機器を認識できたか判定する。機器を認識できなかった場合は、処理を終了する。この場合、携帯端末150は、通常のカメラ151の撮影画像をライブ表示した状態を維持する。機器を認識できた場合は、ステップS304に進む。
(S304)
ステップS304において、機器認識部153は、認識した機器が2台以上であるか判定する。認識した機器が1台のみの場合には、処理を終了する。図2の例では、認識した機器は2台であるため、ステップS305に進む。
ステップS304において、機器認識部153は、認識した機器が2台以上であるか判定する。認識した機器が1台のみの場合には、処理を終了する。図2の例では、認識した機器は2台であるため、ステップS305に進む。
(S305)
ステップS305において、機能情報取得部155は、各機器の識別情報に基づき、各機器の機能情報を取得する。
まず、携帯端末150が撮像装置120の機能情報を取得する処理について図7(D)に示すシーケンスにより説明する。携帯端末150の機能情報取得部155は、ステップS302で取得した撮像装置120の識別IDを無線ネットワーク170経由でブロードキャスト送信して、ネットワーク上に撮像装置120が存在するか問い合わせる。撮像装
置120の撮像装置通信部125は、撮像装置120に対応する識別IDのブロードキャストを受信すると端末通信部154にACKを返す。次に、機能情報取得部155は、カメラ設定部124に撮像装置120の機能情報を送信するように要求する。カメラ設定部124は、機能情報の取得要求に応じて、図6(C)に示す撮像装置120(型番CAM−10D)の機能情報を機能情報取得部155に返信する。
ステップS305において、機能情報取得部155は、各機器の識別情報に基づき、各機器の機能情報を取得する。
まず、携帯端末150が撮像装置120の機能情報を取得する処理について図7(D)に示すシーケンスにより説明する。携帯端末150の機能情報取得部155は、ステップS302で取得した撮像装置120の識別IDを無線ネットワーク170経由でブロードキャスト送信して、ネットワーク上に撮像装置120が存在するか問い合わせる。撮像装
置120の撮像装置通信部125は、撮像装置120に対応する識別IDのブロードキャストを受信すると端末通信部154にACKを返す。次に、機能情報取得部155は、カメラ設定部124に撮像装置120の機能情報を送信するように要求する。カメラ設定部124は、機能情報の取得要求に応じて、図6(C)に示す撮像装置120(型番CAM−10D)の機能情報を機能情報取得部155に返信する。
機能情報取得部155は、画像表示装置100についても同様に、端末通信部154、表示装置通信部105を介して、画像表示装置100のディスプレイ設定部104に、画像表示装置100の機能情報を送信するように要求する。画像表示装置100のディスプレイ設定部104は、図6(A)に示す画像表示装置100(型番DISP−20X)の機能情報を機能情報取得部155に返信する。
(S306)
ステップS306において、機能情報取得部155は、ステップS302で認識した全ての機器の機能情報を取得完了したか判定する。完了していない場合ステップS305に戻り機能情報を未取得の機器について同様の処理を繰り返す。全ての機器の機能情報の取得が完了した場合、機能情報取得部155は、取得した各機器の機能情報をまとめて機能情報処理部156に出力する。なお、ここでは、全ての機器の機能情報の取得が完了した後にまとめて全ての機器の機能情報を機能情報処理部156に出力する例を説明したが、各機器について機能情報を取得するたびにその機能情報を機能情報処理部156に出力するようにしても良い。また、上述した画像処理機能の情報(機能情報)は一例である。図6(A)〜図6(D)に示すように、機能情報には、種々のものがある。例えば、機能情報は、表示、記録、伝送及び現像の少なくともいずれかの画像処理における画像データのサイズ、カラーフォーマット、ガンマ、色域及び現像可否の少なくともいずれかの設定の情報を含む。
ステップS306において、機能情報取得部155は、ステップS302で認識した全ての機器の機能情報を取得完了したか判定する。完了していない場合ステップS305に戻り機能情報を未取得の機器について同様の処理を繰り返す。全ての機器の機能情報の取得が完了した場合、機能情報取得部155は、取得した各機器の機能情報をまとめて機能情報処理部156に出力する。なお、ここでは、全ての機器の機能情報の取得が完了した後にまとめて全ての機器の機能情報を機能情報処理部156に出力する例を説明したが、各機器について機能情報を取得するたびにその機能情報を機能情報処理部156に出力するようにしても良い。また、上述した画像処理機能の情報(機能情報)は一例である。図6(A)〜図6(D)に示すように、機能情報には、種々のものがある。例えば、機能情報は、表示、記録、伝送及び現像の少なくともいずれかの画像処理における画像データのサイズ、カラーフォーマット、ガンマ、色域及び現像可否の少なくともいずれかの設定の情報を含む。
(S307)
ステップS307において、機能情報処理部156は、各機器の機能情報に基づき、共通の画像処理機能を抽出して、生成部157に出力する。図2の例では、画像表示装置100と撮像装置120の機能情報はそれぞれ図6(A)と図6(C)に示す通りである。この機能情報によれば、共通の画像処理機能は、4K(3840×2160)表示、Logガンマ、DCI(Digital Cinema Initiatives)色域等である。
ステップS307において、機能情報処理部156は、各機器の機能情報に基づき、共通の画像処理機能を抽出して、生成部157に出力する。図2の例では、画像表示装置100と撮像装置120の機能情報はそれぞれ図6(A)と図6(C)に示す通りである。この機能情報によれば、共通の画像処理機能は、4K(3840×2160)表示、Logガンマ、DCI(Digital Cinema Initiatives)色域等である。
共通の画像処理機能の抽出方法の一例を、以下に示す。種々の機器が有する種々の画像処理に係る機能には個別の識別情報(機能ID)が付与されているものとする。共通機能や連携可能性がある機能や設定には同一のIDが付与され、機能IDに基づき、各機器が実行する画像処理に共通機能や連携可能性があるか否かを判断することができる。2つの機器の機能情報のうちに、機能IDが同じである画像処理機能がある場合、当該画像処理機能に関して当該2つの機器は共通機能を有し連携動作が可能であると判断することができる。すなわち、2つの機器同士で共通の画像処理の画像処理機能があるとは、2つの機器の機能情報のうちに機能IDが同一の機能が共通に含まれていることを意味する。このような機器同士の組み合わせにより、例えば画像ケーブルで接続することで、当該共通の画像処理機能に基づく画像処理(表示、記録等)を実行可能であることを意味する。
図6(A)と図6(C)を参照すると、例えば、DCI色域の機能ID「CS_DCI」が画像表示装置100と撮像装置120の両方に共通に含まれている。撮像装置120は画像入力機器であり、画像表示装置100は画像出力機器である。従って、これら画像表示装置100と撮像装置120の組み合わせにより、DCI色域という画像処理機能で、画像表示を行うという画像処理が実行可能であることが判定できる。
機能情報処理部156は、画像表示装置100と撮像装置120の両方の機能情報のうちに共通に含まれている機能IDを共通の画像処理機能として抽出する。図6(A)と図6(C)の例では、共通の画像処理機能の機能IDは、「CL_RGB」、「CL_YUV」、「GM_22」、「GM_LOG」、「CS_DCI」、「CS_SRGB」、「FMT_2」、「FMT_4」である。このように共通の画像処理機能は多数ある場合もあるが、実施例1では、特徴的な3つの共通の画像処理機能である「FMT_4」、「GM_LOG」、「CS_DCI」に着目して説明する。機能情報処理部156は、抽出した共通の画像処理機能の情報を生成部157に出力する。なお、機能情報処理部156は、共通の画像処理機能のうち特定のもののみを抽出して生成部157に出力する場合、ユーザに予めどの画像処理機能を共通の画像処理機能として抽出するか指定させるようにしても良い。また、機能情報処理部156は、全ての共通の画像処理機能を生成部157に出力しても良い。
(S308)
ステップS308において、生成部157は、共通の画像処理機能の情報を示す画像を生成し、画像合成部158に出力する。生成部157は、図26(A)に示す機能IDとそれを表す名称である機能名との予め定められた対応関係を参照する。そして、ステップS307で抽出した共通の画像処理機能の機能IDに対応する機能名を特定し、当該機能名を用いて共通の画像処理機能の情報を示す画像を構成する。機能ID「FMT_4」、「GM_LOG」、「CS_DCI」に対応する機能名は、図26(A)によれば、それぞれ「4K画像表示」、「Logガンマ」、「DCI色域」である。生成部157は、これらの文字列を用いて共通の画像処理機能の情報を示す画像を生成する。生成部157は、機器認識部153から取得した撮影画像における各機器の画像の位置情報(XY座標)に基づき、各機器の画像にかぶらないように、撮影画像における共通の画像処理機能の情報の画像の位置を決定する。
ステップS308において、生成部157は、共通の画像処理機能の情報を示す画像を生成し、画像合成部158に出力する。生成部157は、図26(A)に示す機能IDとそれを表す名称である機能名との予め定められた対応関係を参照する。そして、ステップS307で抽出した共通の画像処理機能の機能IDに対応する機能名を特定し、当該機能名を用いて共通の画像処理機能の情報を示す画像を構成する。機能ID「FMT_4」、「GM_LOG」、「CS_DCI」に対応する機能名は、図26(A)によれば、それぞれ「4K画像表示」、「Logガンマ」、「DCI色域」である。生成部157は、これらの文字列を用いて共通の画像処理機能の情報を示す画像を生成する。生成部157は、機器認識部153から取得した撮影画像における各機器の画像の位置情報(XY座標)に基づき、各機器の画像にかぶらないように、撮影画像における共通の画像処理機能の情報の画像の位置を決定する。
(S309)
ステップS309において、画像合成部158は、カメラ151から出力される撮影画像に共通の画像処理機能の情報の画像を合成し、合成画像を表示部152に出力する。これにより、携帯端末150の画面上に、図2に示したような機能情報画像240が表示される。
ステップS309において、画像合成部158は、カメラ151から出力される撮影画像に共通の画像処理機能の情報の画像を合成し、合成画像を表示部152に出力する。これにより、携帯端末150の画面上に、図2に示したような機能情報画像240が表示される。
(S310)
ステップS310において、共通の画像処理機能として抽出された機能設定で実際に各機器が動作するように、機器操作部159は、各機器に設定指示を送る。
ここで、図2に示す携帯端末150は、ユーザによる指示を受け付ける入力手段として、操作ボタン、キーボード及びタッチパネルの少なくともいずれかを有するものとする。これらの入力手段は機器操作部159の機能の一部であるとする。また、ステップS309において画面上に表示された機能情報画像240は、ユーザによる指示入力を補助するGUI(Graphical User Interface)として機能するものとする。例えば、ユーザは、操作ボタンの矢印キー及び決定キーの操作により、機能情報画像240に表示された共通の画像処理機能のうち少なくともいずれかを選択する指示を入力することができる。あるいは、ユーザは、画面に対し、機能情報画像240に表示された共通の画像処理機能のうち少なくともいずれかの文字列の位置をタッチするタッチ操作を行っても良い。これにより、機能情報画像240に表示された共通の画像処理機能のうち少なくともいずれかを選択する指示を入力することができる。機器操作部159は、ユーザに選択された画像処理機能の情報に基づき、撮像装置120及び画像表示装置100に対して、当該選択された画像処理機能で動作をするよう要求する。
ステップS310において、共通の画像処理機能として抽出された機能設定で実際に各機器が動作するように、機器操作部159は、各機器に設定指示を送る。
ここで、図2に示す携帯端末150は、ユーザによる指示を受け付ける入力手段として、操作ボタン、キーボード及びタッチパネルの少なくともいずれかを有するものとする。これらの入力手段は機器操作部159の機能の一部であるとする。また、ステップS309において画面上に表示された機能情報画像240は、ユーザによる指示入力を補助するGUI(Graphical User Interface)として機能するものとする。例えば、ユーザは、操作ボタンの矢印キー及び決定キーの操作により、機能情報画像240に表示された共通の画像処理機能のうち少なくともいずれかを選択する指示を入力することができる。あるいは、ユーザは、画面に対し、機能情報画像240に表示された共通の画像処理機能のうち少なくともいずれかの文字列の位置をタッチするタッチ操作を行っても良い。これにより、機能情報画像240に表示された共通の画像処理機能のうち少なくともいずれかを選択する指示を入力することができる。機器操作部159は、ユーザに選択された画像処理機能の情報に基づき、撮像装置120及び画像表示装置100に対して、当該選択された画像処理機能で動作をするよう要求する。
例えば、図2の機能情報画像240において、ユーザが「DCI色域」を選択する操作
を行った場合、機器操作部159は、撮像装置120及び画像表示装置100に対して、色域の設定をDCIに変更するように要求する。無線ネットワーク170を介してこの要求を受信した撮像装置120のカメラ設定部124は、画像処理部123の色域変換設定をDCIに変更する。また、無線ネットワーク170を介してこの要求を受信した画像表示装置100のディスプレイ設定部104は、表示画像制御部102の色域変換設定をDCIに変更する。このような処理により、撮影画像に写っている複数の機器は、実際に共通の画像処理機能(DCI色域)に基づく画像処理を行うよう設定される。
を行った場合、機器操作部159は、撮像装置120及び画像表示装置100に対して、色域の設定をDCIに変更するように要求する。無線ネットワーク170を介してこの要求を受信した撮像装置120のカメラ設定部124は、画像処理部123の色域変換設定をDCIに変更する。また、無線ネットワーク170を介してこの要求を受信した画像表示装置100のディスプレイ設定部104は、表示画像制御部102の色域変換設定をDCIに変更する。このような処理により、撮影画像に写っている複数の機器は、実際に共通の画像処理機能(DCI色域)に基づく画像処理を行うよう設定される。
認識された機器のうちに、共通の画像処理機能を有する機器の組み合わせが複数ある場合について説明する。このような場合、生成部157は、組み合わせ毎に、共通機能情報画像を生成する。
図5に、画像表示装置が2台ある場合の機能情報画像の表示例を示す。図5に、各機器の識別IDを示す。この識別IDはARコードを解析することにより取得される。図7(B)に識別IDと各機器の型番リストとの対応表を示す。この対応表の情報は携帯端末150の機器認識部153が記憶している。機器認識部153は、対応表と識別IDとを対照させる。これにより、図5の撮影画像に写っている機器の型番をそれぞれ画像表示装置(A)540は型番DISP−20X、画像表示装置(B)530は型番DISP−100P、撮像装置550は型番CAM−10Dとして認識する。これら認識された各機器の型番情報及び識別IDは機能情報取得部155に送られ、機能情報取得部155は識別IDに基づき各機器の機能情報をネットワーク経由で取得する。取得される機能情報を図6(A)〜図6(C)に示す。
図5に、画像表示装置が2台ある場合の機能情報画像の表示例を示す。図5に、各機器の識別IDを示す。この識別IDはARコードを解析することにより取得される。図7(B)に識別IDと各機器の型番リストとの対応表を示す。この対応表の情報は携帯端末150の機器認識部153が記憶している。機器認識部153は、対応表と識別IDとを対照させる。これにより、図5の撮影画像に写っている機器の型番をそれぞれ画像表示装置(A)540は型番DISP−20X、画像表示装置(B)530は型番DISP−100P、撮像装置550は型番CAM−10Dとして認識する。これら認識された各機器の型番情報及び識別IDは機能情報取得部155に送られ、機能情報取得部155は識別IDに基づき各機器の機能情報をネットワーク経由で取得する。取得される機能情報を図6(A)〜図6(C)に示す。
ステップS307において、機能情報処理部156は、撮像装置550と画像表示装置(A)540の共通の画像処理機能として、図6(A)と図6(C)の機能情報に基づき、「4K(3840×2160)表示」、「Logガンマ」、「DCI色域」を抽出する。そして、ステップS308において、生成部157は、図5の機能情報画像(A)510に示すような画像を生成する。
また、ステップS307において、機能情報処理部156は、撮像装置550と画像表示装置(B)530の共通の画像処理機能として、図6(B)と図6(C)の機能情報に基づき、「2K(1920×1080)表示」、「sRGB色域」を抽出する。ステップS308において、生成部157は、図5の機能情報画像(B)520に示すような画像を生成する。
画像表示装置(B)530は、画像表示装置(A)540のように4K表示やDCI色域表示の画像処理は実行できないが、2K表示やsRGB色域表示の画像処理は実行できる。画像表示装置(B)530は、撮像装置550との組み合わせにおいて、共通の画像処理機能である2K表示やsRGB色域表示の画像処理を実行できることになる。画像表示装置(A)540は、撮像装置550との組み合わせにおいて、共通の画像処理機能である4K表示やDCI色域表示の画像処理は実行できる。
画像表示装置(B)530は、画像表示装置(A)540のように4K表示やDCI色域表示の画像処理は実行できないが、2K表示やsRGB色域表示の画像処理は実行できる。画像表示装置(B)530は、撮像装置550との組み合わせにおいて、共通の画像処理機能である2K表示やsRGB色域表示の画像処理を実行できることになる。画像表示装置(A)540は、撮像装置550との組み合わせにおいて、共通の画像処理機能である4K表示やDCI色域表示の画像処理は実行できる。
そのため、図5の例では、撮影画像に写っている3つの機器のうちに、共通の画像処理機能がある機器の組み合わせが2通り存在する(画像表示装置(A)540と撮像装置550の組み合わせ、及び、画像表示装置(B)530と撮像装置550の組み合わせ)。
生成部157は、組み合わせ毎に、共通の画像処理機能の情報を示す画像を生成して撮影画像と合成する。携帯端末150の画面には、機能情報画像(A)510と、これとは内容の異なる機能情報画像(B)520とが表示される。機能情報画像(A)510と機能情報画像(B)520のうち、ユーザがどちらを選択するかによって、機器操作部159の動作が異なることになる。例えば、ユーザが機能情報画像(B)520の「2K画像表示」を選択したとすると、機器操作部159は、画像表示装置(B)530と撮像装置550に対し、それぞれの機器を2K表示ができるように設定するよう要求する。
生成部157は、組み合わせ毎に、共通の画像処理機能の情報を示す画像を生成して撮影画像と合成する。携帯端末150の画面には、機能情報画像(A)510と、これとは内容の異なる機能情報画像(B)520とが表示される。機能情報画像(A)510と機能情報画像(B)520のうち、ユーザがどちらを選択するかによって、機器操作部159の動作が異なることになる。例えば、ユーザが機能情報画像(B)520の「2K画像表示」を選択したとすると、機器操作部159は、画像表示装置(B)530と撮像装置550に対し、それぞれの機器を2K表示ができるように設定するよう要求する。
以上、実施例1においては、タブレットのような携帯端末のカメラで複数の機器を撮影して得られた撮影画像から各機器を認識し、認識した機器のうち共通の画像処理機能の情報を有する組み合わせを求め、機能情報画像を撮影画像に合成(重畳)して表示する。ユーザは、この画像を参照することにより、複数の機器のうち連携動作が可能な機器の組み合わせを容易に把握することができる。ユーザは、複数の機器のうちに、初めて操作する機器や機能を把握していない機器があっても、所望の画像処理を行わせるにはどの機器同士を接続すればよいのか等の連携可能性や共通機能の情報を容易に理解でき、利便性が増す。
実施例1の機器の認識方法について、ARコードを用いる例について説明したが、これに限定されるわけではない。例えば、可視光通信等の他の手段でもかまわない。可視光通信とは、無線通信の一種であり、LED(Light Emitting Diode)等の光源を高速点滅させ、その点滅パターンによって、情報を送受信する技術である。例えば、ディスプレイのバックライトや電源ランプ等のインジケータのLEDを高速に点滅させ、その点滅する可視光をタブレット等のカメラのイメージセンサで撮影することによって、機器の識別情報等の情報を取得する方法を用いることもできる。
なお、実施例1において、機能IDに基づき共通の画像処理機能の抽出を行う例を説明したが、共通の画像処理機能の抽出方法はこれに限らない。例えば、共通の画像処理機能が存在するような機器の組み合わせパターンを予め求めて記憶しておき、これを参照して、撮影画像に写っている複数の機器のうち共通の画像処理機能を有する機器の組み合わせを求めても良い。図26(B)に一例を示す。図26(B)を参照すると、例えば、CAM−10DとDISP−20Xとの組み合わせは、4K画像表示を共通の画像処理機能として有することわかる。よって、機器認識部153により認識された機器のうちにCAM−10DとDISP−20Xが存在すれば、それらの組み合わせは共通の画像処理機能を有すると判断することができる。すなわち、上述した機能情報取得部155による機能情報の取得や一致する機能IDの探索に基づく機能情報処理部156による共通の画像処理機能の抽出を行うことなく、共通の画像処理機能を有する組み合わせを求めることができるため、処理を簡略化できる。また、図6(A)〜図6(D)のような機能IDを機器に登録しておく必要もなくなる。
なお、実施例1では携帯端末のカメラを使って機器を認識する例を説明したが、撮像装置にAR機能を搭載して機器の認識処理を行っても良い。また、実施例1では、撮影画像に機能情報画像を合成して表示する例を説明したが、撮影画像に合成する画像により示す情報はこれに限らない。例えば連携可能な機器に関するマニュアルを表示するようにしてもよい。
(変形例1)
次に、撮影画像に含まれる機器が複数の表示装置である場合に、共通の画像処理機能を有しかつ表示特性が互いに同じになるように校正された表示装置の組み合わせを求め、当該組み合わせに含まれる表示装置を示す機能情報画像を表示する例を説明する。
複数のディスプレイを組み合わせて画像診断に使用する場合がある。例えば、マンモグラフィ診断では、2台のディスプレイを並べて、前回の診察時の画像と、今回の診察時の画像とを比較して診断することがある。このような画像診断においては、正確な診断を行うために、ディスプレイの機能が一致しているだけでなく、表示画質(表示特性)も同一になるように校正されている必要がある。このようにディスプレイの機能が一致し、かつ表示特性も同一となるように校正された複数のディスプレイの状態を、ペアリング可能とよぶことにする。
次に、撮影画像に含まれる機器が複数の表示装置である場合に、共通の画像処理機能を有しかつ表示特性が互いに同じになるように校正された表示装置の組み合わせを求め、当該組み合わせに含まれる表示装置を示す機能情報画像を表示する例を説明する。
複数のディスプレイを組み合わせて画像診断に使用する場合がある。例えば、マンモグラフィ診断では、2台のディスプレイを並べて、前回の診察時の画像と、今回の診察時の画像とを比較して診断することがある。このような画像診断においては、正確な診断を行うために、ディスプレイの機能が一致しているだけでなく、表示画質(表示特性)も同一になるように校正されている必要がある。このようにディスプレイの機能が一致し、かつ表示特性も同一となるように校正された複数のディスプレイの状態を、ペアリング可能とよぶことにする。
ディスプレイが複数あったときに、それらがペアリング可能であるか否か、すなわち各ディスプレイの表示特性が同一であるか否かを、ユーザが目視で判断することは難しい。そこで、複数のディスプレイがペアリング可能であるか否かを示す情報を機能情報画像として携帯端末の画面に表示することができれば、画像診断においてユーザの利便性の向上につながる。また、複数のうち少なくとも1つのディスプレイを適切に校正すれば、複数のディスプレイがペアリング可能になることを示す情報を機能情報画像として携帯端末に表示しても、画像診断におけるユーザの利便性が向上する。
そこで、機能情報取得部155は、撮影画像から認識した各表示装置の画像処理機能の情報及び校正の状態に関する情報を取得する。校正の状態に関する情報とは、例えば、階調値と輝度との関係、ホワイトバランス、ガンマ特性、コントラスト等がどのように調整されているかを示す情報である。機能情報取得部155は、各表示装置の機能情報及び校正情報を無線ネットワーク170を介して各表示装置から取得する。この情報に基づき、機能情報処理部156は、認識した複数の表示装置のうち、共通の画像処理機能を有しかつ表示特性が互いに同じになるように校正された表示装置の組み合わせを求め、当該組み合わせに関する情報を生成部157に出力する。生成部157は、認識された表示装置のうちどの表示装置が当該組み合わせに含まれる表示装置であるかを示す機能情報画像を生成し、撮影画像と合成する。
また、機能情報処理部156は、複数の表示装置のうち、共通の画像処理機能を有しかつ少なくとも1つの表示装置について校正を行うことにより表示特性を互いに同じにすることができる表示装置の組み合わせを求める。機能情報処理部156は、当該組み合わせに関する情報を生成部157に出力する。生成部157は、当該組み合わせに係る表示装置を示すとともに、少なくとも1つの表示装置を校正すればペアリング可能になることを示す機能情報画像を生成し、撮影画像と合成する。図8の機能情報画像1000は、生成部157により生成された機能情報画像の一例である。図8では、複数の表示装置のうち画像表示装置(A)1010と画像表示装置(B)1020とが、共通の画像処理機能を有し、かつ、画像表示装置(B)1020を校正することにより両者がペアリング可能になることが機能情報画像1000により示されている。このような機能情報画像を表示することにより、複数のディスプレイをペアリングして画像診断を行う場合のユーザの利便性が向上する。
(実施例2)
実施例2について説明する。実施例2では、ユーザから使用したい機能の指定を受け付け、ユーザに指定された機能を共通の画像処理機能として有する機器の組み合わせの情報を示す画像を撮影画像に合成して表示する。これにより、ユーザの所望の機能で画像処理を行わせることが可能な機器の組み合わせをユーザは容易に把握することができる。以下詳細に説明する。
実施例2について説明する。実施例2では、ユーザから使用したい機能の指定を受け付け、ユーザに指定された機能を共通の画像処理機能として有する機器の組み合わせの情報を示す画像を撮影画像に合成して表示する。これにより、ユーザの所望の機能で画像処理を行わせることが可能な機器の組み合わせをユーザは容易に把握することができる。以下詳細に説明する。
図11(A)は、実施例2に係る表示装置及びその制御方法の適用対象の機器群を説明する図である。図11(A)の例では、4K表示に対応した画像表示装置(A)910が3台、2K表示のみに対応した画像表示装置(B)920が3台ある。識別IDから画像表示装置(A)910の型番はDISP−20X、画像表示装置(B)920の型番はDISP−100Pであることがわかる。また、撮像装置930が1台あり、4K又は2Kの画像を出力可能である。ユーザは、撮像装置930といずれのかの画像表示装置とを接続して、撮像装置930から出力させた画像を画像表示装置により所望の設定(例えば4K)で表示させたい、という状況を想定する。
図9は、実施例2に係る上記の機器群の機能構成を示すブロック図である。実施例1との相違点は、携帯端末150に機能選択部701が追加されたことである。
機能選択部701は、ユーザから所望の画像処理機能を指定する指示の入力を受け付ける。機能選択部701は、図12(A)に示すような機能選択画面を表示して、ユーザに使用したい機能を選択させる。
機能選択部701は、ユーザから所望の画像処理機能を指定する指示の入力を受け付ける。機能選択部701は、図12(A)に示すような機能選択画面を表示して、ユーザに使用したい機能を選択させる。
認識された機器において、ユーザに指定された画像処理機能を共通の画像処理機能として有する機器の組み合わせを求める処理を図10のフローチャートを用いて説明する。図10のフローチャートは、実施例1の図3のフローチャートにおいて、各機器の機能情報に基づき共通の画像処理機能を抽出するステップS307における処理内容を詳細に示したものである。ステップS306まで進み、カメラ151で撮影した機器の認識が全て完了しているとする。
(ステップS801)
まず、ステップS801において、機能選択部701は、撮像装置930から出力する画像を画像表示装置により表示させるときに使用したい画像処理機能を指定するユーザ操作を受け付ける。詳細には、機能選択部701は、携帯端末150の画面に、図12(A)のような使用したい機能を選択するための機能選択画面のGUI(Graphical User Interface)を表示させる処理を行う。機能選択部701は、機能選択画面のGUIを構成する画像を生成して画像合成部158へ出力する。ここでは、機能選択部701は、撮像装置930の機能情報(図6(C))に基づき機能選択画面を生成する。
まず、ステップS801において、機能選択部701は、撮像装置930から出力する画像を画像表示装置により表示させるときに使用したい画像処理機能を指定するユーザ操作を受け付ける。詳細には、機能選択部701は、携帯端末150の画面に、図12(A)のような使用したい機能を選択するための機能選択画面のGUI(Graphical User Interface)を表示させる処理を行う。機能選択部701は、機能選択画面のGUIを構成する画像を生成して画像合成部158へ出力する。ここでは、機能選択部701は、撮像装置930の機能情報(図6(C))に基づき機能選択画面を生成する。
図12(A)の例では、図6(C)に示す撮像装置930の機能のうち特徴的な4つの機能に絞って、機能選択画面の選択肢とする例を示すが、機能選択画面で表示する選択肢はこれに限らない。撮像装置930の機能情報に含まれる全ての機能を表示しても良いし、図示した4つの機能より少ない機能を選択肢として表示しても良い。ユーザは、携帯端末150に備わるボタンやタッチパネルに対し、機能選択画面のGUIを見ながら操作を行うことで、所望の機能を指定する指示を入力することができる。これらボタンやタッチパネル等の入力手段は、機能選択部701がその機能の一部として有しているものとする。
図12(A)に示すように、機能選択画面のGUIは、各選択肢の機能に対応するチェックボックス980を含み、ユーザに指定された機能に対応するチェックボックス980にチェックマークが表示されるように構成されている。なお、ユーザに所望の機能を指定させるためのGUIの構成はこれに限らない。
ここでは、ユーザが、画像表示を行う際の所望の機能として、4K画像表示とLogガンマを指定したとする。図12(A)に示すように、4K画像表示とLogガンマに対応するチェックボックス980にチェックマークが表示されている。指定された機能の機能IDは実施例1で説明した通り、それぞれ「FMT4」、「GM_LOG」である。機能選択部701は、ユーザが指定した機能情報を機能情報処理部156に通知する。
ここでは、ユーザが、画像表示を行う際の所望の機能として、4K画像表示とLogガンマを指定したとする。図12(A)に示すように、4K画像表示とLogガンマに対応するチェックボックス980にチェックマークが表示されている。指定された機能の機能IDは実施例1で説明した通り、それぞれ「FMT4」、「GM_LOG」である。機能選択部701は、ユーザが指定した機能情報を機能情報処理部156に通知する。
(ステップS802)
ステップS802において、機能情報処理部156は、ユーザが指定した画像処理機能に関して連携可能な機器を検索する。すなわち、機能情報処理部156は、認識した複数の画像表示装置のうち、撮像装置930と組み合わせた場合に、ユーザが指定した画像処理機能を共通の画像処理機能として有する組み合わせになる画像表示装置を検索する。ここでは、ユーザが指定した画像処理機能は4K画像表示とLogガンマである。機能情報処理部156は、認識した複数の画像表示装置の機能情報に基づき、ユーザが指定した画像処理機能に対応する機能ID「FMT4」、「GM_LOG」をもつ画像表示装置を探索する。図6(A)に示す画像表示装置(A)910の機能情報と、図6(B)に示す画像表示装置(B)920の機能情報を参照すると、機能ID「FMT4」、「GM_LOG」を有するのは画像表示装置(A)910である。
ステップS802において、機能情報処理部156は、ユーザが指定した画像処理機能に関して連携可能な機器を検索する。すなわち、機能情報処理部156は、認識した複数の画像表示装置のうち、撮像装置930と組み合わせた場合に、ユーザが指定した画像処理機能を共通の画像処理機能として有する組み合わせになる画像表示装置を検索する。ここでは、ユーザが指定した画像処理機能は4K画像表示とLogガンマである。機能情報処理部156は、認識した複数の画像表示装置の機能情報に基づき、ユーザが指定した画像処理機能に対応する機能ID「FMT4」、「GM_LOG」をもつ画像表示装置を探索する。図6(A)に示す画像表示装置(A)910の機能情報と、図6(B)に示す画像表示装置(B)920の機能情報を参照すると、機能ID「FMT4」、「GM_LOG」を有するのは画像表示装置(A)910である。
機能情報処理部156は、撮像装置930と画像表示装置(A)910との組み合わせを、ユーザが指定した画像処理機能を共通の画像処理機能として有する機器の組み合わせであると判定する。すなわち、画像表示装置(A)910を、ユーザが指定した画像処理機能に関して、撮像装置930と連携可能と判定する。一方、画像表示装置(B)920は、4K表示及びLogガンマの機能IDを有しない。そのため、機能情報処理部156は、画像表示装置(B)920を、撮像装置930との組み合わせにおいてユーザが指定した画像処理機能を共通の画像処理機能として有することになる機器ではないと判定する。すなわち、画像表示装置(B)920を、ユーザが指定した画像処理機能に関して、撮像装置930と連携可能ではないと判定する。
(ステップS803)
ステップS803において、連携可能な機器がないと判定された場合(No)、ステップS307に続くステップS308において、生成部157は、図12(B)のような連携可能な機器がないことを示す機能情報画像990を生成し画像合成部158に出力する。機能情報画像990は、ユーザに指定された機能を共通の画像処理機能として有するような機器の組み合わせがないことを示す。連携可能な機器がある場合(Yes)は、ステップS804に進む。
ステップS803において、連携可能な機器がないと判定された場合(No)、ステップS307に続くステップS308において、生成部157は、図12(B)のような連携可能な機器がないことを示す機能情報画像990を生成し画像合成部158に出力する。機能情報画像990は、ユーザに指定された機能を共通の画像処理機能として有するような機器の組み合わせがないことを示す。連携可能な機器がある場合(Yes)は、ステップS804に進む。
(ステップS804)
ステップS804において、機能情報処理部156は、ユーザが指定した画像処理機能を共通の画像処理機能として有する機器の組み合わせ(連携機器)を確定する。ここでは、機能情報処理部156は、撮像装置930と画像表示装置(A)910との組み合わせを連携機器として確定し、連携機器の情報を生成部157に通知する。ステップS307に続くステップS308において、生成部157は、連携機器の情報を示す画像を生成し、画像合成部158に出力する。これにより、図11(B)のように、撮像装置930と画像表示装置(A)910の近傍に、これらの機器が連携可能であることを示す機能情報画像940が表示される。機能情報画像940は、撮像装置930と画像表示装置(A)910とが、ユーザに指定された画像処理機能である4K画像表示及びLogガンマを共通する画像処理機能として有する機器の組み合わせであることを示す画像である。この機能情報画像940により、ユーザは、認識された機器のうちどの機器が、指定した画像処理機能を共通する画像処理機能として有する機器の組み合わせに含まれる機器であるかを知ることができる。
ステップS804において、機能情報処理部156は、ユーザが指定した画像処理機能を共通の画像処理機能として有する機器の組み合わせ(連携機器)を確定する。ここでは、機能情報処理部156は、撮像装置930と画像表示装置(A)910との組み合わせを連携機器として確定し、連携機器の情報を生成部157に通知する。ステップS307に続くステップS308において、生成部157は、連携機器の情報を示す画像を生成し、画像合成部158に出力する。これにより、図11(B)のように、撮像装置930と画像表示装置(A)910の近傍に、これらの機器が連携可能であることを示す機能情報画像940が表示される。機能情報画像940は、撮像装置930と画像表示装置(A)910とが、ユーザに指定された画像処理機能である4K画像表示及びLogガンマを共通する画像処理機能として有する機器の組み合わせであることを示す画像である。この機能情報画像940により、ユーザは、認識された機器のうちどの機器が、指定した画像処理機能を共通する画像処理機能として有する機器の組み合わせに含まれる機器であるかを知ることができる。
以上のように、実施例2では、認識した機器のうちから、ユーザに指定された機能を共通の画像処理機能として有する機器の組み合わせを求め、当該組み合わせを示す機能情報画像を撮影画像に合成して携帯端末150の画面に表示する。これにより、ユーザは、どのような機器を組み合わせれば、所望の機能が使用できるか簡単に知ることができる。
(実施例3)
実施例3について説明する。実施例3では、撮像装置に記録されている画像データを再生可能な機器の組み合わせの情報を示す機能情報画像を撮影画像に合成して表示する例について示す。実施例3は、ユーザが視聴したい画像データを記憶した装置があるが、それを再生して鑑賞するためにどの機器を使用すればわからないような状況において、ユーザの利便性を向上させることができる実施例である。実施例2では、ユーザにより指定される画像処理機能が撮像装置から出力される4K及びLogガンマの画像の表示である場合に、当該指定された画像処理機能を共通する画像処理機能として有する機器の組み合わせを求めて表示する例を説明した。実施例3では、ユーザにより指定される画像処理機能が4KのRAWデータの現像及び表示である場合に、当該指定された画像処理機能を共通する画像処理機能として有する機器の組み合わせを求めて表示する例を説明する。
実施例3について説明する。実施例3では、撮像装置に記録されている画像データを再生可能な機器の組み合わせの情報を示す機能情報画像を撮影画像に合成して表示する例について示す。実施例3は、ユーザが視聴したい画像データを記憶した装置があるが、それを再生して鑑賞するためにどの機器を使用すればわからないような状況において、ユーザの利便性を向上させることができる実施例である。実施例2では、ユーザにより指定される画像処理機能が撮像装置から出力される4K及びLogガンマの画像の表示である場合に、当該指定された画像処理機能を共通する画像処理機能として有する機器の組み合わせを求めて表示する例を説明した。実施例3では、ユーザにより指定される画像処理機能が4KのRAWデータの現像及び表示である場合に、当該指定された画像処理機能を共通する画像処理機能として有する機器の組み合わせを求めて表示する例を説明する。
実施例3に係る表示装置及びその制御方法の適用対象の機器群を図15(A)に示す。機器群には、画像表示装置(A)1310、画像表示装置(B)1320、RAW現像装置1330及び撮像装置1340が含まれ、各々画像ケーブルで接続されている。撮像装置1340には、RAWフォーマットの4K画像(3840×2160)データ(RAWデータ)が保存されている。この4KのRAWデータを表示するためには、撮像装置1340に保存されているRAWデータを読み出して現像し、さらに4K画像表示可能な画像表示装置に出力する必要がある。
図13は、上記の機器群の機能構成を示すブロック図である。図13に示す機器群の構成と実施例1で説明した機器群の構成との相違点は、画像記録部1101と画像データリスト取得部1102である。画像記録部1101は、撮像装置120で撮影した画像データを記録しておく記録媒体である。画像記録部1101には、図16(A)に示すように画像A〜Dの4つの画像データが記録されているものとする。画像記録部1101は、画像データのリストも記録している。携帯端末150の画像データリスト取得部1102は、無線ネットワーク170を介して、撮像装置120に記録されている画像データリスト及び記録されている画像データのフォーマットの情報を取得する。
実施例3における機能情報画像を表示する処理を図14のフローチャートを用いて説明する。図14のフローチャートは、図3のフローチャートにおいて、各機器の機能情報から共通の画像処理機能の情報を抽出するステップS307における処理内容を詳細に示したものである。
(S1201)
ステップS1201において、画像データリスト取得部1102は、図16(A)に示すような画像データ選択画面を携帯端末150の表示部152に表示させる処理を行う。画像データリスト取得部1102は、画像データ選択画面のGUIを構成する画像データを生成して画像合成部158へ出力する。このGUIを表示させることにより、画像データリスト取得部1102は、再生したい画像データを指定するユーザ操作を受け付ける。ユーザは、携帯端末150に備わるボタンやタッチパネルに対し、画像データリストのGUIを見ながら操作を行うことで、再生したい画像データを指定する指示を入力することができる。これらボタンやタッチパネル等の入力手段は、画像データリスト取得部1102がその機能の一部として有しているものとする。
ステップS1201において、画像データリスト取得部1102は、図16(A)に示すような画像データ選択画面を携帯端末150の表示部152に表示させる処理を行う。画像データリスト取得部1102は、画像データ選択画面のGUIを構成する画像データを生成して画像合成部158へ出力する。このGUIを表示させることにより、画像データリスト取得部1102は、再生したい画像データを指定するユーザ操作を受け付ける。ユーザは、携帯端末150に備わるボタンやタッチパネルに対し、画像データリストのGUIを見ながら操作を行うことで、再生したい画像データを指定する指示を入力することができる。これらボタンやタッチパネル等の入力手段は、画像データリスト取得部1102がその機能の一部として有しているものとする。
画像データリスト取得部1102は、無線ネットワーク170を介して、撮像装置120の画像記録部1101から画像データリストを取得して、画像データ選択画面の表示処理を行う。ここでは、画像データ選択画面において、ユーザが画像Bを選択(指定)する操作を行ったとする。図16(A)に示すように、画像Bは4K(3840×2160)のRAWデータである。画像データリスト取得部1102は、選択された画像データのフォーマット情報を機能情報処理部156に通知する。
(S1202)
ステップS1202において、機能情報処理部156は、画像データリスト取得部1102から取得したユーザにより選択(指定)された画像データのフォーマット情報に基づき、ユーザに指定された画像データの再生に必要な画像処理機能を特定する。機能情報処理部156は、この必要な画像処理機能と、認識した各機器の機能情報とに基づき、以下のステップで示すように、認識した複数の機器のうちに、指定された画像データ(画像B)を再生可能な機器の組み合わせがあるか判定する。すなわち、機能情報処理部156は、画像Bの再生という画像処理機能を共通の画像処理機能として有する機器の組み合わせがあるか判定する。画像Bは4KのRAWデータであるから、画像Bの再生に係る画像処
理機能は、4K画像表示とRAW現像である。
ステップS1202において、機能情報処理部156は、画像データリスト取得部1102から取得したユーザにより選択(指定)された画像データのフォーマット情報に基づき、ユーザに指定された画像データの再生に必要な画像処理機能を特定する。機能情報処理部156は、この必要な画像処理機能と、認識した各機器の機能情報とに基づき、以下のステップで示すように、認識した複数の機器のうちに、指定された画像データ(画像B)を再生可能な機器の組み合わせがあるか判定する。すなわち、機能情報処理部156は、画像Bの再生という画像処理機能を共通の画像処理機能として有する機器の組み合わせがあるか判定する。画像Bは4KのRAWデータであるから、画像Bの再生に係る画像処
理機能は、4K画像表示とRAW現像である。
(S1203)
ステップS1203において、機能情報処理部156は、認識した機器のうちに、4K画像表示の機能を有する画像表示装置があるか判定する。機能情報処理部156は、機能ID「FMT_4」の機能をもつ画像表示装置を認識した機器のリスト(図7(C)に示す)から検索する。認識した各機器の機能情報(図6(A)〜図6(D)に示す)を参照すると、画像表示装置(A)1310(型番DISP−20X)が4K画像表示の機能を有していることがわかる。この場合、機能情報処理部156は、認識した機器のうちに、4K表示可能な画像表示装置があると判定し(YES)、ステップS1204に進む。認識した機器のうちに、4K表示可能な画像表示装置がない場合(NO)、このフローチャートの処理は終了する。この場合、機能情報処理部156は、生成部157に、図16(B)に示すような「画像Bを再生可能な機器がない」ことを示す機能情報画像1350を表示するように要求する。
ステップS1203において、機能情報処理部156は、認識した機器のうちに、4K画像表示の機能を有する画像表示装置があるか判定する。機能情報処理部156は、機能ID「FMT_4」の機能をもつ画像表示装置を認識した機器のリスト(図7(C)に示す)から検索する。認識した各機器の機能情報(図6(A)〜図6(D)に示す)を参照すると、画像表示装置(A)1310(型番DISP−20X)が4K画像表示の機能を有していることがわかる。この場合、機能情報処理部156は、認識した機器のうちに、4K表示可能な画像表示装置があると判定し(YES)、ステップS1204に進む。認識した機器のうちに、4K表示可能な画像表示装置がない場合(NO)、このフローチャートの処理は終了する。この場合、機能情報処理部156は、生成部157に、図16(B)に示すような「画像Bを再生可能な機器がない」ことを示す機能情報画像1350を表示するように要求する。
(S1204)
ステップS1204において、機能情報処理部156は、認識した機器のうちに、RAWデータの現像の機能を有する機器があるか判定する。機能情報処理部156は、機能ID、「CL_RAW」の機能をもつ機器を認識した機器リスト(図7(C))から検索する。認識した各機器の機能情報(図6(A)〜図6(D)に示す)を参照すると、RAW現像装置1330(型番CNV−3655)がRAWデータ現像の機能を有していることがわかる。そこで、この場合、機能情報処理部156は、認識した機器のうちに、RAWデータの現像の機能を有する機器があると判定し(YES)、ステップS1205に進む。一方、RAW現像可能な装置がない場合(NO)には、機能情報処理部156は、生成部157に、図16(B)に示すような機能情報画像1350を表示するように要求する。
なお、ステップS1203及びステップS1204の処理内容は、ユーザに指定された画像処理機能が4K画像表示及びRAW現像である場合の例であり、上記の例に限定されない。ステップS1203及びステップS1204の処理内容は、ユーザに指定された画像処理機能に応じて異なる。
ステップS1204において、機能情報処理部156は、認識した機器のうちに、RAWデータの現像の機能を有する機器があるか判定する。機能情報処理部156は、機能ID、「CL_RAW」の機能をもつ機器を認識した機器リスト(図7(C))から検索する。認識した各機器の機能情報(図6(A)〜図6(D)に示す)を参照すると、RAW現像装置1330(型番CNV−3655)がRAWデータ現像の機能を有していることがわかる。そこで、この場合、機能情報処理部156は、認識した機器のうちに、RAWデータの現像の機能を有する機器があると判定し(YES)、ステップS1205に進む。一方、RAW現像可能な装置がない場合(NO)には、機能情報処理部156は、生成部157に、図16(B)に示すような機能情報画像1350を表示するように要求する。
なお、ステップS1203及びステップS1204の処理内容は、ユーザに指定された画像処理機能が4K画像表示及びRAW現像である場合の例であり、上記の例に限定されない。ステップS1203及びステップS1204の処理内容は、ユーザに指定された画像処理機能に応じて異なる。
(S1205)
ステップS1205において、機能情報処理部156は、ユーザに指定された画像データBの再生に必要な画像処理機能を共通の画像処理機能として有する機器の組み合わせ(連携機器)を確定する。ここでは、機能情報処理部156は、撮像装置1340、画像表示装置(A)1310及びRAW現像装置1330の組み合わせを連携機器として確定する。機能情報処理部156は、連携機器の情報を、生成部157に通知する。ステップS307に続くステップS308において、生成部157は、連携機器の情報を示す画像を生成し、画像合成部158に出力する。これにより、図15(B)に示すように、撮影画像に連携機器の情報を示す画像(機能情報画像1350)が表示される。機能情報画像1350の画像を構成する矢印は、4KのRAWデータを撮像装置1340から読み出し、RAW現像装置1330で現像し、画像表示装置(A)1310で表示するまでの画像の流れの経路を示している。この機能情報画像1350により、ユーザは、認識された機器のうちどの機器が、指定した画像データの再生に必要な機器であるか把握することができ、利便性が高まる。
ステップS1205において、機能情報処理部156は、ユーザに指定された画像データBの再生に必要な画像処理機能を共通の画像処理機能として有する機器の組み合わせ(連携機器)を確定する。ここでは、機能情報処理部156は、撮像装置1340、画像表示装置(A)1310及びRAW現像装置1330の組み合わせを連携機器として確定する。機能情報処理部156は、連携機器の情報を、生成部157に通知する。ステップS307に続くステップS308において、生成部157は、連携機器の情報を示す画像を生成し、画像合成部158に出力する。これにより、図15(B)に示すように、撮影画像に連携機器の情報を示す画像(機能情報画像1350)が表示される。機能情報画像1350の画像を構成する矢印は、4KのRAWデータを撮像装置1340から読み出し、RAW現像装置1330で現像し、画像表示装置(A)1310で表示するまでの画像の流れの経路を示している。この機能情報画像1350により、ユーザは、認識された機器のうちどの機器が、指定した画像データの再生に必要な機器であるか把握することができ、利便性が高まる。
以上のように、実施例3においては、ユーザが再生を指定した画像データの規格に基づき、その画像データを再生可能な機器の組み合わせを求め、当該組み合わせを示す機能情報画像を撮影画像に合成して携帯端末150の画面に表示する。これにより、ユーザは、どのような機器を組み合わせれば指定した画像を再生することができるか簡単に知ること
ができる。
ができる。
(実施例4)
実施例4について説明する。実施例4は、実施例3においてユーザが指定した画像データを再生可能な機器の組み合わせがない場合に、既存の機器との組み合わせで当該画像データの再生が可能となるような候補機器の情報を示す画像を撮影画像に合成して表示する例である。
実施例4に係る表示装置及びその制御方法の適用対象の機器群を図19に示す。機器群には、画像表示装置(A)1610、画像表示装置(B)1620及び撮像装置1640が含まれ、各々画像ケーブルで接続されている。実施例3との相違点は、RAW現像装置1330がないことである。
実施例4について説明する。実施例4は、実施例3においてユーザが指定した画像データを再生可能な機器の組み合わせがない場合に、既存の機器との組み合わせで当該画像データの再生が可能となるような候補機器の情報を示す画像を撮影画像に合成して表示する例である。
実施例4に係る表示装置及びその制御方法の適用対象の機器群を図19に示す。機器群には、画像表示装置(A)1610、画像表示装置(B)1620及び撮像装置1640が含まれ、各々画像ケーブルで接続されている。実施例3との相違点は、RAW現像装置1330がないことである。
図17は、上記の機器群の機能構成を示すブロック図である。図17に示す機器群の構成と実施例3で説明した機器群の構成との相違点は、候補機器検索部1401及び機器データベース1402である。
候補機器検索部1401は、機能情報処理部156の機器検索要求に応じて、機器データベース1402を検索して、機能情報処理部156に要求された条件を満たす候補機器の情報を取得する第3の取得手段である。
機器データベース1402は、ネットワーク上にあるサーバーであり、所定の機器の型番及び画像処理機能の情報を記憶している記憶装置である。
候補機器検索部1401は、機能情報処理部156の機器検索要求に応じて、機器データベース1402を検索して、機能情報処理部156に要求された条件を満たす候補機器の情報を取得する第3の取得手段である。
機器データベース1402は、ネットワーク上にあるサーバーであり、所定の機器の型番及び画像処理機能の情報を記憶している記憶装置である。
実施例4における機能情報画像を表示する処理を図18のフローチャートを用いて説明する。図18のフローチャートと、実施例3の図14のフローチャートとの相違点は、ステップS1204においてRAW現像可能な装置がないと判定された場合に、ステップS1501に進む点である。ステップS1501では、後述するように、RAW現像可能な候補機器を検索して、続くステップS1502では、見つかった候補機器を含めて連携機器が確定され、当該連携機器の情報を携帯端末の画面に表示する処理が行われる。実施例3で説明した処理については詳細な説明を割愛する。
(S1501)
ステップS1501において、機能情報処理部156は、候補機器検索部1401に対してRAW現像が可能な機器を機器データベース1402から検索するように要求する。候補機器検索部1401は、無線ネットワーク170を介して、機器データベース1402にアクセスしてRAW現像可能な機器の情報を取得する。候補機器検索部1401は、機器ID「CL_RAW」をもつ機器を機器データベースから検索し、見つかった候補機器の情報を機能情報処理部156へ出力する。ここでは、検索により見つかった候補機器は、型番「CNV−6600XP」のRAW現像装置であるとする。候補機器は、既存の機器との組み合わせることにより、ユーザに指定された画像データの再生に必要な画像処理機能を共通の画像処理機能として有することになる機器である。
ステップS1501において、機能情報処理部156は、候補機器検索部1401に対してRAW現像が可能な機器を機器データベース1402から検索するように要求する。候補機器検索部1401は、無線ネットワーク170を介して、機器データベース1402にアクセスしてRAW現像可能な機器の情報を取得する。候補機器検索部1401は、機器ID「CL_RAW」をもつ機器を機器データベースから検索し、見つかった候補機器の情報を機能情報処理部156へ出力する。ここでは、検索により見つかった候補機器は、型番「CNV−6600XP」のRAW現像装置であるとする。候補機器は、既存の機器との組み合わせることにより、ユーザに指定された画像データの再生に必要な画像処理機能を共通の画像処理機能として有することになる機器である。
(S1502)
ステップS1502において、機能情報処理部156は、候補機器を含めて、ユーザに指定された画像データの再生に必要が画像処理機能を共通の画像処理機能として有する機器の組み合わせ(連携機器)を確定する。ここでは、機能情報処理部156は、画像表示装置(A)1610、撮像装置1640及び候補機器であるRAW現像装置(B)1650の組み合わせを連携機器として確定する。機能情報処理部156は、連携機器の情報を、生成部157に通知する。生成部157は、連携機器の情報を示す画像を生成し、画像合成部158に出力する。これにより、図19に示すように、撮影画像に連携機器の情報を示す画像(機能情報画像1680)が表示される。機能情報画像1680により、ユーザは、認識された既存の機器のうちには指定した画像データの再生が可能な機器がないが
、候補機器であるRAW現像装置(B)1650があれば、指定した画像データが再生できることを容易に把握できる。
ステップS1502において、機能情報処理部156は、候補機器を含めて、ユーザに指定された画像データの再生に必要が画像処理機能を共通の画像処理機能として有する機器の組み合わせ(連携機器)を確定する。ここでは、機能情報処理部156は、画像表示装置(A)1610、撮像装置1640及び候補機器であるRAW現像装置(B)1650の組み合わせを連携機器として確定する。機能情報処理部156は、連携機器の情報を、生成部157に通知する。生成部157は、連携機器の情報を示す画像を生成し、画像合成部158に出力する。これにより、図19に示すように、撮影画像に連携機器の情報を示す画像(機能情報画像1680)が表示される。機能情報画像1680により、ユーザは、認識された既存の機器のうちには指定した画像データの再生が可能な機器がないが
、候補機器であるRAW現像装置(B)1650があれば、指定した画像データが再生できることを容易に把握できる。
以上、実施例4では、ユーザが再生を指定した画像データに基づき、その画像データを再生可能な機器の組み合わせ(連携機器)がない場合に、候補機器を機能情報画像として表示することで、ユーザは、画像データを再生するための手段を簡単に知ることができる。
なお、実施例2において、ユーザが指定した機能を有する機器がない場合においても、候補機器の情報を機能情報画像により表示するようにしてもよい。例えば、実施例2では、ユーザが画像表示に関する機能として4KとLogガンマを指定した場合を例示した。撮像装置930との組み合わせでこれら機能を共通の画像処理機能として有する機器の組み合わせが存在しない場合(図10のS803でNO)、4K画像表示及びLogガンマ表示を機能として有する画像表示装置の情報を機器データベース1402から検索する。そのような画像表示装置が検索により見つかった場合、当該機器を候補機器として、候補機器の情報を含む機能情報画像を生成して撮影画像に合成してユーザに提示するようにしても良い。
(実施例5)
実施例5について説明する。実施例5は、共通の画像処理機能を有する複数の機器の組み合わせに対し、当該複数の機器の設定を繰り返し取得して監視し、いずれかの機器において画像処理機能の設定に変化があった場合にそれを通知する表示を行う例である。
実施例5について説明する。実施例5は、共通の画像処理機能を有する複数の機器の組み合わせに対し、当該複数の機器の設定を繰り返し取得して監視し、いずれかの機器において画像処理機能の設定に変化があった場合にそれを通知する表示を行う例である。
実施例5に係る表示装置及びその制御方法の適用対象の機器群を図22(A)に示す。機器群には、同じ撮像装置1910、色変換装置1920及び画像表示装置1930がそれぞれ3台ある。機器の組み合わせは、機器セット(A)1901〜機器セット(C)1903の3セットある。実施例5の適用が想定される場面は、例えば映画の撮影現場である。映画撮影では、複数の異なるアングルから同時に同じ被写体を撮影することがある。その場合、撮像装置1910を複数台設置して、各撮像装置1910に画像表示装置1930を接続して、各撮像装置1910による撮影画像を各画像表示装置1930で確認することがある。また、撮像装置1910と画像表示装置1930の間に、色変換装置1920を接続して、ユーザが所望のルック(色の見え)で画像を確認できるようにすることもある。
色変換装置1920は、1DLUTや3DLUTにより、入力される画像データの色を調整して出力する。映画の撮影現場のような適用例では、機器セット(A)1901〜機器セット(C)1903が全て、同じルックになっていることが重要である。すなわち、各機器セットの色変換装置1920に設定されているLUTが同じになっている必要がある。しかし、誤操作等により、例えば、ある1つの機器セットでのみ色変換装置1920のLUT設定が変わってしまうというケースがあり得る。ユーザがそれに気付かずに撮影が進行してしまうと、マルチアングルのいずれかだけ色味が変わってしまうことになり好ましくない。実施例5では、共通の連携設定がされている複数の機器セットがある場合に、各機器セットの連携設定を監視し、連携設定に変化があったときにそれをユーザに通知することを可能にする。
図20は、上記の機器群の機能構成を示すブロック図である。図20に示す機器群の構成と、実施例1で説明した機器群の構成との相違点は、色変換装置1710と、携帯端末150の監視部1750が追加されている点である。色変換装置1710は、色変換部1720、色変換設定部1730及び色変換通信部1740を有する。
色変換部1720は、撮像装置120の出力部122から入力される画像データに対して、1DLUTや3DLUTにより色変換を施して出力する。1DLUTはガンマ調整するための1次元の数値テーブルであり、3DLUTは色域や画像の部分的な色を調整するための3次元の数値テーブルである。色変換部1720は、色変換設定部1730により設定されるLUTを用いて色変換を行う。ユーザが指定する任意のLUTファイルを読み込んで1DLUTや3DLUTとして適用することができる。
色変換設定部1730は、色変換部1720が色変換に用いるLUTを設定する。色変換設定部1730は、複数のLUTファイルをもっており、ユーザの指定により読み込むLUTファイルを変えることで、ユーザは様々なルックで画像を確認することができる。予め色変換設定部1730が保持するLUTファイルの他に、ユーザが外部から色変換装置1710に任意のLUTファイルを読み込ませることができるようにしても良い。
色変換通信部1740は、無線ネットワーク170を介して、携帯端末150の端末通信部154とデータを通信する。端末通信部154は、色変換通信部1740を介して、色変換設定部1730から色変換部1720に適用されているLUTの情報を、色変換装置1710の機能情報として取得する。
次に、実施例5における機能情報画像を表示する処理を図21のフローチャートを用いて説明する。実施例1の図3のフローチャートとの相違点は、全ての機器を認識した後(S306実行後)に、S1801〜S1805の処理を行う点である。S301からS306までの処理については、実施例1と同様である。実施例1で説明した処理については詳細な説明を割愛する。
(S301〜S306)
ステップS301〜S306において、携帯端末150のカメラ151で機器セット(A)1901〜機器セット(C)1903のそれぞれに含まれる撮像装置1910、色変換装置1920及び画像表示装置1930を認識する処理が行われる。なお、ここでは、各機器セットに含まれる撮像装置1910、色変換装置1920及び画像表示装置1930は、共通の画像処理機能としてLogガンマ及びDCI色域が設定されているものとする。また、色変換装置は、Logガンマ及びDCI色域の画像データに対し色変換が可能であり、各機器セットで共通に3DLUT(ファイル名:0001)が設定されているものとする。
ステップS301〜S306において、携帯端末150のカメラ151で機器セット(A)1901〜機器セット(C)1903のそれぞれに含まれる撮像装置1910、色変換装置1920及び画像表示装置1930を認識する処理が行われる。なお、ここでは、各機器セットに含まれる撮像装置1910、色変換装置1920及び画像表示装置1930は、共通の画像処理機能としてLogガンマ及びDCI色域が設定されているものとする。また、色変換装置は、Logガンマ及びDCI色域の画像データに対し色変換が可能であり、各機器セットで共通に3DLUT(ファイル名:0001)が設定されているものとする。
(S1801)
ステップS1801において、機能情報処理部156は、認識した各機器セットにおける画像処理機能の設定(連携設定という)のうち、変化の検出を行う対象(監視対象)の画像処理機能の設定について監視部1750に通知する。機能情報処理部156は、さらに、各機器セットに設定された連携設定の内容(値)を初期値として監視部1750に通知する。監視対象の連携設定及びその初期値を図23(A)に示す。ここでは、監視する連携設定は、撮像装置1910のLogガンマ、色変換装置1920の3DLUT(ファイル名:0001)、画像表示装置193のDCI色域である。実施例5の携帯端末150は、監視対象の連携設定が、これらの初期値から変化したことが検出された場合に、ユーザへの通知を行う。ここでは、誤操作等で変化することが想定される各機器の画像処理機能の設定を監視対象とする。なお、上記の連携設定や監視対象は一例であり、これに限らない。どの機器においてどの機能を監視対象とするかは、予め定められていても良いし、ユーザが任意に決められるようにしても良い。
ステップS1801において、機能情報処理部156は、認識した各機器セットにおける画像処理機能の設定(連携設定という)のうち、変化の検出を行う対象(監視対象)の画像処理機能の設定について監視部1750に通知する。機能情報処理部156は、さらに、各機器セットに設定された連携設定の内容(値)を初期値として監視部1750に通知する。監視対象の連携設定及びその初期値を図23(A)に示す。ここでは、監視する連携設定は、撮像装置1910のLogガンマ、色変換装置1920の3DLUT(ファイル名:0001)、画像表示装置193のDCI色域である。実施例5の携帯端末150は、監視対象の連携設定が、これらの初期値から変化したことが検出された場合に、ユーザへの通知を行う。ここでは、誤操作等で変化することが想定される各機器の画像処理機能の設定を監視対象とする。なお、上記の連携設定や監視対象は一例であり、これに限らない。どの機器においてどの機能を監視対象とするかは、予め定められていても良いし、ユーザが任意に決められるようにしても良い。
(S1802)
ステップS1802において、監視部1750は、連携設定の監視を開始する。監視部
1750は、定期的に、繰り返し、端末通信部154を介して、カメラ設定部124、色変換設定部1730及びディスプレイ設定部104から設定を取得する。監視部1750は、繰り返し取得する連携設定の内容をステップS1801で取得した初期値と比較する。
ステップS1802において、監視部1750は、連携設定の監視を開始する。監視部
1750は、定期的に、繰り返し、端末通信部154を介して、カメラ設定部124、色変換設定部1730及びディスプレイ設定部104から設定を取得する。監視部1750は、繰り返し取得する連携設定の内容をステップS1801で取得した初期値と比較する。
(S1803)
ステップS1803において、監視部1750は、新たに取得した現在の連携設定と初期値とが一致している場合(YES)、ステップS1805に進む。図23(B)に、現在の連携設定が初期値と一致している場合を例示する。一方、新たに取得した現在の連携設定と初期値とが一致していない場合(NO)、ステップS1804に進む。図23(C)に、現在の連携設定が初期値と一致してない場合を例示する。図23(C)の例では、機器セットBの色変換装置1920の設定だけが、ファイル名:AAAAの3DLUTを読み込んでいる状態に変化しており、図23(B)に示す初期値と一致していない。この場合、監視部1750は、生成部157に、機器セットBの色変換装置1920の設定が初期値から変化していることを通知する。
ステップS1803において、監視部1750は、新たに取得した現在の連携設定と初期値とが一致している場合(YES)、ステップS1805に進む。図23(B)に、現在の連携設定が初期値と一致している場合を例示する。一方、新たに取得した現在の連携設定と初期値とが一致していない場合(NO)、ステップS1804に進む。図23(C)に、現在の連携設定が初期値と一致してない場合を例示する。図23(C)の例では、機器セットBの色変換装置1920の設定だけが、ファイル名:AAAAの3DLUTを読み込んでいる状態に変化しており、図23(B)に示す初期値と一致していない。この場合、監視部1750は、生成部157に、機器セットBの色変換装置1920の設定が初期値から変化していることを通知する。
(S1804)
ステップS1804において、生成部157は、連携設定に変化があったことを示す機能情報画像を生成する。これは、共通の画像処理機能を有する組み合わせに含まれる少なくともいずれかの機器において画像処理機能の設定に変化があったことをユーザに通知するための機能情報画像である。ここでは、生成部157は、機器セットBの色変換装置1920の設定が初期値から変化していることを示す、図24の機能情報画像19100を生成し、画像合成部158へ出力する。これにより、初期値から連携設定が変化した機器がどれかを示す機能情報画像(ここでは、機器セットBの色変換装置1920を囲む円)と、具体的な変化の内容を示す画像(ここでは、3DLUTファイルが書き換えられたことを通知する文字列)が表示される。
ステップS1804において、生成部157は、連携設定に変化があったことを示す機能情報画像を生成する。これは、共通の画像処理機能を有する組み合わせに含まれる少なくともいずれかの機器において画像処理機能の設定に変化があったことをユーザに通知するための機能情報画像である。ここでは、生成部157は、機器セットBの色変換装置1920の設定が初期値から変化していることを示す、図24の機能情報画像19100を生成し、画像合成部158へ出力する。これにより、初期値から連携設定が変化した機器がどれかを示す機能情報画像(ここでは、機器セットBの色変換装置1920を囲む円)と、具体的な変化の内容を示す画像(ここでは、3DLUTファイルが書き換えられたことを通知する文字列)が表示される。
(S1805)
ステップS1805において、監視部1750は、ユーザから監視終了が指示があったか確認する。監視終了の指示があるまで、監視部1750はステップS1802〜ステップS1804の処理を繰り返し、機器の連携設定の変化を監視し続ける。
ステップS1805において、監視部1750は、ユーザから監視終了が指示があったか確認する。監視終了の指示があるまで、監視部1750はステップS1802〜ステップS1804の処理を繰り返し、機器の連携設定の変化を監視し続ける。
以上のように、実施例5においては、複数の機器の連携設定を監視し、ユーザが誤って設定を変更してしまったときに、その設定の変化をユーザに提示することで、誤操作等による連携設定の意図しない変化をユーザが気付きやすくすることができる。
なお、上記実施例では、ARコードに各機器の識別情報が符号化されている例を説明したが、ARコードに各機器の画像処理機能の情報(機能情報)が符号化されていても良い。この場合、機能情報取得部155は、無線ネットワーク170経由で各機器から機能情報を取得する代わりに、撮影画像に写ったARコードの解析により各機器の機能情報を取得する。ARコードが筐体に印刷された固定的なマーカである場合には、ARコードにはその機器が実行可能な複数の画像処理機能の情報を符号化する。この場合、現在の動作設定の情報を取得する必要があるときには無線ネットワーク170経由で各機器から現在の動作設定の情報を取得する。ARコードが画面表示される可変マーカである場合には、ARコードに現在の動作設定の情報をも符号化しても良い。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。ま
た、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。ま
た、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
150:携帯端末、151:カメラ、152:表示部、153:機器認識部、155:機能情報取得部、156:機能情報処理部、157:生成部、158:画像合成部
Claims (17)
- 撮像手段と、
前記撮像手段により複数の機器を撮影して得られた撮影画像を取得する第1の取得手段と、
前記撮影画像に写っている各機器を認識する認識手段と、
前記各機器の画像処理機能の情報を取得する第2の取得手段と、
前記撮影画像を表示するとともに、前記認識された機器のうちに、共通の画像処理機能を有する機器の組み合わせがある場合、当該組み合わせの情報及び共通の画像処理機能の情報の少なくともいずれかを示す画像を表示する表示手段と、
を備える表示装置。 - 前記第2の取得手段は、設定を変更することにより複数の画像処理機能を切り替えて実行可能な機器については、当該複数の画像処理機能の情報を取得し、
前記表示手段は、前記認識された機器のうちに、前記切り替え可能な複数の画像処理機能のうちに少なくとも1つの共通の画像処理機能を有する機器の組み合わせがある場合、当該組み合わせの情報及び共通の画像処理機能の情報の少なくともいずれかを示す画像を表示する請求項1に記載の表示装置。 - 前記組み合わせに含まれる機器に対し、前記共通の画像処理機能で動作するよう設定する設定手段をさらに備える請求項1又は2に記載の表示装置。
- ユーザからの指示の入力を受け付ける入力手段をさらに備え、
前記設定手段は、前記組み合わせに含まれる各機器が前記共通の画像処理機能で動作するよう設定するユーザからの指示が入力された場合に、前記組み合わせに含まれる機器に対し、前記共通の画像処理機能で動作するよう設定する請求項3に記載の表示装置。 - 前記表示手段は、前記組み合わせが複数ある場合、組み合わせ毎に、前記共通の画像処理機能の情報を示す画像を表示する請求項1〜4のいずれか1項に記載の表示装置。
- 前記認識手段は、前記各機器が有するマーカの画像を解析することにより、前記各機器を認識する請求項1〜5のいずれか1項に記載の表示装置。
- 前記第2の取得手段は、前記各機器が有するマーカの画像を解析することにより、前記各機器の画像処理機能の情報を取得する請求項1〜6のいずれか1項に記載の表示装置。
- 前記各機器と通信する通信手段をさらに備え、
前記第2の取得手段は、前記通信手段により前記各機器から各機器の画像処理機能の情報を取得する請求項1〜5のいずれか1項に記載の表示装置。 - ユーザから画像処理機能を指定する指示の入力を受け付ける入力手段をさらに備え、
前記表示手段は、前記認識された機器のうちに、前記ユーザに指定された画像処理機能を前記共通の画像処理機能として有する機器の組み合わせがある場合、前記認識された機器のうちどの機器が当該組み合わせに含まれる機器であるかを示す画像を表示する請求項1に記載の表示装置。 - 前記表示手段は、前記認識された機器のうちに、前記ユーザに指定された画像処理機能を前記共通の画像処理機能として有する機器の組み合わせが存在しない場合、前記認識された機器のうちに前記ユーザに指定された画像処理機能を共通の画像処理機能として有する機器の組み合わせが存在しないことを示す画像を表示する請求項9に記載の表示装置。
- 所定の機器の画像処理機能の情報を記憶している記憶装置から情報を取得する第3の取得手段をさらに備え、
前記認識された機器のうちに、前記ユーザに指定された画像処理機能を前記共通の画像処理機能として有する機器の組み合わせが存在しない場合、前記第3の取得手段は、前記記憶装置から、前記認識された機器と組み合わせることで、前記ユーザに指定された画像処理機能を前記共通の画像処理機能として有する機器の組み合わせが得られる候補機器の情報を取得し、
前記表示手段は、前記候補機器の情報を示す画像を表示する請求項9に記載の表示装置。 - 前記複数の機器には、複数の表示装置が含まれ、
前記第2の取得手段は、前記各表示装置の画像処理機能の情報及び前記各表示装置の校正の状態に関する情報を取得し、
前記表示手段は、前記認識した表示装置のうちに、共通の画像処理機能を有しかつ表示特性が互いに同じになるように校正された表示装置の組み合わせがある場合、前記認識された表示装置のうちどの機器が当該組み合わせに含まれる表示装置であるかを示す画像を表示する請求項1に記載の表示装置。 - 前記表示手段は、前記認識した表示装置のうちに、共通の画像処理機能を有しかつ少なくとも1つの表示装置について校正を行うことにより表示特性を互いに同じにすることができる表示装置の組み合わせがある場合、前記認識された表示装置のうちどの機器が当該組み合わせに含まれる表示装置であるかを示す画像を表示する請求項12に記載の表示装置。
- 前記第2の取得手段は、前記各機器に設定されている画像処理機能の情報を繰り返し取得し、
前記表示手段は、前記第2の取得手段により繰り返し取得される情報に基づき、前記組み合わせに含まれる機器のうち少なくともいずれかの機器において画像処理機能の設定に変化があった場合、それを通知する画像を表示する請求項1〜13のいずれか1項に記載の表示装置。 - 前記画像処理機能の情報は、表示、記録、伝送及び現像の少なくともいずれかの画像処理における画像データのサイズ、カラーフォーマット、ガンマ、色域及び現像可否の少なくともいずれかの設定の情報を含む請求項1〜14のいずれか1項に記載の表示装置。
- 撮像手段を備える表示装置の制御方法であって、
前記撮像手段により撮像する工程と、
前記撮像手段により複数の機器を撮影して得られた撮影画像を取得する工程と、
前記撮影画像に写っている各機器を認識する工程と、
前記各機器の画像処理機能の情報を取得する工程と、
前記撮影画像を表示するとともに、前記認識された機器のうちに、共通の画像処理機能を有する機器の組み合わせがある場合、当該組み合わせの情報及び共通の画像処理機能の情報の少なくともいずれかを示す画像を表示する工程と、
を有する表示装置の制御方法。 - 撮像手段を備える表示装置の制御方法に係る各工程をコンピュータに実行させるプログラムであって、
前記撮像手段により撮像する工程と、
前記撮像手段により複数の機器を撮影して得られた撮影画像を取得する工程と、
前記撮影画像に写っている各機器を認識する工程と、
前記各機器の画像処理機能の情報を取得する工程と、
前記撮影画像を表示するとともに、前記認識された機器のうちに、共通の画像処理機能を有する機器の組み合わせがある場合、当該組み合わせの情報及び共通の画像処理機能の情報の少なくともいずれかを示す画像を表示する工程と、
をコンピュータに実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015139933A JP2017021656A (ja) | 2015-07-13 | 2015-07-13 | 表示装置及びその制御方法 |
US15/204,720 US20170018108A1 (en) | 2015-07-13 | 2016-07-07 | Display apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015139933A JP2017021656A (ja) | 2015-07-13 | 2015-07-13 | 表示装置及びその制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017021656A true JP2017021656A (ja) | 2017-01-26 |
Family
ID=57776186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015139933A Pending JP2017021656A (ja) | 2015-07-13 | 2015-07-13 | 表示装置及びその制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20170018108A1 (ja) |
JP (1) | JP2017021656A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019213137A (ja) * | 2018-06-07 | 2019-12-12 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
CN110677546A (zh) * | 2018-07-03 | 2020-01-10 | 富士施乐株式会社 | 信息处理装置、信息处理方法和非暂时性计算机可读介质 |
JP2021068383A (ja) * | 2019-10-28 | 2021-04-30 | 富士ゼロックス株式会社 | 情報処理装置、及び、情報処理プログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9814037B2 (en) * | 2013-06-28 | 2017-11-07 | Intel Corporation | Method for efficient channel estimation and beamforming in FDD system by exploiting uplink-downlink correspondence |
CN110245683B (zh) * | 2019-05-13 | 2021-07-27 | 华中科技大学 | 一种少样本目标识别的残差关系网络构建方法及应用 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4765027B2 (ja) * | 2005-07-29 | 2011-09-07 | 国立大学法人 奈良先端科学技術大学院大学 | 情報処理装置及び情報処理システム |
JP4730663B2 (ja) * | 2006-03-20 | 2011-07-20 | 富士フイルム株式会社 | 遠隔制御装置、遠隔制御システムおよび遠隔制御方法 |
JP4986693B2 (ja) * | 2007-04-17 | 2012-07-25 | キヤノン株式会社 | 情報処理装置及びその制御方法、並びにプログラム |
US8230075B1 (en) * | 2008-11-15 | 2012-07-24 | Adobe Systems Incorporated | Method and device for identifying devices which can be targeted for the purpose of establishing a communication session |
KR101444407B1 (ko) * | 2010-11-02 | 2014-09-29 | 한국전자통신연구원 | 근거리 무선 통신을 이용한 증강현실 기반의 기기 제어 장치 및 그 방법 |
US9749846B2 (en) * | 2012-02-03 | 2017-08-29 | Sony Corporation | Image recognition for pairing of devices |
JP5715301B2 (ja) * | 2012-12-27 | 2015-05-07 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 表示方法および表示装置 |
KR102238775B1 (ko) * | 2014-02-10 | 2021-04-09 | 삼성전자주식회사 | 전자 장치에서 증강 현실을 이용한 장비 관리 장치 및 방법 |
EP3217679B1 (en) * | 2014-11-05 | 2020-05-13 | LG Electronics Inc. | Image output device, mobile terminal, and control method therefor |
JP2016170528A (ja) * | 2015-03-11 | 2016-09-23 | 株式会社リコー | 頭部装着型表示装置及び頭部装着型表示装置における外部機器との接続方法 |
-
2015
- 2015-07-13 JP JP2015139933A patent/JP2017021656A/ja active Pending
-
2016
- 2016-07-07 US US15/204,720 patent/US20170018108A1/en not_active Abandoned
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019213137A (ja) * | 2018-06-07 | 2019-12-12 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP7070117B2 (ja) | 2018-06-07 | 2022-05-18 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
CN110677546A (zh) * | 2018-07-03 | 2020-01-10 | 富士施乐株式会社 | 信息处理装置、信息处理方法和非暂时性计算机可读介质 |
JP2020010096A (ja) * | 2018-07-03 | 2020-01-16 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP7099092B2 (ja) | 2018-07-03 | 2022-07-12 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
US11455136B2 (en) | 2018-07-03 | 2022-09-27 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
JP2021068383A (ja) * | 2019-10-28 | 2021-04-30 | 富士ゼロックス株式会社 | 情報処理装置、及び、情報処理プログラム |
JP7476513B2 (ja) | 2019-10-28 | 2024-05-01 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、及び、情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20170018108A1 (en) | 2017-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017021656A (ja) | 表示装置及びその制御方法 | |
CN105681647A (zh) | 摄像设备及其控制方法 | |
KR20190079537A (ko) | 전자기기 | |
US10084956B2 (en) | Imaging apparatus, and imaging system | |
JP2010268409A (ja) | 撮像装置 | |
JP2015039095A (ja) | 電子機器、方法およびプログラム | |
US20220247917A1 (en) | Image capture apparatus, operation apparatus and control methods | |
JP5942422B2 (ja) | 情報処理装置、その制御方法及びプログラム | |
US20230050725A1 (en) | Information processing device, information display system, and information display method | |
CN111078085B (zh) | 信息处理设备、信息处理设备的控制方法及存储介质 | |
US10217196B2 (en) | Image processing apparatus having image refocusing function, control method for image processing apparatus, and storage medium | |
JP6387700B2 (ja) | 情報処理装置、情報処理システム、情報処理装置の制御方法およびプログラム | |
JP2014158102A (ja) | 撮像装置および画像処理装置 | |
JP7307392B1 (ja) | 情報処理システム及びその制御方法、プログラム | |
US9571717B2 (en) | Imaging device, imaging system, imaging method, and computer-readable recording medium | |
JP2014022921A (ja) | 電子機器およびプログラム | |
JP2018151482A (ja) | 表示装置及びその制御方法、記憶媒体、プログラム | |
JP5180569B2 (ja) | カメラ制御装置、カメラ制御方法、カメラシステム、及びプログラム | |
KR101448530B1 (ko) | 디지털 영상 처리 방법 | |
JP2017224910A (ja) | 情報処理装置、及びその制御方法 | |
US9635430B2 (en) | Image storing apparatus, image managing method and computer readable recording medium recording program thereon | |
EP2608485A1 (en) | Method and device for transmitting and receiving information | |
JP2017017471A (ja) | 情報処理システム、及びその制御方法、プログラム | |
JP6451509B2 (ja) | 情報端末、撮影制御プログラム、表示システム、及び撮影制御方法 | |
JP2019110423A (ja) | 撮影装置、制御方法及びプログラム |