JP2020115639A - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP2020115639A
JP2020115639A JP2020033764A JP2020033764A JP2020115639A JP 2020115639 A JP2020115639 A JP 2020115639A JP 2020033764 A JP2020033764 A JP 2020033764A JP 2020033764 A JP2020033764 A JP 2020033764A JP 2020115639 A JP2020115639 A JP 2020115639A
Authority
JP
Japan
Prior art keywords
image data
input
combination
input image
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020033764A
Other languages
Japanese (ja)
Other versions
JP6834042B2 (en
Inventor
智章 小宮山
Tomoaki Komiyama
智章 小宮山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020033764A priority Critical patent/JP6834042B2/en
Publication of JP2020115639A publication Critical patent/JP2020115639A/en
Application granted granted Critical
Publication of JP6834042B2 publication Critical patent/JP6834042B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To highly accurately determine partial image data constituting whole image data out of a plurality of image data to be input in a display device.SOLUTION: A display device (100) includes: input means in which a plurality of image data are input; acquisition means for acquiring format information of the plurality of input image data; determination means for determining whether or not there is a combination of partial image data constituting whole image data having a size larger than that of the input image data in the plurality of image input data on the basis of the format information; generation means that synthesizes the input data determined by the determination means as the combination of the partial data to generate the whole image data; and display means that displays an image based on the whole image data generated by the generation means.SELECTED DRAWING: Figure 1

Description

本発明は、表示装置に関する。 The present invention relates to a display device.

近年、4K2K(4096×2160)や8K4K(8192×4320)等の高精細画像を表示可能な表示装置が実用化されている。しかしながら高精細画像データの伝送には広帯域が要求されるため伝送系のコストが高くなる。そこで、元の高精細画像データ(全体画像データという)を複数の部分画像データに分割して伝送し、表示装置において部分画像データを合成して全体画像データを再生する方法が提案されている。この方法によれば、伝送に広帯域が要求されないため伝送系のコストを低減できる。分割画像データから全体画像データを正しく構成するためには、表示装置に入力されている複数の画像データのうち、全体画像データを構成する分割画像データを正しく選択する必要がある。ユーザ操作によってこの選択を行う構成では、分割数が多くなるとユーザに煩雑な操作をさせることになるという課題がある。分割画像データの選択を自動で行う構成としては、入力画像データを解析し、所定の条件を満たす入力画像データを部分画像データとして判定する方法がある。特許文献1には、複数の入力画像データのうち同期信号の周波数が同じである画像データの数をカウントし、最も画像データの数が多い周波数を基準として画像合成を行う方法が開示されている。 In recent years, display devices capable of displaying high-definition images such as 4K2K (4096×2160) and 8K4K (8192×4320) have been put into practical use. However, transmission of high-definition image data requires a wide band, which increases the cost of the transmission system. Therefore, a method has been proposed in which original high-definition image data (referred to as whole image data) is divided into a plurality of partial image data for transmission, and the partial image data is combined in a display device to reproduce the whole image data. According to this method, a wide band is not required for transmission, so that the cost of the transmission system can be reduced. In order to correctly configure the whole image data from the divided image data, it is necessary to correctly select the divided image data forming the entire image data from the plurality of image data input to the display device. The configuration in which this selection is performed by a user operation has a problem that the user is required to perform a complicated operation when the number of divisions increases. As a configuration for automatically selecting the divided image data, there is a method of analyzing the input image data and determining the input image data satisfying a predetermined condition as the partial image data. Patent Document 1 discloses a method of counting the number of image data having the same frequency of a synchronization signal among a plurality of input image data and performing image combination with reference to the frequency having the largest number of image data. ..

特開2013−5226号公報JP, 2013-5226, A

特許文献1の方法で推定した部分画像データの組み合わせが常に全体画像データを構成する部分画像データの組み合わせになるとは限らない。例えば、同期信号の周波数が同じである画像データA1、A2、Bが入力されており、このうち画像データA1とA2は全体画像データAを構成する部分画像データであり、画像データBは全体画像データAとは独立の画像データであるとする。この場合、特許文献1の方法では、画像データBも全体画像データAを構成する部分画像データと判定されてしまう可能性がある。そうすると、全体画像データのサイズが表示装置の表示可能なサイズを超えてしまう。 The combination of partial image data estimated by the method of Patent Document 1 does not always become the combination of partial image data forming the entire image data. For example, image data A1, A2, and B having the same frequency of the synchronization signal are input. Of these, the image data A1 and A2 are partial image data forming the entire image data A, and the image data B is the entire image. It is assumed that the image data is independent of the data A. In this case, according to the method of Patent Document 1, the image data B may be determined as the partial image data forming the entire image data A. Then, the size of the entire image data exceeds the displayable size of the display device.

そこで、本発明は、表示装置に入力される複数の画像データのうち全体画像データを構成する部分画像データを精度良く判定する技術を提供することを目的とする。 Therefore, it is an object of the present invention to provide a technique for accurately determining partial image data forming the entire image data among a plurality of image data input to a display device.

上記の目的を達成するために、本発明に係る表示装置の一つは、複数の画像データが入力される入力手段と、前記複数の入力画像データのフォーマット情報を取得する取得手段と、前記フォーマット情報に基づき、前記複数の入力画像データのうちに、前記入力画像データよりサイズが大きい全体画像データを構成する部分画像データの組み合わせがあるか判定する判定手段と、前記判定手段により前記部分画像データの組み合わせと判定された前記入力画像データを合成して前記全体画像データを生成する生成手段と、前記生成手段により生成された前記全体画像データに基づく画像を表示する表示手段とを有する。 In order to achieve the above object, one of the display devices according to the present invention is an input unit for inputting a plurality of image data, an acquisition unit for acquiring format information of the plurality of input image data, and the format. Determination means for determining whether there is a combination of partial image data having a size larger than the input image data among the plurality of input image data based on the information, and the partial image data by the determination means And a display unit for displaying an image based on the overall image data generated by the generating unit.

上記の目的を達成するために、本発明に係る表示装置の一つは、複数の画像データが入力される入力手段と、前記複数の入力画像データのフォーマット情報を取得する取得手段
と、前記フォーマット情報に基づき、前記複数の入力画像データのうちに、前記入力画像データよりサイズが大きい全体画像データを構成する部分画像データの組み合わせがあるか判定する判定手段と、前記判定手段により前記部分画像データの組み合わせと判定された前記入力画像データの情報をユーザに提示する提示手段と、前記複数の入力画像データのうち前記部分画像データの組み合わせを指定する指示をユーザから受け付ける指定手段と、前記指定手段により前記部分画像データの組み合わせとして指定された前記入力画像データを合成して前記全体画像データを生成する生成手段と、前記生成手段により生成された前記全体画像データに基づく画像を表示する表示手段とを有する。
In order to achieve the above object, one of the display devices according to the present invention is an input unit for inputting a plurality of image data, an acquisition unit for acquiring format information of the plurality of input image data, and the format. Determination means for determining whether there is a combination of partial image data having a size larger than the input image data among the plurality of input image data based on the information, and the partial image data by the determination means Presenting means for presenting the information of the input image data determined to be a combination to the user, designating means for accepting from the user an instruction to designate the combination of the partial image data among the plurality of input image data, and the designating means. Generating means for synthesizing the input image data designated as a combination of the partial image data to generate the whole image data, and display means for displaying an image based on the whole image data generated by the generating means. Have.

上記の目的を達成するために、本発明に係る制御方法の一つは、複数の画像データが入力される入力ステップと、前記複数の入力画像データのフォーマット情報を取得する取得ステップと、前記フォーマット情報に基づき、前記複数の入力画像データのうちに、前記入力画像データよりサイズが大きい全体画像データを構成する部分画像データの組み合わせがあるか判定する判定ステップと、前記判定ステップにより前記部分画像データの組み合わせと判定された前記入力画像データを合成して前記全体画像データを生成する生成ステップと、前記生成ステップにより生成された前記全体画像データに基づく画像を表示する表示ステップとを有する。 In order to achieve the above object, one of the control methods according to the present invention is an input step of inputting a plurality of image data, an acquisition step of acquiring format information of the plurality of input image data, and the format. Based on the information, a determination step of determining whether there is a combination of partial image data that is larger in size than the input image data among the plurality of input image data, and the partial image data is determined by the determination step. And a display step of displaying an image based on the overall image data generated by the generating step.

上記の目的を達成するために、本発明に係る制御方法の一つは、複数の画像データが入力される入力ステップと、前記複数の入力画像データのフォーマット情報を取得する取得ステップと、前記フォーマット情報に基づき、前記複数の入力画像データのうちに、前記入力画像データよりサイズが大きい全体画像データを構成する部分画像データの組み合わせがあるか判定する判定ステップと、前記判定ステップにより前記部分画像データの組み合わせと判定された前記入力画像データの情報をユーザに提示する提示ステップと、前記複数の入力画像データのうち前記部分画像データの組み合わせを指定する指示をユーザから受け付ける指定ステップと、前記指定ステップにより前記部分画像データの組み合わせとして指定された前記入力画像データを合成して前記全体画像データを生成する生成ステップと、前記生成ステップにより生成された前記全体画像データに基づく画像を表示する表示ステップとを有する。 In order to achieve the above object, one of the control methods according to the present invention is an input step of inputting a plurality of image data, an acquisition step of acquiring format information of the plurality of input image data, and the format. Based on the information, a determination step of determining whether there is a combination of partial image data that is larger in size than the input image data among the plurality of input image data, and the partial image data is determined by the determination step. A step of presenting information of the input image data determined to be a combination to the user, a specification step of receiving from the user an instruction to specify a combination of the partial image data of the plurality of input image data, and the specifying step A generation step of synthesizing the input image data specified as a combination of the partial image data to generate the whole image data; and a display step of displaying an image based on the whole image data generated by the generation step. Have.

本発明によれば、表示装置に入力される複数の画像データのうち全体画像データを構成する部分画像データを精度良く判定することができる。 According to the present invention, it is possible to accurately determine the partial image data forming the entire image data among the plurality of image data input to the display device.

実施形態1〜3の表示装置100が有する複数の構成要素を説明するための図である。It is a figure for demonstrating the some component which the display apparatus 100 of Embodiments 1-3 has. 実施形態1における表示装置100で行われる処理を説明するためのフローチャートである。6 is a flowchart for explaining a process performed by the display device 100 according to the first embodiment. 入力画像データのフォーマット情報の一例を説明するための図である。It is a figure for explaining an example of format information of input image data. パターンテーブルの一例を説明するための図である。It is a figure for explaining an example of a pattern table. 画像入力部を選択するメニューの一例を説明するための図である。It is a figure for explaining an example of a menu which chooses an image input part. 実施形態3における表示装置100で行われる処理を説明するためのフローチャートである。9 is a flowchart for explaining a process performed by the display device 100 according to the third embodiment. 隣接する画素の画素値の差分を判定する処理を説明するための図である。It is a figure for demonstrating the process which determines the difference of the pixel value of an adjacent pixel.

以下、図面を参照して本発明の実施形態を説明する。ただし、本発明の実施形態は以下の実施形態に限定されるものではない。 Embodiments of the present invention will be described below with reference to the drawings. However, the embodiments of the present invention are not limited to the following embodiments.

[実施形態1]
図1は、実施形態1〜3における表示装置100が有する複数の構成要素を説明するための図である。
実施形態1では、表示装置100が、例えば、プロジェクタとして動作する場合を説明するが、表示装置100はプロジェクタに限るものではない。表示装置100がプロジェクタとして動作する場合、表示装置100は、単板式のプロジェクタとして構成することも、3板式のプロジェクタとして構成することも可能である。表示装置100がプロジェクタとして動作する場合、表示装置100は、液晶表示器を有するプロジェクタとして構成することも、有機EL(Electro Luminescence)表示器を有するプロジェクタとして構成することも可能である。表示装置100がプロジェクタとして動作する場合、表示装置100は、MEMS(Micro Electro Mechanical Systems)シャッターを有するプロジェクタとして構成することも可能である。
[Embodiment 1]
FIG. 1 is a diagram for explaining a plurality of components included in the display device 100 according to the first to third embodiments.
In the first embodiment, the case where the display device 100 operates as, for example, a projector will be described, but the display device 100 is not limited to the projector. When the display device 100 operates as a projector, the display device 100 can be configured as a single-plate type projector or a three-plate type projector. When the display device 100 operates as a projector, the display device 100 can be configured as a projector having a liquid crystal display or as a projector having an organic EL (Electro Luminescence) display. When the display device 100 operates as a projector, the display device 100 can also be configured as a projector having a MEMS (Micro Electro Mechanical Systems) shutter.

制御部101は、表示装置100を構成する各構成要素の動作を制御する。制御部101は、他の構成要素とバスで接続されており、他の構成要素へ制御指示を出したり、他の構成要素との間でデータのやり取りを行ったりする。
操作部102は、ユーザからの指示を受け付ける。操作部102を操作することにより、ユーザは所望の指示(コマンド)を表示装置100へ入力することができる。電源部103は、表示装置100を構成する各構成要素への電力供給を制御する。液晶部104は、1枚又は3枚の液晶パネルで構成され、画像データに基づく画像が形成される。実施形態1において液晶部104の画素数は3840×2160であるとする。なおこの画素数は一例であって液晶パネルの画素数はこれに限られない。
The control unit 101 controls the operation of each component that constitutes the display device 100. The control unit 101 is connected to other constituent elements via a bus, issues control instructions to the other constituent elements, and exchanges data with the other constituent elements.
The operation unit 102 receives an instruction from the user. By operating the operation unit 102, the user can input a desired instruction (command) to the display device 100. The power supply unit 103 controls power supply to each constituent element of the display device 100. The liquid crystal unit 104 is composed of one or three liquid crystal panels and forms an image based on image data. In the first embodiment, the number of pixels of the liquid crystal section 104 is 3840×2160. This number of pixels is an example, and the number of pixels of the liquid crystal panel is not limited to this.

液晶駆動部105は、画像処理部118から入力される画像データに基づいて液晶部104の液晶パネルの液晶素子を駆動し、画像を形成させる。光源106は、液晶部104に光を供給する。投影光学系107は、液晶部104を透過した光をスクリーンに投影する。光源制御部108は、光源106の光量等を制御する。光学系制御部109は、投影光学系107のズームレンズ及びフォーカスレンズの動作を制御し、ズーム倍率及び焦点調整等を行う。 The liquid crystal drive unit 105 drives the liquid crystal element of the liquid crystal panel of the liquid crystal unit 104 based on the image data input from the image processing unit 118 to form an image. The light source 106 supplies light to the liquid crystal unit 104. The projection optical system 107 projects the light transmitted through the liquid crystal unit 104 onto the screen. The light source control unit 108 controls the light amount and the like of the light source 106. The optical system control unit 109 controls the operations of the zoom lens and the focus lens of the projection optical system 107, and adjusts the zoom magnification and focus.

画像入力部110〜113は、PCやDVDプレイヤー等から出力された複数の画像データが入力される画像入力インタフェースである。DVI(Digital Visual Interface)及びHDMI(登録商標)は、画像入力インタフェースの一例である。画像入力インタフェースがHDMIである場合、画像データとともに画像処理等の制御コマンドも同時に入力されることがある。実施形態1では、画像入力部110〜113は、HDMIであるとする。画像入力部110〜113は、後述する画像入力部の選択メニュー300(図5参照)におけるHDMI1〜HDMI4に対応する。
画像入力部110〜113は、周波数カウンタやパルスカウンタ等の測定回路を備え、入力される画像データの同期信号のタイミング等のフォーマット情報を測定して取得し、測定結果を内部レジスタに格納する。
The image input units 110 to 113 are image input interfaces to which a plurality of image data output from a PC, a DVD player or the like is input. DVI (Digital Visual Interface) and HDMI (registered trademark) are examples of image input interfaces. When the image input interface is HDMI, a control command for image processing or the like may be simultaneously input together with the image data. In the first embodiment, the image input units 110 to 113 are assumed to be HDMI. The image input units 110 to 113 correspond to HDMI1 to HDMI4 in the selection menu 300 (see FIG. 5) of the image input unit described later.
The image input units 110 to 113 include measurement circuits such as a frequency counter and a pulse counter, measure and acquire format information such as the timing of a synchronization signal of input image data, and store the measurement result in an internal register.

表示装置100は、表示モードとして標準モードと合成モードとを有する。標準モードでは、表示装置100は、画像入力部110〜113から入力される画像データのうちいずれか1つの画像データに基づく画像を表示する。合成モードでは、表示装置100は、複数の画像データを部分画像データとして合成して得られる、当該部分画像データよりサイズが大きい全体画像データに基づく画像を表示する。合成モードは、例えば4系統のHD画像(1920×1080)を入力してそれらを合成することにより4K画像(3840×2160)を表示するような用途で用いられる。これにより画像入力端子や画像伝送系としてはHD画像に対応したものを用いることができるためコスト増を押さえつつ4K
や8K等の高精細画像の表示に対応することができる。実施形態1では、説明を簡単にするため、合成モードにおいて、全体画像データは、部分画像データを2つ又は4つ合成することによって得られるものとする。なお、全体画像データを構成する部分画像データの数はこの例に限らない。また、全体画像データを合成する際に複数の部分画像データを並べる方法は、横一列、縦一列、タイル状等の方法が考えられる。表示モードの切り替えや全体画像データを構成する部分画像データの選択の設定及び指示は、ユーザが、後述するOSD(On Screen Display)メニュー等を見ながら表示装置100に入力することができる。
The display device 100 has a standard mode and a combination mode as display modes. In the standard mode, the display device 100 displays an image based on any one of the image data input from the image input units 110 to 113. In the combining mode, the display device 100 displays an image based on the entire image data that is larger than the partial image data and is obtained by combining a plurality of image data as the partial image data. The combination mode is used for displaying 4K images (3840×2160) by inputting four systems of HD images (1920×1080) and combining them. As a result, it is possible to use HD image compatible terminals as the image input terminal and the image transmission system.
It is possible to cope with the display of high-definition images of 8K and 8K. In the first embodiment, for simplification of description, it is assumed that the whole image data is obtained by combining two or four partial image data in the combining mode. In addition, the number of partial image data forming the entire image data is not limited to this example. Further, as a method of arranging a plurality of partial image data when synthesizing the whole image data, a horizontal single row, a vertical single row, a tiled method, or the like can be considered. The user can input settings and instructions for switching the display mode and selecting partial image data forming the entire image data while looking at an OSD (On Screen Display) menu or the like to be described later.

USB(Universal Serial Bus)インタフェース114は、USB機器を接続するためのインタフェースである。USBインタフェース114にポインティングデバイス、キーボード、フラッシュメモリ等の外部機器を接続することにより、外部機器から制御コマンドや画像データ等の各種のファイルの入出力ができる。
カードインターフェース115は、SDカードやコンパクトフラッシュ等のカード型の記録媒体を挿入可能であり、記録媒体に対し画像データ等の各種のファイルの入出力ができる。通信部116は、有線LANや無線LAN等の通信インタフェースであり、イントラネットやインターネットに接続することで画像データ等の各種のファイルやコマンド等の送受信を行う。
A USB (Universal Serial Bus) interface 114 is an interface for connecting a USB device. By connecting an external device such as a pointing device, a keyboard, and a flash memory to the USB interface 114, various files such as control commands and image data can be input/output from the external device.
A card type recording medium such as an SD card or a compact flash can be inserted into the card interface 115, and various files such as image data can be input/output to/from the recording medium. The communication unit 116 is a communication interface such as a wired LAN or a wireless LAN, and transmits and receives various files such as image data and commands by connecting to an intranet or the Internet.

内部メモリ117は、半導体メモリやハードディスク等で構成される記憶手段であり、画像データやユーザ設定データ等の各種の情報を保存する。ファイル再生部133は、上記の種々の外部インタフェースから入力されるファイルを処理し、画像データを生成して画像処理部118に出力する。ファイル再生部133は、エンコードされたファイルを制御部101の指示に基づきデコードする処理を行う。画像入力部110〜113から入力された画像データはファイル再生部133を経由せず、直接、画像処理部118に送信される。 The internal memory 117 is a storage unit including a semiconductor memory and a hard disk, and stores various information such as image data and user setting data. The file reproducing unit 133 processes files input from the various external interfaces described above, generates image data, and outputs the image data to the image processing unit 118. The file reproducing unit 133 performs a process of decoding the encoded file based on an instruction from the control unit 101. The image data input from the image input units 110 to 113 is directly transmitted to the image processing unit 118 without passing through the file reproduction unit 133.

画像処理部118は、ファイル再生部133や画像入力部110〜113から入力される画像データや制御部101から入力される画像データに対し、画像処理を行う。画像処理部118が行う画像処理には、例えば、液晶部104の画像形成に適合するように画素数を変換する処理や、液晶パネルの交流駆動のために画像データのフレーム数を倍にする処理等がある。ここで、液晶パネルの交流駆動とは、液晶パネルの液晶にかける電圧の方向をフレーム毎に入れ替えて表示させる方法である。これは、液晶にかける電圧の方向が正方向でも逆方向でも画像を形成できる液晶パネルの性質を利用した駆動方法である。この駆動方法では、液晶駆動部105に正方向用の画像と逆方向用の画像を1枚ずつ送る必要があるので、画像処理部118は、画像データのフレーム数を倍にする処理を行う。 The image processing unit 118 performs image processing on the image data input from the file reproduction unit 133 or the image input units 110 to 113 or the image data input from the control unit 101. The image processing performed by the image processing unit 118 is, for example, a process of converting the number of pixels so as to match the image formation of the liquid crystal unit 104, or a process of doubling the number of frames of image data for AC drive of the liquid crystal panel. Etc. Here, the AC driving of the liquid crystal panel is a method in which the direction of the voltage applied to the liquid crystal of the liquid crystal panel is switched for each frame for display. This is a driving method utilizing the property of a liquid crystal panel that can form an image regardless of whether the voltage applied to the liquid crystal is the forward direction or the reverse direction. In this driving method, since it is necessary to send one image for the forward direction and one image for the reverse direction to the liquid crystal driving unit 105, the image processing unit 118 performs a process of doubling the number of frames of the image data.

画像処理部118は、画像入力部110〜113から入力された画像データに対してフォーマット情報の測定や画像解析も行う。画像処理部118は、画像データにおける同期信号等のタイミングを測定し、制御部101が読み取り可能な内部レジスタに格納する。また画像データの画素値の情報を内部レジスタに格納する。
画像処理部118は、画像データに対し、キーストーン補正を行う。キーストーン補正は、スクリーンに対して斜め方向から画像を投影した場合に投影画像が歪んで台形等の形状になるのを抑制するために、画像データに対し形状変形を行う処理である。キーストーン補正では、画像処理部118は、入力される画像データの水平方向・垂直方向に拡大・縮小する。これにより、投影像の台形状の歪みと液晶パネル上での画像の歪みとが相殺され、正しいアスペクト比の画像がスクリーンに投影表示される。画像処理部118は、後述する傾きセンサ119により得られた表示装置100の傾き角に基づいて自動でキーストーン補正を行ってもよいし、ユーザが操作部102を操作することにより入力されたキーストーン補正のコマンドに従って補正を行ってもよい。
The image processing unit 118 also performs measurement of format information and image analysis on the image data input from the image input units 110 to 113. The image processing unit 118 measures the timing of a synchronization signal or the like in the image data and stores it in an internal register readable by the control unit 101. In addition, the information of the pixel value of the image data is stored in the internal register.
The image processing unit 118 performs keystone correction on the image data. The keystone correction is a process of deforming the shape of the image data in order to prevent the projected image from being distorted into a trapezoidal shape or the like when the image is projected obliquely on the screen. In the keystone correction, the image processing unit 118 enlarges/reduces the input image data in the horizontal and vertical directions. This cancels out the trapezoidal distortion of the projected image and the distortion of the image on the liquid crystal panel, and an image with the correct aspect ratio is projected and displayed on the screen. The image processing unit 118 may automatically perform keystone correction based on the tilt angle of the display device 100 obtained by the tilt sensor 119 described below, or the key input by the user operating the operation unit 102. The correction may be performed according to the stone correction command.

傾きセンサ119は、表示装置100の傾きを検出する。タイマ120は、表示装置100の動作時間や各構成要素の動作時間を検出する。温度計121は、表示装置100の光源106の温度、液晶部104の温度、外気温等を測定する。赤外線受信部122及び123は、表示装置100に指示を送信するリモコン等からの赤外線信号を受信し、制御部101にコマンドを送信する。実施形態1の表示装置100は、後方に設置された赤外線受信部122と前方に設置された赤外線受信部123との複数の赤外線受信部を有している。赤外線受信部の設置数はこれに限らない。 The tilt sensor 119 detects the tilt of the display device 100. The timer 120 detects the operating time of the display device 100 and the operating time of each component. The thermometer 121 measures the temperature of the light source 106 of the display device 100, the temperature of the liquid crystal unit 104, the outside air temperature, and the like. The infrared receiving units 122 and 123 receive an infrared signal from a remote controller or the like that sends an instruction to the display device 100, and send a command to the control unit 101. The display device 100 according to the first embodiment includes a plurality of infrared receiving units, i.e., an infrared receiving unit 122 installed in the rear and an infrared receiving unit 123 installed in the front. The number of infrared receivers installed is not limited to this.

焦点検出部124は、表示装置100とスクリーンとの間の距離を検出する。撮像部125は、スクリーンの方向を撮像する。スクリーン測光部126は、スクリーンにより反射される光の光量や輝度を測定する。表示部128は、表示装置100の状態や警告等を表示する。表示制御部129は、表示部128を制御する。バッテリ130は、表示装置100を持ち運んで使用するとき等に電力を供給する。電源入力部131は、外部からの交流電力を受け入れ、所定の電圧に整流して電源部103に供給する。
冷却部132は、例えば、ヒートシンクとファンにより構成され、表示装置100内の熱を外部に放出することにより本体を冷却する。RAM134は、内部メモリ117に格納されているプログラムの展開先として、或いは画像データを格納するフレームメモリとして用いられる。
The focus detection unit 124 detects the distance between the display device 100 and the screen. The imaging unit 125 images the direction of the screen. The screen photometric unit 126 measures the amount of light and the brightness of the light reflected by the screen. The display unit 128 displays the state of the display device 100, a warning, and the like. The display control unit 129 controls the display unit 128. The battery 130 supplies electric power when the display device 100 is carried and used. The power supply input unit 131 receives AC power from the outside, rectifies it to a predetermined voltage, and supplies it to the power supply unit 103.
The cooling unit 132 is composed of, for example, a heat sink and a fan, and cools the main body by releasing the heat in the display device 100 to the outside. The RAM 134 is used as a development destination of a program stored in the internal memory 117 or a frame memory that stores image data.

次に、表示装置100の基本的な動作について説明する。
制御部101は、操作部102により電源ONの指示が入力されると、電源部103に対し、各構成要素に電力を供給するように指示を出し、各構成要素を待機状態にする。次に、制御部101は、光源制御部108に対し、光源106からの発光を開始させるように指示を出す。次に、制御部101は、焦点検出部124からスクリーンと表示装置100との間の距離の情報を取得し、投影光学系107を調整するよう光学系制御部109に指示を出す。光学系制御部109は、制御部101からの指示に基づき、スクリーンに投影光が結像するように、投影光学系107のズームレンズやフォーカスレンズを動作させる。
Next, the basic operation of the display device 100 will be described.
When a power-on instruction is input from the operation unit 102, the control unit 101 issues an instruction to the power supply unit 103 to supply power to each component, and puts each component in a standby state. Next, the control unit 101 instructs the light source control unit 108 to start light emission from the light source 106. Next, the control unit 101 acquires information on the distance between the screen and the display device 100 from the focus detection unit 124, and instructs the optical system control unit 109 to adjust the projection optical system 107. Based on an instruction from the control unit 101, the optical system control unit 109 operates the zoom lens and the focus lens of the projection optical system 107 so that the projection light forms an image on the screen.

このようにして、投影の準備が整う。次に、画像処理部118は、表示モードに応じて画像入力部110〜113に入力された画像データに対する画像処理を行う。例えば、標準モードでは、画像処理部118は、いずれかの入力画像データを所定のレイアウトでフレームに配置し、液晶部104に適した画素数に変換する。さらに、画像処理部118は、必要に応じて画像データに対しガンマ補正、輝度ムラ補正、キーストーン補正を行う。液晶駆動部105は、画像処理部118により補正された画像データに基づき液晶部104を駆動し、液晶部104の液晶パネルに画像が形成される。 In this way, the projection is ready. Next, the image processing unit 118 performs image processing on the image data input to the image input units 110 to 113 according to the display mode. For example, in the standard mode, the image processing unit 118 arranges any input image data in a frame in a predetermined layout and converts the input image data into the number of pixels suitable for the liquid crystal unit 104. Further, the image processing unit 118 performs gamma correction, brightness unevenness correction, and keystone correction on the image data as needed. The liquid crystal drive unit 105 drives the liquid crystal unit 104 based on the image data corrected by the image processing unit 118, and an image is formed on the liquid crystal panel of the liquid crystal unit 104.

液晶部104の液晶パネルに形成された画像は、光源106から発せられた光により投影光学系107に入射し、投影光学系107によりスクリーンに画像が投影される。画像投影中は、制御部101は、光源106等の温度を温度計121により検出し、温度に応じて冷却部132を動作させて、光源106等の冷却を行う。制御部101は、例えば、光源の温度が40度以上になった場合に冷却部132を作動させる制御を行う。 The image formed on the liquid crystal panel of the liquid crystal unit 104 is incident on the projection optical system 107 by the light emitted from the light source 106, and the image is projected on the screen by the projection optical system 107. During image projection, the control unit 101 detects the temperature of the light source 106 or the like with the thermometer 121, and operates the cooling unit 132 according to the temperature to cool the light source 106 or the like. The control unit 101 performs control to operate the cooling unit 132, for example, when the temperature of the light source becomes 40 degrees or higher.

操作部102により電源OFFの指示が入力されると、制御部101は、各構成要素に終了処理を行うよう指示を出す。各構成要素の動作停止の準備が整うと、電源部103は各構成要素への電力供給を順次停止する。制御部101は、各構成要素の動作停止後、冷却部132をしばらく動作させることにより、表示装置100を冷却する。 When a power-off instruction is input from the operation unit 102, the control unit 101 issues an instruction to each component to perform a termination process. When the preparation for stopping the operation of each component is completed, the power supply unit 103 sequentially stops the power supply to each component. The control unit 101 cools the display device 100 by operating the cooling unit 132 for a while after the operation of each component is stopped.

表示モードが合成モードである場合、画像処理部118は、画像入力部110〜113
に入力された画像データをユーザの指示又は後述する部分画像データの判定処理結果に基づいて合成し、1枚の全体画像として表示する。ユーザは、OSD等の設定メニューを見ながら、操作部102を操作することにより、入力画像データのうちどれを全体画像データを構成する部分画像データの組み合わせとするかの指定を入力することができる。ユーザにより指定された入力画像データの組み合わせに基づいて、画像処理部118は全体画像データを合成する。画像処理部118は、入力画像データを合成して得られた全体画像データを、液晶部104に適した画素数に変換し、また、必要に応じてガンマ補正、輝度ムラ補正、キーストーン補正を行う。液晶駆動部105は、画像処理部118により補正された全体画像データに基づき液晶部104を駆動し、液晶部104の液晶パネルに画像が形成される。
液晶部104の液晶パネルに形成された画像は、光源106から発せられた光により投影光学系107に入射し、投影光学系107によりスクリーンに画像が投影される。
When the display mode is the composite mode, the image processing unit 118 causes the image input units 110 to 113 to operate.
The image data input to is combined based on the user's instruction or the determination processing result of partial image data described later, and is displayed as one whole image. The user can input designation of which of the input image data is to be a combination of partial image data forming the entire image data by operating the operation unit 102 while viewing the setting menu such as the OSD. .. The image processing unit 118 synthesizes the entire image data based on the combination of the input image data designated by the user. The image processing unit 118 converts the entire image data obtained by combining the input image data into the number of pixels suitable for the liquid crystal unit 104, and performs gamma correction, brightness unevenness correction, and keystone correction as necessary. To do. The liquid crystal drive unit 105 drives the liquid crystal unit 104 based on the entire image data corrected by the image processing unit 118, and an image is formed on the liquid crystal panel of the liquid crystal unit 104.
The image formed on the liquid crystal panel of the liquid crystal unit 104 is incident on the projection optical system 107 by the light emitted from the light source 106, and the image is projected on the screen by the projection optical system 107.

次に、図2及び図3を参照し、画像入力部110〜113から入力される画像データのうち、全体画像データを構成する部分画像データの組み合わせを検出する処理について説明する。
図2は、実施形態1における表示装置100で行われる処理を説明するためのフローチャートである。
実施形態1では、操作部102やリモコンから入力されるユーザ指示をトリガとして図2に示す処理が行われるものとする。ユーザにより操作部102から本処理を実行する指示が入力されると、制御部101はS101の処理を開始する。
Next, with reference to FIGS. 2 and 3, a process of detecting a combination of partial image data forming the entire image data among the image data input from the image input units 110 to 113 will be described.
FIG. 2 is a flowchart for explaining the process performed by the display device 100 according to the first embodiment.
In the first embodiment, it is assumed that the process shown in FIG. 2 is performed by using a user instruction input from the operation unit 102 or the remote controller as a trigger. When the user inputs an instruction to execute this process from the operation unit 102, the control unit 101 starts the process of S101.

S101において、制御部101は、画像入力部110〜113に対し、入力されている画像データのフォーマット情報の測定を指示する。実施形態1では、測定するフォーマット情報は、後述する図3に示すように、画素数(Image Size)202、水平同期信号周波数(hSyncFreq)203、垂直同期信号周波数(vSyncFreq)204、量子化クロック(Dclk)205、走査方式(Scanning)206、水平同期信号極性(hPol)207、垂直同期信号極性(vPol)208、水平総ドット数(hTotal)209、水平同期信号幅(hSyncWidth)210、水平バックポーチ(hBp)211、垂直総ライン数(vTotal)212、垂直同期信号幅(vSyncWidth)213、垂直バックポーチ(vBp)214である。画像入力部110〜113は、これらの情報を内部に備えている測定回路により測定し、その結果を内部のレジスタに格納する。制御部101は当該測定結果をバスを介して読み出し、RAM134へ展開する。ここでは画像入力部110〜113へ画像データが入力されているため、制御部101は、画像入力部110〜113にアクセスし、測定結果情報を読み出す。
図3は、入力画像データのフォーマット情報の測定結果200の一例を説明するための図である。画像入力部番号(Port)201の「1」〜「4」は、それぞれ画像入力部110〜113に対応している。
In step S101, the control unit 101 instructs the image input units 110 to 113 to measure the format information of the input image data. In the first embodiment, the format information to be measured includes the number of pixels (Image Size) 202, the horizontal synchronization signal frequency (hSyncFreq) 203, the vertical synchronization signal frequency (vSyncFreq) 204, the quantization clock (as shown in FIG. 3 described later). Dclk) 205, scanning method (Scanning) 206, horizontal sync signal polarity (hPol) 207, vertical sync signal polarity (vPol) 208, horizontal total number of dots (hTotal) 209, horizontal sync signal width (hSyncWidth) 210, horizontal back porch. (HBp) 211, vertical total number of lines (vTotal) 212, vertical sync signal width (vSyncWidth) 213, and vertical back porch (vBp) 214. The image input units 110 to 113 measure these pieces of information by a measuring circuit provided inside, and store the result in an internal register. The control unit 101 reads the measurement result via the bus and expands it in the RAM 134. Here, since the image data is input to the image input units 110 to 113, the control unit 101 accesses the image input units 110 to 113 and reads the measurement result information.
FIG. 3 is a diagram for explaining an example of the measurement result 200 of the format information of the input image data. "1" to "4" of the image input unit number (Port) 201 correspond to the image input units 110 to 113, respectively.

S102において、制御部101は、S101で読み出した測定結果に基づき、フォーマット情報が一致する入力画像データを探索する。制御部101は、図3に示す画像入力部のフォーマット情報の測定結果の各要素について比較演算を行い、全てのフォーマット情報の値が一致する入力画像データの組み合わせを探索する。ここでは全てのフォーマット情報の値が一致する入力画像データの組み合わせを探索する例を示したが、ジッター等により測定結果には多少の誤差が含まれることも想定されるため、差異が所定の範囲内である場合に「一致している」と判定するようにしてもよい。図3の例では、画像入力部111(Port 2)及び112(Port 3)の入力画像データのフォーマット情報が一致しているため、画像入力部番号2及び入力部番号3の組み合わせが探索結果として出力される。これらが全体画像データを構成する部分画像データの候補となる。部分画像
データの候補数は2となる。S102において、制御部101は、部分画像データの候補数が2又は4である場合(TRUE)、S103に進み、それ以外の場合、処理を終了する。図3の例では、部分画像データの候補数が2であるため、制御部101はS103へ遷移する。
In S102, the control unit 101 searches for input image data having the same format information based on the measurement result read in S101. The control unit 101 performs a comparison operation on each element of the measurement result of the format information of the image input unit illustrated in FIG. 3, and searches for a combination of input image data in which the values of all the format information match. Although an example of searching for a combination of input image data in which the values of all format information are the same is shown here, the measurement result may include some error due to jitter etc., so the difference is within the predetermined range. If it is within the range, it may be determined as “matched”. In the example of FIG. 3, since the format information of the input image data of the image input units 111 (Port 2) and 112 (Port 3) is the same, the combination of the image input unit number 2 and the input unit number 3 is the search result. Is output. These are candidates for partial image data forming the entire image data. The number of partial image data candidates is 2. In S102, the control unit 101 proceeds to S103 if the number of partial image data candidates is 2 or 4 (TRUE), and ends the process otherwise. In the example of FIG. 3, since the number of partial image data candidates is 2, the control unit 101 transitions to S103.

S103において、制御部101は、パターンテーブル400を参照し、S102で検出した部分画像データ候補の数及びフォーマット情報と比較する。図4に、実施形態1におけるパターンテーブル400の一例を示す。パターンテーブル400は、表示装置100の合成モードにおいて表示可能な全体画像データとそれを構成する部分画像データの組み合わせの対応関係の情報を示す。全体画素数(Full Image Size)401は、全体画像データの画素数(サイズ)を示しており、この画素数が実施形態1における表示装置100の表示可能な画素数である。入力数(input port)402は、全体画像データを構成する部分画像データの数(全体画像データの部分画像データによる分割数)である。部分画素数(Partial Image Size)403は、全体画像データを構成する部分画像データの画素数を示している。パターンテーブル400は、予め内部メモリ117に記憶されており、表示装置100の起動時に制御部101によりRAM134へ読み出される。 In step S103, the control unit 101 refers to the pattern table 400, and compares the number of partial image data candidates and format information detected in step S102. FIG. 4 shows an example of the pattern table 400 according to the first embodiment. The pattern table 400 shows information on the correspondence relationship between the combination of the entire image data that can be displayed in the combination mode of the display device 100 and the partial image data that constitutes the same. The total number of pixels (Full Image Size) 401 indicates the number of pixels (size) of the entire image data, and this number of pixels is the number of pixels that can be displayed by the display device 100 in the first embodiment. The number of inputs (input port) 402 is the number of partial image data forming the entire image data (the number of divisions of the entire image data by the partial image data). Partial pixel number (Partial Image Size) 403 indicates the number of pixels of partial image data that constitutes the entire image data. The pattern table 400 is stored in the internal memory 117 in advance, and is read into the RAM 134 by the control unit 101 when the display device 100 is activated.

S104において、制御部101は、S102で検出した部分画像データ候補のフォーマット情報のうち画素数202及び部分画像データ候補数と一致する組み合わせがパターンテーブル400にあるか判定する。これにより、制御部101は、測定したフォーマット情報に基づき、複数の入力画像データのうちに、入力画像データよりサイズが大きい全体画像データを構成する部分画像データの組み合わせがあるか判定する。図3の例では、候補の部分画像データは、画像入力部111及び112に入力されている画素数1920×2160の画像データであり、部分画像データの数は2である。これは、パターンテーブル400において、全体画素数3840×2160且つ入力数が2のパターンと一致する。この全体画像データの画素数は、実施形態1における表示装置100の液晶部104の画素数3840×2160と一致する。液晶部104の画素数の情報は、予め内部メモリ117に記憶されているものとする。制御部101は、パターンテーブル400において、S102で検出した部分画像データ候補の画素数及び候補数と一致するパターンによる全体画像データの画素数と、液晶部104の画素数とを比較する。制御部101は、全体画像データが液晶部104で表示可能な画素数である場合、S105へ遷移する。 In S104, the control unit 101 determines whether the pattern table 400 has a combination that matches the number of pixels 202 and the number of partial image data candidates in the format information of the partial image data candidates detected in S102. As a result, the control unit 101 determines, based on the measured format information, whether or not there is a combination of partial image data that makes up the entire image data that is larger than the input image data, among the plurality of input image data. In the example of FIG. 3, the candidate partial image data is image data of 1920×2160 pixels input to the image input units 111 and 112, and the number of partial image data is 2. This matches the pattern in which the total number of pixels is 3840×2160 and the number of inputs is 2 in the pattern table 400. The number of pixels of this entire image data matches the number of pixels 3840×2160 of the liquid crystal unit 104 of the display device 100 according to the first embodiment. Information on the number of pixels of the liquid crystal unit 104 is assumed to be stored in the internal memory 117 in advance. In the pattern table 400, the control unit 101 compares the number of pixels of the partial image data candidate detected in S<b>102 and the number of pixels of the entire image data of the pattern that matches the number of candidates with the number of pixels of the liquid crystal unit 104. When the entire image data has the number of pixels that can be displayed on the liquid crystal unit 104, the control unit 101 transitions to S105.

S105において、制御部101は、S102で検出した部分画像データ候補の組み合わせの画像入力部から入力される画像データを画像処理部118にて合成するよう制御する。これにより、制御部101は、全体画像データを構成する部分画像データの組み合わせと判定された入力画像データを合成して全体画像データを生成する。合成された全体画像データに基づき液晶駆動部105が液晶部104を駆動することにより、全体画像データに基づく画像が投影光学系107によりスクリーンに投影される。 In S105, the control unit 101 controls the image processing unit 118 to combine the image data input from the image input unit of the combination of the partial image data candidates detected in S102. As a result, the control unit 101 combines the input image data determined to be a combination of the partial image data forming the whole image data to generate the whole image data. The liquid crystal drive unit 105 drives the liquid crystal unit 104 based on the combined whole image data, so that the image based on the whole image data is projected onto the screen by the projection optical system 107.

実施形態1では、測定した入力画像データのフォーマット情報及び内部メモリに予め格納しているパターンテーブル400に基づいて入力画像データのうち全体画像データを構成する部分画像データの組み合わせを判定したが、判定方法はこれに限らない。例えば、画像入力部110〜113で受信するHDMI信号に含まれる、CEA(Consumer Electronics Association)Standardで規定されているVIC(Video ID Code)に基づき判定してもよい。入力画像データのうちVICが一致する画像データを、部分画像データの候補として判定してもよい。 In the first embodiment, the combination of the partial image data forming the entire image data of the input image data is determined based on the measured format information of the input image data and the pattern table 400 stored in advance in the internal memory. The method is not limited to this. For example, the determination may be made based on a VIC (Video ID Code) defined in CEA (Consumer Electronics Association) Standard included in the HDMI signal received by the image input units 110 to 113. Of the input image data, the image data having the same VIC may be determined as a candidate for the partial image data.

実施形態1によれば、入力画像データのフォーマット情報の測定結果とパターンテーブルに基づいて適切な部分画像データの組み合わせを探索し、全体画像データを合成して投
影を行うことができる。これにより、ユーザが全体画像データを構成する部分画像データが入力される画像入力部を選択する操作をしなくても、正しく部分画像データを合成した全体画像データを表示することが可能となる。
According to the first embodiment, it is possible to search for an appropriate combination of partial image data based on the measurement result of the format information of the input image data and the pattern table, synthesize the entire image data, and perform projection. As a result, it is possible to correctly display the whole image data in which the partial image data is combined, without the user performing an operation of selecting the image input unit to which the partial image data forming the whole image data is input.

入力画像データのフォーマット情報の測定対象は、図3に例示したものに限らない。図3に例示したフォーマット情報の一部のみでもよいし、図3に例示しなかったフレームレートやブランキング期間等をさらに測定するようにしてもよい。また、実施形態1のS102では、少なくとも一部のフォーマット情報の値が一致する入力画像データの組み合わせを、全体画像データを構成する部分画像データの組み合わせ候補として判定するようにしてもよい。少なくとも一部のフォーマット情報としては、例えば、画素数、フレームレート、同期信号周波数、ブランキング期間等を例示できる。 The measurement target of the format information of the input image data is not limited to the one illustrated in FIG. Only part of the format information illustrated in FIG. 3 may be used, or the frame rate, blanking period, and the like not illustrated in FIG. 3 may be further measured. Further, in S102 of the first embodiment, a combination of input image data in which at least a part of the format information values match may be determined as a combination candidate of partial image data forming the entire image data. As at least a part of the format information, for example, the number of pixels, frame rate, sync signal frequency, blanking period, etc. can be exemplified.

実施形態1のS104では、測定したフォーマット情報が一致する入力画像データの組み合わせを部分画像データと判定するとともに、当該部分画像データを合成して得られる全体画像データが液晶部104で表示可能なサイズの画像か判定している。これにより、例えば、液晶部104の画素数が3840×2160である場合、部分画像データの候補が1920×2160と1920×2160の2つの入力画像データであったときは、正しい部分画像データの組み合わせと判定される。ここで、正しい部分画像データの組み合わせとは、当該部分画像データの組み合わせにより構成される全体画像データのサイズが液晶部104に表示可能なサイズであることである。部分画像データの候補が1920×1080、1920×1080、1920×1080の3つの入力画像データであったときは、正しくない部分画像データの組み合わせと判定される。1920×1080、1920×1080、1920×1080の3つの入力画像データを合成した全体画像データは、液晶部104に表示可能なサイズより大きいからである。 In S104 of the first embodiment, a combination of input image data in which the measured format information matches is determined to be partial image data, and the entire image data obtained by combining the partial image data has a size that can be displayed on the liquid crystal unit 104. It is determined whether the image is. As a result, for example, when the number of pixels of the liquid crystal unit 104 is 3840×2160 and the partial image data candidates are two input image data of 1920×2160 and 1920×2160, a correct combination of partial image data is obtained. Is determined. Here, the correct combination of the partial image data means that the size of the entire image data formed by the combination of the partial image data is a size that can be displayed on the liquid crystal unit 104. When the partial image data candidates are three input image data of 1920×1080, 1920×1080, and 1920×1080, it is determined that the partial image data combination is not correct. This is because the total image data obtained by combining the three input image data of 1920×1080, 1920×1080, and 1920×1080 is larger than the size that can be displayed on the liquid crystal unit 104.

[実施形態2]
実施形態1では、入力画像データのフォーマット情報の測定結果とパターンテーブルに基づいて全体画像データを構成する部分画像データの組み合わせを自動で決定する例を示したが、部分画像データの組み合わせ候補をユーザに提示する例を説明する。実施形態2では、実施形態1と共通の部分についてはその説明を省略し、実施形態1と異なる部分を中心に説明する。
[Embodiment 2]
In the first embodiment, the example in which the combination of the partial image data forming the entire image data is automatically determined based on the measurement result of the format information of the input image data and the pattern table has been described. The example presented in FIG. In the second embodiment, the description of the parts common to the first embodiment will be omitted, and the parts different from the first embodiment will be mainly described.

図2に示すフローチャートのS104までは実施形態1と同様である。
S104において、制御部101は、S102で検出した部分画像データ候補のフォーマット情報のうち画素数202及び部分画像データ候補数と一致する組み合わせがパターンテーブル400にあるか判定する。一致する組み合わせがある場合、制御部101は、当該組み合わせに係る入力画像データの情報(画像入力部の情報)をOSDメニューによりユーザに提示する。これにより、制御部101は、全体画像データを構成する部分画像データの組み合わせと判定した入力画像データの情報をユーザに提示する。ユーザは、この提示情報に基づき、手動で、部分画像データの組み合わせを指定することができる。操作部102は、複数の入力画像データのうち部分画像データの組み合わせを指定する指示をユーザから受け付ける。
The process up to S104 of the flowchart shown in FIG. 2 is the same as that of the first embodiment.
In S104, the control unit 101 determines whether the pattern table 400 has a combination that matches the number of pixels 202 and the number of partial image data candidates in the format information of the partial image data candidates detected in S102. When there is a matching combination, the control unit 101 presents the information of the input image data (information of the image input unit) related to the combination to the user through the OSD menu. As a result, the control unit 101 presents the information of the input image data determined to be the combination of the partial image data forming the entire image data to the user. The user can manually specify the combination of partial image data based on this presentation information. The operation unit 102 receives an instruction from the user to specify a combination of partial image data among a plurality of input image data.

図5(a)は、ユーザにより操作部102から図2に示す処理を実行する指示を受ける前の標準モードにおける画像入力部の選択メニュー300である。標準モードでは、選択メニュー300において、画像入力部110〜113(HDMI1〜4)のうちいずれか1つを表示対象の画像データの入力部として選択することが可能である。
図5(b)は、ユーザにより操作部102から図2に示す処理を実行する指示を受けた後の合成モードにおける画像入力部の選択メニュー300である。合成モードでは、図2の処理により制御部101が探索した、全体画像データを構成する部分画像データの組み
合わせ候補を示す選択項目301が選択メニュー300に追加されている。
FIG. 5A is a selection menu 300 of the image input unit in the standard mode before the user receives an instruction to execute the process shown in FIG. 2 from the operation unit 102. In the standard mode, it is possible to select any one of the image input units 110 to 113 (HDMI 1 to 4) as the input unit of the image data to be displayed in the selection menu 300.
FIG. 5B is a selection menu 300 of the image input unit in the composite mode after the user receives an instruction to execute the process shown in FIG. 2 from the operation unit 102. In the combination mode, a selection item 301 indicating a combination candidate of partial image data forming the entire image data searched by the control unit 101 by the processing of FIG. 2 is added to the selection menu 300.

図3の例では、S104の処理により、制御部101は、画像入力部111及び画像入力部112(選択メニュー300におけるHDMI2及びHDMI3)の組み合わせを全体画像データを構成する部分画像データの組み合わせと判定する。この判定結果に基づき、制御部101は、画像処理部118に対し、選択メニュー300に当該組み合わせの情報を示す選択項目301を生成し、OSDメニューとして表示画像に重畳し、ユーザに当該組み合わせの情報を提示するよう制御する。ユーザが操作部102の操作により、選択項目301を選択する指示を入力した場合、制御部101は、S102で検出した部分画像データ候補の組み合わせの画像入力部から入力される画像データを画像処理部118にて合成するよう制御する。これにより、制御部101は、部分画像データの組み合わせとしてユーザに指定された入力画像データを合成して全体画像データを生成する。合成された全体画像データに基づき液晶駆動部105が液晶部104を駆動することにより、全体画像データに基づく画像が投影光学系107によりスクリーンに投影される。 In the example of FIG. 3, by the process of S104, the control unit 101 determines that the combination of the image input unit 111 and the image input unit 112 (HDMI2 and HDMI3 in the selection menu 300) is the combination of partial image data that forms the entire image data. To do. Based on this determination result, the control unit 101 causes the image processing unit 118 to generate a selection item 301 indicating the information of the combination in the selection menu 300, superimpose it on the display image as an OSD menu, and inform the user of the information of the combination. Control to present. When the user operates the operation unit 102 to input an instruction to select the selection item 301, the control unit 101 converts the image data input from the image input unit of the combination of the partial image data candidates detected in S102 into the image processing unit. At 118, control is performed so that they are combined. Thereby, the control unit 101 synthesizes the input image data designated by the user as a combination of the partial image data to generate the entire image data. The liquid crystal drive unit 105 drives the liquid crystal unit 104 based on the combined whole image data, so that the image based on the whole image data is projected onto the screen by the projection optical system 107.

実施形態2によれば、入力画像データのフォーマット情報の測定結果とパターンテーブルに基づいて適切な部分画像データの組み合わせが探索され、その結果が画像入力部の選択メニュー300に選択項目301としてユーザに提示される。ユーザは、この提示された情報に基づき、全体画像データを構成する部分画像データが入力されている画像入力部を簡単に選択することができる。これにより、ユーザが部分画像データが入力されている画像入力部を選択する操作を大幅に簡略化することが可能となる。 According to the second embodiment, an appropriate combination of partial image data is searched based on the measurement result of the format information of the input image data and the pattern table, and the result is displayed to the user as the selection item 301 in the selection menu 300 of the image input unit. Presented. Based on the presented information, the user can easily select the image input section to which the partial image data forming the whole image data has been input. This makes it possible to greatly simplify the operation for the user to select the image input unit in which the partial image data has been input.

実施形態2において、部分画像データの組み合わせの候補として判定された画像データを入力している画像入力部をOSDのGUIによりユーザに提示する例を説明したが、ユーザへの提示方法はこれに限らない。各画像入力部にLED(Light Emitting Diode)等で構成されるインジケータを備え、部分画像データの組み合わせの候補に対応する画像入力部のLEDを点灯させることによりユーザに部分画像データの組み合わせの情報を提示してもよい。或いは、表示部128に部分画像データの組み合わせの候補の情報を表示してもよい。 In the second embodiment, an example has been described in which the image input unit that inputs image data determined as a candidate for a combination of partial image data is presented to the user by the GUI of the OSD, but the presentation method to the user is not limited to this. Absent. Each image input unit is provided with an indicator composed of an LED (Light Emitting Diode) or the like, and by turning on the LED of the image input unit corresponding to the candidate of the combination of partial image data, the user is notified of the information of the combination of partial image data. May be presented. Alternatively, the display unit 128 may display information on candidates for a combination of partial image data.

[実施形態3]
実施形態3では、全体画像データを構成する部分画像データと同じフォーマットの画像データであって、当該全体画像データとは独立した画像データが画像入力部から入力されている場合に、部分画像データの組み合わせを正しく判定する方法について説明する。実施形態1及び2では、フォーマット情報の測定結果とパターンテーブルとを比較することで全体画像データを構成する部分画像データを判定した。しかし、当該部分画像データとフォーマット情報が同じだが、当該全体画像データを構成する部分画像データではない画像データが入力されている場合、当該画像データが部分画像データでないことを精度良く判定できることが好ましい。
[Third Embodiment]
In the third embodiment, when partial image data forming the entire image data has the same format as image data and image data independent of the entire image data is input from the image input unit, the partial image data A method of correctly determining the combination will be described. In the first and second embodiments, the partial image data forming the entire image data is determined by comparing the measurement result of the format information with the pattern table. However, when the partial image data and the format information are the same, but the image data that is not the partial image data forming the entire image data is input, it is preferable to be able to accurately determine that the image data is not the partial image data. ..

実施形態3では、全体画像データを構成するために2つの部分画像データの候補を上下又は左右に並べた場合に互いに隣接する端部又はつなぎ目における画素(隣接画素という)の画素値の差に着目する。隣接画素の画素値の差分が小さい場合、1つの連続した画像データを分割した部分画像データと判定できる。そこで、実施形態3では、2つの入力画像データを上下又は左右に並べた場合に互いに隣接する端部における画素値の差分絶対値の総和が所定の閾値より小さい場合、2つの入力画像データは全体画像データを構成する部分画像データの組み合わせに含まれると判定する。 In the third embodiment, when two candidates for partial image data are arranged vertically or horizontally to form the entire image data, attention is paid to a difference in pixel value between pixels (referred to as adjacent pixels) at ends or joints adjacent to each other. To do. When the difference between the pixel values of adjacent pixels is small, it can be determined that one continuous image data is divided partial image data. Therefore, in the third embodiment, when the two input image data are arranged vertically or horizontally, and when the sum of absolute differences of pixel values at adjacent ends is smaller than a predetermined threshold value, the two input image data are entirely It is determined that it is included in the combination of the partial image data forming the image data.

図6は、実施形態3における表示装置100で行われる処理を説明するためのフローチャートである。S201からS204までの処理は、図2のS101からS104までの
処理と同様である。ここでは、S204以降の処理について説明する。
S204において、S202で検出した部分画像データ候補のフォーマット情報のうち画素数202及び部分画像データ候補数と一致する組み合わせがパターンテーブル400にある場合、制御部101はS205へ遷移する。
FIG. 6 is a flowchart for explaining the processing performed by the display device 100 according to the third embodiment. The processing from S201 to S204 is the same as the processing from S101 to S104 in FIG. Here, the processing after S204 will be described.
In S204, when the pattern table 400 has a combination that matches the number of pixels 202 and the number of partial image data candidates in the format information of the partial image data candidates detected in S202, the control unit 101 transitions to S205.

S205において、制御部101は、部分画像データの候補の互いに隣接する端部における画素値の差分絶対値和が閾値より小さいか否かの判定処理を行う。実施形態1及び2では、全体画像データの画素数が3840×2160である場合を例に説明したが、実施形態3では、簡単のため、図7(a)〜(d)に示す5×5の2値の画像データを例に説明する。図7の例では、部分画像データは5×5であり、これを2枚組み合わせて合成される全体画像データは10×5である。 In step S205, the control unit 101 performs a determination process of whether or not the sum of absolute differences between the pixel values of the adjacent ends of the partial image data candidates is smaller than the threshold value. In the first and second embodiments, the case where the number of pixels of the entire image data is 3840×2160 has been described as an example, but in the third embodiment, for simplicity, 5×5 shown in FIGS. The binary image data will be described as an example. In the example of FIG. 7, the partial image data is 5×5, and the total image data combined by combining the two pieces is 10×5.

図6(b)は、差分絶対値和の判定処理を説明するためのフローチャートである。
まず、図7(a)の画像データが画像入力部111へ入力されており、図7(b)の画像データが画像入力部112へ入力されている場合について説明する。
FIG. 6B is a flowchart for explaining the process of determining the sum of absolute differences.
First, a case where the image data of FIG. 7A is input to the image input unit 111 and the image data of FIG. 7B is input to the image input unit 112 will be described.

S301において、制御部101は、2つの入力画像データの隣接する画素の画素値の差分を取得して行くためのカウンタnを初期化する。カウンタnの値はRAM134に格納される。このカウンタnは、図7(a)の画像と図7(b)の画像との隣接する端部における画素値を比較するライン番号を意味する(n=1〜5)。 In S301, the control unit 101 initializes a counter n for acquiring the difference between the pixel values of adjacent pixels of two input image data. The value of the counter n is stored in the RAM 134. This counter n means a line number for comparing pixel values at adjacent ends of the image of FIG. 7A and the image of FIG. 7B (n=1 to 5).

S302において、制御部101は、画像入力部111へ入力されている図7(a)の画像のうち、画像入力部112へ入力されている図7(b)の画像と隣接する端部の1ライン目の画素E:1の画素値を画像処理部118のフレームメモリから読み出す。図7(a)の画像の画素E:1は、図示する通り白であるため、階調値1が読み出される。 In step S<b>302, the control unit 101 selects one of the end portions adjacent to the image of FIG. 7B input to the image input unit 112 among the images of FIG. 7A input to the image input unit 111. The pixel value of the pixel E:1 on the line is read from the frame memory of the image processing unit 118. Since the pixel E:1 of the image in FIG. 7A is white as shown in the figure, the gradation value 1 is read.

S303において、制御部101は、画像入力部112へ入力されている図7(b)の画像のうち、画像入力部111へ入力されている図7(a)の画像と隣接する端部の1ライン目の画素A:1の画素値を画像処理部118のフレームメモリから読み出す。図7(b)の画像の画素A:1は、図示する通り白であるため、階調値1が読み出される。 In step S303, the control unit 101 selects one of the end portions adjacent to the image of FIG. 7A input to the image input unit 111 among the images of FIG. 7B input to the image input unit 112. The pixel value of pixel A:1 of the line is read from the frame memory of the image processing unit 118. Since the pixel A:1 of the image of FIG. 7B is white as shown in the figure, the gradation value 1 is read.

S304において、制御部101は、S302及びS303で読み出した図7(a)の画素E:1画素値と図7(b)の画素A:1の画素の画素値との差分絶対値を計算する。ここでは各画素の画素値はともに1であるため、差分絶対値は0となる。制御部101は、計算した隣接画素の画素値の差分絶対値をRAM134にて格納する。制御部101は、以降のラインについても同様に隣接画素の画素値の差分絶対値を計算し、総和をとる。図7(a)及び図7(b)においては、図示する通り、各ラインの隣接画素の画素値は同じであるため、差分絶対値和は0となる。
以上、図6(b)の差分絶対値和を計算する処理が終わると、制御部101は図6(a)のS206に遷移する。
In S304, the control unit 101 calculates the absolute difference value between the pixel value of the pixel E:1 in FIG. 7A and the pixel value of the pixel A:1 in FIG. 7B read in S302 and S303. .. Here, the pixel value of each pixel is 1 and the absolute difference value is 0. The control unit 101 stores the calculated absolute difference value of the pixel values of the adjacent pixels in the RAM 134. The control unit 101 similarly calculates the absolute value of the difference between the pixel values of the adjacent pixels for the subsequent lines and sums them. In FIGS. 7A and 7B, as illustrated, the pixel values of the adjacent pixels in each line are the same, and therefore the sum of absolute differences is 0.
As described above, when the process of calculating the sum of absolute differences in FIG. 6B is completed, the control unit 101 transitions to S206 in FIG. 6A.

S206において、制御部101は、S205で求めた差分絶対値和が閾値より小さいか判定する。ここでは閾値を3とする。上記のように、図7(a)及び図7(b)の場合、差分絶対値和は0であるため、閾値より小さい。これは、図7(a)及び図7(b)の入力画像データは、隣接する端部において画素値の差が小さく、連続する1つの画像データを分割した部分画像データである可能性が高いことを意味する。この場合、制御部101はS207へ遷移する。 In S206, the control unit 101 determines whether the sum of absolute differences calculated in S205 is smaller than the threshold value. Here, the threshold value is set to 3. As described above, in the case of FIG. 7A and FIG. 7B, the sum of absolute differences is 0, which is smaller than the threshold value. This is because the input image data in FIGS. 7A and 7B has a small difference in pixel value between adjacent end portions, and is likely to be partial image data obtained by dividing one continuous image data. Means that. In this case, the control unit 101 transitions to S207.

S207において、制御部101は、S202で検出した部分画像データ候補の組み合わせの画像入力部から入力される画像データを画像処理部118にて合成するよう制御す
る。合成された全体画像データに基づき液晶駆動部105が液晶部104を駆動することにより、全体画像データに基づく画像が投影光学系107によりスクリーンに投影される。
In S207, the control unit 101 controls the image processing unit 118 to combine the image data input from the image input unit of the combination of the partial image data candidates detected in S202. The liquid crystal drive unit 105 drives the liquid crystal unit 104 based on the combined whole image data, so that the image based on the whole image data is projected onto the screen by the projection optical system 107.

次に、図7(c)の画像データが画像入力部111へ入力されており、図7(d)の画像データが画像入力部112へ入力されている場合について説明する。上記の説明と差異がある図6(b)のS302以降の処理を説明する。 Next, the case where the image data of FIG. 7C is input to the image input unit 111 and the image data of FIG. 7D is input to the image input unit 112 will be described. The processing after S302 of FIG. 6B which is different from the above description will be described.

S302において、制御部101は、画像入力部111へ入力されている図7(c)の画像のうち、画像入力部112へ入力されている図7(d)の画像と隣接する端部の1ライン目の画素E:1の画素値を画像処理部118のフレームメモリから読み出す。図7(c)の画像の画素E:1は、図示する通り白であるため、階調値1が読み出される。 In step S<b>302, the control unit 101 selects one of the end portions adjacent to the image of FIG. 7D input to the image input unit 112 among the images of FIG. 7C input to the image input unit 111. The pixel value of the pixel E:1 on the line is read from the frame memory of the image processing unit 118. Since the pixel E:1 of the image in FIG. 7C is white as shown in the figure, the gradation value 1 is read.

S303において、制御部101は、画像入力部112へ入力されている図7(d)の画像のうち、画像入力部111へ入力されている図7(c)の画像と隣接する端部の1ライン目の画素A:1の画素値を画像処理部118のフレームメモリから読み出す。図7(d)の画像の画素A:1は、図示する通り黒であるため、階調値0が読み出される。 In step S<b>303, the control unit 101 selects one of the end portions adjacent to the image of FIG. 7C input to the image input unit 111 among the images of FIG. 7D input to the image input unit 112. The pixel value of pixel A:1 of the line is read from the frame memory of the image processing unit 118. Since the pixel A:1 of the image of FIG. 7D is black as shown in the figure, the gradation value 0 is read out.

S304において、制御部101は、S302及びS303で読み出した図7(c)の画素E:1画素値と図7(d)の画素A:1の画素の画素値との差分絶対値を計算する。ここでは、図7(c)の画素E:1画素値は1、図7(d)の画素A:1の画素の画素値は0であるため、差分絶対値は1となる。制御部101は、計算した隣接画素の画素値の差分絶対値をRAM134にて格納する。制御部101は、以降のラインについても同様に隣接画素の画素値の差分絶対値を計算し、総和をとる。図7(c)及び図7(d)においては、図示する通り、各ラインの隣接画素の画素値に差があるため、差分絶対値和は5となる。
以上、図6(b)の差分絶対値和を計算する処理が終わると、制御部101は図6(a)のS206に遷移する。
In S304, the control unit 101 calculates the absolute difference value between the pixel value of the pixel E:1 in FIG. 7C read in S302 and S303 and the pixel value of the pixel A:1 in FIG. 7D. .. Here, the pixel E:1 pixel value in FIG. 7C is 1, and the pixel value of the pixel A:1 pixel in FIG. 7D is 0, so the difference absolute value is 1. The control unit 101 stores the calculated absolute difference value of the pixel values of the adjacent pixels in the RAM 134. The control unit 101 similarly calculates the absolute value of the difference between the pixel values of the adjacent pixels for the subsequent lines and sums them. In FIGS. 7C and 7D, as shown in the figure, since the pixel values of the adjacent pixels on each line are different, the sum of absolute difference is 5.
As described above, when the process of calculating the sum of absolute differences in FIG. 6B is completed, the control unit 101 transitions to S206 in FIG. 6A.

S206において、制御部101は、S205で求めた差分絶対値和が閾値より小さいか判定する。ここでは閾値を3とする。上記のように、図7(c)及び図7(d)の場合、差分絶対値和は5であるため、閾値以上である。これは、図7(c)及び図7(d)の入力画像データは、隣接する端部において画素値の差が大きく、連続する1つの画像データを分割した部分画像データではないことを意味する。この場合、図6(a)のフローチャートの処理は終了する。 In S206, the control unit 101 determines whether the sum of absolute differences calculated in S205 is smaller than the threshold value. Here, the threshold value is set to 3. As described above, in the cases of FIG. 7C and FIG. 7D, the sum of absolute differences is 5, which is equal to or greater than the threshold. This means that the input image data in FIGS. 7C and 7D has a large difference in pixel value between adjacent end portions and is not partial image data obtained by dividing one continuous image data. .. In this case, the process of the flowchart of FIG. 6A ends.

実施形態3によれば、入力画像データのフォーマット情報の測定結果とパターンテーブルに基づいて適切な部分画像データの組み合わせ候補が探索される。さらに、隣接する候補の画像データの端部の画素値同士を比較することで、より精度良く部分画像データの組み合わせを判定できる。これにより、ユーザが全体画像データを構成する部分画像データが入力される画像入力部を選択する操作をしなくても、正しく部分画像データを合成した全体画像データを表示することが可能となる。 According to the third embodiment, an appropriate combination candidate of partial image data is searched for based on the measurement result of the format information of the input image data and the pattern table. Furthermore, by comparing the pixel values at the ends of the adjacent candidate image data, it is possible to more accurately determine the combination of the partial image data. As a result, it is possible to correctly display the whole image data in which the partial image data is combined, without the user performing an operation of selecting the image input unit to which the partial image data forming the whole image data is input.

[実施形態4]
実施形態1〜3で説明した様々な機能、処理及び方法は、パーソナルコンピュータ、マイクロコンピュータ、CPU(Central Processing Unit)などがプログラムを用いて実現することもできる。以下、実施形態4では、パーソナルコンピュータ、マイクロコンピュータ、CPUなどを「コンピュータX」と呼ぶ。また、実施形態4では、コンピュータXを制御するためのプログラムであって、実施形態1〜3で説明した様々な機能、処理及び方法を実現するためのプログラムを「プログラムY」と呼ぶ。
実施形態1〜3で説明した様々な機能、処理及び方法は、コンピュータXがプログラムYを実行することによって実現される。この場合において、プログラムYは、コンピュータ読み取り可能な記憶媒体を介してコンピュータXに供給される。実施形態4におけるコンピュータ読み取り可能な記憶媒体は、ハードディスク装置、磁気記憶装置、光記憶装置、光磁気記憶装置、メモリカード、揮発性メモリ、不揮発性メモリなどの少なくとも一つを含む。実施形態4におけるコンピュータ読み取り可能な記憶媒体は、non−transitory(非一時的)な記憶媒体である。
[Embodiment 4]
The various functions, processes, and methods described in the first to third embodiments may be implemented by a personal computer, a microcomputer, a CPU (Central Processing Unit), or the like using a program. Hereinafter, in the fourth embodiment, a personal computer, a microcomputer, a CPU, etc. will be referred to as “computer X”. Further, in the fourth embodiment, a program for controlling the computer X, which is a program for realizing the various functions, processes, and methods described in the first to third embodiments, is referred to as a “program Y”.
The various functions, processes and methods described in the first to third embodiments are realized by the computer X executing the program Y. In this case, the program Y is supplied to the computer X via a computer-readable storage medium. The computer-readable storage medium according to the fourth embodiment includes at least one of a hard disk device, a magnetic storage device, an optical storage device, a magneto-optical storage device, a memory card, a volatile memory, a non-volatile memory, and the like. The computer-readable storage medium in the fourth embodiment is a non-transitory (non-transitory) storage medium.

100:表示装置、101:制御部、104:液晶部、110:画像入力部、111:画像入力部、112:画像入力部、113:画像入力部、118:画像処理部
100: display device, 101: control unit, 104: liquid crystal unit, 110: image input unit, 111: image input unit, 112: image input unit, 113: image input unit, 118: image processing unit

上記の目的を達成するために、本発明に係る表示装置の一つは、画像を表示する表示手段と、複数の入力画像データが入力される入力手段と、前記複数の入力画像データのうち、前記表示手段に画像を表示するために用いる1つの入力画像データをユーザが選択するための第1画像を表示するように前記表示手段を制御する制御手段と、を有し、前記表示手段が表示可能な画像データを構成する複数の部分画像データを前記複数の入力画像データが含む場合、前記制御手段は、前記第1画像と、前記複数の部分画像データに対応する入力画像データの組み合わせをユーザが選択するための第2画像と、を併せて表示するように、前記表示手段を制御する。

In order to achieve the above object, one of the display devices according to the present invention is a display unit for displaying an image, an input unit for inputting a plurality of input image data, and a plurality of the input image data. Control means for controlling the display means to display a first image for the user to select one input image data used for displaying an image on the display means, the display means displaying When the plurality of input image data include a plurality of partial image data forming the possible image data, the control unit allows the user to obtain a combination of the first image and the input image data corresponding to the plurality of partial image data. The display means is controlled so that the second image for selection by and is also displayed.

上記の目的を達成するために、本発明に係る制御方法の一つは、画像を表示する表示手段を有する表示装置の制御方法であって、複数の入力画像データが入力される入力ステップと、前記複数の入力画像データのうち、前記表示手段に画像を表示するために用いる1つの入力画像データをユーザが選択するための第1画像を表示するように前記表示手段を制御する制御ステップと、を有し、前記表示手段が表示可能な画像データを構成する複数の部分画像データを前記複数の入力画像データが含む場合、前記制御ステップでは、前記第1画像と、前記複数の部分画像データに対応する入力画像データの組み合わせをユーザが選択するための第2画像と、を併せて表示するように、前記表示手段を制御する。

In order to achieve the above object, one of the control methods according to the present invention is a control method of a display device having a display unit for displaying an image, and an input step of inputting a plurality of input image data, Of the plurality of input image data, a control step of controlling the display means to display a first image for the user to select one input image data used to display an image on the display means, And the plurality of input image data includes a plurality of partial image data forming the image data that can be displayed by the display means, the control step includes the first image and the plurality of partial image data. The display means is controlled so that a second image for the user to select a corresponding combination of input image data is also displayed.

Claims (10)

複数の画像データが入力される入力手段と、
前記複数の入力画像データのフォーマット情報を取得する取得手段と、
前記フォーマット情報に基づき、前記複数の入力画像データのうちに、前記入力画像データよりサイズが大きい全体画像データを構成する部分画像データの組み合わせがあるか判定する判定手段と、
前記判定手段により前記部分画像データの組み合わせと判定された前記入力画像データを合成して前記全体画像データを生成する生成手段と、
前記生成手段により生成された前記全体画像データに基づく画像を表示する表示手段とを有する表示装置。
Input means for inputting a plurality of image data,
Acquisition means for acquiring format information of the plurality of input image data,
Based on the format information, the plurality of input image data, a determination unit for determining whether there is a combination of partial image data constituting the entire image data having a size larger than the input image data,
Generating means for synthesizing the input image data determined to be a combination of the partial image data by the determining means to generate the whole image data;
A display unit that displays an image based on the entire image data generated by the generation unit.
複数の画像データが入力される入力手段と、
前記複数の入力画像データのフォーマット情報を取得する取得手段と、
前記フォーマット情報に基づき、前記複数の入力画像データのうちに、前記入力画像データよりサイズが大きい全体画像データを構成する部分画像データの組み合わせがあるか判定する判定手段と、
前記判定手段により前記部分画像データの組み合わせと判定された前記入力画像データの情報をユーザに提示する提示手段と、
前記複数の入力画像データのうち前記部分画像データの組み合わせを指定する指示をユーザから受け付ける指定手段と、
前記指定手段により前記部分画像データの組み合わせとして指定された前記入力画像データを合成して前記全体画像データを生成する生成手段と、
前記生成手段により生成された前記全体画像データに基づく画像を表示する表示手段とを有する表示装置。
Input means for inputting a plurality of image data,
Acquisition means for acquiring format information of the plurality of input image data,
Based on the format information, the plurality of input image data, a determination unit for determining whether there is a combination of partial image data constituting the entire image data having a size larger than the input image data,
Presenting means for presenting to the user the information of the input image data determined to be a combination of the partial image data by the determining means,
Designation means for accepting an instruction from the user to designate a combination of the partial image data among the plurality of input image data,
Generating means for generating the whole image data by synthesizing the input image data specified by the specifying means as a combination of the partial image data;
A display unit that displays an image based on the entire image data generated by the generation unit.
前記判定手段は、前記フォーマット情報の少なくとも一部が互いに一致する入力画像データを前記部分画像データと判定する請求項1又は2に記載の表示装置。 The display device according to claim 1, wherein the determination unit determines, as the partial image data, input image data in which at least a part of the format information matches each other. 前記フォーマット情報は、画素数、フレームレート、同期信号周波数又はブランキング期間を含む請求項1〜3のいずれか1項に記載の表示装置。 The display device according to claim 1, wherein the format information includes the number of pixels, a frame rate, a sync signal frequency, or a blanking period. 前記判定手段は、2つの前記入力画像データを上下又は左右に並べた場合に互いに隣接する端部における画素値の差が閾値より小さい場合、当該2つの入力画像データは前記部分画像データの組み合わせに含まれると判定する請求項1〜4のいずれか1項に記載の表示装置。 When the two input image data are arranged vertically or horizontally when the difference between the pixel values at the end portions adjacent to each other is smaller than a threshold value, the determination means determines that the two input image data are a combination of the partial image data. The display device according to claim 1, wherein the display device is determined to be included. 前記判定手段は、前記複数の入力画像データのうちに、前記入力画像データよりサイズが大きく、かつ、前記表示手段により表示可能なサイズの全体画像データを構成する部分画像データの組み合わせがあるか判定する請求項1〜5のいずれか1項に記載の表示装置。 The determination means determines whether, among the plurality of input image data, there is a combination of partial image data that is larger in size than the input image data and that constitutes the entire image data of a size that can be displayed by the display means. The display device according to any one of claims 1 to 5. 複数の画像データが入力される入力ステップと、
前記複数の入力画像データのフォーマット情報を取得する取得ステップと、
前記フォーマット情報に基づき、前記複数の入力画像データのうちに、前記入力画像データよりサイズが大きい全体画像データを構成する部分画像データの組み合わせがあるか判定する判定ステップと、
前記判定ステップにより前記部分画像データの組み合わせと判定された前記入力画像データを合成して前記全体画像データを生成する生成ステップと、
前記生成ステップにより生成された前記全体画像データに基づく画像を表示する表示ス
テップと、
を有する制御方法。
An input step in which a plurality of image data is input,
An acquisition step of acquiring format information of the plurality of input image data,
A determination step of determining, based on the format information, among the plurality of input image data, a combination of partial image data that makes up the entire image data having a size larger than the input image data;
A generation step of combining the input image data determined to be a combination of the partial image data by the determination step to generate the whole image data;
A display step of displaying an image based on the whole image data generated by the generating step;
And a control method.
複数の画像データが入力される入力ステップと、
前記複数の入力画像データのフォーマット情報を取得する取得ステップと、
前記フォーマット情報に基づき、前記複数の入力画像データのうちに、前記入力画像データよりサイズが大きい全体画像データを構成する部分画像データの組み合わせがあるか判定する判定ステップと、
前記判定ステップにより前記部分画像データの組み合わせと判定された前記入力画像データの情報をユーザに提示する提示ステップと、
前記複数の入力画像データのうち前記部分画像データの組み合わせを指定する指示をユーザから受け付ける指定ステップと、
前記指定ステップにより前記部分画像データの組み合わせとして指定された前記入力画像データを合成して前記全体画像データを生成する生成ステップと、
前記生成ステップにより生成された前記全体画像データに基づく画像を表示する表示ステップと、
を有する制御方法。
An input step in which a plurality of image data is input,
An acquisition step of acquiring format information of the plurality of input image data,
A determination step of determining, based on the format information, among the plurality of input image data, a combination of partial image data that makes up the entire image data having a size larger than the input image data;
A presentation step of presenting information of the input image data determined to be a combination of the partial image data by the determination step to a user;
A specifying step of receiving an instruction from a user to specify a combination of the partial image data among the plurality of input image data,
A generating step of combining the input image data specified as a combination of the partial image data by the specifying step to generate the whole image data;
A display step of displaying an image based on the whole image data generated by the generating step;
And a control method.
コンピュータを、
複数の画像データが入力される入力手段と、
前記複数の入力画像データのフォーマット情報を取得する取得手段と、
前記フォーマット情報に基づき、前記複数の入力画像データのうちに、前記入力画像データよりサイズが大きい全体画像データを構成する部分画像データの組み合わせがあるか判定する判定手段と、
前記判定手段により前記部分画像データの組み合わせと判定された前記入力画像データを合成して前記全体画像データを生成する生成手段と、
前記生成手段により生成された前記全体画像データに基づく画像を表示する表示手段
として機能させるためのプログラム。
Computer,
Input means for inputting a plurality of image data,
Acquisition means for acquiring format information of the plurality of input image data,
Based on the format information, the plurality of input image data, a determination unit for determining whether there is a combination of partial image data constituting the entire image data having a size larger than the input image data,
Generating means for synthesizing the input image data determined to be a combination of the partial image data by the determining means to generate the whole image data;
A program for causing a display unit to display an image based on the entire image data generated by the generation unit.
コンピュータを、
複数の画像データが入力される入力手段と、
前記複数の入力画像データのフォーマット情報を取得する取得手段と、
前記フォーマット情報に基づき、前記複数の入力画像データのうちに、前記入力画像データよりサイズが大きい全体画像データを構成する部分画像データの組み合わせがあるか判定する判定手段と、
前記判定手段により前記部分画像データの組み合わせと判定された前記入力画像データの情報をユーザに提示する提示手段と、
前記複数の入力画像データのうち前記部分画像データの組み合わせを指定する指示をユーザから受け付ける指定手段と、
前記指定手段により前記部分画像データの組み合わせとして指定された前記入力画像データを合成して前記全体画像データを生成する生成手段と、
前記生成手段により生成された前記全体画像データに基づく画像を表示する表示手段
として機能させるためのプログラム。
Computer,
Input means for inputting a plurality of image data,
Acquisition means for acquiring format information of the plurality of input image data,
Based on the format information, the plurality of input image data, a determination unit for determining whether there is a combination of partial image data constituting the entire image data having a size larger than the input image data,
Presenting means for presenting to the user the information of the input image data determined to be a combination of the partial image data by the determining means,
Designation means for accepting an instruction from the user to designate a combination of the partial image data among the plurality of input image data,
Generating means for generating the whole image data by synthesizing the input image data specified by the specifying means as a combination of the partial image data;
A program for causing a display unit to display an image based on the entire image data generated by the generation unit.
JP2020033764A 2020-02-28 2020-02-28 Display device Active JP6834042B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020033764A JP6834042B2 (en) 2020-02-28 2020-02-28 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020033764A JP6834042B2 (en) 2020-02-28 2020-02-28 Display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015169541A Division JP2017044995A (en) 2015-08-28 2015-08-28 Display device

Publications (2)

Publication Number Publication Date
JP2020115639A true JP2020115639A (en) 2020-07-30
JP6834042B2 JP6834042B2 (en) 2021-02-24

Family

ID=71778984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020033764A Active JP6834042B2 (en) 2020-02-28 2020-02-28 Display device

Country Status (1)

Country Link
JP (1) JP6834042B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008131181A (en) * 2006-11-17 2008-06-05 Sharp Corp Television display device and channel designation method in a plurality of screens
JP2012173424A (en) * 2011-02-18 2012-09-10 Canon Inc Image display apparatus and control method thereof
JP2013005226A (en) * 2011-06-16 2013-01-07 Canon Inc Video signal processing device, control method thereof and display device
JP2013153410A (en) * 2011-12-28 2013-08-08 Sharp Corp Av apparatus
JP2014134755A (en) * 2012-12-12 2014-07-24 Sharp Corp Display device, display method, television receiver, program, and recording medium
JP2015055845A (en) * 2013-09-13 2015-03-23 シャープ株式会社 Display unit and display method
US20150138040A1 (en) * 2013-11-21 2015-05-21 Mitsubishi Electric Corporation Multivision display control device and multivision system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008131181A (en) * 2006-11-17 2008-06-05 Sharp Corp Television display device and channel designation method in a plurality of screens
JP2012173424A (en) * 2011-02-18 2012-09-10 Canon Inc Image display apparatus and control method thereof
JP2013005226A (en) * 2011-06-16 2013-01-07 Canon Inc Video signal processing device, control method thereof and display device
JP2013153410A (en) * 2011-12-28 2013-08-08 Sharp Corp Av apparatus
JP2014134755A (en) * 2012-12-12 2014-07-24 Sharp Corp Display device, display method, television receiver, program, and recording medium
JP2015055845A (en) * 2013-09-13 2015-03-23 シャープ株式会社 Display unit and display method
US20150138040A1 (en) * 2013-11-21 2015-05-21 Mitsubishi Electric Corporation Multivision display control device and multivision system
JP2015102567A (en) * 2013-11-21 2015-06-04 三菱電機株式会社 Multi-vision display control device and multi-vision system

Also Published As

Publication number Publication date
JP6834042B2 (en) 2021-02-24

Similar Documents

Publication Publication Date Title
US9071773B2 (en) Projection system
US10761624B2 (en) Display apparatus and method for controlling display apparatus
US20170214895A1 (en) Projection apparatus, projection method, and storage medium
US8511830B2 (en) Projection system, control method for projection system, and projection apparatus
US9319651B2 (en) Image projection apparatus, image projection method, and storage medium of program
US10303419B2 (en) Information processing system, display processing apparatus, display processing method, and recording medium
US20190265847A1 (en) Display apparatus and method for controlling display apparatus
JP2019113647A (en) Display device and method for controlling the same
JP2013083755A (en) Display device, method of controlling display device, and program
US11438562B2 (en) Display apparatus and control method thereof
JP2007140180A (en) Display device, program, and information storage medium
US20150215495A1 (en) Display apparatus
JP6834042B2 (en) Display device
JP2015053558A (en) Image display device and method for controlling the same
JP2019186690A (en) Control device, projector, projector control method, program
US20150256788A1 (en) Projector and control method for projector
JP2017044995A (en) Display device
JP2020013196A (en) Image projection device, control method for image projection device, and program
JP6464834B2 (en) Display device and display method
JP2018054912A (en) Projection-type display device and method for controlling the same
US11106418B2 (en) Image display apparatus, image output apparatus, control methods thereof, and storage medium
JP2014142466A (en) Projection device and control method of the same, program, and storage medium
US10643524B2 (en) Display device, and method of controlling display device
US9418614B2 (en) Liquid crystal display apparatus and method for controlling the same
US11172175B2 (en) Method for controlling display device, and display device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R151 Written notification of patent or utility model registration

Ref document number: 6834042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151