WO2011064872A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2011064872A1
WO2011064872A1 PCT/JP2009/069998 JP2009069998W WO2011064872A1 WO 2011064872 A1 WO2011064872 A1 WO 2011064872A1 JP 2009069998 W JP2009069998 W JP 2009069998W WO 2011064872 A1 WO2011064872 A1 WO 2011064872A1
Authority
WO
WIPO (PCT)
Prior art keywords
projector
projectors
boundary
projection
resolution
Prior art date
Application number
PCT/JP2009/069998
Other languages
English (en)
French (fr)
Inventor
善宏 眞部
究 小林
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to JP2011543050A priority Critical patent/JP5350488B2/ja
Priority to PCT/JP2009/069998 priority patent/WO2011064872A1/ja
Priority to US12/948,473 priority patent/US8727538B2/en
Publication of WO2011064872A1 publication Critical patent/WO2011064872A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0442Handling or displaying different aspect ratios, or changing the aspect ratio
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Definitions

  • the present invention relates to an image processing method in a case where an image is projected by a plurality of projectors.
  • tile display the display of one image by arranging the projection areas of a plurality of projectors in a tile shape.
  • Patent Document 1 discloses a method for automatically determining a start point and an end point of an overlap region (edge blend) of boundaries between projection regions of a plurality of projectors.
  • the boundary between a projector having a low resolution and a projector having a high resolution may be more conspicuous than when tile display is performed by a projector having the same resolution.
  • the angle of view of the first projector is made smaller than the angle of view of the second projector, and the first projector is within the projection area of the second projector.
  • the boundary of the projection area becomes conspicuous. This is because, in the case of projectors having the same resolution, the resolution becomes higher when the angle of view is smaller, so that the difference in resolution at the boundary of the projection area becomes conspicuous.
  • tile display is performed by a plurality of projectors that perform trapezoidal correction on an image signal
  • a difference in resolution occurs at the boundary of the projection area of each projector, and the boundary may be conspicuous.
  • the boundary becomes conspicuous due to the difference in the resolution of the projector, for example, if the resolution of a projector with a high resolution is lowered, the boundary becomes inconspicuous. However, the image quality of the projection area by the projector having a high resolution is lowered. Further, for example, if the resolution is lowered only in the region near the boundary among the projection regions of the projector having a high resolution, the boundary becomes less noticeable, but the image quality near the boundary is lowered.
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to reduce the degradation of image quality and reduce the boundary between projection areas when an image based on image data is displayed using a plurality of projectors. Is to make it inconspicuous.
  • the image processing apparatus of the present invention has, for example, the following configuration. That is, an image processing apparatus that projects an image onto a plurality of projectors, the acquisition means for acquiring resolution information of the plurality of projectors and the projection area of the plurality of projectors, and acquired by the acquisition means Based on the resolution of the plurality of projectors and area information, a specifying unit that specifies a boundary between projection areas of projectors having different resolutions, and a pixel perpendicular to the boundary specified by the specifying unit, Smoothing means for smoothing the pixels in the horizontal direction with respect to the boundary more strongly and output means for outputting the image data smoothed by the smoothing means.
  • the present invention when displaying one image by arranging the projection areas of a plurality of projectors, it is possible to reduce the deterioration of the image quality of the projection area and make the boundary of the projection area less noticeable.
  • FIG. 1 is a block diagram illustrating a multi-projection system according to a first embodiment.
  • 1 is a block diagram of an image processing unit 201 according to the first embodiment.
  • FIG. 3 is a flowchart illustrating processing of the image processing apparatus 101 according to the first embodiment.
  • Schematic diagram for explaining the boundary region and filtering processing in the first embodiment Schematic diagram for explaining filtering processing in the first embodiment
  • Schematic diagram for explaining a pixel shape of filtering processing in the first embodiment A block diagram showing a multi-projection system of a second embodiment Block diagram of the image processing unit 1201 in the second embodiment Schematic diagram for explaining division of an image by an image division unit in the second embodiment Schematic showing the tangent and angle of the boundary area in the second embodiment
  • the projector A includes a panel signal generation unit 102, a light source 103, a liquid crystal panel 104, and a projection optical system 105.
  • the panel signal generation unit 102 performs image processing on the image data from the image processing apparatus 101 to generate a control signal, and outputs the control signal to the liquid crystal panel 104.
  • the liquid crystal panel 104 is composed of three R / G / B panels, and the transmittance for the three primary colors of R / G / B is two-dimensionally controlled by a control signal from the panel signal generation unit 102.
  • the light projected from the light source 103 passes through the liquid crystal panel 104 controlled based on the control signal generated by the panel signal generation unit 102.
  • the passing light that has passed through the liquid crystal panel 104 passes through the projection optical system 105 and is projected on the screen.
  • the projection optical system 105 includes a lens for projecting an image on a screen based on light passing from the liquid crystal panel 104, a zoom unit for changing the angle of view on the screen, a lens shift unit for changing the display position on the screen, and the like. Consists of The configuration of the projector B is the same as that of the projector A, but the projector B has a resolution three times higher than that of the projector A. Therefore, the panel signal generation unit 106 and the liquid crystal panel 107 of the projector B have higher control resolution than the panel signal generation unit 102 and the liquid crystal panel 107 of the projector A.
  • the image processing unit 201 is a circuit that receives image data, performs image processing (filter processing) at the boundary of the projection area of each projector used for tile display, and outputs the image data after the filter processing to each projector.
  • the CPU 202 included in the image processing apparatus 101 can appropriately read the program recorded in the ROM 203 into the RAM 204 and perform the above-described filter processing.
  • the ROM 203 and the RAM 204 provide the CPU 202 with programs, data, and work areas necessary for the filter processing of the present embodiment.
  • the filter process performed by the image processing apparatus 101 of the present embodiment is a smoothing process for smoothing the pixel values in the filter area.
  • the smoothing processing of this embodiment is performed using an average value filter, but is performed using a high-frequency component cut filter that cuts high-frequency components in the filter region, or a median filter that employs a pixel value at the center of the filter region. You may do it.
  • the image processing apparatus 101 includes an operation unit 205 for inputting an instruction from the user.
  • the operation unit 205 can be realized by a button or a touch panel, for example.
  • the image processing apparatus 101 includes an external interface 206 for connecting to a PC, a camera, and media (for example, a hard disk, a memory card, an SD card, and a USB memory).
  • the external interface 206 can be realized by a communication line conforming to a standard such as USB, LAN, IEEE1394, or wireless.
  • the image processing unit 201 of the present embodiment performs filter processing (smoothing processing) for making the boundaries of the projection areas of projectors having different resolutions inconspicuous, using the visual characteristics of the user. That is, there is a visual characteristic that a difference in resolution in the horizontal direction with respect to a boundary line between two regions having different resolutions is more significantly involved in recognition of the boundary line than a difference in resolution in the vertical direction with respect to the boundary line. Therefore, the image processing unit 201 performs filter processing (smoothing of image data) so that the pixels in the horizontal direction are more strongly smoothed than the pixels in the vertical direction with respect to the boundaries of the projection areas of the projectors having different resolutions. Process).
  • This filter process is a filter process that lowers the resolution of the image data output to the projector with high resolution (projector B) in accordance with the resolution of projector A with low resolution.
  • the image processing unit 201 performs pixel filtering processing in a direction (perpendicular to the boundary line) that is not significantly involved in boundary line recognition. It is weaker than the pixel filtering process in the horizontal direction. As a result, the boundary of the projection area of the projector can be made inconspicuous while suppressing a reduction in image quality.
  • the image processing unit 201 includes a parameter acquisition unit 301, an image dividing unit 302, a region specifying unit 303, a coefficient determining unit 304, and a filter processing unit 305.
  • the parameter acquisition unit 301 acquires area information regarding the position of the projection area of each projector used for tile display and the resolution of each projector used for tile display.
  • the image dividing unit 302 divides the image data input to the image processing apparatus 101 based on the area information of each projector.
  • the area specifying unit 303 specifies the boundary of the projection areas of the projectors having different resolutions based on the area information and resolution of each projector acquired by the parameter acquisition unit 301, and based on the result, the filter area to be subjected to the filter processing To decide.
  • the coefficient determination unit 304 determines a filter coefficient (smoothing parameter) used for the filter process.
  • the filter processing unit 305 filters the filter region specified by the region specifying unit 303 with the filter coefficient (smoothing parameter) determined by the coefficient determining unit 304.
  • the parameter acquisition unit 301 acquires area information of each projector used for tile display.
  • the area information is information for specifying the positional relationship between the projection areas of the projectors in multi-projection.
  • the area information acquired by the parameter acquisition unit 301 is configured such that the projector A projects the left projection area in the configuration in which the projection areas of two projectors are arranged side by side. Is information indicating that the image is projected onto the right projection area.
  • the area information includes information on the size of the projection area by each projector.
  • the parameter acquisition unit 301 acquires area information based on contents set by the user using the operation unit 205.
  • the user inputs the number of projectors used for tile display and selects a tile display configuration pattern. Then, the user designates a projector for each projection area corresponding to the selected configuration pattern.
  • the parameter acquisition unit 301 acquires area information from the tile display configuration pattern selected by the user and the projector specified for each projection area.
  • 2 is input as the number of projectors, and a configuration pattern in which projection areas are arranged side by side is selected as a configuration pattern for tile display.
  • projector A is designated as a projector that projects an image on the left projection area
  • projector B is designated as a projector that projects an image on the right projection area.
  • the parameter acquisition unit 301 of this embodiment acquires region information based on the user input (specified information input) as described above.
  • the parameter acquisition unit 301 acquires area information related to the projection areas of a plurality of projectors based on the designation information input by the operation unit 205.
  • the parameter acquisition unit 301 of this embodiment can also acquire area information from a captured image of a CCD camera connected via the external interface 206. That is, the CCD camera captures an image of a projection area by the projector. And the parameter acquisition part 301 can acquire the area
  • the parameter acquisition unit 301 according to the present embodiment switches the acquisition method of the region information so as to acquire the region information from the captured image when the region information cannot be acquired from the user input. Thereby, area information can be acquired more certainly.
  • step S302 acquisition procedure
  • the parameter acquisition unit 301 acquires the resolutions of the projectors A and B.
  • the parameter acquisition unit 301 of this embodiment receives resolution notifications from the projectors A and B via the display cable.
  • the parameter acquisition unit 301 acquires the resolution of each of the plurality of projectors based on the notification from the projector.
  • the parameter acquisition unit 301 of this embodiment can also calculate the resolution of each projector from an image captured by a camera connected via the external interface 206. In this way, the parameter acquisition unit 301 can acquire the resolution even when the projector does not have a function of notifying the resolution.
  • the parameter acquisition unit 301 of this embodiment switches the resolution acquisition method so that the resolution is acquired from the captured image when the resolution cannot be acquired by a notification from the projector. Thereby, the resolution of a projector can be acquired more reliably.
  • step S303 the image division unit 302 divides the image data based on the projector area information acquired by the parameter acquisition unit 301.
  • tile display is performed in which the projection areas of the projectors A and B are arranged side by side, and the sizes of the projection areas are the same. Therefore, the image dividing unit 302 divides the input image data into equal sizes in the horizontal direction.
  • the projection areas of the projectors A and B are coupled so as not to overlap each other.
  • step S304 the region specifying unit 303 specifies a filter region based on the region information acquired by the parameter acquiring unit 301 and the resolution. That is, in step S304, the area specifying unit 303 specifies the boundaries of the projection areas of the projectors having different resolutions based on the resolutions of the plurality of projectors and the area information. Then, the area specifying unit 303 specifies an area (filter area) for performing filter processing for making the specified boundary inconspicuous. The filtering process is performed on the image data divided for the high resolution projector. That is, in this embodiment, the area specifying unit 303 specifies at least a part of the area of the image data output to the projector B having a higher resolution than the projector A as the filter area.
  • the area specifying unit 303 of this embodiment specifies the width of the filter area based on the difference in resolution of each projector. That is, the area specifying unit 303 increases the width of the filter area when the difference in resolution between the projectors across the boundary is larger than the predetermined difference than when the resolution is smaller than the predetermined difference. In this way, when the difference in resolution is large, the resolution changes more smoothly, so that the boundary can be made inconspicuous. On the other hand, when the difference in resolution is small, the processing load on the filter processing can be reduced by reducing the width of the filter area.
  • the area specifying unit 303 specifies 30% of the projection area of the projector B as a filter area. That is, 30% of the projection area of the projector B from the boundary with the projection area of the projector A is specified as the filter area.
  • area specifying unit 303 specifies 20% of the projection area of projector B as a filter area.
  • the width of the filter region may be constant.
  • the area specifying unit 303 can also specify the area width based on the observation distance and the image content.
  • step S305 determines a filter coefficient (smoothing parameter) to be used for the filtering process based on the boundary direction and the filter region specified by the region specifying unit 303.
  • the coefficient determination unit 304 of this embodiment determines the filter coefficient so that the horizontal pixel is more strongly smoothed than the vertical pixel.
  • FIG. 4 is a diagram for explaining an example of a filter coefficient determination method by the coefficient determination unit 304.
  • FIG. 4A is an example in which the projection area 401 of the projector A having a low resolution and the projection area 402 of the projector B having a high resolution are arranged side by side to perform tile display.
  • the area specifying unit 303 specifies at least a part of the projection area 402 (filter application area 403) of the projector B having a high resolution as a filter area.
  • Reference numeral 404 denotes a boundary line between the projection area 401 of the projector A and the projection area 402 of the projector B.
  • FIG. 4 (a) is an enlarged view of the filter application area 403 of FIG. 4 (a).
  • the coefficient determination unit 304 determines a filter A 405 that averages three pixel values as a filter coefficient of a region 407 near the boundary 404 in the filter application region 403. Further, the coefficient determination unit 304 determines a filter B 406 that averages two pixel values as a filter coefficient of the region 408 farther from the boundary 404 than the region 407 in the filter application region 403. As described above, the coefficient determination unit 304 determines the filter coefficient so that the pixels in the filter area close to the boundary line are smoothed more strongly than the pixels in the filter area far from the boundary line.
  • the coefficient determination unit 304 selects a second pixel in the projection area of the projector B whose distance from the boundary between the projection areas of the projectors A and B is shorter than the first distance.
  • the smoothing parameter is determined so that the pixels having the distance of?
  • the projector B is a projector having a higher resolution than the projector A.
  • the coefficient determination unit 304 determines the filter coefficient so as not to perform the pixel filtering process in the vertical direction with respect to the boundary direction but to perform the pixel filtering process in the horizontal direction with respect to the boundary direction. As described above, the coefficient determination unit 304 determines the filter coefficient so that the smoothing of the pixels in the horizontal direction with respect to the boundary direction is performed more strongly than the smoothing of the pixels in the direction perpendicular to the boundary direction. Note that in this embodiment, an example in which the pixels in the vertical direction with respect to the boundary direction are not smoothed is described, but smoothing that is weaker than the smoothing in the horizontal direction may be performed.
  • FIG. 5 is a diagram showing the relationship between the resolution of each projector and the coordinates in the direction perpendicular to the boundary line (x direction).
  • the resolution shown in FIG. 5 is a value corresponding to the highest spatial frequency that can be taken by the projection image, and a larger value indicates that a higher resolution image can be projected.
  • FIG. 5 (a) shows the resolution before filtering.
  • the resolutions of the projectors A and B are changing rapidly, and the boundary line 601 is conspicuous.
  • FIG. 5A shows the resolution in the vertical direction with respect to the boundary line after the filter processing.
  • the resolution in the direction perpendicular to the boundary line is not so much involved in the recognition of the boundary line, so the resolution on the projector B side is not blurred or slightly blurred. Therefore, as shown in FIG. 5A, the change in resolution in the vertical direction remains large with respect to the boundary direction after the filter processing.
  • FIG. 5C shows the horizontal resolution with respect to the boundary line after the filter processing.
  • the coefficient determination unit 304 determines the filter coefficient so that the resolution in the horizontal direction with respect to the boundary direction is close to the resolution of the projector A in the projection region near the boundary by the projector B. Then, the coefficient determination unit 304 gradually increases the resolution in the horizontal direction of the projector B as the distance from the boundary line increases, and in the area after the filter area width 602, the coefficient is determined to be the same as the resolution of the projector B.
  • FIGS. 5D and 5E show the resolutions in the x and y directions when filtering is performed regardless of the direction.
  • the image processing unit 201 of the present embodiment maintains the resolution in the x direction, which is the direction perpendicular to the boundary direction, so that the resolution of the filter region is improved as compared with performing the filtering process regardless of the direction. .
  • the method for determining the filter region and the filter coefficient is not limited to the above method. That is, the pixel value in the horizontal direction with respect to the boundary line may be smoothed more strongly than the pixel value in the vertical direction with respect to the boundary line.
  • step S306 smoothing procedure
  • the filter processing unit 305 performs a filter process (smoothing process) using the filter region specified in step S304 and the filter coefficient determined in step S305. That is, in step S306, the filter processing unit 305 performs smoothing so that pixels in the horizontal direction with respect to the boundary are smoothed more strongly than pixels in the direction perpendicular to the boundary.
  • the filter processing unit 305 performs convolution integration with the filter coefficient on the original image data as filter processing.
  • step S307 the filter processing unit 305 outputs the image data after the filter processing to each projector. Since the image processing apparatus 101 of this embodiment is described as an apparatus different from the projectors A and B, the filter processing unit 305 outputs image data to the projectors A and B. However, for example, when the image processing apparatus 101 is incorporated in the projector A, the filter processing unit 305 outputs to the projector B and outputs to the panel signal generation unit 102 in the projector A, for example. That is, the filter processing unit 305 outputs the filtered image data to at least one of a plurality of projectors that perform multi-projection.
  • FIG. 6A shows the resolution near the boundary line between the projectors A and B before the filtering process.
  • One square corresponds to one pixel.
  • FIG. 6A shows that the resolution changes abruptly across the boundary line 701.
  • FIG. 6A shows the resolution near the boundary line between the projectors A and B after the filtering process.
  • An area 702 is an application area of the filter A determined in step S305, and an area 703 is an application area of the filter B.
  • the filter processing (smoothing processing) of this embodiment is performed using an average value filter. However, the smoothing process may be performed using a high frequency component cut filter or a median filter.
  • the resolution in the vicinity of the boundary line of the projector B after the filtering process is lowered by the filtering process.
  • the resolution in the horizontal direction with respect to the direction of the boundary line is lower than the resolution in the vertical direction. That is, according to the image processing apparatus 101 of this embodiment, it is possible to project a high-resolution image in a direction perpendicular to the direction of the boundary line while making the boundary of the projection areas of projectors with different resolutions inconspicuous.
  • the filter processing when the projectors A and B are tiled in parallel on the left and right as shown in FIG. 1 has been described.
  • the present invention is not limited to this, and the projection areas of the projectors are displayed in an overlapping manner. It can also be applied to cases.
  • the image processing apparatus of the present embodiment in the tile display using a plurality of projectors having different resolutions, it is possible to reduce the deterioration of the image quality and make the boundary of the projection area inconspicuous.
  • the image processing apparatus has been described with respect to an example in which multi-projection is performed by a plurality of projectors having different resolutions, but is not limited thereto.
  • the present invention is also applicable to, for example, a case where multi-projection is performed with a plurality of projectors having the same resolution but different angles of view, or a case where multi-projection is performed with a projector that performs keystone correction and a projector that does not perform keystone correction.
  • the parameter acquisition unit 301 acquires information on the resolution and the angle of view from each projector in step S302 of FIG.
  • the region specifying unit 303 specifies a boundary between projection regions having different resolutions based on the resolution, the region information, and the angle of view, and specifies a filter region based on the result. For example, when the resolution of the projector is the same, the resolution of the projector with a small angle of view becomes high. Accordingly, in step S305, the coefficient determination unit 304 performs filtering so that the pixels in the horizontal direction are smoothed more strongly than the pixels in the vertical direction at the boundary between the projection areas of the projector having a small angle of view and the projector having a large angle of view. Determine coefficients (smoothing parameters).
  • the parameter acquisition unit 301 acquires information on the resolution and the keystone correction amount from each projector.
  • the area specifying unit 303 specifies the boundary between the projection areas having different resolutions based on the resolution, the correction amount of the trapezoidal correction, and the area information, and specifies the filter area based on the result.
  • the image processing apparatus 101 can also specify the filter region and determine the filter coefficient using both the angle of view and the correction amount of the trapezoidal correction.
  • FIG. 7 is a block diagram for explaining a multi-projection configuration according to the second embodiment.
  • the projection area 1002 of the projector B is surrounded by the projection area 1001 of the projector A.
  • the projectors A and B are the same as the projectors A and B of the first embodiment.
  • FIG. 8 is a block diagram illustrating a configuration of the image processing unit 1201 according to the second embodiment.
  • the image processing unit 201 according to the first embodiment acquires region information based on user input or a captured image, whereas the image processing unit 1201 according to the present embodiment is changed from the image dividing unit 1302 to the filter processing unit 1305.
  • the area information is acquired based on the image data output.
  • the image dividing unit 1302 divides image data based on the projection area information acquired from each projector, and acquires area information using the divided image data. For example, in FIG. 7, the image dividing unit 1302 acquires projection area information for notifying that the projector 100 projects the area 1001 and the projector B projects the area 1002.
  • the projection area information acquired by the image dividing unit 1302 in the example of FIG. 7 includes the coordinate values of four vertices for specifying the area 1001, the coordinate value of the center of the area 1002, and the radius of the area 1002. It is.
  • the projection area information includes association information in which the area 1001 and the projector A are associated with each other, and association information in which the area 1002 and the projector B are associated with each other.
  • the image dividing unit 1302 that has acquired the projection area information as described above divides the input image data into image data for the projector A and image data for the projector B, respectively.
  • the edge direction specifying unit 1306 specifies the boundaries of the projection areas having different resolutions and the direction of the boundaries based on the divided image data output by the image dividing unit 1302. Hereinafter, processing of the edge direction specifying unit 1306 will be described.
  • FIG. 9A shows a projection area obtained by combining the projection areas of two projectors.
  • An area 1001 is a projection area of the projector A
  • an area 1002 is a projection area of the projector B.
  • a white area in FIG. 9A indicates an area of image data output by the image dividing unit 1302 for the projector A.
  • a white area in FIG. 9C indicates an area of image data that the image dividing unit 1302 outputs for the projector B.
  • the image dividing unit 1302 displays the image data so that the pixel value data in the white area in FIGS. 9A and 9C has a value corresponding to the input image data, and the pixel value data in the black area is 0.
  • the edge direction specifying unit 1306 specifies the boundaries and directions of projection areas having different resolutions based on the image data output by the image dividing unit 1302 and the resolution acquired by the parameter acquisition unit 1301. Note that the edge direction specifying unit 1306 can also obtain the resolution from the image data output by the image dividing unit 1302.
  • the edge direction specifying unit 1306 specifies the boundaries and directions of projection areas having different resolutions by the following method.
  • the edge direction specifying unit 1306 calculates a differential amount in the x and y directions for an arbitrary pixel P (x, y) in the region 1001.
  • fx P (x + 1, y) ⁇ P (x, y) (1)
  • fy P (x, y + 1) ⁇ P (x, y) (2)
  • the edge direction specifying unit 1306 calculates the edge strength I of the image using the following equation.
  • I (x, y) ⁇ (fx ⁇ fx + fy ⁇ fy) (3)
  • the edge direction specifying unit 1306 compares the edge intensity calculated by the expression (3) with the threshold value I0.
  • the edge direction specifying unit 1306 calculates the direction of the edge.
  • the relationship between the edge boundary and ⁇ will be described with reference to FIG.
  • FIG. 10A shows a projection area obtained by combining the projection areas of the projectors A and B, as in FIG. FIG. 10A is an enlarged view of the region 1006 of FIG.
  • a tangent of the boundary between the regions 1001 and 1002 in a certain pixel 1005 is a tangent 1003.
  • the angle information ⁇ is calculated as an angle in a direction perpendicular to the tangent line, that is, the boundary line.
  • the edge direction specifying unit 1306 of this embodiment performs the above calculation for all the pixels in the region 1001.
  • the edge direction identification unit 1306 outputs the angle information ⁇ to the coefficient determination unit 1304.
  • the coefficient determination unit 1304 determines a filter coefficient (smoothing parameter) using the angle information ⁇ . That is, the coefficient determination unit 1304 determines the smoothing parameter so that the pixels in the horizontal direction with respect to the boundary direction are smoothed more strongly than the pixels in the vertical direction.
  • the coefficient determination unit 1304 of this embodiment stores in advance optimum filter coefficients for each angle information ⁇ . Then, the coefficient determination unit 1304 determines a filter coefficient according to the acquired angle information ⁇ and a previously stored filter coefficient.
  • the filter coefficient determination method is not limited to this method.
  • the image processing apparatus of the present embodiment when an image based on image data is displayed using a plurality of projectors, it is possible to reduce the deterioration of the image quality and make the boundary of the projection region inconspicuous.
  • an image processing apparatus that displays an image on a projector that projects an image from the front of the screen has been described.
  • the present invention can also be applied to, for example, a rear projection television.
  • the case where the image processing apparatus is a device different from the projector has been described.
  • the image processing apparatus may be incorporated in the projector.
  • filtering processing is performed in the vicinity of the boundary between the projection area of the projector A and the boundary between the projection area of the projector C in the projection area of the projector B. Accordingly, two pixel values are calculated for one pixel in a partial area (upper left area) of the projection area of the projector B. That is, the first pixel value filtered according to the direction of the boundary between the projection areas of projectors A and B, and the second pixel value filtered according to the direction of the boundary between the projection areas of projectors B and C Is calculated.
  • the image processing unit 201 determines which pixel value is to be used based on the image pattern of the boundary portion.
  • the filter processing unit 305 analyzes the image of the projection area of the projector B and determines which of the projected image is strong in the horizontal direction and strong in the vertical direction. Determine if quality is not compromised. Based on the determination result, the filter processing unit 305 employs a pixel value calculated by performing strong filter processing in a direction that does not impair the quality of the projection image.
  • the image processing unit 201 of the present embodiment performs multi-projection using the projector A (first projector), the projector B (second projector), the projector C (third projector), and the projector D. Further, the image processing unit 201 analyzes the image data input to the image dividing unit 302. Then, the image processing unit 201 includes at least a part of the first smoothing area corresponding to the boundary between the projection areas of the projectors A and B and the second smoothing area corresponding to the boundary between the projection areas of the projectors B and C. Are duplicated, the image data to be output is determined as follows.
  • the image processing unit 201 smoothes the image data according to the direction of the boundary between the projection areas of the projectors A and B and the direction of the boundary between the projection areas of the projectors B and C according to the analysis result of the image data.
  • One of the image data smoothed in accordance with is output.
  • the present invention is not limited to the above method.
  • a pixel value that is filtered based on the direction of the boundary between the projection area of the projector A and the projection area of the projector B, and the projection area of the projector B, is adopted. You may do it.
  • the image processing unit 201 is based on the direction of the boundary between the projection area of the projector C and the projection area of the projector B. Filter. And the image data which made the pixel value calculated by filtering according to the direction of the boundary of the projectors B and C the pixel value of the area
  • the image processing unit 201 includes at least a part of the first smoothing area corresponding to the boundary between the projection areas of the projectors A and B and the second smoothing area corresponding to the boundary between the projection areas of the projectors B and C.
  • the image data to be output is determined as follows. That is, the image processing unit 201 performs smoothing of the image data smoothed according to the direction of the boundary between the projection areas of the projectors A and B and the boundary between the projection areas of the projectors B and C according to the resolution of the projectors A and C. One of the image data smoothed according to the direction is output.
  • the image processing unit 201 determines one smoothing parameter among the two smoothing parameters even if the pixel value to be adopted is determined after calculating two pixel values based on the two smoothing parameters. Then, the pixel value may be calculated.
  • the present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)

Abstract

 複数のプロジェクタに画像を投影させる画像処理装置101のパラメータ取得部は、各プロジェクタの解像度と、投影領域に関する領域情報を取得する。そして、画像処理装置101の係数決定部は、解像度が異なるプロジェクタの投影領域の境界に対して垂直方向の画素よりも、水平方向の画素を強く平滑化する。

Description

画像処理装置および画像処理方法
 複数のプロジェクタで画像を投影する場合の画像処理方法に関する。
 近年、1つの画像データに基づく画像を、複数のプロジェクタを用いて表示させるマルチプロジェクションが普及している。以下では、複数台のプロジェクタの投影領域をタイル状に並べて1つの画像を表示させることを、特にタイル表示と呼ぶ。
 タイル表示における各プロジェクタの投影領域の結合方法として、以下の方法が知られている。例えば、2つの投影領域A、Bが互いに重ならないように正確に調整しながら結合させる方法が知られている。また、投影領域A、Bの境界に重ね合わせ領域を設け、重ね合わせ領域に夫々共通の映像Pを投影させ、この映像Pが正確に重なるように調整しながら結合させる方法が知られている。特許文献1には、複数プロジェクタの投影領域の境界の重ね合わせ領域(エッジブレンド)の開始点及び終了点を自動的に決定する方法が開示されている。
特開平11-98439号公報
 しかしながら、画像データに基づく画像を複数のプロジェクタを用いて表示させる場合、各プロジェクタの投影領域の境界が目立ってしまう恐れがあった。
 例えば、解像度が異なる複数のプロジェクタでタイル表示を行った場合、解像度が低いプロジェクタと解像度が高いプロジェクタの境界が、同じ解像度のプロジェクタでタイル表示を行う場合よりも目立ってしまう恐れがある。
 また、例えば、解像度が同じ第1、第2のプロジェクタのうち、第1のプロジェクタの画角を第2のプロジェクタの画角よりも小さくし、第2のプロジェクタの投影領域内に第1のプロジェクタが画像を投影すると、投影領域の境界が目立ってしまう恐れがある。これは、同じ解像度のプロジェクタの場合、画角が小さいほうが解像度が高くなるため、投影領域の境界の解像度の違いが目立ってしまうためである。
 また、例えば、画像信号に対して台形補正する複数のプロジェクタでタイル表示を行う場合も、各プロジェクタの投影領域の境界において解像度の差が発生し、境界が目立ってしまう恐れがあった。
 プロジェクタの解像度の違いによって境界が目立ってしまう場合は、例えば、解像度が高いプロジェクタの解像度を下げれば、境界が目立ちにくくなる。しかしながら、解像度が高いプロジェクタによる投影領域の画質が下がってしまう。また、例えば、解像度が高いプロジェクタの投影領域のうち、境界付近の領域のみ、解像度を下げれば、境界が目立ちにくくなるが、境界付近の画質が下がってしまう。
 本発明は、上記の問題点に鑑みてなされたものであり、その目的は、画像データに基づく画像を複数のプロジェクタを用いて表示させる場合に、画質の劣化を低減しつつ、投影領域の境界を目立ちにくくすることである。
 上記の問題点を解決するために、本発明の画像処理装置は、例えば以下の構成を有する。すなわち、複数のプロジェクタに画像を投影させる画像処理装置であって、前記複数のプロジェクタの解像度、及び、前記複数のプロジェクタの投影領域に関する領域情報を取得する取得手段と、前記取得手段により取得された前記複数のプロジェクタの解像度、及び、領域情報に基づいて、解像度が異なるプロジェクタの投影領域の境界を特定する特定手段と、前記特定手段により特定された境界に対して垂直方向の画素よりも、前記境界に対して水平方向の画素のほうが強く平滑化されるように平滑化する平滑化手段と、前記平滑化手段により平滑化された画像データを出力する出力手段とを有する。
 本発明によれば、複数のプロジェクタの投影領域を並べて1つの画像を表示する場合に、投影領域の画質の劣化を低減しつつ、投影領域の境界を目立ちにくくすることができる。
実施形態1のマルチプロジェクションシステムを表すブロック図 実施形態1における画像処理部201のブロック図 実施形態1における画像処理装置101の処理を表すフローチャート図 実施形態1における境界領域とフィルタリング処理を説明するための模式図 実施形態1におけるフィルタリング処理を説明するための模式図 実施形態1におけるフィルタリング処理の画素形状を説明するための模式図 実施形態2のマルチプロジェクションシステムを表すブロック図 実施形態2における画像処理部1201のブロック図 実施形態2における画像分割部による画像の分割を説明するための模式図 第2の実施形態における境界領域の接線と角度をあらわす模式図
 <実施形態1>
 本実施形態におけるマルチプロジェクションの構成について、図1を用いて説明する。本実施形態では、画像処理装置101が、2台のプロジェクタA、Bにタイル表示させる例を説明する。
 プロジェクタAはパネル信号生成部102、光源103、液晶パネル104、投射光学系105から構成される。パネル信号生成部102は、画像処理装置101からの画像データに対して画像処理を行って制御信号を生成し、液晶パネル104へ出力する。液晶パネル104は、R/G/Bの3枚のパネルで構成され、パネル信号生成部102からの制御信号によりR/G/Bの三原色に対する透過率が二次元的に制御される。光源103から投射された光は、パネル信号生成部102によって生成された制御信号に基づいて制御された液晶パネル104を通過する。
 液晶パネル104を通過した通過光は、投射光学系105を通過してスクリーン上に投影される。投射光学系105には、液晶パネル104からの通過光に基づいて画像をスクリーンに投影するためのレンズ、スクリーン上の画角を変更するズーム部、スクリーン上の表示位置を変更するレンズシフト部などから構成される。プロジェクタBの構成はプロジェクタAと同様であるが、プロジェクタBは、プロジェクタAよりも3倍高い解像度を持つ。従って、プロジェクタBのパネル信号生成部106と液晶パネル107はプロジェクタAのパネル信号生成部102と液晶パネル107と比べて、制御する解像度が高い。
 次に、本実施形態の画像処理装置101について説明する。画像処理部201は、画像データを入力し、タイル表示に用いる各プロジェクタの投影領域の境界の画像処理(フィルタ処理)を行ない、フィルタ処理後の画像データを各プロジェクタに出力する回路である。ただし、画像処理装置101に含まれるCPU202が、ROM203に記録されているプログラムをRAM204に適宜読み出して上述のフィルタ処理を行うようにすることも可能である。この場合、ROM203、RAM204は、本実施形態のフィルタ処理に必要なプログラム、データ、作業領域をCPU202に提供する。なお、本実施形態の画像処理装置101が行うフィルタ処理は、フィルタ領域内の画素値を平滑化するための平滑化処理である。本形態の平滑化処理は、平均値フィルタを用いて行われるが、フィルタ領域の高周波成分をカットする高周波成分カットフィルタや、フィルタ領域の中央の画素値を採用する中央値フィルタを用いて行われるようにしても良い。
 また、画像処理装置101は、ユーザからの指示を入力する操作部205を備える。操作部205は、例えば、ボタンやタッチパネルで実現可能である。また、画像処理装置101は、PC、カメラ、メディア(例えばハードディスク、メモリーカード、SDカード、USBメモリ)に接続するための外部インターフェース206を備える。外部インターフェース206は、USB、LAN、IEEE1394等の規格に則した通信線、または無線などで実現可能である。
 本実施形態の画像処理部201は、ユーザの視覚特性を利用して、解像度が異なるプロジェクタの投影領域の境界を目立たなくするためのフィルタ処理(平滑化処理)を行う。すなわち、解像度が異なる2つの領域の境界線に対して水平方向の解像度の違いが、境界線に対して垂直方向の解像度の違いよりも、境界線の認識に大きく関与するという視覚特性がある。そこで、画像処理部201は、解像度が異なるプロジェクタの投影領域の境界に対して垂直方向の画素よりも、水平方向の画素のほうが、強く平滑化されるように、画像データのフィルタ処理(平滑化処理)を行う。このフィルタ処理は、解像度の高いプロジェクタ(プロジェクタB)に出力する画像データの解像度を、解像度の低いプロジェクタAの解像度に合わせて下げるフィルタ処理である。このように、本形態の画像処理部201は、境界線の認識に大きく関与しない方向(境界線に対して垂直方向)の画素のフィルタ処理を、境界線の認識に大きく関与する方向(境界線に対して水平方向)の画素のフィルタ処理よりも弱める。これにより、画質の低減を抑えつつ、プロジェクタの投影領域の境界を目立ちにくくできる。
 画像処理部201の詳細を図2に示す。画像処理部201には、パラメータ取得部301、画像分割部302、領域特定部303、係数決定部304、フィルタ処理部305を備えている。パラメータ取得部301は、タイル表示に用いられる各プロジェクタの投影領域の位置に関する領域情報、及び、タイル表示に用いられる各プロジェクタの解像度を取得する。
 画像分割部302は、画像処理装置101に入力された画像データを、各プロジェクタの領域情報に基づいて分割する。領域特定部303は、パラメータ取得部301によって取得された各プロジェクタの領域情報と解像度に基づいて解像度が異なるプロジェクタの投影領域の境界を特定し、その結果に基づいて、フィルタ処理を行うべきフィルタ領域を決定する。
 係数決定部304は、フィルタ処理に用いるフィルタ係数(平滑化パラメータ)を決定する。フィルタ処理部305は、領域特定部303によって特定されたフィルタ領域を、係数決定部304によって決定されたフィルタ係数(平滑化パラメータ)でフィルタ処理する。
 以下、画像処理部201の動作について、図3のフローチャートを用いて説明する。
 ステップS301(取得手順)において、パラメータ取得部301は、タイル表示に用いる各プロジェクタの領域情報を取得する。領域情報は、マルチプロジェクションにおける各プロジェクタの投影領域の位置関係を特定するための情報である。例えば、図1のようなタイル表示の場合、パラメータ取得部301が取得する領域情報は、2台のプロジェクタの投影領域を横に並べる構成において、プロジェクタAが左側の投影領域に投影し、プロジェクタBが右側の投影領域に投影することを示す情報となる。また、領域情報には、各プロジェクタによる投影領域のサイズの情報が含まれる。本形態のパラメータ取得部301は、領域情報を、ユーザが操作部205を用いて設定した内容に基づいて取得する。
 例えば、ユーザは、タイル表示に用いるプロジェクタの数を入力し、タイル表示の構成パターンを選択する。そして、ユーザは、選択した構成パターンに対応する各投影領域について、プロジェクタを指定する。パラメータ取得部301は、ユーザによって選択されたタイル表示の構成パターンと、各投影領域について指定されたプロジェクタから、領域情報を取得する。
 例えば、図1の場合、プロジェクタの数として、2が入力され、タイル表示の構成パターンとして、投影領域を横に並べる構成パターンが選択される。そして、横に並べる構成パターンにおいて、左側の投影領域に画像を投影するプロジェクタとしてプロジェクタAが指定され、右側の投影領域に画像を投影するプロジェクタとしてプロジェクタBが指定される。本形態のパラメータ取得部301は、上記のようなユーザの入力(指定情報入力)に基づいて、領域情報を取得する。
 すなわち、パラメータ取得部301は、操作部205により入力された指定情報に基づいて、複数のプロジェクタの投影領域に関する領域情報を取得する。
 なお、本形態のパラメータ取得部301は、外部インターフェース206を介して接続されたCCDカメラの撮影画像によって領域情報を取得することも可能である。すなわち、CCDカメラは、プロジェクタによる投影領域の画像を撮像する。そして、パラメータ取得部301は、CCDカメラによる撮像画像を画像入力することにより、複数のプロジェクタの投影領域に関する領域情報を取得できる。このようにすれば、ユーザがタイル表示の構成パターンなどを入力しない場合であっても、領域情報を取得することが可能なる。また、本形態のパラメータ取得部301は、ユーザ入力から領域情報を取得できない場合に、撮像画像による領域情報の取得を行うように、領域情報の取得方法を切り替える。これにより、より確実に領域情報を取得することができる。
 ステップS302(取得手順)において、パラメータ取得部301は、プロジェクタA、Bの解像度を取得する。本形態のパラメータ取得部301は、ディスプレイケーブルを介して、プロジェクタA、Bのそれぞれから解像度の通知を受ける。パラメータ取得部301は、プロジェクタからの通知に基づいて、複数のプロジェクタのそれぞれの解像度を取得する。
 なお、本形態のパラメータ取得部301は、外部インターフェ-ス206を介して接続されたカメラによる撮像画像から各プロジェクタの解像度を算出することも可能である。このようにすれば、プロジェクタが解像度を通知する機能を備えていない場合であっても、パラメータ取得部301は、解像度を取得できる。また、本形態のパラメータ取得部301は、プロジェクタからの通知によって解像度を取得できない場合に、撮像画像による解像度の取得を行うように、解像度の取得方法を切り替える。これにより、より確実にプロジェクタの解像度を取得することができる。
 ステップS303において、画像分割部302は、パラメータ取得部301によって取得されたプロジェクタの領域情報に基づいて、画像データを分割する。本実施形態では、図1に示すように、プロジェクタAとBの投影領域を左右に並べるタイル表示を行っており、投影領域のサイズは同じである。そこで、画像分割部302は、入力された画像データを横方向に左右等しいサイズで分割する。ここでは、プロジェクタAとBの投影領域を互いに重ならないように結合するものとする。
 ステップS304(特定手順)において、領域特定部303は、パラメータ取得部301によって取得された領域情報、及び、解像度に基づいて、フィルタ領域を特定する。すなわち、領域特定部303は、ステップS304において、複数のプロジェクタの解像度、及び領域情報に基づいて、解像度が異なるプロジェクタの投影領域の境界を特定する。そして、領域特定部303は、特定した境界を目立ちにくくするためのフィルタ処理を行う領域(フィルタ領域)を特定する。フィルタ処理は、高解像度のプロジェクタ用に分割された画像データに対して行なわれる。すなわち、本実施形態では、領域特定部303は、プロジェクタAよりも高解像度のプロジェクタBに出力する画像データの領域の少なくとも一部をフィルタ領域として特定する。
 本形態の領域特定部303は、各プロジェクタの解像度の差異に基づいて、フィルタ領域の幅を特定する。すなわち、領域特定部303は、境界を挟む各プロジェクタの解像度の差異が、所定の差異よりも大きい場合、所定の差異よりも小さい場合よりも、フィルタ領域の幅を大きくする。このようにすることで、解像度の差異が大きい場合は、より滑らかに解像度が変化するので、境界を目立ちにくくすることができる。一方、解像度の差異が小さい場合は、フィルタ領域の幅を小さくすることで、フィルタ処理にかかる処理負荷を低減できる。
 例えば、領域特定部303は、プロジェクタBの解像度がプロジェクタAの解像度の3倍である場合、プロジェクタBの投影領域の30%を、フィルタ領域として特定する。すなわち、プロジェクタBの投影領域のうち、プロジェクタAの投影領域との境界から30%の投影領域が、フィルタ領域として特定される。一方、領域特定部303は、プロジェクタBの解像度が、プロジェクタAの解像度の2倍であった場合、プロジェクタBの投影領域の20%を、フィルタ領域として特定する。ただし、フィルタ領域の幅は、一定でも良い。また、領域特定部303は、観察距離や画像内容に基づいて領域幅を特定することも可能である。
 ステップS305(決定手順)において、係数決定部304は、領域特定部303によって特定された境界の方向とフィルタ領域とに基づいて、フィルタ処理に用いるフィルタ係数(平滑化パラメータ)を決定する。本形態の係数決定部304は、境界に対して垂直方向の画素よりも、水平方向の画素のほうが、強く平滑化されるように、フィルタ係数を決定する。
 図4は、係数決定部304によるフィルタ係数の決定方法の例を説明するための図である。図4(ア)は、解像度が低いプロジェクタAの投影領域401と、解像度が高いプロジェクタBの投影領域402を横に並べてタイル表示をしている例である。この場合、領域特定部303は、解像度が高いプロジェクタBの投影領域402の少なくとも一部の領域(フィルタ適用領域403)をフィルタ領域として特定する。404は、プロジェクタAの投影領域401とプロジェクタBの投影領域402の境界線である。
 図4(イ)は、図4(ア)のフィルタ適用領域403を拡大した図である。図4(イ)に示すように、係数決定部304は、フィルタ適用領域403のうち、境界404に近い領域407のフィルタ係数として、3つの画素値の平均をとるフィルタA405を決定する。また、係数決定部304は、フィルタ適用領域403のうち、領域407よりも境界404から遠い領域408のフィルタ係数として、2つの画素値の平均をとるフィルタB406を決定する。このように、係数決定部304は、境界線から近いフィルタ領域の画素が、境界線から遠いフィルタ領域の画素よりも強く平滑化されるように、フィルタ係数を決定する。
 即ち、係数決定部304は、プロジェクタBの投影領域内の画素のうち、プロジェクタAとBの投影領域の境界からの距離が第1の距離の画素よりも、第1の距離よりも短い第2の距離の画素のほうが強く平滑化されるように、平滑化パラメータを決定する。なお、プロジェクタBは、プロジェクタAよりも解像度が高いプロジェクタである。
 また、本形態の係数決定部304は、境界方向に対して垂直方向の画素のフィルタ処理を行わず、境界方向に対して水平方向の画素のフィルタ処理を行うように、フィルタ係数を決定する。このように、係数決定部304は、境界方向に対して水平方向の画素の平滑化が、境界方向に対して垂直方向の画素の平滑化よりも強く行われるように、フィルタ係数を決定する。なお、本形態では、境界方向に対して垂直方向の画素の平滑化を行わない例について説明しているが、水平方向の平滑化よりも弱い平滑化を行っても良い。
 本実施形態のフィルタ処理による解像度の変化について、図5を用いて説明する。図5は各プロジェクタの解像度と境界線に垂直方向(x方向)の座標の関係を表した図である。図5で示す解像度は、投影画像が取り得る最高空間周波数に相当する値であり、この値が大きいほど高い解像度の画像を投影できることを示す。
 図5(ア)は、フィルタ処理前の解像度を示している。境界線601において、プロジェクタAとBの解像度が急激に変化しており、境界線601が目立つ状態である。図5(イ)は、フィルタ処理後の境界線に対して垂直方向の解像度を示している。境界線に対して垂直方向の解像度は、境界線の認識にあまり関与しないので、プロジェクタB側の解像度をぼかさないか、わずかにぼかす程度である。従って、図5(イ)に示すように、フィルタ処理後の境界方向に対して垂直方向の解像度の変化は大きいままである。
 図5(ウ)は、フィルタ処理後の境界線に対して水平方向の解像度を表している。上述のように、境界線に対して水平方向の解像度の違いは、垂直方向の解像度の違いよりも境界線の認識に大きく影響を及ぼす。従って、係数決定部304は、プロジェクタBによる境界付近の投影領域において、境界方向に対して水平方向の解像度が、プロジェクタAの解像度に近くなるようにフィルタ係数を決定する。そして、係数決定部304は、境界線から遠ざかるにつれて、プロジェクタBの水平方向の解像度を徐々に高くし、フィルタ領域幅602以降の領域では、プロジェクタBの解像度と同じにする。
 図5(エ)、(オ)に、方向に関係なくフィルタ処理する場合におけるx方向、y方向の解像度を示す。これに対し、本実施形態の画像処理部201は、境界方向に対して垂直方向であるx方向の解像度は保持させるので、方向に関係なくフィルタ処理を行うよりも、フィルタ領域の解像度が向上する。
 なお、フィルタ領域やフィルタ係数の決定方法は、上記の方法に限らない。すなわち、境界線に対して水平方向の画素値が、境界線に対して垂直方向の画素値よりも強く平滑化されればよい。
 ステップS306(平滑化手順)において、フィルタ処理部305は、ステップS304で特定されたフィルタ領域と、ステップS305で決定されたフィルタ係数を用いてフィルタ処理(平滑化処理)を行なう。すなわち、フィルタ処理部305は、ステップS306において、境界に対して垂直方向の画素よりも、境界に対して水平方向の画素のほうが強く平滑化されるように平滑化する。フィルタ処理部305は、フィルタ処理として、元の画像データに対してフィルタ係数で畳み込み積分を行う。
 ステップS307(出力手順)において、フィルタ処理部305は、フィルタ処理後の画像データを各プロジェクタに出力する。なお、本形態の画像処理装置101は、プロジェクタA、Bとは別の装置として説明しているので、フィルタ処理部305は、プロジェクタAとBに画像データを出力する。しかし、例えば、画像処理装置101がプロジェクタAに組み込まれている場合は、フィルタ処理部305は、プロジェクタBに出力すると共に、プロジェクタA内の、例えば、パネル信号生成部102に出力する。すなわち、フィルタ処理部305は、フィルタ処理後の画像データを、マルチプロジェクションを行なう複数のプロジェクタのうちの少なくとも1つに出力する。
 なお、図3の各ステップのうちの一部を、OS(Operating System)や既存のアプリケーションなどの機能を用いて行なうようにしても良い。
 次に、フィルタ処理による境界線の画像処理結果について、図6を用いて説明する。図6(ア)は、フィルタ処理前のプロジェクタA、Bの境界線付近の解像度を示している。1つの正方形が1つの画素に相当する。図6(ア)は、境界線701を挟んで、解像度が急激に変化していることを示している。図6(イ)は、フィルタ処理後のプロジェクタA、Bの境界線付近の解像度を示している。領域702は、ステップS305で決定されたフィルタAの適用領域、領域703は、フィルタBの適用領域である。本形態のフィルタ処理(平滑化処理)は、平均値フィルタを用いて行われる。ただし、平滑化処理は、高周波成分カットフィルタや、中央値フィルタを用いて行われるようにしても良い。
 図6(イ)に示すように、フィルタ処理後のプロジェクタBの境界線近傍の解像度は、フィルタ処理によって低くなる。特に、境界線の方向に対して水平方向の解像度が、垂直方向の解像度よりも、低くなる。すなわち、本形態の画像処理装置101によれば、解像度が異なるプロジェクタの投影領域の境界を目立たなくしつつ、境界線の方向に対して垂直方向には高解像度な画像を投影することができる。
 なお、本実施形態は、図1のようにプロジェクタAとBが左右に並列してタイル表示した場合のフィルタ処理を説明したが、これに限らず、各プロジェクタの投影領域を重ね合わせて表示する場合に適用することもできる。
 以上、本実施形態の画像処理装置によれば、解像度が異なる複数のプロジェクタを用いたタイル表示において、画質の劣化を低減しつつ、投影領域の境界を目立ちにくくすることができる。
 なお、本形態の画像処理装置は、解像度が異なる複数のプロジェクタでマルチプロジェクションを行う例について説明したが、これに限らない。本発明は、例えば、同じ解像度であるが画角が異なる複数のプロジェクタでマルチプロジェクションを行う場合や、台形補正するプロジェクタと台形補正しないプロジェクタでマルチプロジェクションを行う場合にも適用可能である。
 画角を用いる場合、図3のステップS302で、パラメータ取得部301は、各プロジェクタから、解像度と画角に関する情報を取得する。そして、ステップS304において、領域特定部303は、解像度と領域情報と画角に基づいて、解像度が異なる投影領域の境界を特定し、その結果に基づいてフィルタ領域を特定する。例えば、プロジェクタの解像度が同じ場合、画角が小さいプロジェクタの解像度が高くなる。従って、ステップS305において、係数決定部304は、画角が小さいプロジェクタと画角が大きいプロジェクタの投影領域の境界に垂直方向の画素よりも水平方向の画素のほうが強く平滑化されるように、フィルタ係数(平滑化パラメータ)決定する。
 台形補正の補正量を用いる場合、図3のステップS302で、パラメータ取得部301は、各プロジェクタから、解像度と台形補正の補正量に関する情報を取得する。そして、ステップS304において、領域特定部303は、解像度と台形補正の補正量と領域情報に基づいて、解像度が異なる投影領域の境界を特定し、その結果に基づいてフィルタ領域を特定する。また、画像処理装置101は、画角と台形補正の補正量の両方を用いてフィルタ領域の特定とフィルタ係数を決定することも可能である。
 <実施形態2>
 実施形態2について、実施形態1との差異を中心に説明する。図7は、実施形態2におけるマルチプロジェクションの構成を説明するためのブロック図である。本実施形態では、プロジェクタBの投影領域1002が、プロジェクタAの投影領域1001に囲まれている場合について説明する。なお、プロジェクタA、Bは、実施形態1のプロジェクタA、Bと同様である。
 図8は、実施形態2の画像処理部1201の構成を示すブロック図である。実施形態1の画像処理部201は、ユーザによる入力や、撮像画像に基づいて領域情報を取得していたのに対し、本形態の画像処理部1201は、画像分割部1302からフィルタ処理部1305に対して出力される画像データに基づいて、領域情報を取得する。
 すなわち、画像分割部1302は、各プロジェクタから取得した投影領域情報に基づいて画像データを分割すると共に、分割した画像データを用いて領域情報を取得する。例えば、図7において、画像分割部1302は、領域1001をプロジェクタAが投影し、領域1002をプロジェクタBが投影することを通知するための投影領域情報を取得する。図7の例で画像分割部1302が取得する投影領域情報には、領域1001を特定するための4つの頂点の座標値、及び、領域1002の中心の座標値、及び、領域1002の半径が含まれる。また、投影領域情報には、領域1001とプロジェクタAとを対応付けた対応付け情報、及び、領域1002とプロジェクタBとを対応づけた対応付け情報が含まれる。上記のような投影領域情報を取得した画像分割部1302は、入力された画像データをプロジェクタA用の画像データとプロジェクタB用の画像データにそれぞれ分割する。
 エッジ方向特定部1306は、画像分割部1302によって出力された分割画像データに基づいて、解像度が異なる投影領域の境界と、境界の方向を特定する。以下エッジ方向特定部1306の処理について説明する。
 画像分割部1302によって分割された画像の例を図9に示す。図9(ア)は、2つのプロジェクタの投影領域を合わせた投影領域を示している。領域1001はプロジェクタAの投影領域、領域1002はプロジェクタBの投影領域である。図9(イ)の白の領域は、画像分割部1302がプロジェクタA用に出力する画像データの領域を示している。また、図9(ウ)の白い領域は、画像分割部1302がプロジェクタB用に出力する画像データの領域を示している。画像分割部1302は、図9(イ)、(ウ)の白い領域の画素値データは入力された画像データに応じた値になり、黒い領域の画素値データは0となるように、画像データを出力する。エッジ方向特定部1306は、画像分割部1302により出力された画像データと、パラメータ取得部1301により取得された解像度に基づいて、解像度が異なる投影領域の境界とその方向を特定する。なお、エッジ方向特定部1306が、画像分割部1302により出力された画像データから解像度を取得することも可能である。
 本形態のエッジ方向特定部1306は、以下のような方法で、解像度が異なる投影領域の境界とその方向を特定する。
 エッジ方向特定部1306は、領域1001の任意の画素P(x,y)に対して、x、y方向の微分量を算出する。
 fx=P(x+1,y)-P(x,y)   (1)
 fy=P(x,y+1)-P(x,y)   (2)
 次に、エッジ方向特定部1306は、画像のエッジの強度Iを以下の式で算出する。
 I(x,y)=√(fx×fx+fy×fy)   (3)
 次に、エッジ方向特定部1306は、式(3)で算出したエッジ強度をしきい値I0と比較する。
 I(x,y)>I0の場合、エッジ方向特定部1306は、画素P(x,y)をエッジ部であると判定する。一方、I(x,y)<=I0の場合、エッジ方向特定部1306は、画素P(x,y)をエッジ部ではないと判定する。
 続いて、エッジ方向特定部1306は、エッジの方向を算出する。画素P(x,y)におけるエッジの方向は、
 θ=tan-1(fy/fx)   (4)
である。エッジの境界とθの関係について、図10を用いて説明する。図10(ア)は、図9(ア)と同じように、プロジェクタA、Bの投影領域を合わせた投影領域を示している。図10(イ)は、図10(ア)の領域1006を拡大した図である。ある画素1005における領域1001と1002の境界の接線は、接線1003である。角度情報θは、接線、つまり境界線に対して垂直方向の角度として算出される。本形態のエッジ方向特定部1306は、上記の計算を、領域1001のすべての画素に対して行う。
 エッジ方向特定部1306は、角度情報θを係数決定部1304に出力する。係数決定部1304は、角度情報θを用いてフィルタ係数(平滑化パラメータ)を決定する。すなわち、係数決定部1304は、境界方向に対して水平方向の画素が、垂直方向の画素よりも強く平滑化されるように、平滑化パラメータを決定する。本形態の係数決定部1304には、角度情報θごとに最適なフィルタ係数が予め記憶されている。そして、係数決定部1304は、取得した角度情報θと、予め記憶されたフィルタ係数に応じてフィルタ係数を決定する。ただし、フィルタ係数の決定方法は、この方法に限らない。
 以上、本形態の画像処理装置によれば、画像データに基づく画像を複数のプロジェクタを用いて表示させる場合に、画質の劣化を低減しつつ、投影領域の境界を目立ちにくくすることができる。
 なお、本実施形態では、スクリーンの正面から画像を投影するプロジェクタに画像を表示させる画像処理装置について説明したが、例えば、リアプロジェクションテレビなどに適用することも可能である。また、本実施形態では、画像処理装置がプロジェクタとは別の機器である場合について説明したが、プロジェクタに組み込まれていても良い。
 <実施形態3>
 第1の実施形態、第2の実施形態では、それぞれプロジェクタが2台の場合について説明したが、本発明は、3台以上のプロジェクタを用いる場合にも適用可能である。本実施形態では、4台のプロジェクタ(プロジェクタA、B、C、D)を用いて、マルチプロジェクションを行うこと場合について説明する。例えば、図1のプロジェクタA(第1のプロジェクタ)の投影領域の上に、プロジェクタD(第4のプロジェクタ)が画像を投影し、図1のプロジェクタB(第2のプロジェクタ)の投影領域の上に、プロジェクタC(第3のプロジェクタ)が画像を投影する。なお、プロジェクタBの解像度が最も高く、プロジェクタA、C、Dの順に解像度が低くなる。
 このような例において、プロジェクタBの投影領域のうち、プロジェクタAの投影領域との境界付近と、プロジェクタCの投影領域との境界付近でフィルタ処理が行われる。従って、プロジェクタBの投影領域の一部の領域(左上の領域)において、1画素に対して、2つの画素値が算出される。すなわち、プロジェクタAとBの投影領域の境界の方向に応じてフィルタ処理された第1の画素値と、プロジェクタBとCの投影領域の境界の方向に応じてフィルタ処理された第2の画素値が算出される。本実施形態の画像処理部201は、1画素に対して2つ以上の画素値が算出された場合、境界部分の画像のパターンに基づいて、どちらの画素値を採用するか決定する。
 より具体的には、フィルタ処理部305は、プロジェクタBの投影領域の画像を解析し、横方向に強く平滑化処理する場合と、縦方向に強く平滑化処理する場合とで、どちらが投影画像の品質を損なわないか判定する。そして、フィルタ処理部305は、判定結果に基づいて、投影画像の品質を損なわない方向に強くフィルタ処理されて算出された画素値を採用する。
 すなわち、本形態の画像処理部201は、プロジェクタA(第1のプロジェクタ)、プロジェクタB(第2のプロジェクタ)、プロジェクタC(第3のプロジェクタ)、及び、プロジェクタDを用いてマルチプロジェクションを行なう。また、画像処理部201は、画像分割部302に入力された画像データを解析する。そして、画像処理部201は、プロジェクタAとBの投影領域の境界に応じた第1の平滑化領域と、プロジェクタBとCの投影領域の境界に応じた第2の平滑化領域の少なくとも一部が重複する場合、出力する画像データを以下のように決定する。すなわち、画像処理部201は、画像データの解析結果に応じて、プロジェクタAとBの投影領域の境界の方向に応じて平滑化された画像データと、プロジェクタBとCの投影領域の境界の方向に応じて平滑化された画像データのいずれかを出力する。このように、画像のパターンに基づいて出力する画像データの画素値を決定することで、フィルタ処理による投影画像の劣化を低減することができる。
 ただし、上記の方法に限らず、例えば、プロジェクタAとプロジェクタCのうち、より解像度が低いプロジェクタの投影領域と、プロジェクタBの投影領域の境界の方向に基づいてフィルタ処理された画素値を採用するようにしても良い。
 つまり、画像処理部201は、プロジェクタBの解像度がプロジェクタAよりも高く、プロジェクタAの解像度がプロジェクタCよりも高い場合、プロジェクタCの投影領域とプロジェクタBの投影領域の境界の方向に基づいて、フィルタ処理する。そして、プロジェクタBとCの境界の方向に応じてフィルタ処理して求めた画素値を、平滑化領域が重複した領域の画素値とした画像データを出力する。
 すなわち、画像処理部201は、プロジェクタAとBの投影領域の境界に応じた第1の平滑化領域と、プロジェクタBとCの投影領域の境界に応じた第2の平滑化領域の少なくとも一部が重複する場合、出力する画像データを以下のように決定する。すなわち、画像処理部201は、プロジェクタAとCの解像度に応じて、プロジェクタAとBの投影領域の境界の方向に応じて平滑化された画像データと、プロジェクタBとCの投影領域の境界の方向に応じて平滑化された画像データのいずれかを出力する。
 このように、各プロジェクタの解像度に基づいて出力する画像データを決定することで、より解像度の差が大きい境界を目立ちにくくすることができる。また、このようにすることで、画像パターンで画素値を決定するよりも、処理を簡単にすることができる。なお、画像処理部201は、2つの平滑化パラメータに基づいて2つの画素値を算出してから採用する画素値を決定しても、2つの平滑化パラメータのうち1つの平滑化パラメータを決定してから画素値を算出してもよい。
 <その他の実施形態>
 また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (10)

  1.  複数のプロジェクタに画像を投影させる画像処理装置であって、
     前記複数のプロジェクタの解像度、及び、前記複数のプロジェクタの投影領域に関する領域情報を取得する取得手段と、
     前記取得手段により取得された前記複数のプロジェクタの解像度、及び、領域情報に基づいて、解像度が異なるプロジェクタの投影領域の境界を特定する特定手段と、
     前記特定手段により特定された境界に対して垂直方向の画素よりも、前記境界に対して水平方向の画素のほうが強く平滑化されるように平滑化する平滑化手段と、
     前記平滑化手段により平滑化された画像データを出力する出力手段と
     を有することを特徴とする画像処理装置。
  2.  前記出力手段は、前記平滑化手段により平滑化された画像データを前記複数のプロジェクタのうち少なくとも1つに出力する
     ことを特徴とする請求項1記載の画像処理装置。
  3.  前記平滑化手段は、第1の解像度の第1のプロジェクタによる第1の投影領域と、前記第1の解像度よりも高い第2の解像度の第2のプロジェクタによる第2の投影領域との境界からの距離が第1の距離である前記第2の投影領域内の画素よりも、当該境界からの距離が前記第1の距離よりも近い第2の距離である前記第2の投影領域内の画素のほうが強く平滑化されるように平滑化する
    ことを特徴とする請求項1記載の画像処理装置。
  4.  前記取得手段は、前記複数のプロジェクタのそれぞれからの通知に基づいて、前記複数のプロジェクタのそれぞれの解像度を取得する
    ことを特徴とする請求項1記載の画像処理装置。
  5.  前記複数のプロジェクタのそれぞれの投影領域を指定するための指定情報を入力する指定情報入力手段を有し、
     前記取得手段は、前記指定情報入力手段により入力された指定情報に基づいて、前記複数のプロジェクタの投影領域に関する領域情報を取得する
     ことを特徴とする請求項1記載の画像処理装置。
  6.  撮像手段による撮像画像を入力する画像入力手段を有し、
     前記取得手段は、前記画像入力手段により入力された投影領域の撮像画像に基づいて、前記複数のプロジェクタの投影領域に関する領域情報を取得する
    ことを特徴とする請求項1記載の画像処理装置。
  7.  前記画像処理装置に入力された画像データを解析する解析手段を有し、
     前記出力手段は、第1のプロジェクタの投影領域と、前記第1のプロジェクタよりも解像度が高い第2のプロジェクタの投影領域の境界である第1の境界に応じた第1の平滑化領域と、
     前記第2のプロジェクタの投影領域と、前記第2のプロジェクタよりも解像度が低い第3のプロジェクタの投影領域の境界である第2の境界に応じた第2の平滑化領域との少なくとも一部が重複する場合、
     前記解析手段による解析結果に応じて、前記重複する領域が前記第1の境界の方向に応じて平滑化された画像データと、前記重複する領域が前記第2の境界の方向に応じて平滑化された画像データとのうちのいずれかを出力する
    ことを特徴とする請求項1記載の画像処理装置。
  8.  前記出力手段は、第1のプロジェクタの投影領域と、前記第1のプロジェクタよりも解像度が高い第2のプロジェクタの投影領域の境界である第1の境界に応じた第1の平滑化領域と、
     前記第2のプロジェクタの投影領域と、前記第2のプロジェクタよりも解像度が低い第3のプロジェクタの投影領域の境界である第2の境界に応じた第2の平滑化領域との少なくとも一部が重複する場合、
     前記第1、第3のプロジェクタの解像度に応じて、前記重複する領域が前記第1の境界の方向に応じて平滑化された画像データと、前記重複する領域が前記第2の境界の方向に応じて平滑化された画像データとのうちのいずれかを出力する
    ことを特徴とする請求項1記載の画像処理装置。
  9.  複数のプロジェクタに画像を投影させる画像処理装置が行う画像処理方法であって、
     前記複数のプロジェクタの解像度、及び、前記複数のプロジェクタの投影領域に関する領域情報を取得する取得工程と、
     前記取得工程により取得された前記複数のプロジェクタの解像度、及び、領域情報に基づいて、解像度が異なるプロジェクタの投影領域の境界を特定する特定工程と、
     前記特定工程により特定された境界に対して垂直方向の画素よりも、前記境界に対して水平方向の画素のほうが、強く平滑化されるように平滑化する平滑化工程と、
     前記平滑化工程によって平滑化された画像データを出力する出力工程と
     を有することを特徴とする画像処理方法。
  10.  複数のプロジェクタの解像度、及び、前記複数のプロジェクタの投影領域に関する領域情報に基づいて、解像度が異なるプロジェクタの投影領域の境界を特定する特定手順と、前記特定手順により特定された境界に応じて平滑化された画像データを前記複数のプロジェクタに出力する出力手順とを実行するコンピュータに、
     前記特定手順により特定された境界に対して垂直方向の画素よりも、前記境界に対して水平方向の画素のほうが、強く平滑化されるように平滑化する平滑化手順
     を実行させることを特徴とするプログラム。
PCT/JP2009/069998 2009-11-27 2009-11-27 画像処理装置および画像処理方法 WO2011064872A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011543050A JP5350488B2 (ja) 2009-11-27 2009-11-27 画像処理装置および画像処理方法
PCT/JP2009/069998 WO2011064872A1 (ja) 2009-11-27 2009-11-27 画像処理装置および画像処理方法
US12/948,473 US8727538B2 (en) 2009-11-27 2010-11-17 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/069998 WO2011064872A1 (ja) 2009-11-27 2009-11-27 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
WO2011064872A1 true WO2011064872A1 (ja) 2011-06-03

Family

ID=44065991

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/069998 WO2011064872A1 (ja) 2009-11-27 2009-11-27 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (1) US8727538B2 (ja)
JP (1) JP5350488B2 (ja)
WO (1) WO2011064872A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109696A (ja) * 2012-12-03 2014-06-12 Seiko Epson Corp マルチプロジェクションシステム
JP2015211229A (ja) * 2014-04-23 2015-11-24 アイキューブド研究所株式会社 画像出力装置、画像出力方法、およびプログラム
JP2017003905A (ja) * 2015-06-15 2017-01-05 株式会社エクサ マルチディスプレイ装置
JP2018519773A (ja) * 2015-06-15 2018-07-19 コヒーレント シンクロ エス.エル. ビデオ信号を構成する方法、装置および設備

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118832A (ja) * 2010-12-02 2012-06-21 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP6181931B2 (ja) * 2013-01-28 2017-08-16 キヤノン株式会社 投影装置、制御方法、プログラム、及び投影システム
US9817626B2 (en) 2013-07-25 2017-11-14 Empire Technology Development Llc Composite display with multiple imaging properties
JP6429545B2 (ja) 2014-09-10 2018-11-28 キヤノン株式会社 制御装置、制御方法
JP6544073B2 (ja) * 2015-06-22 2019-07-17 セイコーエプソン株式会社 画像表示システムおよび画像表示方法
AU2016412141B2 (en) * 2016-06-14 2022-03-03 Razer (Asia-Pacific) Pte. Ltd. Image processing devices, methods for controlling an image processing device, and computer-readable media
JP2018093472A (ja) * 2016-11-28 2018-06-14 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7077611B2 (ja) * 2017-12-27 2022-05-31 セイコーエプソン株式会社 プロジェクター、マルチプロジェクションシステムおよびプロジェクターの制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117266A (ja) * 2003-10-06 2005-04-28 Sony Corp 画像投写システムの駆動回路
JP2005354566A (ja) * 2004-06-14 2005-12-22 Nec Viewtechnology Ltd 多画面連結投射システムおよび画像メモリ制御方法
JP2006014146A (ja) * 2004-06-29 2006-01-12 Olympus Corp 画像処理装置および画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08214201A (ja) * 1994-11-28 1996-08-20 Canon Inc 撮像装置
JPH1198439A (ja) 1997-09-18 1999-04-09 Hitachi Denshi Ltd 大画面表示装置
US6545685B1 (en) * 1999-01-14 2003-04-08 Silicon Graphics, Inc. Method and system for efficient edge blending in high fidelity multichannel computer graphics displays
US8379066B2 (en) * 2007-06-27 2013-02-19 Christie Digital Systems Usa, Inc. Method and apparatus for scaling an image to produce a scaled image
US8045006B2 (en) * 2009-07-10 2011-10-25 Seiko Epson Corporation Method and apparatus for determining the best blending of overlapped portions of projected images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117266A (ja) * 2003-10-06 2005-04-28 Sony Corp 画像投写システムの駆動回路
JP2005354566A (ja) * 2004-06-14 2005-12-22 Nec Viewtechnology Ltd 多画面連結投射システムおよび画像メモリ制御方法
JP2006014146A (ja) * 2004-06-29 2006-01-12 Olympus Corp 画像処理装置および画像処理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109696A (ja) * 2012-12-03 2014-06-12 Seiko Epson Corp マルチプロジェクションシステム
JP2015211229A (ja) * 2014-04-23 2015-11-24 アイキューブド研究所株式会社 画像出力装置、画像出力方法、およびプログラム
JP2017003905A (ja) * 2015-06-15 2017-01-05 株式会社エクサ マルチディスプレイ装置
JP2018519773A (ja) * 2015-06-15 2018-07-19 コヒーレント シンクロ エス.エル. ビデオ信号を構成する方法、装置および設備

Also Published As

Publication number Publication date
US20110128294A1 (en) 2011-06-02
US8727538B2 (en) 2014-05-20
JP5350488B2 (ja) 2013-11-27
JPWO2011064872A1 (ja) 2013-04-11

Similar Documents

Publication Publication Date Title
JP5350488B2 (ja) 画像処理装置および画像処理方法
US7911500B2 (en) Image processing device, computer readable recording medium, and image processing method
JP2006121240A (ja) 画像投射方法、プロジェクタ、及びコンピュータプログラム
JP6753049B2 (ja) プロジェクター、及び、プロジェクターの制御方法。
CN106605195B (zh) 通信设备和通信设备的控制方法
WO2005002240A1 (ja) 表示特性補正データの算出方法、表示特性補正データの算出プログラム、表示特性補正データの算出装置
JP5870586B2 (ja) プロジェクタ制御装置、表示装置及びプログラム。
JP4720595B2 (ja) プロジェクタ、及び映像投影方法とプログラム
JP4578341B2 (ja) 画像投射方法、プロジェクタ、及びコンピュータプログラム
US10455204B2 (en) Display system and information processing method
JP5836671B2 (ja) 撮像装置および画像表示システム
JP2009181323A (ja) 信号処理装置及び投写型映像表示装置
JP2019062462A (ja) 表示装置およびその制御装置、ならびにそれらの制御方法
US10311550B2 (en) Image processing device for eliminating graininess of image
JP6295635B2 (ja) 画像投影装置、画像投影システムおよび画像投影方法
JP6091133B2 (ja) 投射型表示装置、及びそれに用いられる制御方法、及びプログラム
JP6525612B2 (ja) 画像投射装置
JP5398562B2 (ja) 追尾枠の初期位置設定装置およびその動作制御方法
JP2021061510A (ja) 投影制御装置及び方法、プログラム、記憶媒体
JP2011160062A5 (ja)
JP2016115966A (ja) 表示システム、画像表示制御方法及びプログラム
JP2016099478A (ja) 画像処理装置及びその制御方法、画像処理システム及びその制御方法、コンピュータプログラム
JP2005227476A (ja) 画像表示装置、画像表示方法及びプログラム
JP2015115801A (ja) 画像投射装置および画像投射方法並びにプログラム
US11812150B2 (en) Imaging device performing enlargement processing based on specified area of object image, storage medium, and method of displaying object image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09851663

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011543050

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09851663

Country of ref document: EP

Kind code of ref document: A1