JP6666296B2 - Video generation apparatus, method, and program - Google Patents

Video generation apparatus, method, and program Download PDF

Info

Publication number
JP6666296B2
JP6666296B2 JP2017076363A JP2017076363A JP6666296B2 JP 6666296 B2 JP6666296 B2 JP 6666296B2 JP 2017076363 A JP2017076363 A JP 2017076363A JP 2017076363 A JP2017076363 A JP 2017076363A JP 6666296 B2 JP6666296 B2 JP 6666296B2
Authority
JP
Japan
Prior art keywords
image
frame
component
video
spatial frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017076363A
Other languages
Japanese (ja)
Other versions
JP2018180753A (en
Inventor
隆寛 河邉
隆寛 河邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017076363A priority Critical patent/JP6666296B2/en
Publication of JP2018180753A publication Critical patent/JP2018180753A/en
Application granted granted Critical
Publication of JP6666296B2 publication Critical patent/JP6666296B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明は、錯覚をもたらす映像に関し、特に、同じ動きの反復によって継続的な動きを知覚させる映像に関する。   The present invention relates to an image that causes an illusion, and more particularly, to an image that perceives continuous movement by repeating the same movement.

非特許文献1には、同じ動きの反復によって継続的な動きを知覚させる映像が開示されている。その映像は4フレームの画像から構成される。第1フレームおよび第1フレームの後に続く第2フレームの画像は通常のものであるが、第2フレームの後に続く第3フレームの画像は第1フレームの反転画像(ネガティブ画像)となっており、第3フレームの後に続く第4フレームの画像は第2フレームの反転画像となっている。この4フレームの画像を連続して繰り返し表示することで、あたかもフレーム内の映像が継続的に動き続けているような印象を与えることができる。   Non-Patent Literature 1 discloses an image in which continuous movement is perceived by repeating the same movement. The video is composed of four frames of images. The first frame and the image of the second frame following the first frame are normal, but the image of the third frame following the second frame is an inverted image (negative image) of the first frame, The image of the fourth frame following the third frame is an inverted image of the second frame. By displaying these four frames of images continuously and repeatedly, it is possible to give the impression that the video in the frame is continuously moving.

Anstis, S. M. & Rogers, B. J., “Illusory continuous motion from oscillating positive-negative patterns: implications for motion perception,” Perception 15, 627-640 (1986).Anstis, S.M. & Rogers, B.J., “Illusory continuous motion from oscillating positive-negative patterns: implications for motion perception,” Perception 15, 627-640 (1986).

ここで、第1フレームと第2フレームとの間、および第3フレームと第4フレームとの間の画像強度は連続的なものと知覚される。しかし、第2フレームと第3フレームとの間、および第4フレームと第1フレームとの間の強度は、強度反転のため急峻に変化しており、いわゆる、ちらつきとして感じられる。このちらつきは人間にとって快適なものではない。   Here, the image intensity between the first and second frames and between the third and fourth frames is perceived as continuous. However, the intensity between the second frame and the third frame and between the fourth frame and the first frame are sharply changed due to the intensity reversal, and are felt as so-called flickering. This flicker is not comfortable for humans.

本発明の目的は、同じ動きの反復によって継続的な動きを知覚させる映像のちらつきを低減させることである。   SUMMARY OF THE INVENTION It is an object of the present invention to reduce the flicker of an image that perceives continuous motion by repeating the same motion.

第1時間区間に属する複数の第1画像のそれぞれに含まれた一部の成分を反転させた、第1時間区間の後に続く第2時間区間に属する複数の第2画像を得、第1画像および第2画像を含む映像を得る。ただし、当該一部の成分は、主に輝度成分、高空間周波数成分、および動き成分の少なくとも何れかを含む。   A plurality of second images belonging to a second time section subsequent to the first time section are obtained by inverting some components included in each of the plurality of first images belonging to the first time section, and the first image is obtained. And a video including the second image. However, the partial components mainly include at least one of a luminance component, a high spatial frequency component, and a motion component.

これにより、同じ動きの反復によって継続的な動きを知覚させる映像のちらつきを低減させることができる。   Thus, it is possible to reduce the flicker of an image that perceives a continuous movement by repeating the same movement.

図1は実施形態の映像生成装置の機能構成を例示したブロック図である。FIG. 1 is a block diagram illustrating a functional configuration of the video generation device according to the embodiment. 図2は実施形態の画像を例示した図である。FIG. 2 is a diagram illustrating an image of the embodiment. 図3は実施形態の画像を例示した図である。FIG. 3 is a diagram illustrating an image of the embodiment. 図4は実施形態の画像を例示した図である。FIG. 4 is a diagram illustrating an image of the embodiment. 図5は実施形態の映像生成装置の機能構成を例示したブロック図である。FIG. 5 is a block diagram illustrating a functional configuration of the video generation device according to the embodiment. 図6は実施形態の映像生成装置の機能構成を例示したブロック図である。FIG. 6 is a block diagram illustrating a functional configuration of the video generation device according to the embodiment. 図7は実施形態の映像生成装置の機能構成を例示したブロック図である。FIG. 7 is a block diagram illustrating a functional configuration of the video generation device according to the embodiment. 図8は実施形態の映像生成装置の機能構成を例示したブロック図である。FIG. 8 is a block diagram illustrating a functional configuration of the video generation device according to the embodiment. 図9は原理を説明するための図である。FIG. 9 is a diagram for explaining the principle.

以下、本発明の実施形態を説明する。
[概要]
まず概要を説明する。
各実施形態の映像生成装置は、「第1時間区間」に属する複数の「第1画像」のそれぞれに含まれた「一部の成分」を反転させた、「第1時間区間」の後に続く「第2時間区間」に属する複数の「第2画像」を得、複数の「第1画像」および「第2画像」を含む「映像」を得る。ただし、「一部の成分」は、主に輝度成分、高空間周波数成分、および動き成分の少なくとも何れかを含む。すなわち、「第1画像」のすべての画像強度を反転させるのではなく、「第1画像」の輝度成分、高空間周波数成分、および動き成分のいずれか、またはすべてを反転させた「第2画像」を得る。なお、複数の「第1画像」の「動き成分」は、動きをもつ空間領域の成分である。言い換えると、複数の「第1画像」の「動き成分」は、複数の「第1画像」の間で変化する空間領域である。「第2画像」は「第1画像」に含まれた「一部の成分」を反転して得られる成分と「第1画像」に含まれた「一部の成分」以外の成分とを含む。「αの後に続くβ」とは、時間的にαの後に続くβを意味する。βは時間的にαの次に位置する。また、複数の「第1画像」は互いに順序付けられており、複数の「第2画像」も互いに順序付けられている。順序付けられた複数の「第1画像」および「第2画像」を時間順に並べたものが「映像」である。以上のように生成された「映像」は同じ動きの反復によって継続的な動きを知覚させるものである。すなわち、「映像」が繰り返し再生された場合、複数の「第1画像」および「第2画像」が順番に繰り返し提示される。このように同じ動きが反復されているにもかかわらず、それを見た観察者は同じ動きが反復されているのではなく、「映像」中の物体が継続的に動き続けているような印象(例えば、滝の水が流れ落ち続けている印象、シャボン玉が一定方向に移動し続けている印象、落ち葉が風に飛ばされ続けている印象など)を受ける。さらに各実施形態では、従来技術のように「第1画像」全体の反転画像を「第2画像」とするのではなく、「第1画像」の「一部の成分」を反転させた「第2画像」を得る。これにより、「第1画像」全体の反転画像を「第2画像」とする従来技術に比べ、反転している成分が減じられ、「映像」のちらつきを低減させることができる。
Hereinafter, embodiments of the present invention will be described.
[Overview]
First, an outline will be described.
The video generation device of each embodiment follows the “first time section” by inverting “partial components” included in each of the plurality of “first images” belonging to the “first time section”. A plurality of "second images" belonging to the "second time section" are obtained, and a "video" including the plurality of "first images" and "second images" is obtained. However, the “partial component” mainly includes at least one of a luminance component, a high spatial frequency component, and a motion component. That is, instead of inverting all the image intensities of the “first image”, “the second image” in which any or all of the luminance component, the high spatial frequency component, and the motion component of the “first image” are inverted To get. The “motion component” of the plurality of “first images” is a component of a spatial region having motion. In other words, the “motion component” of the plurality of “first images” is a spatial region that changes between the plurality of “first images”. The “second image” includes components obtained by inverting “partial components” included in the “first image” and components other than “partial components” included in the “first image” . “Β following α” means β following α temporally. β is located next to α in time. Also, the plurality of “first images” are ordered with each other, and the plurality of “second images” are also ordered with each other. The “video” is obtained by arranging a plurality of ordered “first images” and “second images” in chronological order. The “video” generated as described above allows a continuous motion to be perceived by repeating the same motion. That is, when the “video” is repeatedly reproduced, a plurality of “first images” and “second images” are repeatedly and sequentially presented. Even though the same movement is repeated in this way, the observer who saw it does not repeat the same movement, but the impression that the object in the `` video '' continues to move (For example, the impression that the water of the waterfall keeps flowing, the impression that the soap bubble keeps moving in a certain direction, the impression that the fallen leaves keep flying in the wind, etc.) are received. Further, in each embodiment, instead of the inverted image of the entire “first image” being the “second image” as in the related art, the “first image” is obtained by inverting the “partial component” of the “first image”. 2 images ". As a result, compared to the related art in which the entire inverted image of the “first image” is set as the “second image”, the inverted component is reduced, and the flicker of the “video” can be reduced.

好ましくは、「一部の成分」は輝度成分および/または高空間周波数成分および/または動き成分のみを含む。言い換えると、「一部の成分」は、輝度成分、高空間周波数成分、および動き成分を除く成分を含まない。これにより、より一層「映像」のちらつきを低減させることができる。より好ましくは、「第1画像」は色画像であり、「一部の成分」が主に輝度成分を含むことが望ましい。より一層好ましくは、「一部の成分」が輝度成分のみを含むことが望ましい。「映像」を繰り返し再生によって継続的な動きを知覚させることができるのは、再生される画像の強度を反転させることにより、視覚における動きセンサーを効率よく刺激するからである。例えば図9Aでは、「第1フレーム」で白いバー、「第1フレーム」の後に続く「第2フレーム」で「第1フレーム」にある白いバーを少し右へずらしたもの、「第2フレーム」の後に続く「第3フレーム」で「第1フレーム」のバーの輝度を反転させたもの、「第3フレーム」の後に続く「第4フレーム」で「第2フレーム」バーの輝度を反転させたものを表示している。これを繰り返し見た観察者は一方向へバーが動いているような印象を得る。図9Bはバーの動きを時空間プロットしたものである。一般に人間の視覚における運動センサーは時空間プロット上の輝度の流れに対して敏感である(参考文献1:Adelson, E. H. & Bergen, J. R., “Spatiotemporal energy models for the perception of motion,” J Opt Soc Am A 2, 284-299 (1985).)。図9Aのような輝度を反転させたバーの動きは当該運動センサーを効率よく刺激するので、観察者にはバーの動きが見えるのである。そのため、「第1画像」の主に輝度成分を反転させたものを「第2画像」とすることで継続的な動きを知覚させることができる。一方で「第1画像」の残りの成分は「第2画像」で反転されていないため、「映像」のちらつきを低減させることができる。   Preferably, "some components" include only luminance components and / or high spatial frequency components and / or motion components. In other words, the “partial component” does not include components other than the luminance component, the high spatial frequency component, and the motion component. As a result, the flicker of “video” can be further reduced. More preferably, the “first image” is a color image, and it is desirable that “partial components” mainly include a luminance component. Even more preferably, it is desirable that “partial components” include only a luminance component. The reason why continuous movement can be perceived by repeatedly playing back the “video” is that by inverting the intensity of the played back image, a motion sensor in vision is efficiently stimulated. For example, in FIG. 9A, a white bar in the “first frame”, a white bar in the “second frame” following the “first frame” in the “first frame” slightly shifted to the right, a “second frame” The brightness of the bar of the "first frame" is inverted in the "third frame" following the "3rd frame", and the brightness of the bar of the "second frame" is inverted in the "4th frame" following the "3rd frame" You are displaying things. An observer who sees this repeatedly gets the impression that the bar is moving in one direction. FIG. 9B is a spatiotemporal plot of the bar movement. In general, motion sensors in human vision are sensitive to the flow of luminance on a spatiotemporal plot (Reference 1: Adelson, EH & Bergen, JR, “Spatiotemporal energy models for the perception of motion,” J Opt Soc Am A 2, 284-299 (1985).). The movement of the bar whose brightness is inverted as shown in FIG. 9A efficiently stimulates the motion sensor, so that the observer can see the movement of the bar. Therefore, a continuous movement can be perceived by setting the “first image” whose luminance component is mainly inverted to the “second image”. On the other hand, the remaining components of the “first image” are not inverted in the “second image”, so that flicker of the “video” can be reduced.

好ましくは、「一部の成分」は、主に輝度成分の高空間周波数成分を含むことが望ましい。より一層好ましくは、「一部の成分」が輝度成分の高空間周波数成分のみを含むことが望ましい。「第1画像」の高空間周波数成分は「第1画像」に表された物体の動きへの貢献度が高い成分であり、この成分を反転させることで視覚における運動センサーを効率よく刺激できるからである。また、本来「映像」の「動き成分」以外の成分は変化しないことが望ましい。そのため、「一部の成分」が主に輝度成分の動き成分を含んでもよく、「一部の成分」が輝度成分の動き成分のみを含んでもよい。より好ましくは、「一部の成分」が主に輝度成分の高空間周波数成分の動き成分を含むことが望ましく、より一層好ましくは、「一部の成分」が輝度成分の高空間周波数成分の動き成分のみを含むことが望ましい。   Preferably, the “partial component” preferably includes mainly a high spatial frequency component of a luminance component. Even more preferably, the “partial component” desirably includes only the high spatial frequency component of the luminance component. The high spatial frequency component of the “first image” is a component that has a high contribution to the motion of the object represented in the “first image”, and by inverting this component, a motion sensor in vision can be efficiently stimulated. It is. In addition, it is desirable that components other than the “motion component” of the “video” do not change. Therefore, “partial components” may mainly include motion components of luminance components, and “partial components” may include only motion components of luminance components. More preferably, the "partial component" preferably includes the motion component of the high spatial frequency component of the luminance component, and even more preferably, the "partial component" includes the motion of the high spatial frequency component of the luminance component. It is desirable to include only the components.

なお、「第1時間区間」に複数の「第1画像」が属し、「第2時間区間」に複数の「第2画像」が属するのであれば、「第1時間区間」に属する「第1画像」の個数、および「第2時間区間」に属する「第2画像」の個数に限定はない。言い換えると、「第1時間区間」に属する「第1画像」のフレーム数、および「第2時間区間」に属する「第2画像」のフレーム数に限定はない。「第1時間区間」に属する「第1画像」の個数と「第2時間区間」に属する「第2画像」の個数が互いに同一または近似する場合(すなわち、第1時間区間」に属する「第1画像」のフレーム数と「第2時間区間」に属する「第2画像」のフレーム数とが互いに同一または近似する場合)、観察者に滑らかで継続的な動きの印象を与えることができる。「αとβとが互いに近似する」とは、αに対するαとβとの差分|α−β|の割合γ=|α−β|/α、またはβに対する差分|α−β|の割合γ=|α−β|/βが、0≦γ≦δを満たすことを意味する。ただし、δは所定の正値である。δの例は0.3、0.2、0.1、0.05、0.03などである。一方、「第1時間区間」に属する「第1画像」の個数と「第2時間区間」に属する「第2画像」の個数が互いに同一でもないし近似もしない場合、観察者に特別な視覚的効果を与えることができる。   If a plurality of “first images” belong to “first time section” and a plurality of “second images” belong to “second time section”, “first time section” belongs to “first time section”. The number of “images” and the number of “second images” belonging to “second time section” are not limited. In other words, the number of frames of the “first image” belonging to the “first time section” and the number of frames of the “second image” belonging to the “second time section” are not limited. When the number of “first images” belonging to the “first time section” and the number of “second images” belonging to the “second time section” are the same or close to each other (that is, the “second image” belonging to the first time section) When the number of frames of “one image” and the number of frames of “second image” belonging to the “second time section” are the same or similar to each other, it is possible to give a smooth and continuous movement impression to the observer. “Α and β are close to each other” means that the ratio γ of the difference | α−β | between α and β with respect to α = | α−β | / α, or the ratio γ of the difference | α−β | = | Α-β | / β means that 0 ≦ γ ≦ δ is satisfied. Here, δ is a predetermined positive value. Examples of δ are 0.3, 0.2, 0.1, 0.05, 0.03 and the like. On the other hand, if the number of “first images” belonging to “first time section” and the number of “second images” belonging to “second time section” are not the same or approximate to each other, a special visual Can give an effect.

例えば、nが4以上の偶数であり、iが1以上n/2以下の整数であり、複数の「第1画像」は、時系列に沿った「第1フレーム」の画像から「第n/2フレーム」の画像を含み、複数の「第2画像」は、時系列に沿った「第{(n/2)+1}フレーム」の画像から「第nフレーム」の画像を含み、映像生成装置は「第iフレーム」の画像に含まれた「一部の成分」を反転させた「第{(n/2)+i}フレーム」の画像を得る。ただし、「第(j+1)フレーム」(jは正整数)は時間的に「第jフレーム」の後に続くフレームである。「第1フレーム」の画像から「第n/2フレーム」の画像を時系列に並べて得られる部分映像は、略直線方向(例えば、直線方向)に移動する物体の動きを表すものであることが望ましい。これにより、継続的な動きを十分に知覚させる「映像」を生成できる。n=4であれば必ずこの要件が満たされる。なお、n=4の場合、「第1時間区間」は、「第1フレーム」および「第1フレーム」の後に続く「第2フレーム」を含み、「第2時間区間」は、「第2フレーム」の後に続く「第3フレーム」および「第3フレーム」の後に続く「第4フレーム」を含み、複数の「第1画像」は、「第1フレーム」の画像および「第2フレーム」の画像を含み、複数の「第2画像」は、「第3フレーム」の画像および「第4フレーム」の画像を含み、映像生成装置は「第1フレーム」の画像に含まれた「一部の成分」を反転させた「第3フレーム」の画像を得、「第2フレーム」の画像に含まれた「一部の成分」を反転させた「第4フレーム」の画像を得る。nが6以上の場合には、n=4の場合に比べて、ぬるぬるとした動きの印象を与えることができたり、滑らかな動きの印象を与えることができたり、多様な動きの印象を与えることができたりする「映像」を生成できる。nが4の倍数であってもよい。   For example, n is an even number greater than or equal to 4 and i is an integer greater than or equal to 1 and less than or equal to n / 2, and a plurality of “first images” are obtained by selecting “n / A plurality of “second images” including images of “{(n / 2) +1} frame” to “n-th frame” in chronological order; Obtains an image of the “{(n / 2) + i} frame” in which the “partial components” included in the image of the “i-th frame” are inverted. However, the “(j + 1) th frame” (j is a positive integer) is a frame temporally following the “jth frame”. A partial video obtained by chronologically arranging the images of the “n / 2th frame” from the image of the “first frame” may represent the movement of an object moving in a substantially linear direction (for example, a linear direction). desirable. As a result, it is possible to generate an "image" that allows a continuous motion to be sufficiently perceived. If n = 4, this requirement is always satisfied. When n = 4, the “first time section” includes the “first frame” and the “second frame” following the “first frame”, and the “second time section” includes the “second frame”. , The "first frame" and the "second frame" include a "third frame" following the "third frame" and a "fourth frame" following the "third frame". And the plurality of “second images” include an image of “third frame” and an image of “fourth frame”, and the video generation device may output “partial components” included in the image of “first frame”. Is obtained, the image of the "third frame" is obtained, and the "partial component" included in the image of the "second frame" is obtained, thereby obtaining the image of the "fourth frame". When n is 6 or more, a slimy motion impression, a smooth motion impression, or various motion impressions can be given as compared with the case where n = 4. You can generate "videos" that you can do. n may be a multiple of four.

上述した「映像」のデータ構造が提供されてもよい。このデータ構造は、「第1時間区間」に属する複数の「第1画像」と、複数の「第1画像」のそれぞれに含まれた「一部の成分」を反転させた、「第1時間区間」の後に続く「第2時間区間」に属する複数の「第2画像」と、を有する。「映像」のデータ構造が入力された映像提示装置は、「第1時間区間」で複数の「第1画像」のそれぞれを提示し、「第2時間区間」で複数の「第2画像」のそれぞれを提示する。提示された「第1画像」および「第2画像」から構成される「映像」を見た観察者は継続的な動きを知覚する。   The data structure of the “video” described above may be provided. This data structure is obtained by inverting the “partial components” included in the plurality of “first images” belonging to the “first time section” and the plurality of “first images”, respectively. And a plurality of “second images” belonging to a “second time section” following the section. The video presentation device to which the data structure of “video” is input presents each of the plurality of “first images” in the “first time interval”, and displays the plurality of “second images” in the “second time interval”. Present each. The observer who sees the "video" composed of the presented "first image" and "second image" perceives continuous movement.

さらに、映像生成装置が、「対象」に基づく「対象画像」を得、「対象画像」を変形および/または動かした「処理画像」を得、「対象」に含まれた「一部の成分」を反転させつつ強度を高めた画像、および「対象」を変形および/または動かした画像に含まれた一部の成分を反転させつつ強度を高めた画像、を含む複数の「第2画像」を得、少なくとも「処理画像」を含む「第1画像」を「第1時間区間」に属する画像とし、「第2画像」を「第1時間区間」の後に続く「第2時間区間」に属する画像とした「映像」を得てもよい。ただし、「映像」は主に輝度運動成分を含む。より好ましくは、「映像」が輝度運動成分のみを含むことが望ましい。「対象」は、立体的形状を備える物(例えば、花瓶、ボール、模型)であってもよいし、所定の平面(例えば、紙、ボード、壁、スクリーン)であってもよい。「対象」が平面である場合には、その平面にパターンが含まれることが望ましい。平面に含まれるパターンの例として、例えば、紙に印刷した写真、画像、所定の平面に投影した写真、画像が考えられる。「対象」をディスプレイなどの画面とした場合には、パターンの例として、ディスプレイなどの画面に表示した画像などが挙げられる。「対象画像」の例は、「対象」を撮影して得られる画像、「対象」をスキャンして得られる画像、「対象」を描画して得られる画像、「対象」の画像データを複製して得られる画像、そのような画像の輝度成分からなる画像、さらにこの輝度成分の高空間周波数成分などである。このように得られた「映像」を「対象」に重畳させた様子を見た観察者は、実際には動いていない「対象」が継続的に動いているように知覚する。   Further, the video generation device obtains a “target image” based on the “target”, obtains a “processed image” obtained by deforming and / or moving the “target image”, and “partial components” included in the “target”. A plurality of “second images” including an image in which the intensity is increased while inverting the image, and an image in which the intensity is increased while inverting some components included in the image obtained by deforming and / or moving the “object”. The “first image” including at least the “processed image” is defined as an image belonging to the “first time section”, and the “second image” is defined as an image belonging to the “second time section” following the “first time section”. You may obtain the "video" that is described. However, the “image” mainly includes a luminance motion component. More preferably, it is desirable that the “image” includes only the luminance motion component. The “object” may be an object having a three-dimensional shape (eg, a vase, a ball, a model) or a predetermined plane (eg, paper, board, wall, screen). When the “object” is a plane, it is desirable that the plane include the pattern. Examples of the pattern included in the plane include a photograph and an image printed on paper, a photograph and an image projected on a predetermined plane, and the like. When the “target” is a screen such as a display, an example of the pattern is an image displayed on a screen such as a display. Examples of “target image” are images obtained by shooting “target”, images obtained by scanning “target”, images obtained by drawing “target”, and image data of “target”. Image obtained from the image, an image composed of luminance components of such an image, and a high spatial frequency component of the luminance component. The observer who sees the state in which the obtained “video” is superimposed on the “target” perceives that the “target” that is not actually moving is continuously moving.

[第1実施形態]
第1実施形態では、映像生成装置が「第1画像」に含まれた輝度成分の高空間周波数成分を反転させて「第2画像」を得、4フレームからなる「映像」を生成する。
[First Embodiment]
In the first embodiment, the video generation device inverts the high spatial frequency component of the luminance component included in the “first image” to obtain a “second image” and generates a “video” composed of four frames.

<構成>
図1に例示するように、本形態の映像生成装置1は、入力部101、記憶部102、画像抽出部103、画像生成部104、および映像構成部105を有する。画像生成部104は、成分分離部1041、低域フィルタリング部1042、高域フィルタリング部1043、反転部1044、および合成部1045を有する。
<Structure>
As illustrated in FIG. 1, the video generation device 1 according to the present embodiment includes an input unit 101, a storage unit 102, an image extraction unit 103, an image generation unit 104, and a video configuration unit 105. The image generation unit 104 includes a component separation unit 1041, a low-pass filtering unit 1042, a high-pass filtering unit 1043, an inversion unit 1044, and a combining unit 1045.

<処理>
次に本形態の処理を説明する。
≪入力映像MINの入力≫
映像生成装置1(図1)の入力部101に、2つ以上のフレーム(映像フレーム)から構成される任意の入力映像MINが入力される。本形態の入力映像MINは色成分を含む色映像(動画)である。
<Process>
Next, the processing of this embodiment will be described.
«Input of the input image M IN»
The input unit 101 of the image generating apparatus 1 (FIG. 1), any of the input video M IN composed of two or more frames (video frame) are input. Input image M IN in this embodiment is a color image (moving picture) including color components.

≪画像抽出部103の処理≫
画像抽出部103は、記憶部102から読み出した入力映像MINから連続する2フレームの画像を取り出し、それぞれを第1フレームの画像P(第1画像)、第2フレームの画像P(第1画像)として出力する。ただし、第2フレームは時間的に第1フレームの後に続くフレームである。画像P(ただし、i=1,2)は色空間を構成する各チャネルにおける二次元配列の集合であり、各チャネルにおける二次元配列は当該チャネルの座標(x,y)における画素値(強度)P(x,y)を要素とするものである。ただし、xはxmin≦x≦xmaxを満たし、yはymin≦y≦ymaxを満たし、xminは画像Pのx座標の最小値であり、xmaxは画像Pのx座標の最大値であり、yminは画像Pのy座標の最小値であり、ymaxは画像Pのy座標の最大値である。例えば、RGB色空間の場合、画像PはRGBの3チャネルの上記二次元配列の集合である。
<< Process of Image Extraction Unit 103 >>
Image extraction unit 103, an image of 2 consecutive frames from the input video M IN read from the storage unit 102 is taken out, the image P 1 (first image) of the first frame, respectively, the image P 2 of the second frame (the (1 image). However, the second frame is a frame temporally subsequent to the first frame. The image P i (where i = 1, 2) is a set of two-dimensional arrays in each channel constituting the color space, and the two-dimensional array in each channel has a pixel value (intensity) at coordinates (x, y) of the channel. ) P i (x, y) as elements. Here, x satisfies x min ≦ x ≦ x max , y satisfies y min ≦ y ≦ y max , x min is the minimum value of the x coordinate of the image P i , and x max is the x coordinate of the image P i , Y min is the minimum value of the y coordinate of the image P i , and y max is the maximum value of the y coordinate of the image P i . For example, in the case of the RGB color space, the image Pi is a set of the above-described two-dimensional array of three channels of RGB.

≪画像生成部104の処理≫
画像生成部104は、「第1時間区間」に属する第1フレームの画像Pおよび第2フレームの画像Pのそれぞれに含まれた一部の成分を反転させて、「第2時間区間」に属する第3フレームの画像P(第2画像)および第4フレームの画像P(第2画像)を得て出力する。すなわち、画像生成部104は、画像Pに含まれた一部の成分を反転させて画像Pを得、画像Pに含まれた一部の成分を反転させて画像Pを得る。ただし、第4フレームは時間的に第3フレームの後に続くフレームである。
<< Process of Image Generation Unit 104 >>
Image generating unit 104 inverts a part of components included in each of the image P 2 of the image P 1 and the second frame of the first frame belonging to the "first time period", "second time period" And obtains and outputs the image P 3 (second image) of the third frame and the image P 4 (second image) of the fourth frame. That is, the image generating unit 104 inverts the component part included in the image P 1 to obtain an image P 3 and inverts the component part included in the image P 2 to obtain an image P 4 in. However, the fourth frame is a frame temporally subsequent to the third frame.

まず、成分分離部1041は、各第iフレーム(ただし、i=1,2)の画像Pを入力とし、画像Pを色成分Cと輝度成分Yに分離して出力する(図2A)。画像PがRGBチャンネルそれぞれの画素値で表現されている場合、成分分離部1041は、それをLABやYxyといった色成分Cと輝度成分Yとの分離可能な表現へ置き換え、色成分Cと輝度成分Yを得て出力する。色成分Cは、色成分を構成する各チャネルにおける二次元配列の集合であり、各チャネルにおける二次元配列は当該チャネルの座標(x,y)における画素値C(x,y)を要素とする。輝度成分Yは、輝度成分を表すチャネルでの座標(x,y)の画素値C(x,y)を要素とする二次元配列である。 First, the component separation unit 1041 receives an image P i of each i-th frame (where i = 1, 2), separates the image P i into a color component C i and a luminance component Y i , and outputs them (FIG. 2A). When the image P i is represented by the pixel values of each of the RGB channels, the component separation unit 1041 replaces it with a separable representation of the color component C i such as LAB or Yxy and the luminance component Y i , and outputs the color component C to obtain a i a luminance component Y i outputs. The color component C i is a set of two-dimensional arrays in each channel constituting the color component, and the two-dimensional array in each channel includes a pixel value C i (x, y) at coordinates (x, y) of the channel as an element. And The luminance component Y i is a two-dimensional array in which the pixel value C i (x, y) at the coordinates (x, y) in the channel representing the luminance component is an element.

各第iフレーム(ただし、i=1,2)の輝度成分Yは低域フィルタリング部1042および高域フィルタリング部1043に入力される。低域フィルタリング部1042は、入力された輝度成分Yに低域通過型フィルタLFを適用して輝度成分Yの低空間周波数成分LY(低空間周波数画像)を得て出力する(LY=LF・Y)。高域フィルタリング部1043は、入力された輝度成分Yに高域通過型フィルタHFを適用して輝度成分Yの高空間周波数成分HY(高空間周波数画像)を得て出力する(HY=HF・Y)(図2B)。なお、低域通過型フィルタLFは、絶対値がカットオフ周波数fLF以下である低空間周波数成分を通過させ、カットオフ周波数fLFを超える高空間周波数成分を抑圧する空間周波数操作用のフィルタである。高域通過型フィルタHFは、絶対値がカットオフ周波数fHF以上である高空間周波数成分を通過させ、カットオフ周波数fHF未満である低空間周波数成分を抑圧する空間周波数操作用のフィルタである。ここで、画像P1,における空間周波数の振幅を保ち、画像P1,の見え方を画像P3,でも保つために、両フィルタのカットオフ周波数fLF,HFを互いに等しくすることが望ましい。一方で、画像P1,の見え方を画像P3,でも保つことができれば、必ずしもカットオフ周波数fLF,HFを互いに等しくする必要はない。カットオフ周波数fLF,HFは、観察者の視力、画像の大きさ、観察距離、観察者の好みにより調整する。カットオフ周波数fLF,HFを3cpd(cycles per degree)といった低い値に設定すると、観察者の視力が低くても/画像が小さくても/観察距離が大きくても本手法の効果が見られるが、カットオフ周波数fLF,HFを例えば9cpdなどといった高い値に設定すると、観察者の視力が高いとき/画像が大きいとき/観察距離が小さいときのみに本手法の効果が見られる。低空間周波数成分LYは、座標(x,y)の画素値LY(x,y)を要素とする二次元配列である。高空間周波数成分HYは、座標(x,y)の画素値HY(x,y)を要素とする二次元配列である。 Each i-th frame (where, i = 1, 2) the luminance component Y i of input to the low-pass filtering unit 1042 and highband filter unit 1043. The low-pass filtering unit 1042 applies a low-pass filter LF to the input luminance component Y i to obtain and output a low spatial frequency component LY i (low spatial frequency image) of the luminance component Y i (LY i). = LF · Y i). The high-pass filtering unit 1043 applies a high-pass filter HF to the input luminance component Y i to obtain and output a high spatial frequency component HY i (high spatial frequency image) of the luminance component Y i (HY i). = HF · Y i) (FIG. 2B). Note that the low-pass filter LF, the absolute value is passed through the low spatial frequency components which is below the cut-off frequency f LF, a filter for a spatial frequency operation for suppressing the high spatial frequency components above the cut-off frequency f LF is there. High-pass filter HF is the absolute value passes the high spatial frequency components are cut-off frequency f HF or more, a filter for a spatial frequency operation for suppressing the low spatial frequency component is lower than the cutoff frequency f HF . Here, in order to keep the amplitude of the spatial frequency in the images P 1 and P 2 and keep the appearance of the images P 1 and P 2 also in the images P 3 and P 4 , the cutoff frequencies f LF and f HF of both filters are set. It is desirable to make them equal to each other. On the other hand, as long as the images P 1 and P 2 can be seen in the images P 3 and P 4 , the cutoff frequencies f LF and f HF do not necessarily have to be equal to each other. The cutoff frequencies f LF and f HF are adjusted according to the observer's eyesight, image size, observation distance, and observer's preference. When the cutoff frequencies f LF and f HF are set to low values such as 3 cpd (cycles per degree), the effect of the present method can be obtained even if the observer has low visual acuity / small image / large observation distance. However, if the cutoff frequencies f LF and f HF are set to high values such as 9 cpd, the effect of the present method can be obtained only when the observer has high visual acuity / large image / small observation distance. Low spatial frequency components LY i is a two-dimensional array of coordinates (x, y) pixel value LY i (x, y) of the element. The high spatial frequency component HY i is a two-dimensional array having the pixel value HY i (x, y) at the coordinates (x, y) as an element.

各第iフレーム(ただし、i=1,2)の高空間周波数成分HYは反転部1044に入力される。反転部1044は、入力された高空間周波数成分HYの画素値HY(x,y)を反転して反転高空間周波数成分RHYを得て出力する。反転高空間周波数成分RHYは、座標(x,y)の画素値RHY(x,y)を要素とする二次元配列である(図3)。例えば、反転部1044は、高空間周波数成分HYから、高空間周波数成分HYの画素値HY(x,y)(ただし、xmin≦x≦xmaxかつymin≦y≦ymax)の平均値MHYを減じ、その減算結果HY−MHYの正負符号を反転させた後、再度、平均値MHY加えたものを反転高空間周波数成分RHYとして出力する。
RHY=−(HY−MHY)+MHY
RHYは、座標(x,y)の画素値RHY(x,y)を要素とする二次元配列である。
Each i-th frame (where, i = 1, 2) high spatial frequency component HY i of is inputted to the inverting section 1044. Inverting section 1044, pixel value HY i (x, y) of the high spatial frequency component HY i input inverted to obtain an inverted high spatial frequency components RHY i output. The inverted high spatial frequency component RHY i is a two-dimensional array in which pixel values RHY i (x, y) at coordinates (x, y) are elements (FIG. 3). For example, the inverting unit 1044 converts the pixel value HY i (x, y) of the high spatial frequency component HY i from the high spatial frequency component HY i (where x min ≦ x ≦ x max and y min ≦ y ≦ y max ). subtracting the average value MHy i, after inverting the sign of the subtraction result HY i -MHY i, again, to output a plus mean value MHy i as inverting high spatial frequency components RHY i.
RHY i = − (HY i −MHY i ) + MHY i
RHY i is a two-dimensional array whose elements are pixel values RHY i (x, y) at coordinates (x, y).

各第iフレーム(ただし、i=1,2)の色成分C、低空間周波数成分LY、および反転高空間周波数成分RHYは、合成部1045に入力される。合成部1045は、色成分C、低空間周波数成分LY、および反転高空間周波数成分RHYを足し合わせたものを第3フレームの画像Pとして得て出力する(P=C+LY+RHY)。また合成部1045は、色成分C、低空間周波数成分LY、および反転高空間周波数成分RHYを足し合わせたものを第4フレームの画像Pとして得て出力する(P=C+LY+RHY)(図3)。 The color component C i , low spatial frequency component LY i , and inverted high spatial frequency component RHY i of each i-th frame (where i = 1, 2) are input to the combining unit 1045. The synthesizing unit 1045 obtains and outputs a sum of the color component C 1 , the low spatial frequency component LY 1 , and the inverted high spatial frequency component RHY 1 as an image P 3 of the third frame (P 3 = C 1 + LY). 1 + RHY 1 ). Further, the synthesizing unit 1045 obtains and outputs a sum of the color component C 2 , the low spatial frequency component LY 2 , and the inverted high spatial frequency component RHY 2 as an image P 4 of the fourth frame (P 4 = C 2). + LY 2 + RHY 2 ) (FIG. 3).

≪映像構成部105の処理≫
映像構成部105は、第1,2,3,4フレームの画像P,P,P,Pを入力とし、画像P,P,P,Pを時間的に並べることでこれらを含む映像MOUTを得て出力する。なお、各第iフレーム(ただし、i=1,2,3,4)の画像Pの提示時間は、映像MOUTが静止画の系列ではなく動画像として認識可能なように調整される。この範囲であればフレームレートは固定であっても可変であってもよい。
<< Process of Image Composition Unit 105 >>
The video composition unit 105 receives the images P 1 , P 2 , P 3 , and P 4 of the first , second , third , and fourth frames as inputs, and arranges the images P 1 , P 2 , P 3 , and P 4 in time. To obtain and output a video M OUT including these. Note that the presentation time of the image P i of each i-th frame (where i = 1, 2, 3, 4) is adjusted so that the video M OUT can be recognized as a moving image instead of a still image sequence. Within this range, the frame rate may be fixed or variable.

以上のように得られた映像MOUTは映像提示装置150に入力され、映像提示装置150は映像MOUTを繰り返し再生する。すなわち、映像提示装置150は、第1時間区間で複数の画像P,P(第1画像)を提示する処理と、第1時間区間の後に続く第2時間区間で複数の画像P,P(複数の第1画像のそれぞれに含まれた一部の成分を反転させた第2画像)を提示する処理と、を繰り返す。つまり、映像提示装置150は以下の処理を行う。
ステップS1:映像提示装置150は画像Pを再生し、ステップS2に進む。
ステップS2:映像提示装置150は画像Pを再生し、ステップS3に進む。
ステップS3:映像提示装置150は画像Pを再生し、ステップS4に進む。
ステップS4:映像提示装置150は画像Pを再生し、ステップS1に進む。
これにより、再生された映像MOUTを見た観察者は継続的な動きを知覚する。また、画像Pは画像Pの輝度成分の高空間周波数成分を反転させたものであり、画像Pは画像Pの輝度成分の高空間周波数成分を反転させたものであるため、画像Pと画像Pとの間、および、画像Pと画像Pとの間での色味の変化は小さい。その結果、画像Pと画像Pとの間での強度の変化、および、画像Pと画像Pとの間での強度の変化を抑えることができ、ちらつきの少ない連続した動きを観察者に与えることができる。
The video M OUT obtained as described above is input to the video presentation device 150, and the video presentation device 150 repeatedly reproduces the video M OUT . That is, the video presenting device 150 presents the plurality of images P 1 and P 2 (first images) in the first time interval, and the plurality of images P 3 and P 3 in the second time interval following the first time interval. A process of presenting P 4 (a second image obtained by inverting some components included in each of the plurality of first images) is repeated. That is, the video presentation device 150 performs the following processing.
Step S1: image presentation apparatus 150 reproduces the image P 1, the process proceeds to step S2.
Step S2: video presentation device 150 reproduces the image P 2, the process proceeds to step S3.
Step S3: image presentation apparatus 150 reproduces the image P 3, the process proceeds to step S4.
Step S4: image presentation apparatus 150 reproduces the image P 4, the process proceeds to step S1.
Thus, the observer who has watched the reproduced video MOUT perceives continuous movement. The image P 3 is obtained by inverting the high spatial frequency components of the luminance component of the image P 1, since the image P 4 is obtained by inverting the high spatial frequency components of the luminance component of the image P 2, the image between the P 1 and the image P 3, and, color changes between the images P 1 and the image P 3 is small. As a result, the intensity change in between the image P 2 and the image P 3, and can suppress the change in intensity between the images P 4 and the image P 1, observed less continuous motion flicker Can be given to others.

[第1実施形態の変形例1]
第1実施形態では、画像PおよびPの輝度成分の高空間周波数成分を反転させたものを画像PおよびPとした。しかし、画像PおよびPの輝度成分全体を反転させたものを画像PおよびPとしてもよい。以下では、既に説明した事項との相違点を中心に説明し、既に説明した事項については同じ参照番号を引用して説明を簡略化する。
[Modification 1 of First Embodiment]
In the first embodiment, and the one obtained by inverting the high spatial frequency components of the luminance component of the image P 1 and P 2 and the image P 3 and P 4. However, it may be used as an image P 3 and P 4 obtained by inverting the entire luminance component of the image P 1 and P 2. In the following, the differences from the already described items will be mainly described, and the already described items will be referred to by the same reference numerals to simplify the description.

<構成>
図5に例示するように、本変形例の映像生成装置1’は、入力部101、記憶部102、画像抽出部103、画像生成部104’、および映像構成部105を有する。画像生成部104’は、成分分離部1041、反転部1044’、および合成部1045’を有する。
<Structure>
As illustrated in FIG. 5, a video generation device 1 ′ of the present modification includes an input unit 101, a storage unit 102, an image extraction unit 103, an image generation unit 104 ′, and a video configuration unit 105. The image generation unit 104 ′ includes a component separation unit 1041, an inversion unit 1044 ′, and a synthesis unit 1045 ′.

<処理>
第1実施形態との相違点は、前述した≪画像生成部104の処理≫に代えて、以下の≪画像生成部104’の処理≫が実行される点である。この相違点のみを説明する。
<Process>
The difference from the first embodiment is that the following {processing of the image generation unit 104 ′} is executed instead of the above {processing of the image generation unit 104}. Only this difference will be described.

≪画像生成部104’の処理≫
画像生成部104’は、画像Pに含まれた「一部の成分」である輝度成分全体を反転させて画像Pを得、画像Pに含まれた「一部の成分」である輝度成分全体を反転させて画像Pを得る。
<< Process of Image Generation Unit 104 '>>
Image generation unit 104 'inverts the entire luminance component is included in the image P 1 "part of component" obtain an image P 3 and is the included in the image P 2 "part of the component" obtaining an image P 4 by inverting the entire luminance component.

まず成分分離部1041は、各第iフレーム(ただし、i=1,2)の画像Pを入力とし、画像Pを色成分Cと輝度成分Yに分離して出力する(図2A)。 First, the component separation unit 1041 receives the image P i of each i-th frame (where i = 1, 2), and separates and outputs the image P i into a color component C i and a luminance component Y i (FIG. 2A). ).

各第iフレーム(ただし、i=1,2)の輝度成分Yは反転部1044’に入力される。反転部1044’は、入力された輝度成分Yの画素値Y(x,y)を反転して反転輝度成分RYを得て出力する。反転輝度成分RYは、座標(x,y)の画素値RY(x,y)を要素とする二次元配列である。例えば、反転部1044’は、輝度成分Yから、輝度成分Yの画素値Y(x,y)(ただし、xmin≦x≦xmaxかつymin≦y≦ymax)の平均値MYを減じ、その減算結果Y−MYの正負符号を反転させた後、再度、平均値MY加えたものを反転輝度成分RYとして出力する。
RY=−(Y−MY)+MY
RYは、座標(x,y)の画素値RY(x,y)を要素とする二次元配列である。
Each i-th frame (where, i = 1, 2) the luminance component Y i of is inputted to the inverting section 1044 '. Reversing portion 1044 ', the pixel value Y i (x, y) of the input luminance component Y i inverted outputs obtained an inverted luminance component RY i the. Inverted luminance component RY i is a two-dimensional array of coordinates (x, y) of the pixel value RY i (x, y) as elements. For example, the inverting unit 1044 ′ calculates an average value of the pixel values Y i (x, y) (where x min ≦ x ≦ x max and y min ≦ y ≦ y max ) of the brightness component Y i from the brightness component Y i. subtracting MY i, after inverting the sign of the subtraction result Y i -my i, again, to output a plus mean value MY i as an inverted luminance component RY i.
RY i = − (Y i −MY i ) + MY i
RY i is a two-dimensional array whose elements are pixel values RY i (x, y) at coordinates (x, y).

各第iフレーム(ただし、i=1,2)の色成分C、および反転輝度成分RYは、合成部1045’に入力される。合成部1045’は、色成分C、および反転輝度成分RYを足し合わせたものを第3フレームの画像Pとして得て出力する(P=C+RY)。また合成部1045’は、色成分C、および反転輝度成分RYを足し合わせたものを第4フレームの画像Pとして得て出力する(P=C+RY)。 The color component C i and the inverted luminance component RY i of each i-th frame (where i = 1, 2) are input to the synthesis unit 1045 ′. Combining unit 1045 'is obtained to output color components C 1, and which is the sum of the inverted luminance component RY 1 as an image P 3 of the third frame (P 3 = C 1 + RY 1). The combining unit 1045 'is obtained and output which is the sum of the color components C 2, and an inverted luminance component RY 2 as an image P 4 of the fourth frame (P 4 = C 2 + RY 2).

以降の処理は第1実施形態と同じである。これによっても、ちらつきの少ない連続した動きを観察者に与える映像MOUTを生成できる。 Subsequent processing is the same as in the first embodiment. In this way, it is also possible to generate an image M OUT that gives a continuous motion with little flicker to the observer.

[第1実施形態の変形例2]
第1実施形態では、画像PおよびPの輝度成分の高空間周波数成分を反転させたものを画像PおよびPとした。しかし、画像PおよびP全体の高空間周波数成分を反転させたものを画像PおよびPとしてもよい。すなわち、画像PおよびPの輝度成分の高空間周波数成分だけではなく、色成分の高空間周波数成分をも反転させて、画像PおよびPを得てもよい。
[Modification 2 of First Embodiment]
In the first embodiment, and the one obtained by inverting the high spatial frequency components of the luminance component of the image P 1 and P 2 and the image P 3 and P 4. However, it may be used as an image P 3 and P 4 obtained by inverting the high spatial frequency component of the whole image P 1 and P 2. That is, not only the high spatial frequency components of the luminance component of the image P 1 and P 2, also invert the high spatial frequency component of the color components may be obtained an image P 3 and P 4.

<構成>
図6に例示するように、本変形例の映像生成装置1”は、入力部101、記憶部102、画像抽出部103、画像生成部104”、および映像構成部105を有する。画像生成部104”は、低域フィルタリング部1042”、高域フィルタリング部1043”、反転部1044”、および合成部1045”を有する。
<Structure>
As illustrated in FIG. 6, the video generation device 1 ″ of the present modification includes an input unit 101, a storage unit 102, an image extraction unit 103, an image generation unit 104 ″, and a video configuration unit 105. The image generating unit 104 ″ includes a low-pass filtering unit 1042 ″, a high-pass filtering unit 1043 ″, an inverting unit 1044 ″, and a combining unit 1045 ″.

<処理>
第1実施形態との相違点は、前述した≪画像生成部104の処理≫に代えて、以下の≪画像生成部104”の処理≫が実行される点である。この相違点のみを説明する。
<Process>
The difference from the first embodiment is that the following {processing of the image generation unit 104 ″} is executed instead of the above-mentioned {processing of the image generation unit 104}. Only this difference will be described. .

≪画像生成部104”の処理≫
画像生成部104”は、画像Pに含まれた「一部の成分」である高空間周波数成分を反転させて画像Pを得、画像Pに含まれた「一部の成分」である高空間周波数成分を反転させて画像Pを得る。
<< Process of Image Generation Unit 104 >>
Image generation unit 104 "inverts the high spatial frequency components which are included in the image P 1" part of component "obtain an image P 3, in included in the image P 2" part of the component " obtaining an image P 4 by reversing some high spatial frequency components.

各第iフレーム(ただし、i=1,2)の画像Pは低域フィルタリング部1042”および高域フィルタリング部1043”に入力される。低域フィルタリング部1042”は、入力された画像Pに低域通過型フィルタLFを適用して画像Pの低空間周波数成分LP(低空間周波数画像)を得て出力する(LP=LF・P)。高域フィルタリング部1043”は、入力された画像Pに高域通過型フィルタHFを適用して画像Pの高空間周波数成分HP(高空間周波数画像)を得て出力する(HP=HF・P)。 The image P i of each i-th frame (where i = 1, 2) is input to the low-pass filtering unit 1042 ″ and the high-pass filtering unit 1043 ″. The low-pass filtering unit 1042 ″ applies a low-pass filter LF to the input image P i to obtain and output a low spatial frequency component LP i (low spatial frequency image) of the image P i (LP i = LF · P i). high-pass filtering unit 1043 ", with the by applying the high pass filter HF in the input image P i high spatial frequency components HP i of the image P i (high spatial frequency image) Output (HP i = HF · P i ).

各第iフレーム(ただし、i=1,2)の高空間周波数成分HPは反転部1044”に入力される。反転部1044”は、入力された高空間周波数成分HPの画素値HP(x,y)を反転して反転高空間周波数成分RHPを得て出力する。反転高空間周波数成分RHPは、座標(x,y)の画素値RHP(x,y)を要素とする二次元配列である(図3)。例えば、反転部1044”は、高空間周波数成分HPから、高空間周波数成分HPの画素値HP(x,y)(ただし、xmin≦x≦xmaxかつymin≦y≦ymax)の平均値MHPを減じ、その減算結果HP−MHPの正負符号を反転させた後、再度、平均値MHP加えたものを反転高空間周波数成分RHPとして出力する。
RHP=−(HP−MHP)+MHP
RHPは、座標(x,y)の画素値RHP(x,y)を要素とする二次元配列である。
Each i-th frame (where, i = 1, 2) of the "input. Inversion section 1044 to" the high spatial frequency components HP i inverting unit 1044, the pixel value HP i of the high spatial frequency components HP i entered (X, y) is inverted to obtain and output an inverted high spatial frequency component RHP i . The inverted high spatial frequency component RHP i is a two-dimensional array having the pixel value RHP i (x, y) at the coordinates (x, y) as an element (FIG. 3). For example, the inverting unit 1044 ″ converts the pixel value HP i (x, y) of the high spatial frequency component HP i from the high spatial frequency component HP i (where x min ≦ x ≦ x max and y min ≦ y ≦ y max). subtracting the average value MHP i) of, after inverting the sign of the subtraction result HP i -MHP i, again, to output a plus mean value MHP i as inverting high spatial frequency components RHP i.
RHP i = − (HP i −MHP i ) + MHP i
RHP i is a two-dimensional array whose elements are pixel values RHP i (x, y) at coordinates (x, y).

各第iフレーム(ただし、i=1,2)の低空間周波数成分LP、および反転高空間周波数成分RHPは合成部1045”に入力される。合成部1045”は、低空間周波数成分LP、および反転高空間周波数成分RHPを足し合わせたものを第3フレームの画像Pとして得て出力する(P=LP+RHP)。また合成部1045”は、低空間周波数成分LP、および反転高空間周波数成分RHPを足し合わせたものを第4フレームの画像Pとして得て出力する(P=LP+RHP)。 The low spatial frequency component LP i and the inverted high spatial frequency component RHP i of each i-th frame (where i = 1, 2) are input to the combining unit 1045 ″. The combining unit 1045 ″ outputs the low spatial frequency component LP. 1 and the inverted high spatial frequency component RHP 1 are added as a third frame image P 3 and output (P 3 = LP 1 + RHP 1 ). The combining unit 1045 ", and outputs the resulting low spatial frequency components LP 2, and which is the sum of the inverting high spatial frequency components RHP 2 as an image P 4 of the fourth frame (P 4 = LP 2 + RHP 2).

以降の処理は第1実施形態と同じである。これによっても、ちらつきの少ない連続した動きを観察者に与える映像MOUTを生成できる。 Subsequent processing is the same as in the first embodiment. In this way, it is also possible to generate an image M OUT that gives a continuous motion with little flicker to the observer.

[第2実施形態]
第1実施形態では、画像PおよびPの輝度成分の高空間周波数成分を反転させたものを画像PおよびPとした。しかし、画像PおよびPの輝度成分の高空間周波数成分の動き成分を反転させたものを画像PおよびPとしてもよい。これにより、ちらつきをより低減できる。
[Second embodiment]
In the first embodiment, and the one obtained by inverting the high spatial frequency components of the luminance component of the image P 1 and P 2 and the image P 3 and P 4. However, it may be used as an image P 3 and P 4 obtained by inverting the motion component of the high spatial frequency components of the luminance component of the image P 1 and P 2. Thereby, flicker can be further reduced.

<構成>
図1に例示するように、本形態の映像生成装置2は、入力部101、記憶部102、画像抽出部103、画像生成部204、および映像構成部105を有する。画像生成部204は、成分分離部1041、低域フィルタリング部1042、高域フィルタリング部1043、反転部2044、および合成部1045を有する。
<Structure>
As illustrated in FIG. 1, the video generation device 2 according to the present embodiment includes an input unit 101, a storage unit 102, an image extraction unit 103, an image generation unit 204, and a video configuration unit 105. The image generation unit 204 includes a component separation unit 1041, a low-pass filtering unit 1042, a high-pass filtering unit 1043, an inversion unit 2044, and a combining unit 1045.

<処理>
第1実施形態との相違点は、前述した≪画像生成部104の処理≫に代えて、以下の≪画像生成部204の処理≫が実行される点である。この相違点のみを説明する。
<Process>
The difference from the first embodiment is that the following {processing of the image generation unit 204} is executed instead of the above {processing of the image generation unit 104}. Only this difference will be described.

≪画像生成部204の処理≫
まず、成分分離部1041は、各第iフレーム(ただし、i=1,2)の画像Pを入力とし、画像Pを色成分Cと輝度成分Yに分離して出力する。低域フィルタリング部1042は、入力された輝度成分Yに低域通過型フィルタLFを適用して輝度成分Yの低空間周波数成分LY(低空間周波数画像)を得て出力する(LY=LF・Y)。高域フィルタリング部1043は、入力された輝度成分Yに高域通過型フィルタHFを適用して輝度成分Yの高空間周波数成分HY(高空間周波数画像)を得て出力する(HY=HF・Y)。
<< Process of Image Generation Unit 204 >>
First, the component separation unit 1041 receives the image P i of each i-th frame (where i = 1, 2), separates the image P i into a color component C i and a luminance component Y i , and outputs them. The low-pass filtering unit 1042 applies a low-pass filter LF to the input luminance component Y i to obtain and output a low spatial frequency component LY i (low spatial frequency image) of the luminance component Y i (LY i). = LF · Y i). The high-pass filtering unit 1043 applies a high-pass filter HF to the input luminance component Y i to obtain and output a high spatial frequency component HY i (high spatial frequency image) of the luminance component Y i (HY i). = HF · Y i ).

各第iフレーム(ただし、i=1,2)の高空間周波数成分HYは反転部2044に入力される。反転部2044は、入力された高空間周波数成分HYの動き成分である高空間周波数動き成分HMYの画素値HMY(x,y)を反転して反転高空間周波数成分RHMYを得て出力する。反転高空間周波数成分RHMYは、座標(x,y)の画素値RHMY(x,y)を要素とする二次元配列である。 Each i-th frame (where, i = 1, 2) high spatial frequency component HY i of is inputted to the inverting section 2044. Inverting unit 2044, the pixel value HMY i (x, y) of the high spatial frequency motion component HMY i which is the motion component of the high spatial frequency component HY i input inverted and the resulting inverted high spatial frequency components RHMY i Output. The inverted high spatial frequency component RHMY i is a two-dimensional array having the pixel value RHMY i (x, y) at the coordinates (x, y) as an element.

反転部2044の処理を詳細に説明する。反転部2044が画素値HMY(x,y)を反転させる空間領域は、第iフレーム(ただし、i=1,2)の高空間周波数成分HYにおいて動き情報がある領域に限られる。すなわち、高空間周波数成分HYとHMYとの間で動き情報のある領域のみの画素値HMY(x,y)を反転させる。動き情報は高空間周波数成分HYのオプティカルフロー(各画素の動きを表すベクトル)を計算することによって得られる。まず、反転部2044は、高空間周波数成分HYのオプティカルフローを計算し、各座標(x,y)での動き量V(x,y)(オプティカルフローの大きさ)を得る。次に反転部2044は、動き量V(x,y)をフロー全体で標準化して各座標(x,y)の重みnV(x,y)を得、重みnV(x,y)を用いて高空間周波数成分HYに空間的な重み付けを行って、画素値を反転させる領域を制限する。例えば、標準化は以下のように行われる。
nV(x,y)=(V(x,y)−Vmin)/(Vmax−Vmin) (1)
ただし、Vminは第iフレームでの動き量V(x,y)の最小値であり、Vmaxは第iフレームでの動き量V(x,y)の最大値である。
The processing of the reversing unit 2044 will be described in detail. The spatial area in which the inverting unit 2044 inverts the pixel value HMY i (x, y) is limited to an area having motion information in the high spatial frequency component HY i of the i-th frame (where i = 1, 2). That is, to invert the pixel value HMY i only certain regions of the motion information (x, y) between the high spatial frequency component HY 1 and HMY 2. The motion information is obtained by calculating the high spatial frequency component HY i optical flow (vector representing the motion of each pixel). First, the inversion unit 2044 calculates the optical flow of the high spatial frequency component HY i, obtain the coordinates (x, y) the amount of motion in the V i (x, y) (the magnitude of the optical flow). Then inverting section 2044, obtained motion amount V i (x, y) coordinates and standardized across flow the (x, y) weighted nV i (x, y) of a weight nV i (x, y) Carry out spatial weighting to a high spatial frequency component HY i is used to limit the region to invert the pixel value. For example, standardization is performed as follows.
nV i (x, y) = (V i (x, y) -Vmin i) / (Vmax i -Vmin i) (1)
However, Vmin i is the minimum value of the motion amount V i (x, y) in the i-th frame, Vmax i is the maximum value of the motion amount V i (x, y) in the i-th frame.

反転させる領域を拡張または縮小する場合には、式(1)で得られたnV(x,y)に対してさらに式(2)の処理を行って得られたものを重みnV(x,y)としてもよい。
nV(x,y):={nV(x,y)}1/k (2)
ただし、「α:=β」はβを新たなαとすること(すなわち、βをαに代入すること)を意味する。kは正値のパラメータである。反転させる領域を拡張する場合にはk>1とし、反転させる領域を縮小する場合には1>k>0とし、反転させる領域を変化させない場合にはk=1とする。
When expanding or reducing the area for reversing the formula (1) obtained in nV i (x, y) weighted those obtained by further performing a treatment of the formula (2) with respect nV i (x , Y).
nV i (x, y): = {nV i (x, y)} 1 / k (2)
However, “α: = β” means that β is a new α (that is, β is substituted for α). k is a parameter of a positive value. If the area to be inverted is expanded, k> 1. If the area to be inverted is reduced, 1>k> 0. If the area to be inverted is not changed, k = 1.

式(1)または式(2)で得られたnV(x,y)を2値化したものを重みnV(x,y)としてもよい。nV(x,y)を2値化は以下のように行われる。
もしnV(x,y)≧THならばnV(x,y):=1 (3)
もしnV(x,y)<THならばnV(x,y):=0
ただし、THは正の閾値であり、例えばTH=0.5である。
Equation (1) or nV i (x, y) obtained by formula (2) obtained by binarizing those weights nV i (x, y) may be. nV i (x, y) 2 digitizes the is done as follows.
If nV i (x, y) ≧ TH, nV i (x, y): = 1 (3)
If nV i (x, y) < TH if nV i (x, y): = 0
Here, TH is a positive threshold, for example, TH = 0.5.

式(3)によって2値化されたnV(x,y)は明確なエッジを有しており、反転させる領域とそうでない領域とが明確に二分化され、視覚上不自然な印象を与えてしまう場合がある。そのため、式(3)によって2値化されたnV(x,y)にガウシアンフィルタを適用して得られるものを重みnV(x,y)としてもよい。ガウシアンフィルタの標準偏差は任意でよいが、標準偏差の大きさが大きくなるほど、動きを伴わない領域においても重みnV(x,y)が正値となる確率が高くなる。 The nV i (x, y) binarized by the expression (3) has a clear edge, and a region to be inverted and a region not to be inverted are clearly divided into two, giving a visually unnatural impression. In some cases. Therefore, a value obtained by applying a Gaussian filter to nV i (x, y) binarized by Expression (3) may be used as the weight nV i (x, y). The standard deviation of the Gaussian filter may be arbitrary, but the larger the standard deviation, the higher the probability that the weight nV i (x, y) will be a positive value even in a region that does not involve motion.

反転部2044は、以上のように得られる重みnV(x,y)を用い、第iフレーム(ただし、i=1,2)の高空間周波数成分HYの動き成分である高空間周波数動き成分HMYの画素値HMY(x,y)を反転して反転高空間周波数成分RHMYを得て出力する。すなわち、反転部2044は、第1実施形態で説明したように高空間周波数成分HYの画素値HY(x,y)を反転して反転高空間周波数成分RHYを得、さらに以下のように反転高空間周波数成分RHMYを得て出力する(図4)。
RHMY(x,y):=RHY(x,y)×nV(x,y)+HY(x,y)×(1−nV(x,y))
ただし、RHY(x,y)×nV(x,y)は、高空間周波数動き成分HMYの画素値HMY(x,y)を反転したものである。
Inverting section 2044, using a weighting nV i (x, y) obtained as described above, the i-th frame (where, i = 1, 2) high spatial frequency component HY i high spatial frequency movement is the motion component of the The pixel value HMY i (x, y) of the component HMY i is inverted to obtain and output an inverted high spatial frequency component RHMY i . That is, the inverting unit 2044 inverts the pixel value HY i (x, y) of the high spatial frequency component HY i as described in the first embodiment to obtain an inverted high spatial frequency component RHY i. Newsletter inverting high spatial frequency components RHMY i outputs (Figure 4).
RHMY i (x, y): = RHY i (x, y) × nV i (x, y) + HY i (x, y) × (1-nV i (x, y))
However, RHY i (x, y) × nV i (x, y) is obtained by inverting the pixel values HMY i of high spatial frequency motion component HMY i (x, y).

各第iフレーム(ただし、i=1,2)の色成分C、低空間周波数成分LY、および反転高空間周波数成分RHMYは、合成部1045に入力される。合成部1045は、色成分C、低空間周波数成分LY、および反転高空間周波数成分RHMYを足し合わせたものを第3フレームの画像Pとして得て出力する(P=C+LY+RHMY)。また合成部1045は、色成分C、低空間周波数成分LY、および反転高空間周波数成分RHMYを足し合わせたものを第4フレームの画像Pとして得て出力する(P=C+LY+RHMY)(図4)。 The color component C i , low spatial frequency component LY i , and inverted high spatial frequency component RHMY i of each i-th frame (where i = 1, 2) are input to the combining unit 1045. The synthesizing unit 1045 obtains the sum of the color component C 1 , the low spatial frequency component LY 1 , and the inverted high spatial frequency component RHMY 1 as an image P 3 of the third frame, and outputs the image (P 3 = C 1 + LY). 1 + RHMY 1 ). Further, the synthesizing unit 1045 obtains and outputs a sum of the color component C 2 , the low spatial frequency component LY 2 , and the inverted high spatial frequency component RHMY 2 as an image P 4 of the fourth frame (P 4 = C 2). + LY 2 + RHMY 2 ) (FIG. 4).

以降の処理は第1実施形態と同じである。これによっても連続した動きを観察者に与える映像MOUTを生成できる。さらに本形態の映像MOUTでは、もともと動き成分が含まれていなかった領域の輝度が反転しないため、観察者はよりちらつきの少ない、連続的な動きの含まれる映像を体験できる。 Subsequent processing is the same as in the first embodiment. In this way, it is also possible to generate an image M OUT that gives a continuous movement to the observer. Further, in the video M OUT of the present embodiment, since the luminance of the region that originally did not include a motion component is not inverted, the observer can experience a video with less flicker and continuous motion.

[第2実施形態の変形例1]
第2実施形態では、画像PおよびPにおける輝度成分の高空間周波数成分の動き成分を反転させたものを画像PおよびPとした。しかし、画像PおよびPの輝度成分全体の動き成分を反転させたものを画像PおよびPとしてもよい。
[Modification 1 of Second Embodiment]
In the second embodiment, and the one obtained by inverting the motion component of the high spatial frequency components of the luminance component in the image P 1 and P 2 and the image P 3 and P 4. However, it may be used as an image P 3 and P 4 obtained by inverting the luminance component motion of the entire component of the image P 1 and P 2.

<構成>
図5に例示するように、本変形例の映像生成装置2’は、入力部101、記憶部102、画像抽出部103、画像生成部204’、および映像構成部105を有する。画像生成部204’は、成分分離部1041、反転部2044’、および合成部1045’を有する。
<Structure>
As illustrated in FIG. 5, the video generation device 2 ′ of the present modification includes an input unit 101, a storage unit 102, an image extraction unit 103, an image generation unit 204 ′, and a video configuration unit 105. The image generation unit 204 ′ includes a component separation unit 1041, an inversion unit 2044 ′, and a synthesis unit 1045 ′.

<処理>
第2実施形態との相違点は、前述した≪画像生成部204の処理≫に代えて、以下の≪画像生成部204’の処理≫が実行される点である。この相違点のみを説明する。
<Process>
The difference from the second embodiment is that the following {processing of the image generation unit 204 ′} is executed instead of the above {processing of the image generation unit 204}. Only this difference will be described.

≪画像生成部204’の処理≫
画像生成部204’は、画像Pに含まれた「一部の成分」である輝度成分全体の動き成分を反転させて画像Pを得、画像Pに含まれた「一部の成分」である輝度成分全体の動き成分を反転させて画像Pを得る。
<< Process of Image Generation Unit 204 '>>
Image generating unit 204 'has been included in the image P 1 is inverted to "part of component" luminance component overall motion component is obtained an image P 3 and were included in the image P 2 "of the portion of components by inverting the luminance component overall motion component is a "get image P 4 in.

まず成分分離部1041は、各第iフレーム(ただし、i=1,2)の画像Pを入力とし、画像Pを色成分Cと輝度成分Yに分離して出力する(図2A)。 First, the component separation unit 1041 receives the image P i of each i-th frame (where i = 1, 2), and separates and outputs the image P i into a color component C i and a luminance component Y i (FIG. 2A). ).

各第iフレーム(ただし、i=1,2)の輝度成分Yは反転部2044’に入力される。反転部2044’は、入力された輝度成分Yの動き成分である輝度動き成分MYの画素値MY(x,y)を反転して反転輝度動きRMYを得て出力する。この処理は、第2実施形態の反転部2044が行う処理の「高空間周波数成分HY」を「輝度成分Y」に置換したものである。すなわち、反転部2044’は、第1実施形態の変形例1で説明したように輝度成分Yの画素値Y(x,y)を反転して反転輝度成分RYを得、さらに「高空間周波数成分HY」に代えて「輝度成分Y」ついて重みnV(x,y)を得、以下のように反転輝度成分RMYを得て出力する。
RMY(x,y):=RY(x,y)×nV(x,y)+Y(x,y)×(1−nV(x,y))
ただし、反転輝度成分RMYは、座標(x,y)の画素値RMY(x,y)を要素とする二次元配列である。RY(x,y)×nV(x,y)は、輝度成分Yの動き成分である輝度動き成分MYの画素値MY(x,y)を反転したものである。
Each i-th frame (where, i = 1, 2) the luminance component Y i of is inputted to the inverting section 2044 '. Reversing portion 2044 ', the pixel value MY i (x, y) of the motion component of the input luminance component Y i luminance motion component MY i inverted outputs obtained an inverted luminance motion RMY i a. This processing is obtained by replacing the “high spatial frequency component HY i ” of the processing performed by the inversion unit 2044 of the second embodiment with the “luminance component Y i ”. That is, the inverting section 2044 ', the pixel value Y i (x, y) of the luminance component Y i as described in Modification 1 of the first embodiment inverts the resulting inverted luminance component RY i, further "high instead of the spatial frequency component HY i "to obtain a weight nV i (x, y) with" luminance component Y i ", and outputs the resulting inverted luminance component RMY i as follows.
RMY i (x, y): = RY i (x, y) × nV i (x, y) + Y i (x, y) × (1-nV i (x, y))
However, inverting the luminance component RMY i is a two-dimensional array of coordinates (x, y) of the pixel values RMY i (x, y) as elements. RY i (x, y) × nV i (x, y) is the inverse of the pixel value MY i (x, y) of the luminance motion component MY i that is the motion component of the luminance component Y i .

各第iフレーム(ただし、i=1,2)の色成分C、および反転輝度成分RMYは、合成部1045’に入力される。合成部1045’は、色成分C、および反転輝度成分RMYを足し合わせたものを第3フレームの画像Pとして得て出力する(P=C+RMY)。また合成部1045’は、色成分C、および反転輝度成分RMYを足し合わせたものを第4フレームの画像Pとして得て出力する(P=C+RMY)。 The color component C i and the inverted luminance component RMY i of each i-th frame (where i = 1, 2) are input to the synthesis unit 1045 ′. Combining unit 1045 'is obtained to output color components C 1, and which is the sum of the inverted luminance component RMY 1 as an image P 3 of the third frame (P 3 = C 1 + RMY 1). Further, the synthesizing unit 1045 'obtains and adds the sum of the color component C 2 and the inverted luminance component RMY 2 as an image P 4 of the fourth frame (P 4 = C 2 + RMY 2 ).

以降の処理は第2実施形態と同じである。これによっても、ちらつきの少ない連続した動きを観察者に与える映像MOUTを生成できる。 Subsequent processing is the same as in the second embodiment. In this way, it is also possible to generate an image M OUT that gives a continuous motion with little flicker to the observer.

[第2実施形態の変形例2]
第2実施形態では、画像PおよびPにおける輝度成分の高空間周波数成分の動き成分を反転させたものを画像PおよびPとした。しかし、画像PおよびP全体の高空間周波数成分の動き成分を反転させたものを画像PおよびPとしてもよい。すなわち、画像PおよびPの輝度成分の高空間周波数成分の動き成分だけではなく、色成分の高空間周波数成分の動き成分をも反転させて、画像PおよびPを得てもよい。
[Modification 2 of Second Embodiment]
In the second embodiment, and the one obtained by inverting the motion component of the high spatial frequency components of the luminance component in the image P 1 and P 2 and the image P 3 and P 4. However, it may be used as an image P 3 and P 4 obtained by inverting the image P 1 and P 2 motion component of the overall high spatial frequency components. That is, not only the movement component of the high spatial frequency components of the luminance component of the image P 1 and P 2, also reverses the motion component of the high spatial frequency components of the color components may be obtained an image P 3 and P 4 .

<構成>
図6に例示するように、本変形例の映像生成装置2”は、入力部101、記憶部102、画像抽出部103、画像生成部204”、および映像構成部105を有する。画像生成部204”は、低域フィルタリング部1042”、高域フィルタリング部1043”、反転部2044”、および合成部1045”を有する。
<Structure>
As illustrated in FIG. 6, the video generation device 2 ″ of the present modification includes an input unit 101, a storage unit 102, an image extraction unit 103, an image generation unit 204 ″, and a video configuration unit 105. The image generation unit 204 ″ includes a low-pass filtering unit 1042 ″, a high-pass filtering unit 1043 ″, an inverting unit 2044 ″, and a combining unit 1045 ″.

<処理>
第2実施形態との相違点は、前述した≪画像生成部204の処理≫に代えて、以下の≪画像生成部204”の処理≫が実行される点である。この相違点のみを説明する。
<Process>
The difference from the second embodiment is that the following {processing of the image generation unit 204 ″} is executed instead of the above-mentioned {processing of the image generation unit 204}. Only this difference will be described. .

≪画像生成部204”の処理≫
画像生成部204”は、画像Pに含まれた「一部の成分」である高空間周波数成分の動き成分を反転させて画像Pを得、画像Pに含まれた「一部の成分」である高空間周波数成分の動き成分を反転させて画像Pを得る。
<< Process of Image Generation Unit 204 >>
Image generating unit 204 'is included in the image P 1 by reversing the motion component of the high spatial frequency component is "part of the component" obtain an image P 3 and were included in the image P 2 "of the part obtaining an image P 4 by reversing the movement components in the high spatial frequency component is component ".

各第iフレーム(ただし、i=1,2)の画像Pは低域フィルタリング部1042”および高域フィルタリング部1043”に入力される。低域フィルタリング部1042”は、入力された画像Pに低域通過型フィルタLFを適用して画像Pの低空間周波数成分LP(低空間周波数画像)を得て出力する(LP=LF・P)。高域フィルタリング部1043”は、入力された画像Pに高域通過型フィルタHFを適用して画像Pの高空間周波数成分HP(高空間周波数画像)を得て出力する(HP=HF・P)。 The image P i of each i-th frame (where i = 1, 2) is input to the low-pass filtering unit 1042 ″ and the high-pass filtering unit 1043 ″. The low-pass filtering unit 1042 ″ applies a low-pass filter LF to the input image P i to obtain and output a low spatial frequency component LP i (low spatial frequency image) of the image P i (LP i = LF · P i). high-pass filtering unit 1043 ", with the by applying the high pass filter HF in the input image P i high spatial frequency components HP i of the image P i (high spatial frequency image) Output (HP i = HF · P i ).

各第iフレーム(ただし、i=1,2)の高空間周波数成分HPは反転部2044”に入力される。反転部2044”は、入力された高空間周波数成分HPの動き成分である高空間周波数動き成分HMPの画素値HMP(x,y)を反転して反転高空間周波数成分RHMPを得て出力する。この処理は、第2実施形態の反転部2044が行う処理の「高空間周波数成分HY」を「高空間周波数成分HP」に置換したものである。すなわち、反転部2044”は、第1実施形態の変形例2で説明したように高空間周波数成分HPの画素値HP(x,y)を反転して反転高空間周波数成分RHPを得、さらに「高空間周波数成分HY」に代えて「高空間周波数成分HP」ついて重みnV(x,y)を得、以下のように反転高空間周波数成分RHMPを得て出力する。
RHMP(x,y):=RHP(x,y)×nV(x,y)+HP(x,y)×(1−nV(x,y))
ただし、反転輝度成分RHMPは、座標(x,y)の画素値RHMP(x,y)を要素とする二次元配列である。RHP(x,y)×nV(x,y)は、高空間周波数成分HPの動き成分である高空間周波数動き成分HMPの画素値HMP(x,y)を反転したものである。
Each i-th frame (where, i = 1, 2) the high spatial frequency components HP i of "is input to. Inversion section 2044" inversion section 2044 is a motion component of the high spatial frequency components HP i entered The pixel value HMP i (x, y) of the high spatial frequency motion component HMP i is inverted to obtain and output an inverted high spatial frequency component RHMP i . This process is obtained by replacing the “high spatial frequency component HY i ” of the process performed by the inverting unit 2044 of the second embodiment with the “high spatial frequency component HP i ”. Resulting Namely, inverting unit 2044 ", the pixel value HP i (x, y) inverting high spatial frequency components RHP i inverts the high spatial frequency components HP i as explained in the second modification of the first embodiment Further, a weight nV i (x, y) is obtained for “high spatial frequency component HP i ” instead of “high spatial frequency component HY i ”, and inverted high spatial frequency component RHMP i is obtained and output as follows.
RHMP i (x, y): = RHP i (x, y) × nV i (x, y) + HP i (x, y) × (1-nV i (x, y))
However, the inverted luminance component RHMP i is a two-dimensional array having the pixel value RHMP i (x, y) at the coordinates (x, y) as an element. RHP i (x, y) × nV i (x, y) is the inverse of the pixel value HMP i (x, y) of the high spatial frequency motion component HMP i that is the motion component of the high spatial frequency component HP i. is there.

各第iフレーム(ただし、i=1,2)の低空間周波数成分LP、および反転高空間周波数成分RHMPは合成部1045”に入力される。合成部1045”は、低空間周波数成分LP、および反転高空間周波数成分RHMPを足し合わせたものを第3フレームの画像Pとして得て出力する(P=LP+RHMP)。また合成部1045”は、低空間周波数成分LP、および反転高空間周波数成分RHMPを足し合わせたものを第4フレームの画像Pとして得て出力する(P=LP+RHMP)。 The low spatial frequency component LP i and the inverted high spatial frequency component RHMP i of each i-th frame (where i = 1, 2) are input to the combining unit 1045 ″. The combining unit 1045 ″ outputs the low spatial frequency component LP. 1 and the inverted high spatial frequency component RHMP 1 are added and obtained as an image P 3 of the third frame and output (P 3 = LP 1 + RHMP 1 ). The combining unit 1045 ", and outputs the resulting low spatial frequency components LP 2, and which is the sum of the inverting high spatial frequency components RHMP 2 as an image P 4 of the fourth frame (P 4 = LP 2 + RHMP 2).

以降の処理は第2実施形態と同じである。これによっても、ちらつきの少ない連続した動きを観察者に与える映像MOUTを生成できる。 Subsequent processing is the same as in the second embodiment. In this way, it is also possible to generate an image M OUT that gives a continuous motion with little flicker to the observer.

[第2実施形態の変形例3]
第2実施形態では、画像PおよびPにおける輝度成分の高空間周波数成分の動き成分を反転させたものを画像PおよびPとした。しかし、画像PおよびP全体の動き成分を反転させたものを画像PおよびPとしてもよい。
[Modification 3 of Second Embodiment]
In the second embodiment, and the one obtained by inverting the motion component of the high spatial frequency components of the luminance component in the image P 1 and P 2 and the image P 3 and P 4. However, it may be used as an image P 3 and P 4 obtained by inverting the image P 1 and P 2 whole motion component.

<構成>
図7に例示するように、本変形例の映像生成装置2’’’は、入力部101、記憶部102、画像抽出部103、画像生成部204’’’、および映像構成部105を有する。画像生成部204’’’は反転部2044’’’を有する。
<Structure>
As illustrated in FIG. 7, the video generation device 2 ″ ″ of the present modified example includes an input unit 101, a storage unit 102, an image extraction unit 103, an image generation unit 204 ″ ″, and a video configuration unit 105. The image generation unit 204 ′ ″ includes an inversion unit 2044 ″ ″.

<処理>
第2実施形態との相違点は、前述した≪画像生成部204の処理≫に代えて、以下の≪画像生成部204’’’の処理≫が実行される点である。この相違点のみを説明する。
<Process>
The difference from the second embodiment is that the following {processing of the image generation unit 204 ′ ″} is executed instead of the above {processing of the image generation unit 204}. Only this difference will be described.

≪画像生成部204’’’の処理≫
画像生成部204’’’は、画像Pに含まれた「一部の成分」である動き成分を反転させて画像Pを得、画像Pに含まれた「一部の成分」である動き成分を反転させて画像Pを得る。
<< Processing of Image Generation Unit 204 ''''>>
Image generating unit 204 '''inverts the motion component is included in the image P 1 "part of component" obtain an image P 3, in included in the image P 2 "part of the component" obtaining an image P 4 by inverting the certain motion component.

各第iフレーム(ただし、i=1,2)の画像Pは反転部2044’’’に入力される。反転部2044’’’は、入力された画像Pの動き成分である画像動き成分MPの画素値MP(x,y)を反転して反転画像成分RMPを得て出力する。この処理は、第2実施形態の反転部2044が行う処理の「高空間周波数成分HY」を「画像P」に置換したものである。すなわち、まず、反転部2044’’’は、「高空間周波数成分HY」の画素値HY(x,y)に代えて「画像P」の画素値P(x,y)を反転して反転画像成分RPを得、さらに「高空間周波数成分HY」に代えて「画像P」ついて重みnV(x,y)を得、以下のように反転画像成分RMPを得て出力する。
RMP(x,y):=RP(x,y)×nV(x,y)+P(x,y)×(1−nV(x,y))
ただし、反転画像成分RMPは、座標(x,y)の画素値RMP(x,y)を要素とする二次元配列である。RP(x,y)×nV(x,y)は、画像Pの動き成分である画像動き成分MPの画素値MP(x,y)を反転したものである。画像生成部204’’’は、RMP(x,y)を第3フレームの画像Pとして出力し、RMP(x,y)を第4フレームの画像Pとして出力する。
The image P i of each i-th frame (where i = 1, 2) is input to the reversing unit 2044 ′ ″. Inverting section 2044 ''', the pixel value MP i (x, y) of the motion component of the input image P i image motion component MP i inverted outputs to obtain a reverse image component RMP i a. This processing is obtained by replacing the “high spatial frequency component HY i ” of the processing performed by the reversing unit 2044 of the second embodiment with the “image P i ”. That is, first, the inversion unit 2044 ′ ″ inverts the pixel value P i (x, y) of “image P i ” instead of the pixel value HY i (x, y) of “high spatial frequency component HY i ”. obtained to give a reverse image component RP i, further "the high spatial frequency component HY i" instead of the "image P i" with by weight nV i (x, y) to obtain a, a reverse image component RMP i as follows Output.
RMP i (x, y): = RP i (x, y) × nV i (x, y) + P i (x, y) × (1-nV i (x, y))
However, the inverted image component RMP i is a two-dimensional array having the pixel value RMP i (x, y) at the coordinates (x, y) as an element. RP i (x, y) × nV i (x, y) is obtained by inverting the pixel value MP i (x, y) of the image motion component MP i that is the motion component of the image P i . The image generation unit 204 ′ ″ outputs RMP 1 (x, y) as the image P 3 of the third frame, and outputs RMP 2 (x, y) as the image P 4 of the fourth frame.

以降の処理は第2実施形態と同じである。これによっても、ちらつきの少ない連続した動きを観察者に与える映像MOUTを生成できる。 Subsequent processing is the same as in the second embodiment. In this way, it is also possible to generate an image M OUT that gives a continuous motion with little flicker to the observer.

[第3実施形態]
第1,2実施形態およびそれらの変形例では、4フレームの画像P,P,P,Pからなる映像MOUTを生成した。しかし、これらと同様な手法を用い、6フレーム以上の映像MOUTを生成してもよい。すなわち、nが4以上の偶数であり、複数の「第1画像」が時系列に沿った第1フレームの画像Pから第n/2フレームの画像P(n/2)を含み、複数の「第2画像」が時系列に沿った第{(n/2)+1}フレームの画像P{(n/2)+1}から第nフレームの画像Pを含み、第iフレームの画像P(ただし、iは1以上n/2以下の整数)に含まれた一部の成分を反転させて第{(n/2)+i}フレームの画像P{(n/2)+を得、nフレームの画像P,…,Pからなる映像MOUTを生成するものであればよい。第1,2実施形態およびそれらの変形例はn=4の例であったが、nが6以上の整数であってもよい。第3実施形態では第1実施形態をn≧4に一般化する。
[Third embodiment]
In the first and second embodiments and their modifications, the video M OUT including the images P 1 , P 2 , P 3 , and P 4 of four frames is generated. However, the video M OUT of six or more frames may be generated by using the same method. That is, n is an even number of 4 or more, and the plurality of “first images” include the image P 1 of the first frame along the time series to the image P (n / 2) of the n / 2 th frame. It includes an image P n of the n-th frame from the "second image" along the time series {(n / 2) +1} image frame P {(n / 2) +1 }, the image P i of the i-th frame (Where i is an integer of 1 or more and n / 2 or less), the image P {(n / 2) + i } of the {(n / 2) + i} frame is obtained by inverting some of the components contained in the image. , Pn, an image M OUT composed of images P 1 ,..., P n . Although the first and second embodiments and their modifications are examples of n = 4, n may be an integer of 6 or more. In the third embodiment, the first embodiment is generalized to n ≧ 4.

<構成>
図1に例示するように、本形態の映像生成装置3は、入力部101、記憶部102、画像抽出部303、画像生成部104、および映像構成部305を有する。
<Structure>
As illustrated in FIG. 1, the video generation device 3 of the present embodiment includes an input unit 101, a storage unit 102, an image extraction unit 303, an image generation unit 104, and a video configuration unit 305.

<処理>
本形態の処理を説明する。
≪入力映像MINの入力≫
映像生成装置1(図1)の入力部101に、n/2個以上のフレーム(映像フレーム)から構成される任意の入力映像MINが入力される。本形態の入力映像MINは色成分を含む色映像である。
<Process>
The processing of this embodiment will be described.
«Input of the input image M IN»
The input unit 101 of the image generating apparatus 1 (FIG. 1), any of the input video M IN composed n / 2 or more frames (video frame) are input. Input image M IN in this embodiment is a color image including a color component.

≪画像抽出部303の処理≫
画像抽出部303は、記憶部102から読み出した入力映像MINから連続するn/2フレームの画像を取り出し、それぞれを第iフレーム(ただし、i=1,…,n/2)の画像P(第1画像)として出力する。第(j+1)フレームは時間的に第jフレームの後に続くフレームである(ただし、j+1,j∈{1,…,n/2})。なお、第1フレームの画像Pから第n/2フレームの画像Pn/2を時系列に並べて得られる部分映像M={P,…,Pn/2}は、略直線方向に移動する物体の動きを表すものであることが望ましい。すなわち、部分映像M内の局所的な運動方向がほぼ一定(局所的な運動方向が複数フレーム間で変わらずにほぼ単一の方向性をもつ状態)であることが望ましい。
<< Process of Image Extraction Unit 303 >>
Image extraction unit 303, an image of the n / 2 consecutive frames from the input video M IN read from the storage unit 102 is taken out, respectively the i-th frame (where, i = 1, ..., n / 2) picture P i of Output as (first image). The (j + 1) th frame is a frame temporally subsequent to the jth frame (however, j + 1, j {1,..., N / 2}). Note that a partial video M p = {P 1 ,..., P n / 2 } obtained by arranging the image P n / 2 of the n / 2th frame from the image P 1 of the first frame in time series is substantially linear. Desirably, it represents the movement of a moving object. In other words, it is desirable local direction of movement of the partial image M p is substantially constant (state local direction of motion has a substantially single direction unchanged across multiple frames).

≪画像生成部104の処理≫
画像生成部104は、第iフレームの画像P(ただし、i=1,…,n/2)に含まれた一部の成分を反転させて第{(n/2)+i}フレームの画像P{(n/2)+を得て出力する。第1実施形態ではn=4としてこの処理を行った。本形態はこれを4以上の偶数nに一般化するものに過ぎない。画像生成部104は、各第{(n/2)+i}フレーム(ただし、i=1,…,n/2)の画像P{(n/2)+を出力する。
<< Process of Image Generation Unit 104 >>
The image generation unit 104 inverts a part of the components included in the image P i of the i-th frame (where i = 1,..., N / 2) to generate an image of the {(n / 2) + i} frame. P {(n / 2) + i } is obtained and output. In the first embodiment, this process is performed with n = 4. The present embodiment merely generalizes this to an even number n of 4 or more. The image generation unit 104 outputs an image P {(n / 2) + i } of each {(n / 2) + i} frame (where i = 1,..., N / 2).

≪映像構成部305の処理≫
映像構成部305は、第1,…,nフレームの画像P,…,Pを入力とし、画像P,…,Pを時間的に並べることでこれらを含む映像MOUTを得て出力する。なお、各第iフレーム(ただし、i=1,…,n)の画像Pの提示時間は、映像MOUTが静止画の系列ではなく動画像として認識可能なように調整される。この範囲であればフレームレートは固定であっても可変であってもよい。
<< Process of Image Composition Unit 305 >>
Image construction unit 305, first, ..., the image P 1 of the n-frame, ..., and inputs the P n, the image P 1, ..., to obtain an image M OUT containing them by arranging the P n temporally Output. The presentation time of the image P i of each i-th frame (where i = 1,..., N) is adjusted so that the video M OUT can be recognized as a moving image instead of a series of still images. Within this range, the frame rate may be fixed or variable.

以上のように得られた映像MOUTは映像提示装置150に入力され、映像提示装置は映像MOUTを繰り返し再生する。すなわち、映像提示装置150は、第1時間区間で複数の画像P,…,Pn/2(第1画像)を提示する処理と、第1時間区間の後に続く第2時間区間で複数の画像P(n/2)+1,…,P(複数の第1画像のそれぞれに含まれた一部の成分を反転させた第2画像)を提示する処理と、を繰り返す。つまり映像提示装置150は以下の処理を行う。
ステップS1:映像提示装置150は画像Pを再生し、ステップS2に進む。
ステップS2:映像提示装置150は画像Pを再生し、ステップS3に進む。
・・・
ステップSi:映像提示装置150は画像Pを再生し、ステップS1に進む。
これにより、再生された映像MOUTを見た観察者は、ちらつきの少ない継続的な動きを知覚する。
The video M OUT obtained as described above is input to the video presentation device 150, and the video presentation device repeatedly reproduces the video M OUT . In other words, the video presenting device 150 performs a process of presenting a plurality of images P 1 ,..., P n / 2 (first images) in a first time interval, and a plurality of images in a second time interval following the first time interval. The process of presenting the images P (n / 2) +1 ,..., P n (second images obtained by inverting some components included in each of the plurality of first images) is repeated. That is, the video presentation device 150 performs the following processing.
Step S1: image presentation apparatus 150 reproduces the image P 1, the process proceeds to step S2.
Step S2: video presentation device 150 reproduces the image P 2, the process proceeds to step S3.
...
Step Si: video presentation device 150 reproduces the image P i, the flow proceeds to step S1.
As a result, the observer who has seen the reproduced image M OUT perceives less continuous movement of flickering.

[第3実施形態の変形例1]
第1実施形態の変形例1,2、第2実施形態、および第2実施形態1〜3をn≧4に一般化する場合(図1,5,6,7)、映像生成装置3が画像生成部104に代えて、それぞれ画像生成部104’,104”,204,204’,204”,204’’’を備え、画像生成部104’,104”,204,204’,204”,204’’’のそれぞれが、第iフレームの画像P(ただし、i=1,…,n/2)に含まれた一部の成分を反転させて第{(n/2)+i}フレームの画像P{(n/2)+を得て出力すればよい。第1実施形態の変形例1,2、第2実施形態、および第2実施形態1〜3ではn=4としてこの処理を行ったが、本変形例はこれを4以上の偶数nに一般化するものに過ぎない。画像生成部104’,104”,204,204’,204”,204’’’は、各第{(n/2)+i}フレーム(ただし、i=1,…,n/2)の画像P{(n/2)+を出力する。その他は第3実施形態と同じである。
[Modification 1 of Third Embodiment]
When the modifications 1 and 2 of the first embodiment, the second embodiment, and the second to third embodiments are generalized to n ≧ 4 (FIGS. 1, 5, 6, and 7), the image generation device 3 In place of the generation unit 104, image generation units 104 ', 104 ", 204, 204', 204", 204 "'are provided, respectively, and the image generation units 104', 104", 204, 204 ', 204 ", 204" are provided. '''Inverts some of the components included in the image P i of the i-th frame (where i = 1,..., N / 2) to form the {(n / 2) + i} frame What is necessary is just to obtain and output the image P {(n / 2) + i } . In the modified examples 1 and 2 of the first embodiment, the second embodiment, and the second to third embodiments, this processing is performed with n = 4. In this modified example, this is generalized to an even number n of 4 or more. It's just what you do. The image generation units 104 ′, 104 ″, 204, 204 ′, 204 ″, and 204 ″ ″ generate an image P of each {(n / 2) + i} frame (i = 1,..., N / 2). Output {(n / 2) + i } . Others are the same as the third embodiment.

[第4実施形態]
止まっている対象に動きが与えられているように知覚させるために、当該対象に与えられる動きに対応する輝度運動成分を含む映像を当該対象に重畳する技術が知られている(例えば、国際公開第WO/2015/163317号等参照)。この技術を上述した各実施形態またはその変形例に適用し、止まっている対象が継続的に動いているように知覚させる映像を生成してもよい。
[Fourth embodiment]
2. Description of the Related Art There is known a technique of superimposing a video including a luminance motion component corresponding to a motion applied to a stationary object on the object in order to make the stationary object perceive that the motion is applied (for example, international publication). No. WO / 2015/163317). This technique may be applied to each of the above-described embodiments or modifications thereof to generate a video that makes a stationary object perceive as if it is continuously moving.

<構成>
図8に例示するように、本形態の映像生成装置440は、対象画像生成部441、記憶部442、画像処理部444、映像構成部445、および反転部404を有する。対象画像生成部441はカメラなどの撮影装置420に接続され、映像構成部445は投影装置などの重畳装置430に接続されている。画像処理部444および反転部404によって「画像生成部」が構成される。
<Structure>
As illustrated in FIG. 8, the video generation device 440 of the present embodiment includes a target image generation unit 441, a storage unit 442, an image processing unit 444, a video configuration unit 445, and an inversion unit 404. The target image generation unit 441 is connected to a photographing device 420 such as a camera, and the video composition unit 445 is connected to a superposition device 430 such as a projection device. An “image generation unit” is configured by the image processing unit 444 and the inversion unit 404.

<処理>
まず、止まっている対象410を準備する。対象410は、立体的形状を備える物(例えば、花瓶、ボール、模型)であってもよいし、所定の平面(例えば、紙、ボード、壁、スクリーン)であってもよい。
<Process>
First, a stopped subject 410 is prepared. The object 410 may be an object having a three-dimensional shape (for example, a vase, a ball, a model) or a predetermined plane (for example, paper, a board, a wall, a screen).

≪撮影および対象画像の抽出(ステップS41)≫
撮影装置420は対象410を撮影し、それによって得られた静止画像PINは対象画像生成部441に送られる。対象画像生成部441は、入力された静止画像PINから輝度成分Yを抽出し、さらに輝度成分Yに高域通過型フィルタHFを適用して高空間周波数成分HY(対象画像)を得て出力する(HY=HF・Y)。高空間周波数成分HYは記憶部442に格納される。高空間周波数成分HYは座標(x,y)の画素値HY(x,y)からなる二次元配列である。
{Shooting and Extraction of Target Image (Step S41)}
The image capturing device 420 captures an image of the object 410, and the still image PIN obtained thereby is sent to the object image generating unit 441. The target image generation unit 441 extracts a luminance component Y from the input still image PIN , and further applies a high-pass filter HF to the luminance component Y to obtain a high spatial frequency component HY 1 (target image). Output (HY 1 = HF · Y). High spatial frequency component HY 1 is stored in the storage unit 442. The high spatial frequency component HY 1 is a two-dimensional array including pixel values HY 1 (x, y) at coordinates (x, y).

≪第1フレームの画像Pの重畳(ステップS42)≫
高空間周波数成分HYは、第1フレームの画像P(第1時間区間に属する第1画像)として映像構成部445に送られる。映像構成部445は画像Pを映像MOUTの第1フレームの画像として重畳装置430に出力する。重畳装置430は画像Pを対象410に投影して重畳する。なお、ステップS42の処理が省略されてもよい。すなわち、映像MOUTは画像Pを含まなくてもよい。
«Superimposed image P 1 of the first frame (Step S42)»
The high spatial frequency component HY 1 is sent to the video composition unit 445 as a first frame image P 1 (first image belonging to a first time section). Picture composition unit 445 outputs the superimposed unit 430 an image P 1 as the image of the first frame of the video M OUT. Superimposing device 430 superimposes by projecting the object 410 image P 1. Note that the processing in step S42 may be omitted. That is, the image M OUT may not include the image P 1.

≪画像処理部444の処理(ステップS43)≫
画像処理部444は、画像P(対象画像)を入力とし、画像Pを変形および/または動かした画像P,…,Pn/2(処理画像)を得て出力する。ただし、nは4以上の偶数である。画像Pをどのように変形および/または動かして画像P,…,Pn/2を得るかについての限定はない。ただし、nが6以上の場合、第1フレームの画像Pから第n/2フレームの画像Pn/2を時系列に並べて得られる部分映像M={P,…,Pn/2}が、略直線方向に移動する物体の動きを表すものであることが望ましい。
<< Process of Image Processing Unit 444 (Step S43) >>
The image processing unit 444, an image P 1 (the target image) as input, transform the image P 1 and / or the image P 2 moves, ..., and outputs to obtain P n / 2 (processed image). Here, n is an even number of 4 or more. How deform and / or move the image P 2 of the image P 1, ..., there is no limitation as to whether obtain P n / 2. However, when n is 6 or more, partial image M p = {P 1 obtained from the image P 1 of the first frame side-by-side image P n / 2 of the n / 2 frame in time series, ..., P n / 2 } Desirably represents the movement of an object moving in a substantially linear direction.

≪第2から第n/2フレームの画像P,…,Pn/2の重畳(ステップS44)≫
画像P,…,Pn/2(第1画像)は第2から第n/2フレームの画像(第1時間区間に属する第1画像)として映像構成部445に送られる。映像構成部445は、画像P,…,Pn/2のそれぞれを映像MOUTの第2から第n/2フレームの画像として重畳装置430に出力する。重畳装置430は画像P,…,Pn/2のそれぞれを時間順に対象410に投影して重畳する。
{Superimposition of images P 2 ,..., P n / 2 of second to n / 2th frames (step S44) }
The images P 2 ,..., P n / 2 (first images) are sent to the video composition unit 445 as images of the second to n / 2th frames (first images belonging to the first time section). The video forming unit 445 outputs each of the images P 2 ,..., P n / 2 to the superimposing device 430 as the images of the second to n / 2-th frames of the video M OUT . The superimposing device 430 projects and superimposes each of the images P 2 ,..., P n / 2 on the target 410 in chronological order.

≪反転部404の処理(ステップS45)≫
反転部404は、画像Pを入力とし、画像Pを反転させつつ強度を高めた画像を第{(n/2)+1}フレームの画像P{(n/2)+1}(第2時間区間に属する第2画像)として得て出力する。画像P{(n/2)+1}は、対象410(静止画像PIN)に含まれた一部の成分(対象410の静止画像PINに含まれた輝度成分の高空間周波数成分)を反転させつつ強度を高めた画像である。
<< Process of Inverting Unit 404 (Step S45) >>
Inverting section 404 receives as input images P 1, an image with increased strength while inverting the image P 1 the {(n / 2) +1} image P of the frame {(n / 2) +1} ( second time (A second image belonging to the section). The image P {(n / 2) +1} is obtained by inverting some components (high spatial frequency components of the luminance component included in the still image PIN of the target 410) included in the target 410 (still image PIN ). This is an image in which the intensity is increased while the image is being made.

≪第{(n/2)+1}フレームの画像P{(n/2)+1}の重畳(ステップS44)≫
画像P{(n/2)+1}は第{(n/2)+1}フレームの画像(第2時間区間に属する第2画像)として映像構成部445に送られる。映像構成部445は、画像P{(n/2)+1}を映像MOUTの第{(n/2)+1}フレームの画像として重畳装置430に出力する。重畳装置430は画像P{(n/2)+1}を対象410に投影して重畳する。画像P{(n/2)+1}は、対象410に含まれた一部の成分を反転させつつ強度を高めた画像である。そのため、対象410に画像P{(n/2)+1}が重畳された様子を見た観察者は、対象410の輝度成分の高空間周波数成分を打ち消しつつ、その輝度成分の高空間周波数成分が反転された印象を受ける。
{Superposition of {P (n / 2) +1} -frame image P {(n / 2) +1} (Step S44) }
The image P {(n / 2) +1} is sent to the video composition unit 445 as an image of the ((n / 2) +1) th frame (a second image belonging to a second time interval). The video configuration unit 445 outputs the image P {(n / 2) +1} to the superimposition device 430 as an image of the {(n / 2) +1} th frame of the video M OUT . The superimposing device 430 projects and superimposes the image P {(n / 2) +1} on the target 410. Image P {(n / 2) +1} is an image in which the intensity is increased while inverting some components included in target 410. Therefore, the observer who sees the image P {(n / 2) +1} superimposed on the object 410 cancels out the high spatial frequency component of the luminance component of the object 410 and changes the high spatial frequency component of the luminance component. I get a reversed impression.

≪画像処理部444の処理(ステップS45)≫
画像処理部444は、画像P{(n/2)+1}を入力とし、画像P{(n/2)+1}を変形および/または動かした画像P{(n/2)+2},…,P(第2時間区間に属する第2画像)を得て出力する。画像P{(n/2)+1}を変形および/または動かして画像P{(n/2)+2},…,Pを得る方法は、画像Pを変形および/または動かして画像P,…,Pn/2を得る方法と同一である。画像P{(n/2)+2},…,Pは、対象410(静止画像PIN)を変形および/または動かした画像に含まれた一部の成分(対象410の静止画像PINに含まれた輝度成分の高空間周波数成分)を反転させつつ強度を高めた画像である。
<< Process of Image Processing Unit 444 (Step S45) >>
The image processing unit 444 receives the image P {(n / 2) +1} as an input, and transforms and / or moves the image P {(n / 2) +1} to generate an image P {(n / 2) +2},. P n (a second image belonging to the second time interval) is obtained and output. Image P deformed {(n / 2) +1} and / or move the image P {(n / 2) +2 }, ..., method, image P 2 of the image P 1 modified and / or moved to obtain a P n ,..., P n / 2 . The image P {(n / 2) +2} ,..., Pn is a part of the component (still image P IN of the object 410) included in the image obtained by deforming and / or moving the object 410 (still image P IN ). This is an image in which the intensity is increased while inverting the included high spatial frequency component of the luminance component.

≪第{(n/2)+2}から第nフレームの画像P{(n/2)+2},…,Pの重畳(ステップS46)≫
画像P{(n/2)+2},…,Pは第{(n/2)+2}から第nフレームの画像P{(n/2)+2},…,P(第2時間区間に属する第2画像)として映像構成部445に送られる。映像構成部445は、画像P{(n/2)+2},…,Pのそれぞれを映像MOUTの第{(n/2)+2}から第nフレームの画像として重畳装置430に出力する。重畳装置430は画像P{(n/2)+2},…,Pのそれぞれを時間順に対象410に投影して重畳する。画像P{(n/2)+2},…,Pは、対象410を変形および/または動かした画像に含まれた一部の成分を反転させつつ強度を高めた画像である。そのため、対象410に画像P{(n/2)+2},…,Pが重畳された様子を見た観察者は、対象410の輝度成分の高空間周波数成分を打ち消しつつ、その輝度成分の高空間周波数成分が反転された印象を受ける。
{Superimposition of the image P of the n-th frame from {(n / 2) +2} to {(n / 2) +2} ,..., P n (step S46) }
Image P {(n / 2) +2 }, ..., P n is the from {(n / 2) +2} of the n-th frame image P {(n / 2) +2 }, ..., P n ( second time period To the video composition unit 445. The video forming unit 445 outputs each of the images P {(n / 2) +2} ,..., Pn from the {(n / 2) +2} of the video M OUT to the superimposing device 430 as an image of the n-th frame. . Superimposing device 430 image P {(n / 2) +2 }, ..., superimposed and projected onto the target 410 in order each time P n. The images P {(n / 2) +2} ,..., Pn are images in which the intensity is increased while inverting some components included in the image obtained by deforming and / or moving the object 410. Therefore, the observer who sees the image P {(n / 2) +2} ,..., Pn superimposed on the object 410 cancels out the high spatial frequency component of the object 410 It gives the impression that the high spatial frequency component has been inverted.

以上のように得られる映像MOUTは主に輝度運動成分を含む。上述のステップS41からS46の処理またはステップS42からS46の処理が繰り返されることで対象410に映像MOUTが重畳させる様子を見た観察者は、実際には動いていない対象410が継続的に動いているように知覚する。 The image M OUT obtained as described above mainly includes a luminance motion component. The observer who sees the image MOUT superimposed on the object 410 by repeating the processing of steps S41 to S46 or the processing of steps S42 to S46 described above, sees that the object 410 that is not actually moving continuously moves. Perceive as if.

[第4実施形態の変形例1]
第4実施形態では、静止画像PINから抽出された輝度成分Yに高域通過型フィルタHFを適用して得られた高空間周波数成分HYを画像P(対象画像)とした。しかし、静止画像PINそのものを画像P(対象画像)としてもよいし、静止画像PINから抽出された輝度成分Yを画像P(対象画像)としてもよい。
[Modification 1 of Fourth Embodiment]
In the fourth embodiment, obtained by applying a high pass filter HF in the extracted from the still image P IN luminance component Y of the high spatial frequency component HY 1 was image P 1 (target image). However, it may still images P IN itself as an image P 1 (target image), the luminance component Y extracted from the still image P IN may be an image P 1 (target image).

[第4実施形態の変形例2]
ステップS45に代えて、反転部404が、画像P,…,Pn/2を入力とし、画像P,…,Pn/2のそれぞれを反転させつつ強度を高めた画像を、第{(n/2)+1}から第nフレームの画像P{(n/2)+1},…,P(第2時間区間に属する第2画像)として得て出力してもよい。これにより、ステップS45の処理を省略できる。この場合、反転部404が、画像P,…,Pn/2の動き成分のそれぞれを反転させつつ強度を高めた画像を、第{(n/2)+1}から第nフレームの画像P{(n/2)+1},…,P(第2時間区間に属する第2画像)として得て出力してもよい。
[Modification 2 of Fourth Embodiment]
In place of step S45, the inversion unit 404, the image P 1, ..., as input P n / 2, the image P 1, ..., an image with improved strength while inverting the respective P n / 2, the { .., P n (the second image belonging to the second time section ) from the (n / 2) +1} and the n-th frame image P {(n / 2) +1},. Thereby, the process of step S45 can be omitted. In this case, the reversing unit 404 converts the image whose strength is increased while reversing each of the motion components of the images P 1 ,..., P n / 2 from the {(n / 2) +1} to the image P of the n-th frame. {(N / 2) +1} ,..., P n (a second image belonging to a second time interval) and may be output.

[第4実施形態の変形例3]
映像MOUTを対象410に重畳する方法にも限定はない。例えば、対象410と観察者との間に配置された透明ディスプレイに映像MOUTが表示され、観察者が透明ディスプレイに表示された映像MOUT越しに対象410を見ることで、映像MOUTが対象410に重畳されてもよい。上記では入力映像MINが色映像である例を示したが、各実施形態およびその変形例において入力映像MINが輝度成分を含む白黒映像(動画)やモノトーン映像(動画)であってもよい。上記では動画である入力映像MINから画像P,…,P(第1時間区間に属する複数の第1画像)を抽出したが、第1〜3実施形態およびそれらの変形例において、静止画像に任意の動き(少なくとも、輝度成分の動き)を与えて画像P,…,Pを得てもよい。
[Modification 3 of Fourth Embodiment]
The method of superimposing the video M OUT on the target 410 is not limited. For example, the image M OUT is displayed on a transparent display arranged between the object 410 and the observer, and the observer views the object 410 over the image M OUT displayed on the transparent display, so that the image M OUT is 410 may be superimposed. In the above has shown an example input image M IN is a color image or may be the embodiments and monochrome video input image M IN in its modification including a luminance component (video) or monotone image (video) . In the above, the images P 1 ,..., P n (the plurality of first images belonging to the first time section) are extracted from the input video M IN which is a moving image. The images P 1 ,..., P n may be obtained by giving an arbitrary motion (at least the motion of the luminance component) to the image.

[その他の変形例等]
なお、本発明は上述の実施の形態に限定されるものではない。例えば、第2画像が上述した以外の成分を含んでいてもよい。各装置を構成する処理部がネットワーク上に分散配置され、それらが協働して上述の処理が実現されてもよい。上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
[Other modified examples]
Note that the present invention is not limited to the above embodiment. For example, the second image may include components other than those described above. The processing units constituting each device may be distributed and arranged on a network, and may cooperate to implement the above-described processing. The various processes described above may be executed not only in chronological order as described, but also in parallel or individually according to the processing capability of the device that executes the process or as necessary. In addition, it goes without saying that changes can be made as appropriate without departing from the spirit of the present invention.

上記の各装置は、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)およびRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、プログラムを用いることなく処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。   Each of the above devices is, for example, a general-purpose or dedicated computer including a processor (hardware processor) such as a CPU (central processing unit) and a memory such as a RAM (random-access memory) and a ROM (read-only memory). Is executed by executing a predetermined program. This computer may include one processor or memory, or may include a plurality of processors or memories. This program may be installed in a computer, or may be recorded in a ROM or the like in advance. Some or all of the processing units are configured using an electronic circuit that realizes a processing function without using a program, instead of an electronic circuit (circuitry) that realizes a functional configuration by reading a program like a CPU. You may. An electronic circuit constituting one device may include a plurality of CPUs.

上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。   When the above configuration is implemented by a computer, the processing contents of the functions that each device should have are described by a program. By executing this program on a computer, the processing functions described above are realized on the computer. A program describing this processing content can be recorded on a computer-readable recording medium. An example of a computer-readable recording medium is a non-transitory recording medium. Examples of such a recording medium are a magnetic recording device, an optical disk, a magneto-optical recording medium, a semiconductor memory, and the like.

このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The distribution of this program is carried out, for example, by selling, transferring, lending, or the like a portable recording medium such as a DVD or a CD-ROM on which the program is recorded. Further, the program may be stored in a storage device of a server computer, and the program may be distributed by transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own storage device and executes a process according to the read program. As another execution form of this program, the computer may read the program directly from the portable recording medium and execute processing according to the program, and further, each time the program is transferred from the server computer to this computer. The processing may be sequentially performed according to the received program. A configuration in which the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by executing instructions and obtaining results without transferring the program from the server computer to this computer is performed. Good.

上記実施形態では、コンピュータ上で所定のプログラムを実行させて本装置の処理機能が実現されたが、これらの処理機能の少なくとも一部がハードウェアで実現されてもよい。   In the above embodiment, the processing functions of the apparatus are realized by executing a predetermined program on a computer, but at least a part of these processing functions may be realized by hardware.

1,1’,1”,2,2’,2”,2’’’,3,3’,3”,3’’’ 映像生成装置 1, 1 ", 1", 2, 2 ', 2 ", 2", 3, 3', 3 ", 3" "

Claims (14)

同じ動きの反復によって継続的な動きの映像を生成する映像生成装置であって、
第1時間区間に属する複数の第1画像のそれぞれに含まれた一部の成分を反転させた、前記第1時間区間の後に続く第2時間区間に属する複数の第2画像を得る画像生成部と、
前記第1画像および前記第2画像を含む前記映像を得る映像構成部と、を有し、
前記一部の成分は、主に輝度成分、および高空間周波数成分の少なくとも何れかを含む、映像生成装置。
An image generation device that generates an image of a continuous motion by repeating the same motion,
An image generation unit that obtains a plurality of second images belonging to a second time section following the first time section, in which some components included in each of the plurality of first images belonging to the first time section are inverted. When,
A video component for obtaining the video including the first image and the second image,
The image generation device, wherein the some components mainly include at least one of a luminance component and a high spatial frequency component.
同じ動きの反復によって継続的な動きの映像を生成する映像生成装置であって、
対象に基づく対象画像を得る対象画像生成部と、
前記対象画像を変形および/または動かした処理画像を得る画像処理部と、
前記対象に含まれた一部の成分を反転させつつ強度を高めた画像、および前記対象を変形および/または動かした画像に含まれた一部の成分を反転させつつ強度を高めた画像、を含む複数の第2画像を得る画像生成部と、
少なくとも前記処理画像を含む第1画像を第1時間区間に属する画像とし、前記第2画像を前記第1時間区間の後に続く第2時間区間に属する画像とした映像を得る映像構成部と、を有し、
前記一部の成分は、主に輝度成分、高空間周波数成分、および動き成分の少なくとも何れかを含み、
前記映像は、主に輝度運動成分を含む、映像生成装置。
An image generation device that generates an image of a continuous motion by repeating the same motion,
A target image generation unit for obtaining a target image based on the target,
An image processing unit that obtains a processed image obtained by deforming and / or moving the target image;
An image in which the intensity is increased while inverting some components included in the object, and an image in which the intensity is increased while inverting some components included in an image obtained by deforming and / or moving the object. An image generating unit that obtains a plurality of second images including:
A video component for obtaining a video in which the first image including at least the processed image is an image belonging to a first time interval, and the second image is an image belonging to a second time interval following the first time interval. Have
The some components mainly include at least one of a luminance component, a high spatial frequency component, and a motion component,
The image generation device, wherein the image mainly includes a luminance motion component.
請求項1または2の映像生成装置であって、
前記一部の成分は、輝度成分および/または高空間周波数成分および/または動き成分のみを含む、映像生成装置。
The image generation device according to claim 1 or 2,
The image generation device, wherein the some components include only a luminance component and / or a high spatial frequency component and / or a motion component.
請求項1から3の何れかの映像生成装置であって、
前記一部の成分は、主に輝度成分を含む、映像生成装置。
The video generation device according to any one of claims 1 to 3,
The image generation device, wherein the some components mainly include a luminance component.
請求項1から4のいずれかの映像生成装置であって、
前記一部の成分は、主に輝度成分の高空間周波数成分を含む、映像生成装置。
The image generation device according to any one of claims 1 to 4,
The image generation device, wherein the some components mainly include a high spatial frequency component of a luminance component.
請求項1から4のいずれかの映像生成装置であって、
前記一部の成分は、主に輝度成分の動き成分を含む、映像生成装置。
The image generation device according to any one of claims 1 to 4,
The image generation device, wherein the some components mainly include a motion component of a luminance component.
請求項1から4のいずれかの映像生成装置であって、
前記一部の成分は、主に輝度成分の高空間周波数成分の動き成分を含む、映像生成装置。
The image generation device according to any one of claims 1 to 4,
The image generation device, wherein the some components mainly include a motion component of a high spatial frequency component of a luminance component.
請求項1、3から7の何れかの映像生成装置であって、
nが4以上の偶数であり、iが1以上n/2以下の整数であり、
前記第1画像は、時系列に沿った第1フレームの画像から第n/2フレームの画像を含み、
前記第2画像は、時系列に沿った第{(n/2)+1}フレームの画像から第nフレームの画像を含み、
前記画像生成部は、前記第iフレームの画像に含まれた前記一部の成分を反転させた第{(n/2)+i}フレームの画像を得る、映像生成装置。
The image generation device according to claim 1, wherein:
n is an even number of 4 or more, i is an integer of 1 or more and n / 2 or less,
The first image includes an image of an (n / 2) th frame from an image of a first frame along a time series,
The second image includes an image of an n-th frame from an image of an {(n / 2) +1} -th frame along a time series,
The image generation device, wherein the image generation unit obtains an image of a {(n / 2) + i} frame in which the partial components included in the image of the i-th frame are inverted.
請求項8の映像生成装置であって、
前記第1フレームの画像から前記第n/2フレームの画像を時系列に並べて得られる部分映像は、略直線方向に移動する物体の動きを表す、映像生成装置。
9. The video generation device according to claim 8, wherein:
A video generation device, wherein a partial video obtained by chronologically arranging the images of the n / 2th frame from the image of the first frame represents the movement of an object moving in a substantially linear direction.
請求項8または9の映像生成装置であって、
nが6以上である、映像生成装置。
The video generation device according to claim 8, wherein:
The image generation device wherein n is 6 or more.
請求項1、3から9の何れかの映像生成装置であって、
前記第1時間区間は、第1フレームおよび前記第1フレームの後に続く第2フレームを含み、
前記第2時間区間は、前記第2フレームの後に続く第3フレームおよび前記第3フレームの後に続く第4フレームを含み、
前記第1画像は、前記第1フレームの画像および第2フレームの画像を含み、
前記第2画像は、前記第3フレームの画像および第4フレームの画像を含み、
前記画像生成部は、前記第1フレームの画像に含まれた前記一部の成分を反転させた前記第3フレームの画像を得、前記第2フレームの画像に含まれた前記一部の成分を反転させた前記第4フレームの画像を得る、映像生成装置。
The video generation device according to any one of claims 1, 3 to 9,
The first time interval includes a first frame and a second frame following the first frame,
The second time interval includes a third frame following the second frame and a fourth frame following the third frame,
The first image includes an image of the first frame and an image of a second frame,
The second image includes an image of the third frame and an image of a fourth frame,
The image generating unit obtains the image of the third frame by inverting the partial components included in the image of the first frame, and calculates the partial components included in the image of the second frame. A video generation device for obtaining an inverted image of the fourth frame.
同じ動きの反復によって継続的な動きの映像を生成する映像生成方法であって、
画像生成部において、第1時間区間に属する複数の第1画像のそれぞれに含まれた一部の成分を反転させた、前記第1時間区間の後に続く第2時間区間に属する複数の第2画像を得る画像生成ステップと、
映像構成部において、前記第1画像および前記第2画像を含む前記映像を得る映像構成ステップと、を有し、
前記一部の成分は、主に輝度成分、および高空間周波数成分の少なくとも何れかを含む、映像生成方法。
A video generation method for generating a video of a continuous motion by repeating the same motion,
In the image generating unit, a plurality of second images belonging to a second time section following the first time section, in which some components included in each of the plurality of first images belonging to the first time section are inverted. An image generation step of obtaining
A video configuration unit, comprising: a video configuration step of obtaining the video including the first image and the second image;
The image generation method, wherein the some components mainly include at least one of a luminance component and a high spatial frequency component.
同じ動きの反復によって継続的な動きの映像を生成する映像生成方法であって、
対象画像生成部において、対象に基づく対象画像を得る対象画像生成ステップと、
画像処理部において、前記対象画像を変形および/または動かした処理画像を得る画像処理ステップと、
画像生成部において、前記対象に含まれた一部の成分を反転させつつ強度を高めた画像、および前記対象を変形および/または動かした画像に含まれた一部の成分を反転させつつ強度を高めた画像、を含む複数の第2画像を得る画像生成ステップと、
映像構成部において、少なくとも前記処理画像を含む第1画像を第1時間区間に属する画像とし、前記第2画像を前記第1時間区間の後に続く第2時間区間に属する画像とした映像を得る映像構成ステップと、を有し、
前記一部の成分は、主に輝度成分、高空間周波数成分、および動き成分の少なくとも何れかを含み、
前記映像は、主に輝度運動成分を含む、映像生成方法。
A video generation method for generating a video of a continuous motion by repeating the same motion,
A target image generating step of obtaining a target image based on the target in the target image generating unit;
An image processing step of obtaining a processed image obtained by deforming and / or moving the target image in an image processing unit;
In the image generation unit, an image in which the intensity is increased while inverting some components included in the target, and the intensity while inverting some components included in an image in which the target is deformed and / or moved are inverted. An image generating step of obtaining a plurality of second images including the enhanced image;
A video obtaining unit that obtains a video in which the first image including at least the processed image is an image belonging to a first time interval and the second image is an image belonging to a second time interval following the first time interval. And a configuration step.
The some components mainly include at least one of a luminance component, a high spatial frequency component, and a motion component,
The image generation method, wherein the image mainly includes a luminance motion component.
請求項1から11の何れかの映像生成装置としてコンピュータを機能させるためのプログラム。 Program for causing a computer to function to claims 1 and any of the video generation equipment 11.
JP2017076363A 2017-04-07 2017-04-07 Video generation apparatus, method, and program Active JP6666296B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017076363A JP6666296B2 (en) 2017-04-07 2017-04-07 Video generation apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017076363A JP6666296B2 (en) 2017-04-07 2017-04-07 Video generation apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2018180753A JP2018180753A (en) 2018-11-15
JP6666296B2 true JP6666296B2 (en) 2020-03-13

Family

ID=64276792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017076363A Active JP6666296B2 (en) 2017-04-07 2017-04-07 Video generation apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP6666296B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199395A1 (en) * 2020-04-02 2021-10-07 日本電信電話株式会社 Video generating device, video generating method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11308525A (en) * 1998-04-21 1999-11-05 Atr Chino Eizo Tsushin Kenkyusho:Kk Still image processing unit
JP3682020B2 (en) * 2000-12-08 2005-08-10 株式会社ソニー・コンピュータエンタテインメント Recording medium, program, program execution system, and program execution apparatus
JP2014059691A (en) * 2012-09-18 2014-04-03 Sony Corp Image processing device, method and program
JP6411244B2 (en) * 2015-03-05 2018-10-24 日本電信電話株式会社 Video presentation method and video presentation device

Also Published As

Publication number Publication date
JP2018180753A (en) 2018-11-15

Similar Documents

Publication Publication Date Title
JP6611837B2 (en) Video presentation device, method and program
CN108965847B (en) Method and device for processing panoramic video data
Cosker et al. Perception of linear and nonlinear motion properties using a FACS validated 3D facial model
WO2020103040A1 (en) A method for generating and displaying panorama images based on rendering engine and a display apparatus
CN104010180B (en) Method and device for filtering three-dimensional video
JP2019186762A (en) Video generation apparatus, video generation method, program, and data structure
JP6069115B2 (en) Video generation device, video generation method, and program
Jeelani et al. Expanding synthetic real-world degradations for blind video super resolution
JP6666296B2 (en) Video generation apparatus, method, and program
WO2015186284A1 (en) Image processing device, image processing method, and program
JP2018028710A (en) Image generator, image generating method, and program
JP6615818B2 (en) VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, AND PROGRAM
CN115187491B (en) Image denoising processing method, image filtering processing method and device
JP3960238B2 (en) Image processing method, program, and recording medium recording the same
WO2019208143A1 (en) Image generation device, image generation method and program
JP6273342B2 (en) Video generation device, video generation method, and program
Bachhuber et al. On the minimum perceptual temporal video sampling rate and its application to adaptive frame skipping
US20070059669A1 (en) Systems and methods for processing video images
WO2020026670A1 (en) Image generation device, image generation method, and program
Zyglarski et al. Stereoscopy in User: VR Interaction.
Takano et al. Improved Displaying System for HMD with Focusing on Gazing Point Using Photographed Panorama Light Field
JP2004201204A (en) Apparatus and method of generating distance image, program thereof, and recording medium
by Exploiting Perceptual Display: Exceeding Display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200220

R150 Certificate of patent or registration of utility model

Ref document number: 6666296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150