JP2012104898A - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP2012104898A
JP2012104898A JP2010249282A JP2010249282A JP2012104898A JP 2012104898 A JP2012104898 A JP 2012104898A JP 2010249282 A JP2010249282 A JP 2010249282A JP 2010249282 A JP2010249282 A JP 2010249282A JP 2012104898 A JP2012104898 A JP 2012104898A
Authority
JP
Japan
Prior art keywords
frame data
data
motion vector
video data
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010249282A
Other languages
Japanese (ja)
Inventor
Shingo Hamaguchi
真伍 濱口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2010249282A priority Critical patent/JP2012104898A/en
Publication of JP2012104898A publication Critical patent/JP2012104898A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for inhibiting operation load when converting a two-dimensional video into a virtual three-dimensional video while enhancing the frame rate.SOLUTION: An image processing system includes: a feature extraction part 100 for extracting feature amount containing a motion vector from the previous and following two units of frame data onto a one-segment receiver module 1; an area setting part 101 for setting a target area for generating a three-dimensional image with regard to a plurality of pixels constructing one unit of frame data of the previous and following two units of data according to the motion vector extracted; a parallax amount calculation part 102 for calculating a parallax amount for each of the set target areas based on the feature amount containing the motion vector extracted; a generation part 103 for generating pseudo three-dimensional video data 112 in which the frame rate of the two-dimensional video data 111 is changed from the two-dimensional video data 111 based on the extracted motion vector, the set target area, and the calculated parallax amount of the target area.

Description

本発明は、二次元映像を三次元映像に変換する技術に関する。より詳しくは、フレームレートの低い二次元映像を補間しつつ三次元映像に変換するときの変換演算に要する負荷を抑制する技術に関する。   The present invention relates to a technique for converting a two-dimensional image into a three-dimensional image. More specifically, the present invention relates to a technique for suppressing a load required for a conversion operation when converting a two-dimensional video with a low frame rate into a three-dimensional video while interpolating.

昨今、三次元映像が話題となり、映像を三次元で楽しむのが流行となっている。しかしながら、これまでに撮影され、制作された映像のほとんどが二次元映像である。   In recent years, 3D video has become a hot topic, and it is becoming popular to enjoy video in 3D. However, most of the images shot and produced so far are two-dimensional images.

これら膨大な二次元映像の資産を三次元映像として楽しむために、従来より、二次元映像を擬似的な三次元映像に変換する技術が提案されている。このような技術が、例えば、特許文献1に記載されている。特許文献1に記載されている技術を用いれば、二次元映像として配信されている映像でも、三次元映像として閲覧することが可能となる。   In order to enjoy such a vast amount of 2D video assets as 3D video, a technique for converting 2D video to pseudo 3D video has been proposed. Such a technique is described in Patent Document 1, for example. If the technique described in Patent Document 1 is used, even a video distributed as a two-dimensional video can be browsed as a three-dimensional video.

一方、モバイル端末装置向けに配信される映像は、フレームレートが低く設定されていることが多く、このまま再生した場合には、なめらかな映像を楽しむことができない。したがって、復号化されたフレームから補間フレームを生成することによって、再生される映像のフレームレートを向上させる技術が知られている。このような技術が、例えば、特許文献2に記載されている。   On the other hand, video delivered to mobile terminal devices is often set to a low frame rate, and when played as it is, smooth video cannot be enjoyed. Therefore, a technique for improving the frame rate of a reproduced video by generating an interpolation frame from the decoded frame is known. Such a technique is described in Patent Document 2, for example.

すなわち、フレームレートの低い二次元映像に特許文献2に記載されている技術を適用してなめらかな二次元映像を生成し、この映像を特許文献1に記載されている技術によって擬似的な三次元映像に変換すれば、モバイル端末装置等に配信されるフレームレートの低い二次元映像を、なめらかな擬似的な三次元映像として楽しむことができる。ただし、特許文献1に記載の技術と特許文献2に記載の技術とを組み合わせた技術は従来技術ではなく、従来技術に基づいて発明者が導き出した新規な技術である。   That is, a smooth two-dimensional video is generated by applying the technique described in Patent Document 2 to a two-dimensional video with a low frame rate, and this video is reproduced in a pseudo three-dimensional manner by the technique described in Patent Document 1. If converted into video, 2D video with a low frame rate delivered to a mobile terminal device or the like can be enjoyed as smooth pseudo 3D video. However, the technique combining the technique described in Patent Document 1 and the technique described in Patent Document 2 is not a conventional technique, but a new technique derived by the inventor based on the conventional technique.

特開2001−320731号公報JP 2001-320731 A 特開2010−124369号公報JP 2010-124369 A

ところが、発明者が考えた上記新規な技術により、フレームレートの低い二次元映像からなめらかな擬似的な三次元映像を生成する場合には、画像処理に要する演算負荷が大きくなるという問題があった。フレームレートの低い二次元映像(擬似的な三次元映像に変換するだけでは足りず、補間フレームを生成して補間する必要がある映像)は、比較的演算負荷に弱いモバイル端末装置が対象となることが多く、特に、深刻な問題となる。   However, with the above-described novel technique considered by the inventor, there is a problem in that when a smooth pseudo 3D video is generated from a 2D video with a low frame rate, the computation load required for image processing increases. . 2D video with a low frame rate (video that needs to be interpolated by generating an interpolated frame is not enough to convert to pseudo 3D video) is targeted at mobile terminal devices that are relatively weak in computation load It is often a serious problem.

本発明は、上記課題に鑑みてなされたものであり、二次元映像について、フレームレートを向上させるとともに、擬似的な三次元映像に変換する場合の演算負荷を抑制する技術を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a technique for improving the frame rate of 2D video and suppressing the calculation load when converting to a pseudo 3D video. And

上記の課題を解決するため、請求項1の発明は、時系列順に作成された複数のフレームデータから構成される二次元映像データを擬似的な三次元映像データに変換する画像処理装置であって、前記複数のフレームデータにおいて前後する2のフレームデータから動きベクトルを含む特徴量を抽出する特徴抽出手段と、前記特徴抽出手段により抽出された動きベクトルに応じて、前記前後する2のフレームデータのうちの1のフレームデータを構成する複数の画素について三次元化させる対象領域を設定する設定手段と、前記特徴抽出手段により抽出された動きベクトルを含む特徴量に基づいて、前記設定手段により設定された対象領域ごとの視差量を演算する視差量演算手段と、前記特徴抽出手段により抽出された動きベクトルと前記設定手段により設定された対象領域と前記視差量演算手段により求められた前記対象領域の視差量とに基づいて、前記二次元映像データから前記二次元映像データにおけるフレームレートを変更した擬似的な三次元映像データを生成する生成手段とを備えることを特徴とする。   In order to solve the above-mentioned problems, the invention of claim 1 is an image processing apparatus for converting 2D video data composed of a plurality of frame data created in time series order into pseudo 3D video data. , Feature extracting means for extracting a feature amount including a motion vector from two preceding and following frame data in the plurality of frame data, and according to the motion vector extracted by the feature extracting means, Setting means for setting a target region to be three-dimensionalized for a plurality of pixels constituting one of the frame data, and setting by the setting means based on a feature quantity including a motion vector extracted by the feature extraction means A parallax amount calculating means for calculating a parallax amount for each target area, the motion vector extracted by the feature extracting means, and the setting hand The pseudo 3D video in which the frame rate in the 2D video data is changed from the 2D video data based on the target area set by the parallax and the parallax amount of the target area obtained by the parallax amount calculation means And generating means for generating data.

また、請求項2の発明は、請求項1の発明に係る画像処理装置であって、前記生成手段は、前記設定手段により設定された対象領域と前記視差量演算手段により求められた前記対象領域の視差量とに基づいて、前記1のフレームデータと対をなす1の他眼用フレームデータを生成するための三次元化パラメータを生成するとともに、前記特徴抽出手段により抽出された動きベクトルと前記設定手段により設定された対象領域とに基づいて、前記前後する2のフレームデータの間を補間する補間フレームデータを生成するための第1補間パラメータを生成することを特徴とする。   Further, the invention of claim 2 is the image processing apparatus according to the invention of claim 1, wherein the generating means is the target area set by the setting means and the target area obtained by the parallax amount calculating means. And generating a three-dimensional parameter for generating one frame data for the other eye pairing with the one frame data based on the amount of parallax, and the motion vector extracted by the feature extraction unit and the A first interpolation parameter for generating interpolation frame data for interpolating between the two preceding and following frame data is generated based on the target region set by the setting means.

また、請求項3の発明は、請求項2の発明に係る画像処理装置であって、前記生成手段は、前記特徴抽出手段により抽出された動きベクトルと前記設定手段により設定された対象領域と前記視差量演算手段により求められた前記対象領域の視差量とに基づいて、前記補間フレームデータと対をなす他眼用補間フレームデータを生成するための第2補間パラメータを生成することを特徴とする。   The invention according to claim 3 is the image processing apparatus according to claim 2, wherein the generation unit includes the motion vector extracted by the feature extraction unit, the target region set by the setting unit, and the Generating a second interpolation parameter for generating interocular interpolation frame data paired with the interpolation frame data based on the parallax amount of the target area obtained by the parallax amount calculating means; .

また、請求項4の発明は、請求項2の発明に係る画像処理装置であって、前記生成手段は、前記視差量演算手段により求められた対象領域の視差量と前記第1補間パラメータとに基づいて、前記補間フレームデータと対をなす他眼用補間フレームデータを生成するための第2補間パラメータを生成することを特徴とする。   The invention according to claim 4 is the image processing apparatus according to the invention of claim 2, wherein the generation means uses the parallax amount of the target area obtained by the parallax amount calculation means and the first interpolation parameter. Based on this, a second interpolation parameter for generating interocular interpolation frame data paired with the interpolation frame data is generated.

また、請求項5の発明は、請求項2の発明に係る画像処理装置であって、前記生成手段は、前記特徴抽出手段により抽出された動きベクトルと前記三次元化パラメータとに基づいて、前記補間フレームデータと対をなす他眼用補間フレームデータを生成するための第2補間パラメータを生成することを特徴とする。   The invention according to claim 5 is the image processing apparatus according to the invention of claim 2, wherein the generation means is based on the motion vector extracted by the feature extraction means and the three-dimensionalization parameter. A second interpolation parameter for generating inter-eye interpolation frame data paired with the interpolation frame data is generated.

また、請求項6の発明は、請求項1ないし5のいずれかの発明に係る画像処理装置であって、前記設定手段は、前記特徴抽出手段により抽出された動きベクトルを含む特徴量に応じて、対象領域を設定することを特徴とする。   The invention according to claim 6 is the image processing apparatus according to any one of claims 1 to 5, wherein the setting means is in accordance with a feature quantity including a motion vector extracted by the feature extraction means. The target area is set.

また、請求項7の発明は、請求項1ないし6のいずれかの発明に係る画像処理装置であって、ワンセグ放送により提供される番組を表現した情報を前記二次元映像データとして受信する受信手段をさらに備え、前記受信手段による二次元映像データの受信と前記二次元映像データから生成される前記擬似的な三次元映像データのユーザによる視聴とが実質的にリアルタイムで実行されることを特徴とする。   The invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 6, wherein the receiving means receives information representing a program provided by one-segment broadcasting as the two-dimensional video data. And receiving the 2D video data by the receiving means and viewing the pseudo 3D video data generated from the 2D video data by a user substantially in real time. To do.

また、請求項8の発明は、時系列順に作成された複数のフレームデータから構成される二次元映像データを擬似的な三次元映像データに変換する画像処理方法であって、前記複数のフレームデータにおいて前後する2のフレームデータから動きベクトルを含む特徴量を抽出する工程と、前記動きベクトルに応じて、前記前後する2のフレームデータのうちの1のフレームデータを構成する複数の画素について三次元化させる対象領域を設定する工程と、前記動きベクトルを含む特徴量に基づいて、前記対象領域ごとの視差量を演算する工程と、前記動きベクトルと前記対象領域と前記対象領域の視差量とに基づいて、前記二次元映像データから前記二次元映像データにおけるフレームレートを変更した擬似的な三次元映像データを生成する工程とを有することを特徴とする。   The invention of claim 8 is an image processing method for converting 2D video data composed of a plurality of frame data created in time-series order into pseudo 3D video data, wherein the plurality of frame data Extracting a feature amount including a motion vector from the two preceding and following frame data, and three-dimensionally regarding a plurality of pixels constituting one frame data of the two preceding and following frame data according to the motion vector A target region to be converted, a step of calculating a parallax amount for each target region based on a feature amount including the motion vector, a parallax amount of the motion vector, the target region, and the target region Based on the 2D video data, a process for generating pseudo 3D video data by changing a frame rate in the 2D video data. Characterized in that it has and.

また、請求項9の発明は、コンピュータによる読み取り可能なプログラムであって、前記プログラムの前記コンピュータによる実行は、前記コンピュータを、時系列順に作成された複数のフレームデータから構成される二次元映像データを記憶する記憶手段と、前記記憶手段に記憶された二次元映像データにおいて前後する2のフレームデータから動きベクトルを含む特徴量を抽出する特徴抽出手段と、前記特徴抽出手段により抽出された動きベクトルに応じて、前記前後する2のフレームデータのうちの1のフレームデータを構成する複数の画素について三次元化させる対象領域を設定する設定手段と、前記特徴抽出手段により抽出された動きベクトルを含む特徴量に基づいて、前記設定手段により設定された対象領域ごとの視差量を演算する視差量演算手段と、前記特徴抽出手段により抽出された動きベクトルと前記設定手段により設定された対象領域と前記視差量演算手段により求められた前記対象領域の視差量とに基づいて、前記二次元映像データから前記二次元映像データにおけるフレームレートを変更した擬似的な三次元映像データを生成し、生成した前記擬似的な三次元映像データを前記記憶手段に記憶させる生成手段とを備える画像処理装置として機能させることを特徴とする。   The invention according to claim 9 is a computer-readable program, and the execution of the program by the computer is a two-dimensional video data composed of a plurality of frame data created in time series. Storage means for storing, feature extraction means for extracting feature quantities including motion vectors from two frame data before and after the 2D video data stored in the storage means, and motion vectors extracted by the feature extraction means And setting means for setting a target area to be three-dimensionalized for a plurality of pixels constituting one frame data of the two preceding and following frame data, and a motion vector extracted by the feature extraction means Calculates the amount of parallax for each target area set by the setting means based on the feature amount On the basis of the motion vector extracted by the feature extraction unit, the target area set by the setting unit, and the parallax amount of the target area obtained by the parallax amount calculation unit. Image processing comprising: generating means for generating pseudo 3D video data in which a frame rate in the 2D video data is changed from the 2D video data, and storing the generated pseudo 3D video data in the storage means It functions as a device.

本発明は、複数のフレームデータにおいて前後する2のフレームデータから動きベクトルを含む特徴量を抽出し、抽出された動きベクトルに応じて、前記前後する2のフレームデータのうちの1のフレームデータを構成する複数の画素について三次元化させる対象領域を設定し、抽出された動きベクトルを含む特徴量に基づいて、設定された対象領域ごとの視差量を演算し、抽出された動きベクトルと設定された対象領域と求められた当該対象領域の視差量とに基づいて、二次元映像データから当該二次元映像データにおけるフレームレートを変更した擬似的な三次元映像データを生成することにより、動きベクトルを抽出する処理を1回実行するだけで、二次元映像データのフレームレートを変更しつつ擬似的な三次元映像データを生成できるので、処理負荷が軽減される。   The present invention extracts a feature amount including a motion vector from two preceding and following frame data in a plurality of frame data, and determines one frame data of the two preceding and following frame data according to the extracted motion vector. A target region to be three-dimensionalized is set for a plurality of constituent pixels, and the amount of parallax for each set target region is calculated based on the feature amount including the extracted motion vector, and set as the extracted motion vector Based on the obtained target area and the obtained parallax amount of the target area, by generating pseudo 3D video data in which the frame rate in the 2D video data is changed from the 2D video data, a motion vector is obtained. Generate pseudo 3D video data while changing the frame rate of 2D video data by executing the extraction process once. Runode, the processing load is reduced.

本発明に係る画像処理装置であるワンセグ受信モジュールを搭載した状態の携帯端末装置を示す図である。It is a figure which shows the portable terminal device of the state which mounts the one-segment receiving module which is an image processing apparatus which concerns on this invention. ワンセグ受信モジュールおよび携帯端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of a one-segment receiving module and a portable terminal device. ワンセグ受信モジュールの機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block of a 1 seg receiving module with the flow of data. 二次元映像データの映像に係る部分を概念的に示した図である。It is the figure which showed notionally the part which concerns on the image | video of 2D video data. 特徴抽出部により作成される特徴量データを例示する図である。It is a figure which illustrates the feature-value data produced by the feature extraction part. 領域設定部により作成される領域設定データを例示する図である。It is a figure which illustrates the area setting data created by an area setting part. 視差量演算部により作成される視差量データを例示する図である。It is a figure which illustrates the parallax amount data produced by the parallax amount calculating part. 本発明に係る画像処理方法を示す図である。It is a figure which shows the image processing method which concerns on this invention. 三次元化パラメータを例示する図である。It is a figure which illustrates a three-dimensionalization parameter. 第1補間パラメータを例示する図である。It is a figure which illustrates the 1st interpolation parameter. 第2補間パラメータを例示する図である。It is a figure which illustrates the 2nd interpolation parameter. 三次元映像データを概念的に示す図である。It is a figure which shows 3D image data notionally.

以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings.

<1. 実施の形態>
図1は、本発明に係る画像処理装置であるワンセグ受信モジュール1を搭載した状態の携帯端末装置2を示す図である。携帯端末装置2は、可搬性のコンピュータであり、例えば、携帯型のゲーム機、PDA、携帯電話あるいはノートパソコン等が想定される。また、ワンセグ受信モジュール1は、携帯端末装置2の図示しないスロットに着脱自在に装着され、携帯端末装置2においてワンセグ放送を受信し視聴するために使用される装置である。
<1. Embodiment>
FIG. 1 is a diagram showing a mobile terminal device 2 in which a one-segment receiving module 1 that is an image processing device according to the present invention is mounted. The portable terminal device 2 is a portable computer. For example, a portable game machine, a PDA, a cellular phone, a notebook computer, or the like is assumed. The one-seg receiving module 1 is a device that is detachably attached to a slot (not shown) of the mobile terminal device 2 and is used for receiving and viewing the one-seg broadcast in the mobile terminal device 2.

図2は、ワンセグ受信モジュール1および携帯端末装置2の構成を示すブロック図である。   FIG. 2 is a block diagram illustrating configurations of the one-segment receiving module 1 and the mobile terminal device 2.

図2に示すように、ワンセグ受信モジュール1は、各種データの演算を行うとともにワンセグ受信モジュール1の各構成を制御するCPU10と、各種データを必要に応じて適宜記憶する記憶装置11とを備えている。これによりワンセグ受信モジュール1は、記憶装置11に記憶されたプログラム110を読み取りつつ、当該プログラム110をCPU10により実行するコンピュータとしての構成および機能を有している。   As shown in FIG. 2, the one-seg receiving module 1 includes a CPU 10 that performs various data calculations and controls each component of the one-seg receiving module 1, and a storage device 11 that appropriately stores various data as necessary. Yes. Accordingly, the one-segment receiving module 1 has a configuration and functions as a computer that executes the program 110 by the CPU 10 while reading the program 110 stored in the storage device 11.

プログラム110、二次元映像データ111および三次元映像データ112を記憶する記憶装置11は、CPU10の一時的なワーキングエリアとして使用され比較的高速にアクセスすることが可能なRAMや、不揮発性で読み取り専用のROM、比較的短時間の間だけ情報を格納するバッファ、あるいは、着脱自在のメモリカード等から構成される。すなわち、図2において記憶装置11は、1つの構成であるかのように図示されているが、実際には、記憶する情報の種類や用途に応じて選択される、様々な種類の記憶素子を備えた装置の集合体である。   The storage device 11 that stores the program 110, the 2D video data 111, and the 3D video data 112 is a RAM that can be used as a temporary working area of the CPU 10 and can be accessed at a relatively high speed. ROM, a buffer for storing information only for a relatively short time, or a removable memory card. That is, in FIG. 2, the storage device 11 is illustrated as if it had one configuration, but in reality, various types of storage elements that are selected according to the type and use of information to be stored are used. It is a collection of devices provided.

また、ワンセグ受信モジュール1は、チューナ12、復調回路13および復号回路14を備えている。これらの構成は、ワンセグ放送を受信して、当該ワンセグ放送の番組を表現した二次元映像データ111を生成するための構成(本発明に係る受信手段に相当する構成)であり、従来の技術を適用することが可能であるため、簡単に説明する。   The one-segment receiving module 1 includes a tuner 12, a demodulation circuit 13, and a decoding circuit 14. These configurations are for receiving one-segment broadcasting and generating 2D video data 111 representing the program of the one-segment broadcasting (a configuration corresponding to the receiving means according to the present invention). Since it can be applied, it will be briefly described.

アンテナを含むチューナ12は、アンテナにより受信されたRF信号を増幅するとともに、アナログのIF信号に変換して復調回路13に向けて出力する。   A tuner 12 including an antenna amplifies an RF signal received by the antenna, converts the signal into an analog IF signal, and outputs the analog IF signal to the demodulation circuit 13.

復調回路13は、例えば、A/D変換回路とOFDM復調回路とを備えた回路であり、当該A/D変換回路によりチューナ12からのアナログ信号をデジタル信号に変換するとともに、当該OFDM復調回路によりTS信号を生成して復号回路14に向けて出力する。   For example, the demodulation circuit 13 is a circuit including an A / D conversion circuit and an OFDM demodulation circuit. The A / D conversion circuit converts an analog signal from the tuner 12 into a digital signal, and the OFDM demodulation circuit A TS signal is generated and output to the decoding circuit 14.

復号回路14は、例えば、本実施の形態ではMPEG復号回路であり、復調回路13から入力される信号(本実施の形態ではTS信号)を復号して、二次元映像データ111を生成し、出力する。復号回路14から出力された二次元映像データ111は、記憶装置11に一旦格納される。   The decoding circuit 14 is, for example, an MPEG decoding circuit in the present embodiment, decodes a signal (TS signal in the present embodiment) input from the demodulation circuit 13, generates 2D video data 111, and outputs it. To do. The 2D video data 111 output from the decoding circuit 14 is temporarily stored in the storage device 11.

さらに、ワンセグ受信モジュール1は、インタフェース部15を備えている。インタフェース部15は、携帯端末装置2のインタフェース部25との間で電気的に接続される端子群を構成している。インタフェース部15がインタフェース部25に挿入されることにより、ワンセグ受信モジュール1は携帯端末装置2と接続され、携帯端末装置2との間でデータ通信が可能となるとともに、携帯端末装置2から電力の供給を受けることも可能となる。   Further, the one-segment receiving module 1 includes an interface unit 15. The interface unit 15 constitutes a terminal group that is electrically connected to the interface unit 25 of the mobile terminal device 2. When the interface unit 15 is inserted into the interface unit 25, the one-segment receiving module 1 is connected to the mobile terminal device 2, and data communication with the mobile terminal device 2 is possible. It is also possible to receive supply.

詳細は後述するが、本実施の形態におけるワンセグ受信モジュール1は、ワンセグ放送により提供される番組を受信して、当該番組を表現した二次元映像データ111を生成する受信機としての機能を有しているとともに、二次元映像データ111から擬似的な三次元映像データ112を作成する画像処理装置としての機能も有している。   Although details will be described later, the one-segment receiving module 1 in the present embodiment has a function as a receiver that receives a program provided by one-segment broadcasting and generates 2D video data 111 representing the program. In addition, it also has a function as an image processing apparatus that creates pseudo 3D video data 112 from 2D video data 111.

図2に示すように、携帯端末装置2は、各種データの演算を行うとともに携帯端末装置2の各構成を制御するCPU20を備えている。また、携帯端末装置2は、各種データを必要に応じて適宜記憶する記憶装置21を備えている。これにより携帯端末装置2は、記憶装置21に記憶されたプログラム210を読み取りつつ、当該プログラム210をCPU20により実行するコンピュータとしての構成および機能を有している。   As shown in FIG. 2, the mobile terminal device 2 includes a CPU 20 that calculates various data and controls each component of the mobile terminal device 2. The mobile terminal device 2 includes a storage device 21 that stores various data as necessary. Thereby, the portable terminal device 2 has a configuration and a function as a computer that executes the program 210 by the CPU 20 while reading the program 210 stored in the storage device 21.

プログラム210および三次元映像データ112を記憶する記憶装置21は、CPU20の一時的なワーキングエリアとして使用され比較的高速にアクセスすることが可能なRAMや、不揮発性で読み取り専用のROM、比較的短時間の間だけ情報を格納するバッファ、あるいは、着脱自在のメモリカード等から構成される。すなわち、図2において記憶装置21は、1つの構成であるかのように図示されているが、実際には、記憶する情報の種類や用途に応じて選択される、様々な種類の記憶素子を備えた装置の集合体である。   The storage device 21 for storing the program 210 and the 3D video data 112 is a RAM that is used as a temporary working area of the CPU 20 and can be accessed at a relatively high speed, a nonvolatile read-only ROM, a relatively short It is composed of a buffer for storing information only for a time or a removable memory card. That is, the storage device 21 is illustrated in FIG. 2 as if it had one configuration, but in reality, various types of storage elements that are selected according to the type and use of information to be stored are used. It is a collection of devices provided.

さらに、携帯端末装置2は、操作部22、表示部23、スピーカ24およびインタフェース部25を備えている。   Furthermore, the mobile terminal device 2 includes an operation unit 22, a display unit 23, a speaker 24, and an interface unit 25.

操作部22は、ユーザが携帯端末装置2を操作するために必要な情報を入力するために使用される。操作部22としては、各種ボタン類やテンキー等が該当する。操作部22が操作されることにより入力された情報は、携帯端末装置2を操作するだけでなく、ワンセグ受信モジュール1を操作するためにも使用される。例えば、どのチャンネルで放送されている番組を視聴するかを選択する情報は、ユーザが操作部22を操作することによって入力されるが、この情報は、携帯端末装置2のCPU20を介して、ワンセグ受信モジュール1に伝達され、ワンセグ受信モジュール1側において、これに応じた処理が実行される(すなわち、視聴するチャンネルの切り替えが行われる。)。   The operation unit 22 is used for inputting information necessary for the user to operate the mobile terminal device 2. The operation unit 22 corresponds to various buttons and numeric keys. Information input by operating the operation unit 22 is used not only to operate the mobile terminal device 2 but also to operate the one-segment receiving module 1. For example, information for selecting which channel to view the program broadcast on is input by the user operating the operation unit 22, and this information is received via the CPU 20 of the mobile terminal device 2. The data is transmitted to the receiving module 1, and processing corresponding to this is executed on the one-segment receiving module 1 side (that is, the viewing channel is switched).

表示部23は、液晶パネルやディスプレイ、ランプ、LED等から構成される。表示部23は、CPU20からの制御信号により、画像データに基づいて画面に画像を再生(表示)する機能を有している。本実施の形態における表示部23は、三次元映像データ112に含まれる画像データを再生することにより、ワンセグ放送の画像を再生する。   The display unit 23 includes a liquid crystal panel, a display, a lamp, an LED, and the like. The display unit 23 has a function of reproducing (displaying) an image on a screen based on image data in accordance with a control signal from the CPU 20. The display unit 23 in the present embodiment reproduces the image of the one-segment broadcasting by reproducing the image data included in the 3D video data 112.

スピーカ24は、CPU20からの制御信号により、音声データに基づいて音声を再生する機能を有している。本実施の形態におけるスピーカ24は、三次元映像データ112に含まれる音声データを再生することにより、ワンセグ放送の音声を再生する。   The speaker 24 has a function of reproducing sound based on sound data in accordance with a control signal from the CPU 20. The speaker 24 in the present embodiment reproduces the audio of the one seg broadcasting by reproducing the audio data included in the 3D video data 112.

インタフェース部25は、ワンセグ受信モジュール1のインタフェース部15との間で電気的に接続される端子群を構成している。インタフェース部25にインタフェース部15が挿入されることにより、携帯端末装置2にワンセグ受信モジュール1が装着され、携帯端末装置2においてワンセグ放送の視聴が可能となる。   The interface unit 25 constitutes a terminal group that is electrically connected to the interface unit 15 of the one-segment receiving module 1. By inserting the interface unit 15 into the interface unit 25, the one-segment receiving module 1 is attached to the portable terminal device 2, and the one-segment broadcasting can be viewed on the portable terminal device 2.

図3は、ワンセグ受信モジュール1の機能ブロックをデータの流れとともに示す図である。図3に示す特徴抽出部100、領域設定部101、視差量演算部102および生成部103は、ワンセグ受信モジュール1のCPU10がプログラム110に従って動作するこにより実現される機能ブロックである。   FIG. 3 is a diagram showing functional blocks of the one-segment receiving module 1 together with a data flow. The feature extraction unit 100, the region setting unit 101, the parallax amount calculation unit 102, and the generation unit 103 illustrated in FIG. 3 are functional blocks realized by the CPU 10 of the one-segment reception module 1 operating according to the program 110.

特徴抽出部100は、二次元映像データ111を構成する複数のフレームデータにおいて前後する2のフレームデータから動きベクトルを含む特徴量を抽出し、特徴量データ113を作成する機能を有している。   The feature extraction unit 100 has a function of creating feature amount data 113 by extracting feature amounts including a motion vector from two frame data preceding and following a plurality of frame data constituting the 2D video data 111.

図4は、二次元映像データ111の映像に係る部分を概念的に示した図である。図4に示すように、二次元映像データ111は、時系列順に作成された複数のフレームデータから構成される。   FIG. 4 is a diagram conceptually showing a part related to the video of the 2D video data 111. As shown in FIG. 4, the 2D video data 111 is composed of a plurality of frame data created in chronological order.

図4には、(n−1)番目のフレームデータと、n番目のフレームデータと、(n+1)番目のフレームデータとを示している(ただし、nは整数)。また、本実施の形態では、二次元映像データ111のフレームレートは15[fps]とする。なお、以下、n番目のフレームデータを「フレームデータn」と称する。   FIG. 4 shows (n-1) th frame data, nth frame data, and (n + 1) th frame data (where n is an integer). In the present embodiment, the frame rate of the 2D video data 111 is 15 [fps]. Hereinafter, the nth frame data is referred to as “frame data n”.

各フレームデータは、矩形状に配列した複数の画素から構成されている。本実施の形態では、フレームデータを構成する画素の水平方向の位置座標を「i」、垂直方向の位置座標を「j」として説明する。   Each frame data is composed of a plurality of pixels arranged in a rectangular shape. In the present embodiment, description will be made assuming that the position coordinates in the horizontal direction of the pixels constituting the frame data are “i” and the position coordinates in the vertical direction are “j”.

図5は、特徴抽出部100により作成される特徴量データ113を例示する図である。ここでは、図4に示すフレームデータnと、フレームデータ(n+1)とに基づいて作成される、フレームデータnについての特徴量データ113を示すものとして説明する。   FIG. 5 is a diagram illustrating feature quantity data 113 created by the feature extraction unit 100. Here, the description will be made assuming that the feature amount data 113 for the frame data n is created based on the frame data n and the frame data (n + 1) shown in FIG.

本実施の形態における特徴抽出部100は、前後する2のフレームデータを比較することにより、フレームデータnを構成する各画素ごとに、動きベクトルと、色と、周波数とを特徴量として抽出する。このような特徴抽出処理は従来の手法を適宜適用できる。ただし、特徴抽出部100が抽出する特徴量としては、他の種類のものを含めて取捨選択されてもよいが、動きベクトルは必須のものとする。   The feature extraction unit 100 according to the present embodiment extracts a motion vector, a color, and a frequency as feature amounts for each pixel constituting the frame data n by comparing the two preceding and following frame data. A conventional method can be appropriately applied to such feature extraction processing. However, the feature quantity extracted by the feature extraction unit 100 may be selected including other types, but the motion vector is essential.

なお、本実施の形態における特徴抽出部100は、各画素ごとに特徴量を抽出するが、特徴量を抽出する単位は1画素に限定されるものではない。例えば、4(2×2)個の画素を1つの単位として特徴量を抽出するように構成してもよい。   Note that the feature extraction unit 100 in the present embodiment extracts feature amounts for each pixel, but the unit for extracting feature amounts is not limited to one pixel. For example, the feature amount may be extracted with 4 (2 × 2) pixels as one unit.

図3に示す領域設定部101は、前後する2のフレームデータのうちの1のフレームデータを構成する複数の画素について三次元化させる対象領域を設定する機能を有している。   The area setting unit 101 illustrated in FIG. 3 has a function of setting a target area to be three-dimensionalized with respect to a plurality of pixels constituting one frame data of the two preceding and following frame data.

図6は、領域設定部101により作成される領域設定データ114を例示する図である。図6に示す例では、三次元化させる対象領域としてオブジェクト0とオブジェクト1とが設定されており、各対象領域を構成する画素がグループ化されている。   FIG. 6 is a diagram illustrating region setting data 114 created by the region setting unit 101. In the example shown in FIG. 6, object 0 and object 1 are set as target areas to be three-dimensionalized, and pixels constituting each target area are grouped.

すなわち、オブジェクト0には、画素P00(座標が(0,0))、画素P11(座標が(1,1))、画素P22(座標が(2,2))、画素P33(座標が(3,3))・・・が含まれ、オブジェクト1には、画素P1235(座標が(12,35))・・・が含まれる。言い換えれば、オブジェクト0は画素P00(座標が(0,0))、画素P11(座標が(1,1))、画素P22(座標が(2,2))、画素P33(座標が(3,3))・・・によって構成される領域であり、オブジェクト1は画素P1235(座標が(12,35))・・・によって構成される領域である。 That is, the object 0 includes pixel P 00 (coordinate is (0,0)), pixel P 11 (coordinate is (1,1)), pixel P 22 (coordinate is (2,2)), pixel P 33 ( The coordinates include (3,3))... And the object 1 includes the pixel P 1235 (the coordinates are (12,35)). In other words, the object 0 has pixel P 00 (coordinate is (0,0)), pixel P 11 (coordinate is (1,1)), pixel P 22 (coordinate is (2,2)), pixel P 33 (coordinate Is an area constituted by (3,3))... And the object 1 is an area constituted by pixels P 1235 (coordinates are (12,35)).

このように、特徴量データ113に基づいて、フレームデータ(フレームデータn)を構成する複数の画素を対象領域(画素グループ)にグループ化する手法としては、従来から提案されている手法を適宜採用することができる。   As described above, as a method of grouping a plurality of pixels constituting the frame data (frame data n) into the target region (pixel group) based on the feature amount data 113, a conventionally proposed method is appropriately adopted. can do.

なお、本実施の形態における領域設定部101は、先述のように特徴抽出部100が抽出した特徴量(特徴量データ113)に基づいて、対象領域を設定する。ただし、領域設定部101が対象領域を設定するときに参照する情報は、特徴量データ113に限定されるものではない。例えば、二次元映像データ111の映像種別(例えば風景や、スポーツ、アニメーション等の種別)に関する情報や、CG合成映像である場合のオブジェクト指定情報等であってもよいし、これらの情報が併用されてもよい。   Note that the region setting unit 101 according to the present embodiment sets a target region based on the feature amount (feature amount data 113) extracted by the feature extraction unit 100 as described above. However, information that is referred to when the region setting unit 101 sets the target region is not limited to the feature amount data 113. For example, it may be information regarding the video type (for example, type of landscape, sports, animation, etc.) of the 2D video data 111, object designation information in the case of CG composite video, etc., and these information may be used together. May be.

また、1つのフレームデータにおいて設定される対象領域の数は不定であるが、通常、1のフレームデータを構成するすべての画素がいずれかの対象領域に設定されることはない。対象領域は、先述のように、三次元化させる(人の目によって立体的に見えるように変換する)部分的な領域であり、一般には、背景に対して前方に存在する物体に相当する画像領域である。   Further, although the number of target areas set in one frame data is indefinite, normally, all pixels constituting one frame data are not set in any target area. As described above, the target area is a partial area that is three-dimensionalized (converted so that it can be seen three-dimensionally by the human eye), and is generally an image corresponding to an object that exists in front of the background. It is an area.

図3に示す視差量演算部102は、特徴抽出部100により抽出された動きベクトルを含む特徴量(特徴量データ113)に基づいて、領域設定部101により設定された対象領域ごとの視差量を演算し、視差量データ115を作成する機能を有している。このようにして視差量を求める手法は、従来から提案されている手法を適宜採用することができるため、簡単に説明する。   3 calculates the parallax amount for each target region set by the region setting unit 101 based on the feature amount (feature amount data 113) including the motion vector extracted by the feature extraction unit 100. It has a function of calculating and creating parallax amount data 115. The method for obtaining the amount of parallax in this way will be briefly described because a conventionally proposed method can be appropriately employed.

視差量演算部102は、領域設定データ114を参照して、当該領域設定データ114に設定されている対象領域(例えばオブジェクト0)を構成する画素(オブジェクト0であれば、画素P00、画素P11、画素P22、画素P33・・・)を特定し、特定した当該画素ごとに特徴量データ113に含まれる特徴量(動きベクトル、色および周波数)を取得する。そして、これらの値の平均値(動きベクトルの平均値、色の平均値および周波数の平均値)を求め、これらの平均値に基づいて視差量(オブジェクト0については視差量d0とする。)を求める。なお、本実施の形態における視差量演算部102は、対象領域ごとの視差量を、当該対象領域をフレームデータにおいて水平方向にずらす距離(画素数)として求める。 The parallax amount calculation unit 102 refers to the region setting data 114, and configures the pixels (for example, object P0, pixel P00 and pixel P that constitute the target region (for example, object 0) set in the region setting data 114). 11 , the pixel P 22 , the pixel P 33 ...), And the feature amount (motion vector, color, and frequency) included in the feature amount data 113 is acquired for each specified pixel. Then, an average value of these values (an average value of motion vectors, an average value of colors, and an average value of frequencies) is obtained, and a parallax amount (the parallax amount d0 is set for object 0) based on these average values. Ask. Note that the parallax amount calculation unit 102 in the present embodiment obtains the parallax amount for each target area as a distance (number of pixels) by which the target area is shifted in the horizontal direction in the frame data.

図7は、視差量演算部102により作成される視差量データ115を例示する図である。図7に示すように、領域設定部101により設定されたオブジェクト0およびオブジェクト1について、視差量演算部102によりそれぞれ視差量d0および視差量d1が求められ格納されている。   FIG. 7 is a diagram illustrating the parallax amount data 115 created by the parallax amount calculation unit 102. As shown in FIG. 7, for the object 0 and the object 1 set by the region setting unit 101, the parallax amount calculation unit 102 obtains and stores the parallax amount d0 and the parallax amount d1, respectively.

図3に示す生成部103は、特徴抽出部100により抽出された動きベクトル(特徴量データ113)と、領域設定部101により設定された対象領域(領域設定データ114)と、視差量演算部102により求められた対象領域ごとの視差量(視差量データ115)とに基づいて、二次元映像データ111から当該二次元映像データ111におけるフレームレートを変更した擬似的な三次元映像データ112を生成する機能を有している。   The generation unit 103 illustrated in FIG. 3 includes a motion vector (feature amount data 113) extracted by the feature extraction unit 100, a target region (region setting data 114) set by the region setting unit 101, and a parallax amount calculation unit 102. Based on the parallax amount (parallax amount data 115) for each target area obtained by the above, pseudo 3D video data 112 in which the frame rate in the 2D video data 111 is changed is generated from the 2D video data 111. It has a function.

生成部103は、領域設定部101により設定された対象領域と視差量演算部102により求められた対象領域の視差量データ115とに基づいて、フレームデータn(1のフレームデータ)と対をなす1の他眼用フレームデータを生成するための三次元化パラメータ117を生成する。なお、フレームデータnと対をなす1の他眼用フレームデータを、以下、「他眼用フレームデータn」と称する。本実施の形態では、フレームデータnは人の右目用のフレームデータであり、他眼用フレームデータnは人の左目用のフレームデータである。ただし、これに限定されるものではなく、逆であってもよい。その場合は視差量演算部102により求められる視差量の符号を反転させればよい。   The generation unit 103 makes a pair with the frame data n (one frame data) based on the target region set by the region setting unit 101 and the parallax amount data 115 of the target region obtained by the parallax amount calculation unit 102. A three-dimensional parameter 117 for generating one other-eye frame data is generated. Note that one other-eye frame data paired with the frame data n is hereinafter referred to as “other-eye frame data n”. In the present embodiment, the frame data n is frame data for the human right eye, and the other-eye frame data n is frame data for the human left eye. However, it is not limited to this and may be reversed. In that case, the sign of the parallax amount obtained by the parallax amount calculation unit 102 may be reversed.

また、生成部103は、特徴抽出部100により抽出された動きベクトルと、領域設定部101により設定された対象領域とに基づいて、フレームデータnとフレームデータ(n+1)(前後する2のフレームデータ)の間を補間する補間フレームデータを生成するための第1補間パラメータ118を生成する。   Further, the generation unit 103 generates frame data n and frame data (n + 1) (two preceding and following frame data) based on the motion vector extracted by the feature extraction unit 100 and the target region set by the region setting unit 101. The first interpolation parameter 118 for generating interpolation frame data for interpolating between the first and second interpolation parameters is generated.

本実施の形態における生成部103は、二次元映像データ111のフレームレートを2倍に向上させて、擬似的な三次元映像データ112に変換する例で説明する。本実施の形態では二次元映像データ111のフレームレートは先述のように15[fps]であるが、三次元映像データ112のフレームレートは30[fps]となる。したがって、フレームデータnとフレームデータ(n+1)との間を補間する補間フレームデータは、本実施の形態では1つのみ生成される。以下、当該補間フレームデータを「フレームデータ(n+1/2)」と称する。   The generation unit 103 according to the present embodiment will be described using an example in which the frame rate of the 2D video data 111 is doubled and converted into pseudo 3D video data 112. In the present embodiment, the frame rate of the 2D video data 111 is 15 [fps] as described above, but the frame rate of the 3D video data 112 is 30 [fps]. Therefore, only one interpolated frame data for interpolating between the frame data n and the frame data (n + 1) is generated in the present embodiment. Hereinafter, the interpolated frame data is referred to as “frame data (n + 1/2)”.

さらに、生成部103は、特徴抽出部100により抽出された動きベクトル(特徴量データ113)と、領域設定部101により設定された対象領域(領域設定データ114)と、視差量演算部102により求められた対象領域ごとの視差量(視差量データ115)とに基づいて、フレームデータ(n+1/2)(補間フレームデータ)と対をなす他眼用補間フレームデータを生成するための第2補間パラメータ119を生成する。なお、フレームデータ(n+1/2)と対をなす他眼用補間フレームデータを、以下、「他眼用フレームデータ(n+1/2)」と称する。   Further, the generation unit 103 obtains the motion vector (feature amount data 113) extracted by the feature extraction unit 100, the target region (region setting data 114) set by the region setting unit 101, and the parallax amount calculation unit 102. A second interpolation parameter for generating interocular interpolation frame data paired with frame data (n + 1/2) (interpolation frame data) based on the parallax amount (parallax amount data 115) for each target region 119 is generated. The other-eye interpolation frame data paired with the frame data (n + 1/2) is hereinafter referred to as “other-eye frame data (n + 1/2)”.

図3に示すように、生成部103によって生成された三次元化パラメータ117、第1補間パラメータ118および第2補間パラメータ119は、パラメータデータ116として、一旦、記憶装置11に記憶される。パラメータデータ116は、生成部103が二次元映像データ111から当該二次元映像データ111におけるフレームレートを変更した擬似的な三次元映像データ112を生成する際に利用されるが詳細は後述する。   As illustrated in FIG. 3, the three-dimensional parameter 117, the first interpolation parameter 118, and the second interpolation parameter 119 generated by the generation unit 103 are temporarily stored in the storage device 11 as parameter data 116. The parameter data 116 is used when the generation unit 103 generates the pseudo 3D video data 112 in which the frame rate in the 2D video data 111 is changed from the 2D video data 111, which will be described in detail later.

以上が、ワンセグ受信モジュール1および携帯端末装置2の構成および機能の説明である。次に、ワンセグ受信モジュール1による画像処理方法を説明する。   The above is the description of the configurations and functions of the one-segment receiving module 1 and the mobile terminal device 2. Next, an image processing method by the one-segment receiving module 1 will be described.

図8は、本発明に係る画像処理方法を示す図である。図8に示す各工程は、主に、ワンセグ受信モジュール1において実行される。   FIG. 8 is a diagram showing an image processing method according to the present invention. Each step shown in FIG. 8 is mainly executed in the one-segment receiving module 1.

まず、ワンセグ受信モジュール1は、図示しない初期設定を実行した後、ワンセグ放送の受信を開始する。そして、ワンセグ放送を受信することにより、当該ワンセグ放送の1のフレームデータを受信し(ステップS11)、受信した1のフレームデータを二次元映像データ111を構成するフレームデータとして記憶装置11に記憶する。以下では、フレームデータ(n+1)を受信したときから説明する。   First, the one-seg receiving module 1 starts receiving one-seg broadcasting after executing an initial setting (not shown). Then, by receiving the one-segment broadcast, one frame data of the one-segment broadcast is received (step S11), and the received one frame data is stored in the storage device 11 as frame data constituting the 2D video data 111. . Hereinafter, a description will be given from the time when frame data (n + 1) is received.

次に、特徴抽出部100が、以前にステップS11が実行されたときにすでに受信し記憶しているフレームデータnとステップS11で受信したフレームデータ(n+1)とに基づいて、動きベクトルを含む特徴量を抽出し(ステップS12)、特徴量データ113を生成する。   Next, the feature extraction unit 100 includes a motion vector based on the frame data n that has already been received and stored when Step S11 was previously executed and the frame data (n + 1) received in Step S11. The amount is extracted (step S12), and feature amount data 113 is generated.

特徴量データ113が生成されると、領域設定部101が特徴量データ113(動きベクトル、色および周波数)に応じて、フレームデータnを構成する複数の画素について三次元化させる対象領域を設定し(ステップS13)、領域設定データ114を生成する。   When the feature amount data 113 is generated, the region setting unit 101 sets a target region to be three-dimensionalized for a plurality of pixels constituting the frame data n according to the feature amount data 113 (motion vector, color, and frequency). (Step S13), the area setting data 114 is generated.

領域設定データ114が生成されると、視差量演算部102が特徴量データ113に基づいて、領域設定データ114に示されている対象領域ごとに視差量を演算し(ステップS14)、視差量データ115を生成する。   When the region setting data 114 is generated, the parallax amount calculation unit 102 calculates the parallax amount for each target region indicated in the region setting data 114 based on the feature amount data 113 (step S14). 115 is generated.

次に、生成部103が、特徴量データ113と、領域設定データ114と、視差量データ115とに基づいて、二次元映像データ111から擬似的な三次元映像データ112を生成するために必要なパラメータを演算し(ステップS15)、パラメータデータ116を作成する。   Next, it is necessary for the generation unit 103 to generate the pseudo 3D video data 112 from the 2D video data 111 based on the feature amount data 113, the region setting data 114, and the parallax amount data 115. The parameter is calculated (step S15), and parameter data 116 is created.

図9は、三次元化パラメータ117を例示する図である。図9に示す例では、フレームデータnを構成する複数の画素について、フレームデータnにおける座標と、フレームデータnを他眼用フレームデータnに変換するときの変換後座標とが含まれている。   FIG. 9 is a diagram illustrating the three-dimensional parameter 117. In the example illustrated in FIG. 9, for a plurality of pixels constituting the frame data n, the coordinates in the frame data n and the coordinates after conversion when the frame data n is converted into the other-eye frame data n are included.

他眼用フレームデータnは、例えば、三次元化させるオブジェクト0については、当該オブジェクト0の視差量d0だけ、オブジェクト0を構成する画素の座標が水平方向に移動したものとなる。   For example, for the object 0 to be three-dimensionalized, the other-eye frame data n is obtained by moving the coordinates of the pixels constituting the object 0 in the horizontal direction by the parallax amount d0 of the object 0.

したがって、三次元化パラメータ117では、三次元化させる対象領域(オブジェクト0)を構成する画素(画素P00,P11,P22,P33・・・)について、変換後座標が示されており、当該変換後座標の値は、いずれも元の水平座標の値に視差量d0を加えた値となっている。言い換えれば、生成部103は、領域設定データ114に設定されている各対象領域を構成する画素について、当該画素の水平座標に、当該画素により構成される対象領域の視差量(視差量データ115に示される値)を加算して三次元化パラメータ117を作成する。 Therefore, the three-dimensionalization parameter 117 indicates the coordinates after conversion for the pixels (pixels P 00 , P 11 , P 22 , P 33 ...) Constituting the target region (object 0) to be three-dimensionalized. The values of the converted coordinates are all values obtained by adding the parallax amount d0 to the original horizontal coordinate values. In other words, the generation unit 103 sets, for the pixels constituting each target region set in the region setting data 114, the parallax amount (the parallax amount data 115) of the target region configured by the pixel in the horizontal coordinate of the pixel. The three-dimensional parameter 117 is created by adding the indicated values.

これにより、二次元映像データ111を構成するフレームデータnを、三次元化パラメータ117によって変換すると、他眼用フレームデータnを生成することが可能となる。すなわち、三次元化パラメータ117はフレームデータnを他眼用フレームデータnに変換するための変換テーブルを構成している。   As a result, when the frame data n constituting the 2D video data 111 is converted by the 3D conversion parameter 117, the other-eye frame data n can be generated. That is, the three-dimensionalization parameter 117 constitutes a conversion table for converting the frame data n into the other-eye frame data n.

そして、ユーザの右目にフレームデータnを見せつつ、左目に他眼用フレームデータnを見せると、視差量(視差量d0)に応じて対象領域(オブジェクト0)が立体的に見え、当該対象領域が擬似的に三次元化される。なお、三次元化パラメータ117には、変換後座標により移動した画素を埋めるための画素に関するデータも含まれているが、従来の技術を適用することが可能であるため、詳細な説明を省略する。以下、第1補間パラメータ118および第2補間パラメータ119についても同様である。   When the user's right eye shows the frame data n and the left eye shows the other-eye frame data n, the target area (object 0) appears three-dimensionally according to the amount of parallax (parallax amount d0). Is pseudo-three-dimensionalized. Note that the three-dimensionalization parameter 117 includes data related to the pixel for filling the pixel moved by the post-conversion coordinates. However, since the conventional technique can be applied, detailed description thereof is omitted. . Hereinafter, the same applies to the first interpolation parameter 118 and the second interpolation parameter 119.

図10は、第1補間パラメータ118を例示する図である。図10に示す例では、フレームデータnを構成する複数の画素について、フレームデータnにおける座標と、フレームデータnを補間フレームデータ(n+1/2)に変換するときの変換後座標とが含まれている。   FIG. 10 is a diagram illustrating the first interpolation parameter 118. In the example illustrated in FIG. 10, for a plurality of pixels constituting the frame data n, the coordinates in the frame data n and the coordinates after conversion when the frame data n is converted into interpolation frame data (n + 1/2) are included. Yes.

補間フレームデータ(n+1/2)は、例えば、移動しているオブジェクト0については、オブジェクト0を構成する画素の座標が当該画素の動きベクトルの方向に移動したものとなる。また、このとき移動する距離は、本実施の形態のように、フレームレート変換率が「2倍」の場合、動きベクトルの大きさの1/2となる。   The interpolation frame data (n + 1/2) is, for example, for the moving object 0, in which the coordinates of the pixels constituting the object 0 are moved in the direction of the motion vector of the pixel. Further, the distance moved at this time is ½ of the magnitude of the motion vector when the frame rate conversion rate is “double” as in the present embodiment.

したがって、第1補間パラメータ118では、対象領域(オブジェクト0)を構成する画素(画素P00,P11,P22,P33・・・)について、変換後座標が示されており、当該変換後座標の値は、いずれも元の座標の値に動きベクトルの大きさの1/2を加えた値となっている。例えば、画素P00の動きベクトルは図5に示すように(v0,v1)である。したがって、画素P00の変換後座標は、(0+v0/2,0+v1/2)となる。 Therefore, the first interpolation parameter 118 indicates the coordinates after conversion for the pixels (pixels P 00 , P 11 , P 22 , P 33 ...) Constituting the target region (object 0). The coordinate values are all values obtained by adding 1/2 of the magnitude of the motion vector to the original coordinate values. For example, the motion vector of the pixel P 00 is (v0, v1) as shown in FIG. Therefore, the post-conversion coordinates of the pixel P 00 are (0 + v0 / 2, 0 + v1 / 2).

言い換えれば、生成部103は、領域設定データ114に設定されている各対象領域を構成する画素について、当該画素の座標に、当該画素の動きベクトル(特徴量データ113に示される値)の1/2を加算して第1補間パラメータ118を作成する。   In other words, for the pixels constituting each target region set in the region setting data 114, the generation unit 103 uses 1/0 of the motion vector (value indicated by the feature amount data 113) of the pixel as the coordinate of the pixel. 2 is added to create the first interpolation parameter 118.

これにより、二次元映像データ111を構成するフレームデータnを、第1補間パラメータ118によって変換すると、補間フレームデータ(n+1/2)を生成することが可能となる。すなわち、第1補間パラメータ118はフレームデータnを補間フレームデータ(n+1/2)に変換するための変換テーブルを構成している。   Thereby, when the frame data n constituting the 2D video data 111 is converted by the first interpolation parameter 118, the interpolation frame data (n + 1/2) can be generated. In other words, the first interpolation parameter 118 constitutes a conversion table for converting the frame data n into the interpolation frame data (n + 1/2).

そして、フレームデータnとフレームデータ(n+1)との間に、補間フレームデータ(n+1/2)を見せることにより、二次元映像データ111において15[fps]であったフレームレートが、三次元映像データ112において30[fps]に変更される。すなわち、三次元映像データ112は二次元映像データ111よりも高いフレームレートに変換されるため滑らかな映像となる。   Then, by showing the interpolated frame data (n + 1/2) between the frame data n and the frame data (n + 1), the frame rate of 15 [fps] in the 2D video data 111 becomes 3D video data. In 112, it is changed to 30 [fps]. That is, since the 3D video data 112 is converted to a higher frame rate than the 2D video data 111, it becomes a smooth video.

なお、画素P00と同じ対象領域(オブジェクト0)を構成する他の画素P11,P22,P33・・・も通常は同じ動きベクトル(v0,v1)であるため、図10に示すように、これらの画素の座標にも動きベクトル(v0,v1)の1/2の値が加算されることにより、変換後座標が求められている。 Since the other pixels P 11 , P 22 , P 33 ... Constituting the same target area (object 0) as the pixel P 00 are usually the same motion vector (v0, v1), as shown in FIG. In addition, the coordinates after conversion are obtained by adding a value of ½ of the motion vector (v0, v1) to the coordinates of these pixels.

図11は、第2補間パラメータ119を例示する図である。図11に示す例では、フレームデータnを構成する複数の画素について、フレームデータnにおける座標と、フレームデータnを他眼用補間フレームデータ(n+1/2)に変換するときの変換後座標とが含まれている。   FIG. 11 is a diagram illustrating the second interpolation parameter 119. In the example shown in FIG. 11, for a plurality of pixels constituting the frame data n, the coordinates in the frame data n and the converted coordinates when converting the frame data n into the interocular interpolation frame data (n + 1/2) are include.

他眼用補間フレームデータ(n+1/2)は、例えば、三次元化させるオブジェクト0については、当該オブジェクト0の視差量d0だけ、オブジェクト0を構成する画素の座標が水平方向に移動したものとなる。また、例えば、移動しているオブジェクト0については、オブジェクト0を構成する画素の座標が当該画素の動きベクトルの方向に動きベクトルの大きさの1/2だけ移動したものとなる。   For example, for the object 0 to be three-dimensionalized, the other-eye interpolation frame data (n + 1/2) is obtained by moving the coordinates of the pixels constituting the object 0 in the horizontal direction by the parallax amount d0 of the object 0. . Further, for example, for the moving object 0, the coordinates of the pixel constituting the object 0 are moved in the direction of the motion vector of the pixel by ½ of the magnitude of the motion vector.

したがって、第2補間パラメータ119では、対象領域(オブジェクト0)を構成する画素(画素P00,P11,P22,P33・・・)について、変換後座標が示されており、当該変換後座標の値は、いずれも元の水平座標の値に視差量d0を加えるとともに、動きベクトルの大きさの1/2を加えた値となっている。例えば、画素P00の動きベクトルは先述のように(v0,v1)である。したがって、第2補間パラメータ119における画素P00の変換後座標は、(0+d0+v0/2,0+v1/2)となる。 Therefore, the second interpolation parameter 119 indicates the coordinates after conversion for the pixels (pixels P 00 , P 11 , P 22 , P 33 ...) Constituting the target area (object 0). Each of the coordinate values is a value obtained by adding the parallax amount d0 to the original horizontal coordinate value and adding 1/2 of the magnitude of the motion vector. For example, the motion vector of the pixel P 00 is (v0, v1) as described above. Therefore, the post-conversion coordinates of the pixel P 00 in the second interpolation parameter 119 are (0 + d0 + v0 / 2, 0 + v1 / 2).

言い換えれば、本実施の形態における生成部103は、領域設定データ114に設定されている各対象領域を構成する画素について、当該画素の水平座標については視差量d0と当該画素の動きベクトル(特徴量データ113に示される値)の1/2とを加算し、垂直座標については当該画素の動きベクトル(特徴量データ113に示される値)の1/2を加算して第2補間パラメータ119を作成する。   In other words, the generation unit 103 according to the present embodiment, for the pixels constituting each target region set in the region setting data 114, for the horizontal coordinate of the pixel, the parallax amount d0 and the motion vector (feature amount) of the pixel. The second interpolation parameter 119 is created by adding 1/2 of the value shown in the data 113 and adding 1/2 of the motion vector of the pixel (value shown in the feature data 113) for the vertical coordinate. To do.

そして、ユーザの右目に補間フレームデータ(n+1/2)を見せつつ、左目に他眼用補間フレームデータ(n+1/2)を見せると、フレームデータが補間されている間においても、視差量(視差量d0)に応じて対象領域(オブジェクト0)が立体的に見え、当該対象領域が擬似的に三次元化される。   If the left-eye interpolation frame data (n + 1/2) is shown while the user's right eye shows the interpolation frame data (n + 1/2), the amount of parallax (disparity) even while the frame data is interpolated. The target area (object 0) appears three-dimensionally according to the amount d0), and the target area is pseudo-three-dimensionalized.

図8に戻って、パラメータデータ116が作成されると、生成部103は、二次元映像データ111のフレームデータnと、パラメータデータ116とに基づいて、他眼用フレームデータnと、補間フレーム(n+1/2)と、他眼用補間フレーム(n+1/2)とを生成し、元のフレームデータnとともに三次元映像データ112を生成する(ステップS16)。   Returning to FIG. 8, when the parameter data 116 is generated, the generation unit 103 generates the other-eye frame data n, the interpolation frame (based on the frame data n of the 2D video data 111 and the parameter data 116). n + 1/2) and the other-eye interpolation frame (n + 1/2) are generated, and the 3D video data 112 is generated together with the original frame data n (step S16).

図12は、三次元映像データ112を概念的に示す図である。図4に示すように、フレームデータ(n−1),n,(n+1)から構成されていた二次元映像データ111が、図12に示すように、三次元映像データ112においては、フレームデータ(n−1),n,(n+1)が補間フレームデータ(n−1/2),(n+1/2)によって補間されることにより滑らかな映像となるとともに、これらのフレームデータと対をなす他眼用フレームデータ(n−1),n,(n+1)および他眼用補間フレームデータ(n−1/2),(n+1/2)が作成されることにより、擬似的に三次元化されている。   FIG. 12 is a diagram conceptually showing the 3D video data 112. As shown in FIG. 4, the 2D video data 111 composed of the frame data (n−1), n, (n + 1) is converted into the frame data ( n-1), n, and (n + 1) are interpolated by the interpolated frame data (n-1 / 2) and (n + 1/2), so that a smooth video is obtained and the other eye paired with these frame data The frame data (n-1), n, (n + 1) and the inter-eye interpolation frame data (n-1 / 2), (n + 1/2) are created in a pseudo three-dimensional manner. .

ステップS16において生成された三次元映像データ112は、一旦、記憶装置11に記憶された後、携帯端末装置2の記憶装置21に転送され、表示部23に表示される。   The 3D video data 112 generated in step S <b> 16 is temporarily stored in the storage device 11, then transferred to the storage device 21 of the mobile terminal device 2, and displayed on the display unit 23.

以上のように、本実施の形態におけるワンセグ受信モジュール1は、時系列順に作成された複数のフレームデータから構成される二次元映像データ111を擬似的な三次元映像データ112に変換する画像処理装置として構成されており、複数のフレームデータにおいて前後する2のフレームデータから動きベクトルを含む特徴量を抽出する特徴抽出部100と、特徴抽出部100により抽出された動きベクトルに応じて、前後する2のフレームデータのうちの1のフレームデータを構成する複数の画素について三次元化させる対象領域を設定する領域設定部101と、特徴抽出部100により抽出された動きベクトルを含む特徴量に基づいて、領域設定部101により設定された対象領域ごとの視差量を演算する視差量演算部102と、特徴抽出部100により抽出された動きベクトルと領域設定部101により設定された対象領域と視差量演算部102により求められた対象領域の視差量とに基づいて、二次元映像データ111から当該二次元映像データ111におけるフレームレートを変更した擬似的な三次元映像データ112を生成する生成部103とを備える。これにより、動きベクトルを抽出する処理を1回実行するだけで、二次元映像データ111のフレームレートを変更しつつ擬似的な三次元映像データ112を生成できるので、処理負荷が軽減される。   As described above, the one-segment receiving module 1 according to the present embodiment converts the 2D video data 111 composed of a plurality of frame data created in time series into pseudo 3D video data 112. And a feature extraction unit 100 that extracts a feature amount including a motion vector from two frame data preceding and following a plurality of frame data, and two before and after according to the motion vector extracted by the feature extraction unit 100 Based on the feature amount including the motion vector extracted by the region setting unit 101 for setting a target region to be three-dimensionalized for a plurality of pixels constituting one frame data of the frame data, and the feature extraction unit 100, A parallax amount calculation unit 102 that calculates the parallax amount for each target region set by the region setting unit 101; Based on the motion vector extracted by the extraction unit 100, the target region set by the region setting unit 101, and the parallax amount of the target region obtained by the parallax amount calculation unit 102, the 2D video data 111 is used to calculate the 2D video. A generation unit 103 that generates pseudo 3D video data 112 in which the frame rate of the data 111 is changed. As a result, it is possible to generate the pseudo 3D video data 112 while changing the frame rate of the 2D video data 111 only by executing the process of extracting the motion vector once, so that the processing load is reduced.

また、領域設定部101は、特徴抽出部100により抽出された動きベクトルを含む特徴量に応じて、対象領域を設定する。すなわち、動きベクトル以外の特徴量についても対象領域の設定に有効に利用することにより、対象領域を設定するための情報を別途取得しなくても、対象領域を効率的かつ正確に設定することができる。   Further, the region setting unit 101 sets a target region according to the feature amount including the motion vector extracted by the feature extraction unit 100. In other words, by effectively using feature quantities other than motion vectors for setting the target area, it is possible to set the target area efficiently and accurately without separately acquiring information for setting the target area. it can.

また、本実施の形態では、ワンセグ放送により提供される番組を表現した二次元映像データ111の受信と当該二次元映像データ111から生成される擬似的な三次元映像データ112のユーザによる視聴とが実質的にリアルタイムで実行される。このような用途においては、画像処理に要する時間の短縮要請が高いため、本発明がより効果的となる。   In the present embodiment, reception of 2D video data 111 representing a program provided by one-segment broadcasting and viewing of pseudo 3D video data 112 generated from the 2D video data 111 by a user are performed. It is executed substantially in real time. In such applications, there is a high demand for shortening the time required for image processing, and the present invention becomes more effective.

なお、本実施の形態では、特徴量データ113、領域設定データ114および視差量データ115がそれぞれ別個のデータを構成している例で説明したが、これらを互いに関連づけて、データの1つの集合体として扱ってもよい。その場合、例えば、対象領域ごとに求める動きベクトルの平均値や色の平均値、周波数の平均値等も関連づけて格納するようにしてもよい。   In the present embodiment, the feature amount data 113, the region setting data 114, and the parallax amount data 115 have been described as examples of separate data. May be treated as In this case, for example, an average value of motion vectors, an average value of colors, an average value of frequencies, and the like obtained for each target region may be stored in association with each other.

<2. 変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
<2. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made.

例えば、上記実施の形態では、二次元映像データとして、ワンセグ放送により提供される番組を表現した情報を受信する例を説明した。しかし、本発明が対象とする二次元映像データとは、ワンセグ放送の映像に限定されるものではない。例えば、地上デジタル放送の映像や、遠隔地に配置された撮像カメラ(防犯カメラ)から実質的にリアルタイムで受信される映像、あるいは、インターネット配信動画であってもよいし、ビデオテープやDVD、ブルーレイディスク等の記録媒体にすでに記録されている映像であってもよい。   For example, in the above embodiment, an example has been described in which information representing a program provided by one-segment broadcasting is received as 2D video data. However, the 2D video data targeted by the present invention is not limited to one-segment broadcast video. For example, it may be a terrestrial digital broadcast video, a video received in real time from an imaging camera (security camera) located at a remote location, a video distributed on the Internet, or a video tape, DVD, Blu-ray. It may be an image already recorded on a recording medium such as a disc.

また、二次元映像データの受信(取得)と、擬似的な三次元映像データへの変換処理と、ユーザによる視聴とが、上記実施の形態に示したように、実質的にリアルタイムで行われてもよいし、取得した二次元映像データを変換処理してDVDやハードディスク等に記録した後、視聴(再生)されるまでに比較的長い時間が設けられていてもよい。   In addition, the reception (acquisition) of 2D video data, conversion processing to pseudo 3D video data, and viewing by the user are performed substantially in real time as described in the above embodiment. Alternatively, after the obtained 2D video data is converted and recorded on a DVD or hard disk, a relatively long time may be provided until it is viewed (reproduced).

また、上記実施の形態では、本発明に係る画像処理装置であるワンセグ受信モジュール1が携帯端末装置2に対して着脱自在となるように構成されていたが、もちろん、画像処理装置は携帯端末装置2と一体構造物を構成し、携帯端末装置2に内蔵される構造となっていてもよい。   In the above embodiment, the one-seg receiving module 1 which is an image processing apparatus according to the present invention is configured to be detachable from the portable terminal apparatus 2. Of course, the image processing apparatus is a portable terminal apparatus. 2 may be integrated with the mobile terminal device 2 and may be built in the mobile terminal device 2.

また、変換によりフレームレートを向上させる率(以下、「フレームレート変換率」と称する。)は「2倍(15[fps]から30[fps])」に限定されるものではない。例えば、フレームレート変換率を「4倍」とし、三次元映像データ112におけるフレームレートを60[fps]とすることも可能である。その場合には、フレームデータnとフレームデータ(n+1)との間を補間する3つの補間フレームデータ(フレームデータ(n+1/4),(n+1/2),(n+3/4))を生成すればよい。すなわち、フレームレート変換率を「4倍」にする場合は、第1補間パラメータ118は3つの補間フレームデータを生成するために必要なパラメータとなり、第2補間パラメータ119は3つの補間フレームデータのそれぞれと対をなす3つの他眼用補間フレームデータを生成するために必要なパラメータとなる。また、本実施の形態と同様に、フレームレート変換率を「2倍」とする場合であっても、例えば、30[fps]から60[fps]への変換であってもよい。   Further, the rate of improving the frame rate by conversion (hereinafter referred to as “frame rate conversion rate”) is not limited to “double (15 [fps] to 30 [fps])”. For example, the frame rate conversion rate can be set to “4 times”, and the frame rate in the 3D video data 112 can be set to 60 [fps]. In that case, if three interpolated frame data (frame data (n + 1/4), (n + 1/2), (n + 3/4)) for interpolating between the frame data n and the frame data (n + 1) are generated. Good. That is, when the frame rate conversion rate is set to “4 times”, the first interpolation parameter 118 is a parameter necessary for generating three interpolation frame data, and the second interpolation parameter 119 is set for each of the three interpolation frame data. This is a parameter necessary for generating three other-eye interpolated frame data paired with. Similarly to the present embodiment, even when the frame rate conversion rate is set to “double”, for example, conversion from 30 [fps] to 60 [fps] may be performed.

また、上記実施の形態における生成部103は、特徴抽出部100により抽出された動きベクトルと領域設定部101により設定された対象領域と視差量演算部102により求められた対象領域の視差量とに基づいて、補間フレームデータと対をなす他眼用補間フレームデータを生成するための第2補間パラメータ119を生成すると説明した。しかし、生成部103は、視差量演算部102により求められた対象領域の視差量と第1補間パラメータ118とに基づいて、補間フレームデータと対をなす他眼用補間フレームデータを生成するための第2補間パラメータ119を生成してもよい。すなわち、第1補間パラメータ118における変換後座標の水平座標の値に視差量演算部102により求められた対象領域の視差量を加算して第2補間パラメータ119としてもよい。   In addition, the generation unit 103 in the above embodiment uses the motion vector extracted by the feature extraction unit 100, the target region set by the region setting unit 101, and the parallax amount of the target region obtained by the parallax amount calculation unit 102. Based on this, it has been described that the second interpolation parameter 119 for generating inter-eye interpolation frame data paired with the interpolation frame data is generated. However, the generation unit 103 generates inter-eye interpolation frame data that forms a pair with the interpolation frame data based on the parallax amount of the target area obtained by the parallax amount calculation unit 102 and the first interpolation parameter 118. A second interpolation parameter 119 may be generated. That is, the second interpolation parameter 119 may be obtained by adding the parallax amount of the target area obtained by the parallax amount calculation unit 102 to the horizontal coordinate value of the post-conversion coordinate in the first interpolation parameter 118.

また、生成部103は、特徴抽出部100により抽出された動きベクトルと三次元化パラメータ117とに基づいて、補間フレームデータと対をなす他眼用補間フレームデータを生成するための第2補間パラメータ119を生成してもよい。すなわち、三次元化パラメータ117における変換後座標に特徴抽出部100により抽出された動きベクトルの寄与分(本実施の形態では動きベクトルの1/2)を加算して第2補間パラメータ119としてもよい。   Further, the generation unit 103 generates a second interpolation parameter for generating interocular interpolation frame data that forms a pair with the interpolation frame data based on the motion vector extracted by the feature extraction unit 100 and the three-dimensionalization parameter 117. 119 may be generated. That is, the second interpolation parameter 119 may be obtained by adding the contribution of the motion vector extracted by the feature extraction unit 100 (1/2 of the motion vector in the present embodiment) to the post-conversion coordinates in the three-dimensional parameter 117. .

また、上記に示した機能ブロックの一部または全部を専用の論理回路で実現してもよい。すなわち、上記実施の形態においてソフトウェアにより実現されると説明されていた機能が、ハードウェアで実現されてもよい。   Further, some or all of the functional blocks shown above may be realized by a dedicated logic circuit. That is, the function described as being realized by software in the above embodiment may be realized by hardware.

また、上記に示した各工程はあくまでも例示であって、同様の効果が得られるならば、その内容や順序が、適宜、変更されてもよい。   Moreover, each process shown above is an illustration to the last, and if the same effect is acquired, the content and order may be changed suitably.

1 ワンセグ受信モジュール
10 CPU
100 特徴抽出部
101 領域設定部
102 視差量演算部
103 生成部
11 記憶装置
110 プログラム
111 二次元映像データ
112 三次元映像データ
113 特徴量データ
114 領域設定データ
115 視差量データ
116 パラメータデータ
117 三次元化パラメータ
118 補間パラメータ
119 補間パラメータ
12 チューナ
13 復調回路
14 復号回路
2 携帯端末装置
1 One-segment receiver module 10 CPU
DESCRIPTION OF SYMBOLS 100 Feature extraction part 101 Area | region setting part 102 Parallax amount calculating part 103 Generation | occurrence | production part 11 Storage device 110 Program 111 2D video data 112 3D video data 113 Feature quantity data 114 Area setting data 115 Parallax amount data 116 Parameter data 117 Three-dimensionalization Parameter 118 Interpolation parameter 119 Interpolation parameter 12 Tuner 13 Demodulation circuit 14 Decoding circuit 2 Mobile terminal device

Claims (9)

時系列順に作成された複数のフレームデータから構成される二次元映像データを擬似的な三次元映像データに変換する画像処理装置であって、
前記複数のフレームデータにおいて前後する2のフレームデータから動きベクトルを含む特徴量を抽出する特徴抽出手段と、
前記特徴抽出手段により抽出された動きベクトルに応じて、前記前後する2のフレームデータのうちの1のフレームデータを構成する複数の画素について三次元化させる対象領域を設定する設定手段と、
前記特徴抽出手段により抽出された動きベクトルを含む特徴量に基づいて、前記設定手段により設定された対象領域ごとの視差量を演算する視差量演算手段と、
前記特徴抽出手段により抽出された動きベクトルと前記設定手段により設定された対象領域と前記視差量演算手段により求められた前記対象領域の視差量とに基づいて、前記二次元映像データから前記二次元映像データにおけるフレームレートを変更した擬似的な三次元映像データを生成する生成手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for converting 2D video data composed of a plurality of frame data created in time series into pseudo 3D video data,
Feature extraction means for extracting a feature quantity including a motion vector from two frame data preceding and following the plurality of frame data;
Setting means for setting a target region to be three-dimensionalized for a plurality of pixels constituting one frame data of the preceding and following two frame data according to the motion vector extracted by the feature extraction means;
A parallax amount calculating unit that calculates a parallax amount for each target region set by the setting unit based on a feature amount including a motion vector extracted by the feature extracting unit;
Based on the motion vector extracted by the feature extraction unit, the target region set by the setting unit, and the parallax amount of the target region obtained by the parallax amount calculation unit, the two-dimensional Generating means for generating pseudo 3D video data in which the frame rate in the video data is changed;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記生成手段は、前記設定手段により設定された対象領域と前記視差量演算手段により求められた前記対象領域の視差量とに基づいて、前記1のフレームデータと対をなす1の他眼用フレームデータを生成するための三次元化パラメータを生成するとともに、前記特徴抽出手段により抽出された動きベクトルと前記設定手段により設定された対象領域とに基づいて、前記前後する2のフレームデータの間を補間する補間フレームデータを生成するための第1補間パラメータを生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The generating means is a frame for one other eye that is paired with the one frame data based on the target area set by the setting means and the parallax amount of the target area obtained by the parallax amount calculating means. A three-dimensional parameter for generating data is generated, and based on the motion vector extracted by the feature extraction unit and the target region set by the setting unit, the interval between the two preceding and following frame data is calculated. An image processing apparatus for generating a first interpolation parameter for generating interpolation frame data to be interpolated.
請求項2に記載の画像処理装置であって、
前記生成手段は、前記特徴抽出手段により抽出された動きベクトルと前記設定手段により設定された対象領域と前記視差量演算手段により求められた前記対象領域の視差量とに基づいて、前記補間フレームデータと対をなす他眼用補間フレームデータを生成するための第2補間パラメータを生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The generating means is based on the motion vector extracted by the feature extracting means, the target area set by the setting means, and the parallax amount of the target area obtained by the parallax amount calculating means. And a second interpolation parameter for generating interocular interpolation frame data paired with the image processing apparatus.
請求項2に記載の画像処理装置であって、
前記生成手段は、前記視差量演算手段により求められた対象領域の視差量と前記第1補間パラメータとに基づいて、前記補間フレームデータと対をなす他眼用補間フレームデータを生成するための第2補間パラメータを生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The generation means generates second-eye interpolation frame data that forms a pair with the interpolation frame data based on the parallax amount of the target area obtained by the parallax amount calculation means and the first interpolation parameter. An image processing apparatus that generates two interpolation parameters.
請求項2に記載の画像処理装置であって、
前記生成手段は、前記特徴抽出手段により抽出された動きベクトルと前記三次元化パラメータとに基づいて、前記補間フレームデータと対をなす他眼用補間フレームデータを生成するための第2補間パラメータを生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The generation means includes second interpolation parameters for generating interocular interpolation frame data paired with the interpolation frame data based on the motion vector extracted by the feature extraction means and the three-dimensional parameter. An image processing apparatus that generates the image processing apparatus.
請求項1ないし5のいずれかに記載の画像処理装置であって、
前記設定手段は、前記特徴抽出手段により抽出された動きベクトルを含む特徴量に応じて、対象領域を設定することを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 5,
The image processing apparatus, wherein the setting unit sets a target region according to a feature amount including a motion vector extracted by the feature extraction unit.
請求項1ないし6のいずれかに記載の画像処理装置であって、
ワンセグ放送により提供される番組を表現した情報を前記二次元映像データとして受信する受信手段をさらに備え、
前記受信手段による二次元映像データの受信と前記二次元映像データから生成される前記擬似的な三次元映像データのユーザによる視聴とが実質的にリアルタイムで実行されることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
Receiving means for receiving information representing a program provided by one-segment broadcasting as the two-dimensional video data;
An image processing apparatus characterized in that reception of 2D video data by the receiving means and viewing of the pseudo 3D video data generated from the 2D video data by a user are performed substantially in real time. .
時系列順に作成された複数のフレームデータから構成される二次元映像データを擬似的な三次元映像データに変換する画像処理方法であって、
前記複数のフレームデータにおいて前後する2のフレームデータから動きベクトルを含む特徴量を抽出する工程と、
前記動きベクトルに応じて、前記前後する2のフレームデータのうちの1のフレームデータを構成する複数の画素について三次元化させる対象領域を設定する工程と、
前記動きベクトルを含む特徴量に基づいて、前記対象領域ごとの視差量を演算する工程と、
前記動きベクトルと前記対象領域と前記対象領域の視差量とに基づいて、前記二次元映像データから前記二次元映像データにおけるフレームレートを変更した擬似的な三次元映像データを生成する工程と、
を有することを特徴とする画像処理方法。
An image processing method for converting 2D video data composed of a plurality of frame data created in time series order into pseudo 3D video data,
Extracting a feature amount including a motion vector from two frame data preceding and following the plurality of frame data;
Setting a target region to be three-dimensionalized for a plurality of pixels constituting one frame data of the two preceding and following frame data according to the motion vector;
A step of calculating a parallax amount for each target region based on a feature amount including the motion vector;
Generating pseudo 3D video data in which a frame rate in the 2D video data is changed from the 2D video data based on the motion vector, the target region, and the parallax amount of the target region;
An image processing method comprising:
コンピュータによる読み取り可能なプログラムであって、前記プログラムの前記コンピュータによる実行は、前記コンピュータを、
時系列順に作成された複数のフレームデータから構成される二次元映像データを記憶する記憶手段と、
前記記憶手段に記憶された二次元映像データにおいて前後する2のフレームデータから動きベクトルを含む特徴量を抽出する特徴抽出手段と、
前記特徴抽出手段により抽出された動きベクトルに応じて、前記前後する2のフレームデータのうちの1のフレームデータを構成する複数の画素について三次元化させる対象領域を設定する設定手段と、
前記特徴抽出手段により抽出された動きベクトルを含む特徴量に基づいて、前記設定手段により設定された対象領域ごとの視差量を演算する視差量演算手段と、
前記特徴抽出手段により抽出された動きベクトルと前記設定手段により設定された対象領域と前記視差量演算手段により求められた前記対象領域の視差量とに基づいて、前記二次元映像データから前記二次元映像データにおけるフレームレートを変更した擬似的な三次元映像データを生成し、生成した前記擬似的な三次元映像データを前記記憶手段に記憶させる生成手段と、
を備える画像処理装置として機能させることを特徴とするプログラム。
A computer-readable program, wherein execution of the program by the computer causes the computer to
Storage means for storing 2D video data composed of a plurality of frame data created in time series order;
Feature extraction means for extracting a feature quantity including a motion vector from two frame data before and after the 2D video data stored in the storage means;
Setting means for setting a target region to be three-dimensionalized for a plurality of pixels constituting one frame data of the preceding and following two frame data according to the motion vector extracted by the feature extraction means;
A parallax amount calculating unit that calculates a parallax amount for each target region set by the setting unit based on a feature amount including a motion vector extracted by the feature extracting unit;
Based on the motion vector extracted by the feature extraction unit, the target region set by the setting unit, and the parallax amount of the target region obtained by the parallax amount calculation unit, the two-dimensional Generating means for generating pseudo 3D video data in which the frame rate in the video data is changed, and storing the generated pseudo 3D video data in the storage means;
A program for causing a computer to function as an image processing apparatus.
JP2010249282A 2010-11-08 2010-11-08 Image processing system, image processing method, and program Withdrawn JP2012104898A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010249282A JP2012104898A (en) 2010-11-08 2010-11-08 Image processing system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010249282A JP2012104898A (en) 2010-11-08 2010-11-08 Image processing system, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2012104898A true JP2012104898A (en) 2012-05-31

Family

ID=46394846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010249282A Withdrawn JP2012104898A (en) 2010-11-08 2010-11-08 Image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2012104898A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013186882A1 (en) * 2012-06-13 2013-12-19 株式会社エム・ソフト 3d-image generation method, and 3d-image generation system
JP2015510578A (en) * 2011-12-01 2015-04-09 クアルコム,インコーポレイテッド Mitigating the effects of changes in sensor calibration parameters

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015510578A (en) * 2011-12-01 2015-04-09 クアルコム,インコーポレイテッド Mitigating the effects of changes in sensor calibration parameters
US9625490B2 (en) 2011-12-01 2017-04-18 Qualcomm Incorporated Mitigating the effect of a change in sensor calibration parameters
WO2013186882A1 (en) * 2012-06-13 2013-12-19 株式会社エム・ソフト 3d-image generation method, and 3d-image generation system

Similar Documents

Publication Publication Date Title
CN102844696B (en) The method of electronic installation and reproducing three-dimensional images
KR101775253B1 (en) Real-time automatic conversion of 2-dimensional images or video to 3-dimensional stereo images or video
CN106296781B (en) Special effect image generation method and electronic equipment
CN103024408A (en) Stereoscopic image converting apparatus and stereoscopic image output apparatus
JP2011139261A (en) Image processing device, image processing method, and program
KR20120120502A (en) Stereoscopic video graphics overlay
JP2020005202A (en) Video processing device
JP6033625B2 (en) Multi-viewpoint image generation device, image generation method, display device, program, and recording medium
US8619123B2 (en) Video processing apparatus and method for scaling three-dimensional video
JP6934052B2 (en) Display control device, display control method and program
JP2012104898A (en) Image processing system, image processing method, and program
JP2012186652A (en) Electronic apparatus, image processing method and image processing program
US20130120527A1 (en) Electronic apparatus and display control method
WO2012014489A1 (en) Video image signal processor and video image signal processing method
JP5025768B2 (en) Electronic apparatus and image processing method
JP5664356B2 (en) Generation apparatus and generation method
WO2013024847A1 (en) Stereoscopic image generating device, stereoscopic image display device, stereoscopic image generating method, and program
JP5017445B2 (en) Parallax image conversion device
JP5238849B2 (en) Electronic device, electronic device control method, and electronic device control program
JP5550603B2 (en) Video processing apparatus, video processing method, and program
WO2011114745A1 (en) Video playback device
JP2014203017A (en) Image processing device, image processing method, display, and electronic apparatus
JP5691966B2 (en) Depth estimation data generation apparatus, generation method and generation program, and pseudo stereoscopic image generation apparatus, generation method and generation program
CN103167299A (en) Method and equipment used for generating three-dimensional (3D) video on a resource-limited device
KR101804912B1 (en) An apparatus for displaying a 3-dimensional image and a method for displaying subtitles of a 3-dimensional image

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140204