JP5622537B2 - Error concealment device - Google Patents

Error concealment device Download PDF

Info

Publication number
JP5622537B2
JP5622537B2 JP2010266493A JP2010266493A JP5622537B2 JP 5622537 B2 JP5622537 B2 JP 5622537B2 JP 2010266493 A JP2010266493 A JP 2010266493A JP 2010266493 A JP2010266493 A JP 2010266493A JP 5622537 B2 JP5622537 B2 JP 5622537B2
Authority
JP
Japan
Prior art keywords
video
video frame
frame
additional information
information data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010266493A
Other languages
Japanese (ja)
Other versions
JP2012119844A (en
Inventor
本田 裕
裕 本田
幸典 遠藤
幸典 遠藤
慎司 前田
慎司 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010266493A priority Critical patent/JP5622537B2/en
Publication of JP2012119844A publication Critical patent/JP2012119844A/en
Application granted granted Critical
Publication of JP5622537B2 publication Critical patent/JP5622537B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • H04N13/04

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

この発明は、例えば、三次元映像を含むRTPパケットの伝送中の損失や遅延に伴って、一部の三次元映像が欠損したときに、その欠損箇所を補填することで、三次元映像の画質を高めるエラーコンシールメント装置に関するものである。   For example, when a part of 3D video is lost due to loss or delay during transmission of an RTP packet including 3D video, the present invention compensates for the missing part, thereby improving the image quality of the 3D video. It is related with the error concealment apparatus which raises.

近年、三次元映像を表示することが可能なテレビの普及が進んでいる。
また、IPネットワーク上での映像配信など、リアルタイムに映像通信を行うサービスの普及も進んでいる。
ただし、IPネットワークは、ベストエフォート型のネットワークであり、ネットワークの伝送品質が保証されていないため、パケットの転送遅延や損失が発生することがある。
したがって、三次元映像をIPネットワーク上で配信するなどの場合には、三次元映像の一部が欠損して、三次元映像の画質が低下する現象が発生する。このため、三次元映像の画質を高めるには、三次元映像の欠損箇所を補填するエラーコンシールメント技術が必要となる。
In recent years, televisions capable of displaying 3D images have been widely used.
In addition, services that perform real-time video communication, such as video distribution over IP networks, are also spreading.
However, since the IP network is a best-effort network and the transmission quality of the network is not guaranteed, packet transfer delay or loss may occur.
Therefore, when 3D video is distributed over an IP network, a part of the 3D video is lost, and a phenomenon in which the image quality of the 3D video is deteriorated occurs. For this reason, in order to improve the image quality of a 3D image, an error concealment technique that compensates for a missing portion of the 3D image is required.

エラーコンシールメント技術として、エラーの発生箇所に対して、ブロック単位で、他ブロックの映像データや、同じ映像の近傍の画素情報を参照して、疑似データを作成する方法や、エラーが発生しているブロックを特定の色で埋める方法などが挙げられる(例えば、特許文献1を参照)。
しかし、これらのエラーコンシールメント技術は、二次元映像を対象としており、複数の方向から撮影されることで得られる三次元映像の欠損箇所を補填するものとしては十分でない。
As an error concealment technique, the method of creating pseudo data by referring to the video data of other blocks and pixel information in the vicinity of the same video in block units for the location where the error occurred, or if an error occurs For example, a method of filling a certain block with a specific color (see, for example, Patent Document 1).
However, these error concealment techniques are intended for 2D images, and are not sufficient to compensate for missing portions of 3D images obtained by photographing from a plurality of directions.

以下の特許文献2,3には、三次元映像に対してエラーコンシールメントを行うエラーコンシールメント装置が開示されている。
即ち、特許文献2には、映像データの特定領域でエラーが発生している場合、映像領域単位で、エラーが発生している映像データの代わりに、他の方向から撮影された映像データを補填する技術が開示されている。
また、特許文献3には、映像データの特定領域でエラーが発生している場合、配信映像に含まれている視差ベクトルによって視差補償した映像データで、エラーが発生している映像データを修復することで、三次元映像に対してエラーコンシールメントを行う技術が開示されている。
Patent Documents 2 and 3 below disclose error concealment devices that perform error concealment on 3D images.
That is, in Patent Document 2, when an error has occurred in a specific area of video data, video data captured from other directions is compensated for in the video area unit instead of the video data in which the error has occurred. Techniques to do this are disclosed.
Further, in Patent Document 3, when an error has occurred in a specific area of video data, the video data in which the error has occurred is restored with video data that has been subjected to parallax compensation using a parallax vector included in the distribution video. Thus, a technique for performing error concealment on a three-dimensional image is disclosed.

特開2001−309388号公報JP 2001-309388 A 特開平7−322302号公報JP 7-322302 A 特開2003−319419号公報JP 2003-319419 A

従来のエラーコンシールメント装置は以上のように構成されているので、エラーが発生している映像データの修復等が行われる。しかし、三次元映像に対するエラーコンシールメントの実行タイミングを制御していないため、エラーコンシールメントの実行に伴って、三次元映像に急激な視差変化が発生して、画質が劣化してしまうことがある課題があった。
また、他の方向から撮影された映像データを補填する際、補填に使用することが可能なデータの領域に制限を設けていないため、エラーコンシールメントの実行に伴って、画質が劣化してしまうことがあるという課題があった。
さらに、エラーが発生している映像データの代わりに、他の方向から撮影された映像データを補填する際、水平方向の視差に対するずれを補正していないため、エラーコンシールメントの実行に伴って、画質が劣化してしまうことがあるという課題があった。
Since the conventional error concealment apparatus is configured as described above, restoration of video data in which an error has occurred is performed. However, since the execution timing of error concealment for 3D video is not controlled, a sudden parallax change may occur in 3D video due to execution of error concealment, which may degrade image quality. There was a problem.
In addition, when video data taken from other directions is compensated, there is no restriction on the data area that can be used for compensation, so the image quality deteriorates with the execution of error concealment. There was a problem that there was something.
In addition, when compensating for video data taken from other directions instead of video data in which an error has occurred, the deviation from the horizontal parallax is not corrected, so with the execution of error concealment, There has been a problem that image quality may deteriorate.

この発明は上記のような課題を解決するためになされたもので、欠損が発生している三次元映像の画質を高めることができるエラーコンシールメント装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to obtain an error concealment device capable of improving the image quality of a three-dimensional image in which a defect has occurred.

この発明に係るエラーコンシールメント装置は、三次元映像から二次元映像の映像フレームを生成するとともに、その映像フレーム内の欠損箇所を特定する映像フレーム生成手段と、映像フレーム生成手段により生成された映像フレームの中で、シーンチェンジが発生している映像フレームを検出するシーンチェンジ検出手段と、映像フレーム生成手段により欠損箇所が特定された映像フレームが存在する場合、シーンチェンジ検出手段の検出結果を参照して、その映像フレームより時間的に前方及び後方の映像フレームの中で、シーンチェンジが発生している映像フレームを特定し、シーンチェンジが発生している前方の映像フレームからシーンチェンジが発生している後方の映像フレームまでの区間をフレーム複写区間に設定する複写区間設定手段とを設け、フレーム複写手段が、映像フレーム生成手段により生成された映像フレームの中で、複写区間設定手段により設定されたフレーム複写区間内の映像フレームを、上記二次元映像と撮影方向が異なる二次元映像から生成された映像フレームに置き換える複写処理を行うようにしたものである。   An error concealment device according to the present invention generates a video frame of a 2D video from a 3D video and also specifies a video frame generation means for identifying a missing portion in the video frame, and a video generated by the video frame generation means If there are scene change detection means for detecting a video frame in which a scene change has occurred in the frame and a video frame in which a missing portion is specified by the video frame generation means, refer to the detection result of the scene change detection means. Then, the video frame where the scene change has occurred is identified from the video frames ahead and behind that video frame, and the scene change occurs from the front video frame where the scene change has occurred. Copy area that sets the section to the back video frame as the frame copy section Setting means, and the frame copying means determines the video frames in the frame copying section set by the copying section setting means among the video frames generated by the video frame generating means, with the two-dimensional video and the shooting direction. Copy processing is performed to replace a video frame generated from a different two-dimensional video.

この発明によれば、三次元映像から二次元映像の映像フレームを生成するとともに、その映像フレーム内の欠損箇所を特定する映像フレーム生成手段と、映像フレーム生成手段により生成された映像フレームの中で、シーンチェンジが発生している映像フレームを検出するシーンチェンジ検出手段と、映像フレーム生成手段により欠損箇所が特定された映像フレームが存在する場合、シーンチェンジ検出手段の検出結果を参照して、その映像フレームより時間的に前方及び後方の映像フレームの中で、シーンチェンジが発生している映像フレームを特定し、シーンチェンジが発生している前方の映像フレームからシーンチェンジが発生している後方の映像フレームまでの区間をフレーム複写区間に設定する複写区間設定手段とを設け、フレーム複写手段が、映像フレーム生成手段により生成された映像フレームの中で、複写区間設定手段により設定されたフレーム複写区間内の映像フレームを、上記二次元映像と撮影方向が異なる二次元映像から生成された映像フレームに置き換える複写処理を行うように構成したので、欠損が発生している三次元映像の画質を高めることができる効果がある。   According to the present invention, a video frame of a 2D video is generated from a 3D video, and a video frame generating means for specifying a missing portion in the video frame, and the video frame generated by the video frame generating means If there is a scene change detection means for detecting a video frame in which a scene change has occurred and a video frame in which a missing portion is specified by the video frame generation means, refer to the detection result of the scene change detection means, The video frame where the scene change has occurred is identified in the video frames ahead and behind the video frame, and the rear of the scene frame where the scene change has occurred from the front video frame where the scene change has occurred A copy section setting means for setting the section up to the video frame as a frame copy section; The copying means generates a video frame in the frame copying section set by the copying section setting means from the two-dimensional video having a shooting direction different from that of the two-dimensional video among the video frames generated by the video frame generating means. Since the copying process is performed to replace the image frame, the image quality of the 3D image in which the defect has occurred can be improved.

この発明の実施の形態1による三次元映像の配信システムを示す構成図である。It is a block diagram which shows the delivery system of the three-dimensional image by Embodiment 1 of this invention. この発明の実施の形態1によるエラーコンシールメント装置12を実装している映像受信端末6を示す構成図である。It is a block diagram which shows the video receiver terminal 6 which mounts the error concealment apparatus 12 by Embodiment 1 of this invention. 出力制御部16の管理テーブルを示す説明図である。FIG. 6 is an explanatory diagram showing a management table of the output control unit 16. フレーム複写区間に設定される映像フレームを示す説明図である。It is explanatory drawing which shows the video frame set to a frame copy area. この発明の実施の形態1によるエラーコンシールメント装置12の出力制御部16の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the output control part 16 of the error concealment apparatus 12 by Embodiment 1 of this invention. 二次元映像補正部18による二次元映像フレーム内の欠損箇所の補填処理を示す説明図である。It is explanatory drawing which shows the filling process of the missing part in the two-dimensional video frame by the two-dimensional video correction | amendment part 18. FIG. この発明の実施の形態1によるエラーコンシールメント装置12の二次元映像補正部18の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the two-dimensional image correction | amendment part 18 of the error concealment apparatus 12 by Embodiment 1 of this invention. 付加情報補正部19による付加情報データ内の欠損箇所の補填処理を示す説明図である。It is explanatory drawing which shows the filling process of the missing part in the additional information data by the additional information correction | amendment part 19. FIG. この発明の実施の形態1によるエラーコンシールメント装置12の付加情報補正部19の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the additional information correction | amendment part 19 of the error concealment apparatus 12 by Embodiment 1 of this invention. この発明の実施の形態2によるエラーコンシールメント装置12を実装している映像受信端末6を示す構成図である。It is a block diagram which shows the video receiver terminal 6 which mounts the error concealment apparatus 12 by Embodiment 2 of this invention. 出力制御部32の管理テーブルを示す説明図である。It is explanatory drawing which shows the management table of the output control part 32. FIG. この発明の実施の形態2によるエラーコンシールメント装置12の出力制御部32の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the output control part 32 of the error concealment apparatus 12 by Embodiment 2 of this invention. 映像補正部34による映像フレーム内の欠損箇所の補填処理を示す説明図である。It is explanatory drawing which shows the filling process of the missing part in the video frame by the video correction | amendment part. この発明の実施の形態2によるエラーコンシールメント装置12の映像補正部34の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the image | video correction | amendment part 34 of the error concealment apparatus 12 by Embodiment 2 of this invention.

実施の形態1.
図1はこの発明の実施の形態1による三次元映像の配信システムを示す構成図である。
図1において、映像ストレージ1は三次元映像を保管している記憶装置である。
映像配信サーバ2は映像ストレージ1に保管されている三次元映像を取得して、その三次元映像をRTPパケット化し、トランスポートプロトコルとしてUDPを使用することで、その三次元映像を含むRTPパケットを配信する装置である。
三次元映像は、被写体を複数の方向から撮影することで得られている撮影方向毎の映像データが符号化されているものである。
この実施の形態1では、三次元映像の撮影方向が、人間の右目に対応する方向と、左目に対応する方向の二方向であるとして説明する。
人間は、右目映像と左目映像を提示されると、両眼視差によって三次元の知覚の手がかりを得ることが知られている。ただし、撮影方向を二方向に限定するものではなく、多方向の場合であってもよい。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a 3D video distribution system according to Embodiment 1 of the present invention.
In FIG. 1, a video storage 1 is a storage device that stores 3D video.
The video distribution server 2 acquires the 3D video stored in the video storage 1, converts the 3D video into an RTP packet, and uses UDP as a transport protocol to convert the RTP packet including the 3D video. It is a device for distribution.
The 3D video is obtained by encoding video data for each shooting direction obtained by shooting a subject from a plurality of directions.
In the first embodiment, description will be made assuming that the three-dimensional video shooting directions are two directions, that is, a direction corresponding to the human right eye and a direction corresponding to the left eye.
It is known that when a human is presented with a right-eye image and a left-eye image, a three-dimensional perception cue is obtained by binocular parallax. However, the shooting direction is not limited to two directions, and may be multi-directional.

また、この実施の形態1では、映像配信サーバ2が三次元映像を配信する際、その三次元映像を右目映像又は左目映像のいずれか一方の二次元映像に変換するとともに、その三次元映像を付加情報に変換し(右目映像から左目映像(または、左目映像から右目映像)を復元する際に用いる情報であり、例えば、二次元映像に対する奥行き情報や視差ベクトル、または、二次元映像からもう一方の映像に対する差分情報が該当する)、三次元映像として、いずれか一方の二次元映像と付加情報を配信する。
なお、二次元映像は、例えば、MPEG2やH.264/AVCなどによって符号化されていてもよい。また、付加情報も、例えば、算術符号化などによって符号化されていてもよい。
Further, in the first embodiment, when the video distribution server 2 distributes the 3D video, the 3D video is converted into either a right-eye video or a left-eye video, and the 3D video is converted. This is information used when restoring to additional information (from right-eye video to left-eye video (or from left-eye video to right-eye video). For example, depth information and disparity vectors for 2D video, or another from 2D video Any one 2D video and additional information are distributed as a 3D video.
Note that 2D video is, for example, MPEG2 or H.264. It may be encoded by H.264 / AVC or the like. Further, the additional information may also be encoded by, for example, arithmetic encoding.

外部ネットワーク3は映像配信サーバ2とホームゲートウェイ装置4を接続しているインターネットやLANなどのネットワークである。
ホームゲートウェイ装置4は宅内に設置されて、光ファイバや電話回線を通じて、外部ネットワーク3と接続されており、映像配信サーバ2から配信された三次元映像を含むRTPパケットを映像受信端末6に転送する装置である。
ホームネットワーク5はホームゲートウェイ装置4と映像受信端末6を接続しているLANなどの宅内のネットワークである。
The external network 3 is a network such as the Internet or a LAN that connects the video distribution server 2 and the home gateway device 4.
The home gateway device 4 is installed in the home and connected to the external network 3 through an optical fiber or a telephone line, and transfers the RTP packet including the 3D video distributed from the video distribution server 2 to the video receiving terminal 6. Device.
The home network 5 is a home network such as a LAN connecting the home gateway device 4 and the video receiving terminal 6.

映像受信端末6はホームゲートウェイ装置4により転送された三次元映像を含むRTPパケットを受信し、その三次元映像に欠損箇所があれば、その欠損箇所を補填するエラーコンシールメント処理を実施するエラーコンシールメント装置11(図2を参照)を実装している。
三次元映像対応テレビ7は映像入出力インタフェース(図示せず)を介して映像受信端末6と接続されており、映像受信端末6から出力された右目映像と左目映像を画面に表示することで、三次元映像を再生するテレビである。
The video receiving terminal 6 receives the RTP packet including the 3D video transferred by the home gateway device 4, and if there is a missing part in the 3D video, performs an error concealment process that compensates for the missing part. The device 11 (see FIG. 2) is mounted.
The 3D video-compatible television 7 is connected to the video receiving terminal 6 via a video input / output interface (not shown), and displays the right-eye video and the left-eye video output from the video receiving terminal 6 on the screen. This is a television that plays back 3D images.

図2はこの発明の実施の形態1によるエラーコンシールメント装置12を実装している映像受信端末6を示す構成図である。
図2において、ストリーム受信部11はホームゲートウェイ装置4により転送された三次元映像を含むRTPパケットを受信し、そのRTPパケットに含まれている三次元映像から二次元映像(右目映像の二次元映像、または、左目映像の二次元映像)を分離して、その二次元映像をエラーコンシールメント装置12の二次元映像デコーダ13に出力するとともに、その三次元映像から付加情報(例えば、右目映像の二次元映像を分離している場合、左目映像の二次元映像の復元に用いる情報、左目映像の二次元映像を分離している場合、右目映像の二次元映像の復元に用いる情報)を分離して、その付加情報をエラーコンシールメント装置12の付加情報デコーダ15に出力する処理を実施する。
FIG. 2 is a block diagram showing the video receiving terminal 6 in which the error concealment device 12 according to Embodiment 1 of the present invention is mounted.
In FIG. 2, the stream receiving unit 11 receives an RTP packet including a 3D image transferred by the home gateway device 4, and converts a 2D image (a 2D image of a right-eye image) from the 3D image included in the RTP packet. Alternatively, the two-dimensional video of the left-eye video is separated, and the two-dimensional video is output to the two-dimensional video decoder 13 of the error concealment device 12, and additional information (for example, two of the right-eye video) is output from the three-dimensional video. When separating two-dimensional images, the information used to restore the 2D image of the left-eye image is separated. When separating the two-dimensional image of the left-eye image, the information used to restore the two-dimensional image of the right-eye image is separated. The additional information is output to the additional information decoder 15 of the error concealment device 12.

エラーコンシールメント装置12の二次元映像デコーダ13はストリーム受信部11から出力された二次元映像をデコードして、その二次元映像の映像フレーム(以下、「二次元映像フレーム」と称する)を生成するとともに、その二次元映像フレーム内の欠損箇所を特定する処理を実施する。
ここで、二次元映像フレーム内の欠損箇所は、二次元映像フレームの中で、どの位置に、どれだけの大きさの欠損があるかを示す情報である。二次元映像が、例えば、MPEG2やH.264/AVCなどによって符号化されている場合は、マクロブロックの位置によって欠損箇所を特定してもよい。
なお、二次元映像デコーダ13は映像フレーム生成手段を構成している。
The 2D video decoder 13 of the error concealment device 12 decodes the 2D video output from the stream receiver 11 and generates a video frame of the 2D video (hereinafter referred to as “2D video frame”). At the same time, a process of identifying a missing portion in the 2D video frame is performed.
Here, the missing part in the two-dimensional video frame is information indicating how much of the defect is located at which position in the two-dimensional video frame. Two-dimensional video is, for example, MPEG2 or H.264. In the case of encoding by H.264 / AVC or the like, the missing portion may be specified by the position of the macroblock.
The 2D video decoder 13 constitutes a video frame generating means.

シーンチェンジ検出部14は二次元映像デコーダ13により生成された二次元映像フレームの中で、シーンチェンジが発生している二次元映像フレームを検出する処理を実施する。なお、シーンチェンジ検出部14はシーンチェンジ検出手段を構成している。
付加情報デコーダ15はストリーム受信部11から出力された付加情報をデコードして、1枚の二次元映像フレームに対応する付加情報データを生成するとともに、その付加情報データ内の欠損箇所を特定する処理を実施する。
ここで、付加情報データ内の欠損箇所は、付加情報データの中で、どの位置に、どれだけの大きさの欠損があるかを示す情報である。
なお、付加情報デコーダ15は付加情報データ生成手段を構成している。
The scene change detection unit 14 performs processing for detecting a 2D video frame in which a scene change has occurred in the 2D video frames generated by the 2D video decoder 13. The scene change detection unit 14 constitutes a scene change detection unit.
The additional information decoder 15 decodes the additional information output from the stream receiving unit 11 to generate additional information data corresponding to one 2D video frame, and specifies a missing portion in the additional information data To implement.
Here, the missing part in the additional information data is information indicating how much of a missing part is located at which position in the additional information data.
The additional information decoder 15 constitutes additional information data generating means.

出力制御部16は処理を依頼する処理部を判定する処理(振り分け処理)を実施する。
即ち、出力制御部16は二次元映像デコーダ13により二次元映像フレーム内の欠損箇所が特定されているが、付加情報デコーダ15により付加情報データ内の欠損箇所が特定されていない場合、二次元映像フレーム内の欠損箇所の補填処理を二次元映像補正部18に依頼する。
また、出力制御部16は二次元映像デコーダ13により二次元映像フレーム内の欠損箇所が特定されていないが、付加情報デコーダ15により付加情報データ内の欠損箇所が特定されている場合、付加情報データ内の欠損箇所の補填処理を付加情報補正部19に依頼する。
The output control unit 16 performs processing (distribution processing) for determining a processing unit that requests processing.
That is, the output control unit 16 determines the two-dimensional video when the two-dimensional video decoder 13 identifies the missing part in the two-dimensional video frame, but the additional information decoder 15 does not identify the missing part in the additional information data. The 2D image correction unit 18 is requested to compensate for the missing portion in the frame.
Further, the output control unit 16 does not specify the missing part in the 2D video frame by the 2D video decoder 13, but if the missing part in the additional information data is specified by the additional information decoder 15, the additional information data The additional information correction unit 19 is requested to compensate for the missing portion.

また、出力制御部16は二次元映像デコーダ13により二次元映像フレーム内の欠損箇所が特定されており、かつ、付加情報デコーダ15により付加情報データ内の欠損箇所が特定されている場合、二次元映像フレームの複写処理をフレーム複写部17に依頼する。
出力制御部16は二次元映像フレームの複写処理をフレーム複写部17に依頼する際、シーンチェンジ検出部14の検出結果を参照して、二次元映像デコーダ13により欠損箇所が特定された二次元映像フレームより時間的に前方及び後方の二次元映像フレームの中で、シーンチェンジが発生している二次元映像フレームを特定し、シーンチェンジが発生している前方の二次元映像フレームからシーンチェンジが発生している後方の二次元映像フレームまでの区間をフレーム複写区間に設定し、そのフレーム複写区間をフレーム複写部17に通知する。
In addition, when the missing part in the 2D video frame is specified by the 2D video decoder 13 and the missing part in the additional information data is specified by the additional information decoder 15, the output control unit 16 The frame copying unit 17 is requested to copy the video frame.
The output control unit 16 refers to the detection result of the scene change detection unit 14 when requesting the frame copying unit 17 to copy the 2D video frame, and the 2D video decoder 13 specifies the missing portion. A 2D video frame where a scene change has occurred is identified from the 2D video frames ahead and behind the frame, and a scene change occurs from the front 2D video frame where the scene change has occurred The section up to the rear 2D video frame is set as a frame copy section, and the frame copy section 17 is notified of the frame copy section.

さらに、出力制御部16は二次元映像デコーダ13及び付加情報デコーダ15により欠損箇所が特定されない場合、二次元映像デコーダ13により生成された二次元映像フレーム及び付加情報デコーダ15により生成された付加情報データを左右映像生成部20に出力する。
なお、出力制御部16は複写区間設定手段及び処理依頼手段を構成している。
Further, the output control unit 16 determines the 2D video frame generated by the 2D video decoder 13 and the additional information data generated by the additional information decoder 15 when the missing portion is not specified by the 2D video decoder 13 and the additional information decoder 15. Is output to the left and right video generation unit 20.
The output control unit 16 constitutes a copy section setting unit and a processing request unit.

フレーム複写部17は出力制御部16から複写処理の依頼を受けると、出力制御部16から出力されたフレーム複写区間内の映像フレームを、当該二次元映像と撮影方向が異なる二次元映像から生成された二次元映像フレームに置き換える複写処理を行う。
即ち、フレーム複写部17は二次元映像フレームを複写することで、右目映像と左目映像の対を生成し(右目映像と左目映像は同一の映像フレームになる)、その右目映像と左目映像の対を映像出力部21に出力する。
なお、フレーム複写部17はフレーム複写手段を構成している。
When the frame copying unit 17 receives a copy processing request from the output control unit 16, a video frame in the frame copy section output from the output control unit 16 is generated from the two-dimensional video having a shooting direction different from the two-dimensional video. Copy processing to replace with a 2D video frame.
That is, the frame copying unit 17 generates a pair of right-eye video and left-eye video by copying a two-dimensional video frame (the right-eye video and left-eye video are the same video frame), and the pair of right-eye video and left-eye video. Is output to the video output unit 21.
The frame copying unit 17 constitutes a frame copying unit.

二次元映像補正部18は出力制御部16から欠損箇所の補填処理の依頼を受けると、付加情報デコーダ15により生成された付加情報データに応じて、二次元映像デコーダ13により生成された二次元映像フレーム内の欠損箇所の補填に用いることが可能な二次元映像フレーム内の領域を指定する処理を実施する。
また、二次元映像補正部18は指定の領域内の画素を用いて、二次元映像フレーム内の欠損箇所を補填する処理を実施する。
なお、二次元映像補正部18は第1の欠損箇所補填手段を構成している。
When the 2D video correction unit 18 receives a request for the defect filling process from the output control unit 16, the 2D video correction unit 18 generates the 2D video generated by the 2D video decoder 13 according to the additional information data generated by the additional information decoder 15. A process for designating an area in the two-dimensional video frame that can be used for filling a missing portion in the frame is performed.
In addition, the 2D video correction unit 18 performs a process of compensating for the missing portion in the 2D video frame using the pixels in the designated area.
Note that the 2D video correction unit 18 constitutes a first missing portion compensation means.

付加情報補正部19は出力制御部16から欠損箇所の補填処理の依頼を受けると、二次元映像デコーダ13により生成された二次元映像フレームに応じて、付加情報デコーダ15により生成された付加情報データ内の欠損箇所の補填に用いることが可能な付加情報データ内の領域を指定する処理を実施する。
また、付加情報補正部19は指定の領域内の付加情報データを用いて、付加情報データ内の欠損箇所を補填する処理を実施する。
なお、付加情報補正部19は第2の欠損箇所補填手段を構成している。
When the additional information correction unit 19 receives a request for the missing portion compensation process from the output control unit 16, the additional information data generated by the additional information decoder 15 in accordance with the 2D video frame generated by the 2D video decoder 13. A process for designating an area in the additional information data that can be used for filling in the missing portion is performed.
Further, the additional information correction unit 19 performs a process of compensating for a missing portion in the additional information data using the additional information data in the designated area.
Note that the additional information correction unit 19 constitutes a second missing portion compensation means.

左右映像生成部20は出力制御部16から出力された二次元映像フレーム及び付加情報データ、二次元映像補正部18から出力された補正後の二次元映像フレーム及び付加情報データ、あるいは、付加情報補正部19から出力された二次元映像フレーム及び補正後の付加情報データを用いて、その二次元映像フレームに係る二次元映像と撮影方向が異なる二次元映像の二次元映像フレームを生成し、2つの二次元映像フレームを右目映像と左目映像の対として、映像出力部21に出力する処理を実施する。
ただし、フレーム複写部17から右目映像と左目映像の対が出力されている場合には、その右目映像と左目映像の対を映像出力部21に出力する。
映像出力部21は映像入出力インタフェース(図示せず)を介して、右目映像と左目映像の対を三次元映像対応テレビ7に出力する処理を実施する。
The left and right video generation unit 20 outputs the 2D video frame and additional information data output from the output control unit 16, the corrected 2D video frame and additional information data output from the 2D video correction unit 18, or the additional information correction. The 2D video frame output from the unit 19 and the corrected additional information data are used to generate a 2D video frame of a 2D video having a different shooting direction from the 2D video related to the 2D video frame, A process of outputting the two-dimensional video frame to the video output unit 21 as a pair of a right eye video and a left eye video is performed.
However, when a pair of right-eye video and left-eye video is output from the frame copying unit 17, the pair of right-eye video and left-eye video is output to the video output unit 21.
The video output unit 21 performs a process of outputting a pair of right-eye video and left-eye video to the 3D video-compatible television 7 via a video input / output interface (not shown).

図2の例では、エラーコンシールメント装置12の構成要素である二次元映像デコーダ13、シーンチェンジ検出部14、付加情報デコーダ15、出力制御部16、フレーム複写部17、二次元映像補正部18及び付加情報補正部19のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、エラーコンシールメント装置12がコンピュータなどで構成される場合、二次元映像デコーダ13、シーンチェンジ検出部14、付加情報デコーダ15、出力制御部16、フレーム複写部17、二次元映像補正部18及び付加情報補正部19の処理内容の全部又は一部をコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。   In the example of FIG. 2, the 2D video decoder 13, the scene change detection unit 14, the additional information decoder 15, the output control unit 16, the frame copy unit 17, the 2D video correction unit 18, which are components of the error concealment device 12, Although it is assumed that each of the additional information correction units 19 is configured by dedicated hardware (for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer), the error concealment device 12 Is configured by a computer or the like, the processing of the 2D video decoder 13, the scene change detection unit 14, the additional information decoder 15, the output control unit 16, the frame copying unit 17, the 2D video correction unit 18, and the additional information correction unit 19 All or part of the contents is stored in the memory of the computer, and the CPU of the computer stores the memory You may execute a program stored.

図5はこの発明の実施の形態1によるエラーコンシールメント装置12の出力制御部16の処理内容を示すフローチャートである。
図7はこの発明の実施の形態1によるエラーコンシールメント装置12の二次元映像補正部18の処理内容を示すフローチャートである。
図9はこの発明の実施の形態1によるエラーコンシールメント装置12の付加情報補正部19の処理内容を示すフローチャートである。
FIG. 5 is a flowchart showing the processing contents of the output control unit 16 of the error concealment device 12 according to Embodiment 1 of the present invention.
FIG. 7 is a flowchart showing the processing contents of the 2D video correction unit 18 of the error concealment device 12 according to Embodiment 1 of the present invention.
FIG. 9 is a flowchart showing the processing contents of the additional information correction unit 19 of the error concealment device 12 according to Embodiment 1 of the present invention.

次に動作について説明する。
まず、映像配信サーバ2は、映像ストレージ1に保管されている三次元映像を取得して、その三次元映像をRTPパケット化し、トランスポートプロトコルとしてUDPを使用することで、その三次元映像を含むRTPパケットを外部ネットワーク3経由でホームゲートウェイ装置4に配信する。
この実施の形態1では、説明の便宜上、三次元映像として、右目映像の二次元映像と付加情報(右目映像から左目映像を復元する際に用いる情報)を配信するものとする。
Next, the operation will be described.
First, the video distribution server 2 acquires the 3D video stored in the video storage 1, converts the 3D video into an RTP packet, and uses UDP as a transport protocol, thereby including the 3D video. The RTP packet is distributed to the home gateway device 4 via the external network 3.
In the first embodiment, for convenience of explanation, it is assumed that two-dimensional video of the right-eye video and additional information (information used when restoring the left-eye video from the right-eye video) are distributed as the three-dimensional video.

ホームゲートウェイ装置4は、映像配信サーバ2から配信された三次元映像を含むRTPパケットを受信すると、そのRTPパケットをホームネットワーク5経由で映像受信端末6に転送する。
映像受信端末6は、ホームゲートウェイ装置4により転送された三次元映像を含むRTPパケットを受信し、その三次元映像から右目映像と左目映像の対を生成し、その右目映像と左目映像の対を三次元映像対応テレビ7に出力する。
ただし、映像受信端末6は、その三次元映像に欠損箇所があれば、その欠損箇所を補填してから右目映像と左目映像の対を生成し、その右目映像と左目映像の対を三次元映像対応テレビ7に出力する。
When the home gateway device 4 receives the RTP packet including the 3D video distributed from the video distribution server 2, the home gateway device 4 transfers the RTP packet to the video receiving terminal 6 via the home network 5.
The video receiving terminal 6 receives the RTP packet including the 3D video transferred by the home gateway device 4, generates a pair of right eye video and left eye video from the 3D video, and generates the pair of right eye video and left eye video. It outputs to the television 7 corresponding to a three-dimensional image.
However, if there is a missing part in the 3D video, the video receiving terminal 6 compensates for the missing part and then generates a pair of right-eye video and left-eye video. Output to the corresponding TV 7.

以下、映像受信端末6の処理内容を具体的に説明する。
ストリーム受信部11は、ホームゲートウェイ装置4により転送された三次元映像を含むRTPパケットを受信し、そのRTPパケットに含まれている三次元映像から右目映像の二次元映像を分離して、その二次元映像をエラーコンシールメント装置12の二次元映像デコーダ13に出力する。
また、ストリーム受信部11は、そのRTPパケットに含まれている三次元映像から付加情報を分離して、その付加情報をエラーコンシールメント装置12の付加情報デコーダ15に出力する。
Hereinafter, the processing content of the video receiving terminal 6 will be described in detail.
The stream receiving unit 11 receives the RTP packet including the 3D video transferred by the home gateway device 4, separates the 2D video of the right-eye video from the 3D video included in the RTP packet, The two-dimensional video is output to the two-dimensional video decoder 13 of the error concealment device 12.
Further, the stream receiving unit 11 separates the additional information from the 3D video included in the RTP packet, and outputs the additional information to the additional information decoder 15 of the error concealment device 12.

二次元映像デコーダ13は、ストリーム受信部11から右目映像の二次元映像を受けると、その二次元映像をデコードして、その二次元映像の映像フレームである二次元映像フレームを生成し、その二次元映像フレームをシーンチェンジ検出部14及び出力制御部16に出力する。
また、二次元映像デコーダ13は、その二次元映像をデコードする際、その二次元映像フレーム内の欠損箇所を特定する処理を実施する。
二次元映像フレーム内の欠損箇所は、二次元映像フレームの中で、どの位置に、どれだけの大きさの欠損があるかを示す情報である。
When the 2D video decoder 13 receives the 2D video of the right-eye video from the stream receiver 11, the 2D video decoder 13 decodes the 2D video and generates a 2D video frame that is a video frame of the 2D video. The three-dimensional video frame is output to the scene change detection unit 14 and the output control unit 16.
In addition, when the 2D video decoder 13 decodes the 2D video, the 2D video decoder 13 performs a process of specifying a missing portion in the 2D video frame.
The missing part in the 2D video frame is information indicating how much of the missing part is located at which position in the 2D video frame.

シーンチェンジ検出部14は、二次元映像デコーダ13から二次元映像フレームを受けると、例えば、前後の二次元映像フレームを比較することで、二次元映像デコーダ13により生成された二次元映像フレームの中で、シーンチェンジが発生している二次元映像フレームを検出し、その検出結果を出力制御部16に通知する。   When the scene change detection unit 14 receives the 2D video frame from the 2D video decoder 13, for example, the scene change detection unit 14 compares the two-dimensional video frames before and after the two-dimensional video frame. Then, the 2D video frame in which the scene change has occurred is detected, and the detection result is notified to the output control unit 16.

付加情報デコーダ15は、ストリーム受信部11から付加情報を受けると、その付加情報をデコードして、1枚の二次元映像フレームに対応する付加情報データを生成し、その付加情報データを出力制御部16に出力する。
また、付加情報デコーダ15は、その付加情報をデコードする際、その付加情報データ内の欠損箇所を特定する処理を実施する。
ここで、付加情報データ内の欠損箇所は、付加情報データの中で、どの位置に、どれだけの大きさの欠損があるかを示す情報である。
When the additional information decoder 15 receives the additional information from the stream receiving unit 11, the additional information decoder 15 decodes the additional information, generates additional information data corresponding to one 2D video frame, and outputs the additional information data to the output control unit. 16 is output.
Further, when the additional information decoder 15 decodes the additional information, the additional information decoder 15 performs a process of identifying a missing portion in the additional information data.
Here, the missing part in the additional information data is information indicating how much of a missing part is located at which position in the additional information data.

出力制御部16は、図3に示すような管理テーブルを備えており、各種の情報を管理テーブルに格納して管理している。
即ち、出力制御部16は、二次元映像デコーダ13から出力された二次元映像フレームを“二次元映像フレームB1”として管理し、二次元映像デコーダ13から出力された二次元映像フレーム内の欠損箇所を“欠損箇所C1”として管理する。
また、出力制御部16は、付加情報デコーダ15から出力された付加情報データを“付加情報データD1”として管理し、付加情報デコーダ15から出力された付加情報データ内の欠損箇所を“欠損箇所E1”として管理する。
また、出力制御部16は、シーンチェンジ検出部14によりシーンチェンジが検出された二次元映像フレームを示すマーキング情報を“シーンチェンジ種別F1”として管理する。
さらに、出力制御部16は、処理を依頼する処理部の判定結果を“振り分け種別G1”として管理し、二次元映像デコーダ13から出力される二次元映像フレームの識別情報を“シーケンス番号A1”として管理する。なお、シーケンス番号A1は、二次元映像デコーダ13からの出力順が先の二次元映像フレームから順番に小さい番号が割り当てられる。
The output control unit 16 includes a management table as shown in FIG. 3, and manages various information stored in the management table.
That is, the output control unit 16 manages the 2D video frame output from the 2D video decoder 13 as “2D video frame B1”, and the missing portion in the 2D video frame output from the 2D video decoder 13. Is managed as “defect location C1”.
Further, the output control unit 16 manages the additional information data output from the additional information decoder 15 as “additional information data D1”, and determines the missing portion in the additional information data output from the additional information decoder 15 as “missing portion E1. To manage.
Further, the output control unit 16 manages the marking information indicating the 2D video frame in which the scene change is detected by the scene change detection unit 14 as “scene change type F1”.
Further, the output control unit 16 manages the determination result of the processing unit requesting the processing as “sorting type G1”, and the identification information of the 2D video frame output from the 2D video decoder 13 as “sequence number A1”. to manage. The sequence number A1 is assigned a smaller number in order from the previous 2D video frame in the output order from the 2D video decoder 13.

出力制御部16は、図3の管理テーブル内に、シーケンス番号A1の二次元映像フレーム内の欠損箇所C1と、付加情報データ内の欠損箇所E1の双方が格納されていない場合、三次元映像に欠損が発生することなく正常に受信されており、三次元映像に対するエラーコンシールメントを行う必要がないので、振り分け種別G1を“左右映像生成”に設定する。
出力制御部16は、図3の管理テーブル内に、シーケンス番号A1の二次元映像フレーム内の欠損箇所C1が格納されているが、付加情報データ内の欠損箇所E1が格納されていない場合、付加情報データには欠損が発生していないが、二次元映像フレームには欠損が発生しており、二次元映像フレームを補正する必要があるので、振り分け種別G1を“二次元映像補正”に設定する。
The output control unit 16 displays the 3D video in the management table of FIG. 3 when both the missing part C1 in the 2D video frame with the sequence number A1 and the missing part E1 in the additional information data are not stored. Since the image is normally received without any loss and it is not necessary to perform error concealment on the 3D video, the distribution type G1 is set to “left / right video generation”.
If the missing part C1 in the 2D video frame with the sequence number A1 is stored in the management table of FIG. 3, but the missing part E1 in the additional information data is not stored in the management table of FIG. There is no defect in the information data, but there is a defect in the 2D video frame, and it is necessary to correct the 2D video frame, so the distribution type G1 is set to “2D video correction”. .

出力制御部16は、図3の管理テーブル内に、シーケンス番号A1の二次元映像フレーム内の欠損箇所C1が格納されていないが、付加情報データ内の欠損箇所E1が格納されている場合、二次元映像フレームには欠損が発生していないが、付加情報データには欠損が発生しており、付加情報データを補正する必要があるので、振り分け種別G1を“付加情報補正”に設定する(詳細は後述するが、付加情報データの欠損率が大きく、付加情報データを補正することができない場合には、振り分け種別G1を“フレーム複写”に設定する)。
出力制御部16は、図3の管理テーブル内に、シーケンス番号A1の二次元映像フレーム内の欠損箇所C1が格納されており、かつ、付加情報データ内の欠損箇所E1が格納されている場合、あるいは、二次元映像フレーム内の欠損箇所C1が格納されていないが、付加情報データの欠損率が大きい場合、振り分け種別G1を“フレーム複写”に設定する。
The output control unit 16 does not store the missing part C1 in the 2D video frame with the sequence number A1 in the management table of FIG. 3, but stores the missing part E1 in the additional information data. There is no defect in the three-dimensional video frame, but there is a defect in the additional information data, and the additional information data needs to be corrected. Therefore, the distribution type G1 is set to “additional information correction” (details) As will be described later, when the missing rate of the additional information data is large and the additional information data cannot be corrected, the distribution type G1 is set to “frame copy”).
The output control unit 16 stores the missing part C1 in the 2D video frame with the sequence number A1 and the missing part E1 in the additional information data in the management table of FIG. Alternatively, if the missing portion C1 in the 2D video frame is not stored but the missing rate of the additional information data is large, the distribution type G1 is set to “frame copy”.

出力制御部16は、振り分け種別G1を“フレーム複写”に設定する場合、図4に示すように、シーンチェンジ検出部14の検出結果を参照して、シーケンス番号A1の二次元映像フレームより時間的に前方及び後方の二次元映像フレームの中で、シーンチェンジが発生している二次元映像フレームを特定する。
出力制御部16は、シーンチェンジが発生している前方の二次元映像フレームからシーンチェンジが発生している後方の二次元映像フレームまでの区間をフレーム複写区間に設定し、そのフレーム複写区間をフレーム複写部17に通知する。
When the distribution type G1 is set to “frame copy”, the output control unit 16 refers to the detection result of the scene change detection unit 14 as shown in FIG. In addition, the 2D video frame in which a scene change has occurred is identified among the front and rear 2D video frames.
The output control unit 16 sets a section from the front two-dimensional video frame where the scene change is occurring to the rear two-dimensional video frame where the scene change is occurring as a frame copy section, and sets the frame copy section as a frame. The copy unit 17 is notified.

即ち、出力制御部16は、振り分け種別G1を“フレーム複写”に設定する場合、既に、バッファ(図示せず)に格納されている二次元映像フレーム(シーケンス番号A1の二次元映像フレームより時間的に前方の二次元映像フレーム)の中で、格納順が新しい二次元映像フレームから順番に参照して、シーンチェンジ種別F1がマークされている二次元映像フレームがあるまで、参照している二次元映像フレームの振り分け種別G1を“フレーム複写”に変更する。仮に、バッファ内にシーンチェンジ種別F1がマークされている二次元映像フレームが存在しない場合、バッファ内の全ての二次元映像フレームの振り分け種別G1を“フレーム複写”に変更するようにしてもよいし、バッファ内の全ての二次元映像フレームの振り分け種別G1を変更しないようにしてもよい。
また、次に処理する二次元映像フレーム(シーケンス番号A1の二次元映像フレームより時間的に後方の二次元映像フレーム)については、シーンチェンジ種別F1がマークされているものが現れるまで、振り分け種別G1を“フレーム複写”に設定する。
That is, when the distribution type G1 is set to “frame copy”, the output control unit 16 uses a 2D video frame already stored in a buffer (not shown) (temporarily compared to the 2D video frame with the sequence number A1). 2D image frame in front of the 2D image frame), the 2D image frame is referred to until there is a 2D image frame marked with the scene change type F1. The video frame distribution type G1 is changed to “frame copy”. If there is no 2D video frame marked with the scene change type F1 in the buffer, the distribution type G1 of all 2D video frames in the buffer may be changed to “frame copy”. The distribution type G1 of all the 2D video frames in the buffer may not be changed.
Further, for the 2D video frame to be processed next (2D video frame temporally behind the 2D video frame of sequence number A1), the distribution type G1 until the scene change type F1 marked appears. Is set to “frame copy”.

このように、出力制御部16がフレーム複写区間を設定している理由は、二次元映像フレームの複写処理の実施に伴う画質の劣化を抑制するためである。
即ち、後述するフレーム複写部17が、二次元映像フレームの複写処理を実施することで、右目映像と左目映像の対を生成すると、三次元映像対応テレビ7に表示される映像が二次元映像として人間に知覚される。このため、人間が三次元を知覚している状態から二次元を知覚する状態に変化し(急激に視差変化が発生する)、この視差変化によって人間が感じる画質が劣化する。
二次元映像フレームの複写処理を実施するタイミングをシーンチェンジが発生しているタイミングと合わせれば、同一シーン内での突然の視差変化の発生を防止して、三次元映像の画質を向上することができる。
As described above, the reason why the output control unit 16 sets the frame copy section is to suppress the deterioration of the image quality accompanying the execution of the copying process of the 2D video frame.
That is, when the frame copy unit 17 described later generates a pair of a right-eye image and a left-eye image by performing a copy process of a 2D image frame, the image displayed on the 3D image-compatible television 7 is converted into a 2D image. Perceived by humans. For this reason, it changes from a state in which human beings perceive 3D to a state in which 2D is perceived (a parallax change occurs abruptly), and the image quality perceived by humans is degraded by this parallax change.
By matching the timing of copying 2D video frames with the timing of scene changes, it is possible to improve the quality of 3D video by preventing sudden parallax changes in the same scene. it can.

以下、図5を参照しながら、出力制御部16の振り分け処理を具体的に説明する。
まず、出力制御部16は、図3の管理テーブル内にシーンチェンジ種別F1が格納されているか否かを判定する(ステップST1)。
即ち、出力制御部16は、シーケンス番号A1の二次元映像フレームが、シーンチェンジが発生している二次元映像フレームであるか否かを判定する。
出力制御部16は、図3の管理テーブル内にシーンチェンジ種別F1が格納されている場合、フレーム複写判定フラグがONであるか否かを判定し(ステップST2)、フレーム複写判定フラグがONであれば、そのフレーム複写判定フラグをOFFに設定する(ステップST3)。
ここで、フレーム複写判定フラグは、次に処理する二次元映像フレームの振り分け種別G1に対して、“フレーム複写”を設定するか否かを判定する際に用いるフラグである。
Hereinafter, the distribution process of the output control unit 16 will be specifically described with reference to FIG.
First, the output control unit 16 determines whether or not the scene change type F1 is stored in the management table of FIG. 3 (step ST1).
That is, the output control unit 16 determines whether or not the 2D video frame having the sequence number A1 is a 2D video frame in which a scene change has occurred.
When the scene change type F1 is stored in the management table of FIG. 3, the output control unit 16 determines whether or not the frame copy determination flag is ON (step ST2), and the frame copy determination flag is ON. If there is, the frame copy determination flag is set to OFF (step ST3).
Here, the frame copy determination flag is a flag used when determining whether or not “frame copy” is set for the distribution type G1 of the 2D video frame to be processed next.

出力制御部16は、図3の管理テーブル内にシーンチェンジ種別F1が格納されていない場合、フレーム複写判定フラグがONであるか否かを判定し(ステップST4)、フレーム複写判定フラグがONであれば、振り分け種別G1を“フレーム複写”に設定する(ステップST5)。   When the scene change type F1 is not stored in the management table of FIG. 3, the output control unit 16 determines whether or not the frame copy determination flag is ON (step ST4), and the frame copy determination flag is ON. If there is, the distribution type G1 is set to “frame copy” (step ST5).

出力制御部16は、フレーム複写判定フラグがOFFである場合、図3の管理テーブル内に、二次元映像フレーム内の欠損箇所C1が格納されているか否かを判定する(ステップST6)。
即ち、出力制御部16は、シーケンス番号A1の二次元映像フレーム内に欠損箇所があるか否かを判定する。
出力制御部16は、シーケンス番号A1の二次元映像フレーム内に欠損箇所がある場合、図3の管理テーブル内に、付加情報データ内の欠損箇所E1が格納されているか否かを判定する(ステップST7)。
即ち、出力制御部16は、シーケンス番号A1の付加情報データ内に欠損箇所があるか否かを判定する。
出力制御部16は、付加情報データ内に欠損箇所がない場合、二次元映像フレームを補正するために、振り分け種別G1を“二次元映像補正”に設定する(ステップST8)。
When the frame copy determination flag is OFF, the output control unit 16 determines whether or not the missing portion C1 in the 2D video frame is stored in the management table of FIG. 3 (step ST6).
That is, the output control unit 16 determines whether or not there is a missing portion in the 2D video frame with the sequence number A1.
When there is a missing part in the 2D video frame of sequence number A1, the output control unit 16 determines whether or not the missing part E1 in the additional information data is stored in the management table of FIG. ST7).
That is, the output control unit 16 determines whether or not there is a missing portion in the additional information data with the sequence number A1.
If there is no missing portion in the additional information data, the output control unit 16 sets the distribution type G1 to “2D video correction” in order to correct the 2D video frame (step ST8).

出力制御部16は、シーケンス番号A1の二次元映像フレーム内に欠損箇所がない場合、図3の管理テーブル内に、付加情報データ内の欠損箇所E1が格納されているか否かを判定する(ステップST9)。
即ち、出力制御部16は、シーケンス番号A1の付加情報データ内に欠損箇所があるか否かを判定する。
出力制御部16は、付加情報データ内に欠損箇所がない場合、三次元映像に対するエラーコンシールメントを行う必要がないので、振り分け種別G1を“左右映像生成”に設定する(ステップST10)。
When there is no missing part in the 2D video frame of sequence number A1, the output control unit 16 determines whether or not the missing part E1 in the additional information data is stored in the management table of FIG. ST9).
That is, the output control unit 16 determines whether or not there is a missing portion in the additional information data with the sequence number A1.
If there is no missing part in the additional information data, the output control unit 16 does not need to perform error concealment on the 3D video, and therefore sets the distribution type G1 to “left / right video generation” (step ST10).

出力制御部16は、付加情報データ内に欠損箇所がある場合、付加情報データ内の欠損箇所E1から付加情報データの欠損率を算出する(ステップST11)。ここで、欠損率は、付加情報データの全体に対する欠損箇所の割合である。
出力制御部16は、付加情報データの欠損率を所定の閾値と比較し(ステップST12)、その付加情報データの欠損率が閾値以内であれば、その付加情報データの補正が可能であるため、振り分け種別G1を“付加情報補正”に設定する(ステップST13)。
When there is a missing part in the additional information data, the output control unit 16 calculates the missing rate of the additional information data from the missing part E1 in the additional information data (step ST11). Here, the loss rate is the ratio of the missing portion to the entire additional information data.
The output control unit 16 compares the missing rate of the additional information data with a predetermined threshold (step ST12), and if the missing rate of the additional information data is within the threshold, the additional information data can be corrected. The distribution type G1 is set to “additional information correction” (step ST13).

出力制御部16は、その付加情報データの欠損率が閾値を超えている場合、あるいは、二次元映像フレームと付加情報データ内の双方に欠損箇所がある場合、フレーム複写判定フラグをONに設定して(ステップST14)、振り分け種別G1を“フレーム複写”に設定する(ステップST15)。
出力制御部16は、シーケンス番号A1の値から1を減じて(ステップST16)、時間的に1つ前の二次元映像フレームが、シーンチェンジが発生している二次元映像フレームであるか否かを判定する。あるいは、時間的に1つ前の二次元映像フレームが、バッファ内の最後の二次元映像フレームであるか否かを判定する(ステップST17)。
時間的に1つ前の二次元映像フレームが、シーンチェンジが発生している二次元映像フレームでもなく、バッファ内の最後の二次元映像フレームでもない場合、ステップST15の処理に戻り、ステップST15〜ST17の処理が繰り返し実施される。
これにより、フレーム複写区間内の二次元映像フレームの振り分け種別G1が“フレーム複写”に設定される。
The output control unit 16 sets the frame copy determination flag to ON when the missing rate of the additional information data exceeds the threshold or when there is a missing portion in both the 2D video frame and the additional information data. (Step ST14), the distribution type G1 is set to “frame copy” (step ST15).
The output control unit 16 subtracts 1 from the value of the sequence number A1 (step ST16), and determines whether or not the temporally previous 2D video frame is a 2D video frame in which a scene change has occurred. Determine. Alternatively, it is determined whether or not the previous two-dimensional video frame in time is the last two-dimensional video frame in the buffer (step ST17).
If the previous two-dimensional video frame is not the two-dimensional video frame in which the scene change has occurred or the last two-dimensional video frame in the buffer, the process returns to step ST15, and steps ST15 to ST15- The process of ST17 is repeatedly performed.
As a result, the distribution type G1 of the 2D video frame in the frame copy section is set to “frame copy”.

図5では、“フレーム複写”の判定を実施した場合、バッファ内にシーンチェンジ種別F1がマークされている二次元映像フレームがなければ、バッファ内の全ての二次元映像フレームの振り分け種別G1を“フレーム複写”に変更する例を記載している。   In FIG. 5, when the determination of “frame copy” is performed, if there is no 2D video frame with the scene change type F1 marked in the buffer, the distribution type G1 of all 2D video frames in the buffer is set to “ An example of changing to “frame copy” is described.

フレーム複写部17は、出力制御部16の管理テーブルに格納されている振り分け種別G1が“フレーム複写”であれば、出力制御部16から複写処理の依頼を受けていると判断し、出力制御部16の管理テーブルに格納されているシーケンス番号A1の二次元映像フレームB1及び付加情報データD1を取得する。
フレーム複写部17は、二次元映像フレームB1と付加情報データD1を取得すると、その二次元映像フレームB1と付加情報データD1から、二次元映像フレームB1に係る二次元映像(右目映像の二次元映像)と撮影方向が異なる二次元映像(左目映像の二次元映像)の二次元映像フレームを生成し、その二次元映像フレームを二次元映像フレームB1に複写する(右目映像を左目映像と同じ映像フレームにする)。
フレーム複写部17は、二次元映像フレームの複写処理を行うことで、右目映像と左目映像の対を生成すると、その右目映像と左目映像の対を映像出力部21に出力する。
If the distribution type G1 stored in the management table of the output control unit 16 is “frame copy”, the frame copy unit 17 determines that a copy processing request has been received from the output control unit 16, and the output control unit The two-dimensional video frame B1 with the sequence number A1 and the additional information data D1 stored in the management table 16 are acquired.
When the frame copying unit 17 acquires the 2D video frame B1 and the additional information data D1, the 2D video frame B1 and the additional information data D1 are used to generate a 2D video (a 2D video of the right-eye video) related to the 2D video frame B1. ) And a 2D video frame of a different shooting direction (a 2D video of the left eye video) and copy the 2D video frame to the 2D video frame B1 (the right eye video is the same video frame as the left eye video) ).
When the frame copying unit 17 generates a pair of right-eye video and left-eye video by performing a copying process of the two-dimensional video frame, the pair of right-eye video and left-eye video is output to the video output unit 21.

二次元映像補正部18は、出力制御部16の管理テーブルに格納されている振り分け種別G1が“二次元映像補正”であれば、出力制御部16から欠損箇所の補填処理の依頼を受けていると判断し、出力制御部16の管理テーブルに格納されているシーケンス番号A1の二次元映像フレームB1、二次元映像フレーム内の欠損箇所C1及び付加情報データD1を取得する。
二次元映像補正部18は、二次元映像フレームB1、二次元映像フレーム内の欠損箇所C1及び付加情報データD1を取得すると、その付加情報データD1に応じて、その二次元映像フレーム内の欠損箇所C1の補填に用いることが可能な二次元映像フレーム内の領域を指定する。
そして、二次元映像補正部18は、指定の領域内の画素を用いて、二次元映像フレーム内の欠損箇所C1を補填する。
If the distribution type G1 stored in the management table of the output control unit 16 is “2D video correction”, the 2D video correction unit 18 has received a request for a missing portion compensation process from the output control unit 16. And the 2D video frame B1 with the sequence number A1 stored in the management table of the output control unit 16, the missing portion C1 in the 2D video frame, and the additional information data D1 are acquired.
When the 2D video correction unit 18 acquires the 2D video frame B1, the missing portion C1 in the 2D video frame, and the additional information data D1, the missing portion in the 2D video frame is obtained according to the additional information data D1. An area in the 2D video frame that can be used for C1 compensation is designated.
Then, the 2D video correction unit 18 compensates for the missing portion C1 in the 2D video frame using the pixels in the designated area.

図6は二次元映像補正部18による二次元映像フレーム内の欠損箇所の補填処理を示す説明図である。
図6において、付加情報データは、パラメータとその位置が二次元配列の数値として表現されているものとする。図6では、説明のためにパラメータの数値の大きさを濃淡で表現している。
以下、図6及び図7を参照しながら、二次元映像補正部18の補填処理を具体的に説明する。
FIG. 6 is an explanatory diagram showing a filling process of a missing portion in the 2D video frame by the 2D video correction unit 18.
In FIG. 6, in the additional information data, the parameters and their positions are expressed as numerical values in a two-dimensional array. In FIG. 6, the numerical values of the parameters are expressed by shading for the sake of explanation.
Hereinafter, the compensation process of the 2D video correction unit 18 will be described in detail with reference to FIGS. 6 and 7.

二次元映像補正部18は、出力制御部16の管理テーブルに格納されている振り分け種別G1が“二次元映像補正”であれば、出力制御部16の管理テーブルに格納されているシーケンス番号A1の二次元映像フレームB1、二次元映像フレーム内の欠損箇所C1及び付加情報データD1を取得し、その付加情報データD1から輪郭線を抽出する(ステップST21)。
例えば、付加情報データが奥行き情報であり、奥行きの大きさと位置が二次元配列の数値で表現されているとすれば、隣接する配列の要素間で、数値の差異が一定以上の大きさである箇所をエッジ点として、これらのエッジ点を結んだものを輪郭線とすることができる。
If the distribution type G1 stored in the management table of the output control unit 16 is “2D video correction”, the 2D video correction unit 18 has the sequence number A1 stored in the management table of the output control unit 16. The 2D video frame B1, the missing portion C1 in the 2D video frame, and the additional information data D1 are acquired, and a contour line is extracted from the additional information data D1 (step ST21).
For example, if the additional information data is depth information, and the depth size and position are expressed by numerical values of a two-dimensional array, the numerical difference between adjacent elements is greater than a certain value. A place can be defined as an edge point, and a line connecting these edge points can be used as an outline.

二次元映像補正部18は、付加情報データD1から輪郭線を抽出すると、その輪郭線を用いて、二次元映像フレームB1の領域を分割する(ステップST22)。
二次元映像補正部18は、二次元映像フレームB1の領域を分割すると、二次元映像フレーム内に欠損箇所C1が存在していれば(ステップST23)、二次元映像フレームB1における複数の分割領域の中で、その欠損箇所C1が属している分割領域を特定し、当該分割領域を欠損箇所の補填に用いることが可能な領域に指定する(ステップST24)。
図6の例では、二次元映像フレーム内の欠損箇所C1が、輪郭線で囲まれている円の外側と内側に跨っているので、円の外側に存在している欠損箇所C1の部分は、円の外側の分割領域を欠損箇所の補填に用いることが可能な領域に指定し、円の内側に存在している欠損箇所C1の部分は、円の内側の分割領域を欠損箇所の補填に用いることが可能な領域に指定する。
When the 2D video correction unit 18 extracts the contour line from the additional information data D1, the 2D video correction unit 18 divides the region of the 2D video frame B1 using the contour line (step ST22).
When the 2D video correction unit 18 divides the region of the 2D video frame B1, if there is a missing portion C1 in the 2D video frame (step ST23), the 2D video correction unit 18 determines a plurality of divided regions in the 2D video frame B1. Among them, the divided region to which the missing portion C1 belongs is specified, and the divided region is designated as a region that can be used for filling the missing portion (step ST24).
In the example of FIG. 6, since the missing portion C1 in the 2D video frame straddles the outside and the inside of the circle surrounded by the outline, the portion of the missing portion C1 existing outside the circle is The divided area outside the circle is designated as an area that can be used for filling the missing part, and the part of the missing part C1 existing inside the circle is used for filling the missing part. Specify the area that can

二次元映像補正部18は、欠損箇所C1が属している分割領域を特定すると、その分割領域内の画素の中で、欠損箇所C1内の画素と最も近い位置に存在している画素を複写対象画素に選択し、その複写対象画素を欠損箇所C1内の画素に複写する(ステップST25)。
図6の例では、欠損箇所C1内の画素が、輪郭線で囲まれている円の内側の分割領域内の画素のうち、欠損箇所C1の下側に存在している画素によって複写されている様子を示している。
このように、複写対象画素の選択について、輪郭線によって分割される二次元映像フレーム上の領域に対する制約が設けられ、欠損箇所C1が存在している分割領域内の画素が複写対象画素に選択される。
これにより、輪郭線を越えている位置の画素が複写されることがなく、欠損箇所に近い画素で復元されるため、三次元映像の画質を高めることができる。
欠損箇所C1内の全ての画素に対する複写処理が完了すると、二次元映像補正部18の処理が終了する。
When the two-dimensional image correction unit 18 identifies the divided area to which the missing portion C1 belongs, the pixel existing in the position closest to the pixel in the missing portion C1 among the pixels in the divided region is to be copied. The pixel is selected, and the copy target pixel is copied to the pixel in the defective portion C1 (step ST25).
In the example of FIG. 6, the pixel in the missing portion C1 is copied by the pixel existing below the missing portion C1 among the pixels in the divided area inside the circle surrounded by the outline. It shows a state.
As described above, the selection of the pixel to be copied has a restriction on the region on the 2D video frame divided by the outline, and the pixel in the divided region where the missing portion C1 exists is selected as the pixel to be copied. The
As a result, the pixel at the position exceeding the contour line is not copied, and is restored with a pixel close to the missing portion, so that the image quality of the 3D image can be improved.
When the copying process for all the pixels in the missing portion C1 is completed, the process of the 2D video correction unit 18 is completed.

付加情報補正部19は、出力制御部16の管理テーブルに格納されている振り分け種別G1が“付加情報補正”であれば、出力制御部16から欠損箇所の補填処理の依頼を受けていると判断し、出力制御部16の管理テーブルに格納されているシーケンス番号A1の二次元映像フレームB1、付加情報データD1及び付加情報データ内の欠損箇所E1を取得する。
付加情報補正部19は、二次元映像フレームB1、付加情報データD1及び付加情報データ内の欠損箇所E1を取得すると、その二次元映像フレームB1に応じて、その付加情報データ内の欠損箇所E1の補填に用いることが可能な付加情報データ内の領域を指定する。
そして、付加情報補正部19は、指定の領域内の付加情報データを用いて、付加情報データ内の欠損箇所E1を補填する。
If the distribution type G1 stored in the management table of the output control unit 16 is “additional information correction”, the additional information correction unit 19 determines that the output control unit 16 has received a request for compensation processing for the missing portion. Then, the 2D video frame B1 with the sequence number A1 stored in the management table of the output control unit 16, the additional information data D1, and the missing portion E1 in the additional information data are acquired.
When the additional information correction unit 19 acquires the two-dimensional video frame B1, the additional information data D1, and the missing portion E1 in the additional information data, the additional information correcting unit 19 determines the missing portion E1 in the additional information data according to the two-dimensional video frame B1. Specifies an area in the additional information data that can be used for compensation.
Then, the additional information correction unit 19 uses the additional information data in the designated area to compensate for the missing portion E1 in the additional information data.

図8は付加情報補正部19による付加情報データ内の欠損箇所の補填処理を示す説明図である。
図8において、付加情報データは、パラメータとその位置が二次元配列の数値として表現されているものとする。図8では、説明のためにパラメータの数値の大きさを濃淡で表現している。
以下、図8及び図9を参照しながら、付加情報補正部19の補填処理を具体的に説明する。
FIG. 8 is an explanatory diagram showing a filling process of a missing portion in the additional information data by the additional information correcting unit 19.
In FIG. 8, it is assumed that the additional information data represents the parameters and their positions as numerical values in a two-dimensional array. In FIG. 8, the numerical values of the parameters are expressed by shading for the purpose of explanation.
Hereinafter, the supplementing process of the additional information correcting unit 19 will be specifically described with reference to FIGS. 8 and 9.

付加情報補正部19は、出力制御部16の管理テーブルに格納されている振り分け種別G1が“付加情報補正”であれば、出力制御部16の管理テーブルに格納されている出力制御部16の管理テーブルに格納されているシーケンス番号A1の二次元映像フレームB1、付加情報データD1及び付加情報データ内の欠損箇所E1を取得し、その二次元映像フレームB1から輪郭線を抽出する(ステップST31)。
例えば、「Canny Edge Detector」などのエッジ検出方法を使用することで、輪郭線を抽出することができる。
If the distribution type G1 stored in the management table of the output control unit 16 is “additional information correction”, the additional information correction unit 19 manages the output control unit 16 stored in the management table of the output control unit 16. The 2D video frame B1, the additional information data D1, and the missing portion E1 in the additional information data stored in the table with the sequence number A1 are acquired, and a contour line is extracted from the 2D video frame B1 (step ST31).
For example, by using an edge detection method such as “Canny Edge Detector”, a contour line can be extracted.

付加情報補正部19は、二次元映像フレームB1から輪郭線を抽出すると、その輪郭線を用いて、付加情報データD1の領域を分割する(ステップST32)。
付加情報補正部19は、付加情報データD1の領域を分割すると、付加情報データD1内に欠損箇所E1が存在していれば(ステップST33)、付加情報データD1における複数の分割領域の中で、その欠損箇所E1が属している分割領域を特定し、当該分割領域を欠損箇所の補填に用いることが可能な領域に指定する(ステップST34)。
図8の例では、付加情報データ内の欠損箇所E1が、輪郭線で囲まれている円の外側と内側に跨っているので、円の外側に存在している欠損箇所E1の部分は、円の外側の分割領域を欠損箇所の補填に用いることが可能な領域に指定し、円の内側に存在している欠損箇所E1の部分は、円の内側の分割領域を欠損箇所の補填に用いることが可能な領域に指定する。
When the additional information correction unit 19 extracts the contour line from the 2D video frame B1, the additional information correction unit 19 divides the region of the additional information data D1 using the contour line (step ST32).
When the additional information correction unit 19 divides the area of the additional information data D1, if the missing portion E1 exists in the additional information data D1 (step ST33), among the plurality of divided areas in the additional information data D1, The divided region to which the missing portion E1 belongs is specified, and the divided region is designated as a region that can be used to compensate for the missing portion (step ST34).
In the example of FIG. 8, since the missing portion E1 in the additional information data straddles the outside and inside of the circle surrounded by the outline, the portion of the missing portion E1 existing outside the circle is a circle. The divided area outside the circle is designated as an area that can be used for filling the missing portion, and the portion of the missing place E1 existing inside the circle is used for filling the missing portion. Specify the area where can be.

付加情報補正部19は、欠損箇所E1が属している分割領域を特定すると、その分割領域内の付加情報データの中で、欠損箇所E1内の付加情報データと最も近い位置に存在している付加情報データを複写対象付加情報データに選択し、その複写対象付加情報データを欠損箇所E1内の付加情報データに複写する(ステップST35)。
図8では、欠損箇所E1内の付加情報データが、輪郭線で囲まれている円の内側の分割領域内の付加情報データうち、欠損箇所E1の下側に存在している付加情報データによって複写されている様子を示している。
このように、複写対象付加情報データの選択について、輪郭線によって分割される付加情報データ上の領域に対する制約が設けられ、欠損箇所E1が存在している分割領域内の付加情報データが複写対象付加情報データに選択される。
これにより、輪郭線を越えている位置の付加情報データが複写されることがなく、欠損箇所に近い付加情報データで復元されるため、三次元映像の画質を高めることができる。
欠損箇所E1内の全ての付加情報データに対する複写処理が完了すると、付加情報補正部19の処理が終了する。
When the additional information correction unit 19 specifies the divided area to which the missing portion E1 belongs, the additional information existing in the position closest to the additional information data in the missing portion E1 among the additional information data in the divided region. The information data is selected as copy target additional information data, and the copy target additional information data is copied to the additional information data in the missing portion E1 (step ST35).
In FIG. 8, the additional information data in the missing part E1 is copied by the additional information data existing below the missing part E1 among the additional information data in the divided area inside the circle surrounded by the outline. It shows how it is being done.
As described above, there is a restriction on the area on the additional information data that is divided by the outline for the selection of the additional information data to be copied, and the additional information data in the divided area where the missing portion E1 exists is added to the copy target. Selected for information data.
As a result, the additional information data at a position exceeding the contour line is not copied and is restored with the additional information data close to the missing portion, so that the image quality of the 3D video can be improved.
When the copying process for all the additional information data in the missing portion E1 is completed, the process of the additional information correcting unit 19 is finished.

左右映像生成部20は、出力制御部16から二次元映像フレーム及び付加情報データ、二次元映像補正部18から補正後の二次元映像フレーム及び付加情報データ、あるいは、付加情報補正部19から二次元映像フレーム及び補正後の付加情報データを受けると、二次元映像フレーム及び付加情報データを用いて、二次元映像(右目映像の二次元映像)と撮影方向が異なる二次元映像(左目映像の二次元映像)の二次元映像フレームを生成し、2つの二次元映像フレームを右目映像と左目映像の対として、映像出力部21に出力する。
ただし、フレーム複写部17から右目映像と左目映像の対が出力されている場合には、その右目映像と左目映像の対を映像出力部21に出力する。
映像出力部21は、映像入出力インタフェース(図示せず)を介して、右目映像と左目映像の対を三次元映像対応テレビ7に出力することで、三次元映像を三次元映像対応テレビ7の画面に表示する。
The left and right video generation unit 20 receives a 2D video frame and additional information data from the output control unit 16, a corrected 2D video frame and additional information data from the 2D video correction unit 18, or a 2D video from the additional information correction unit 19. When the video frame and the additional information data after correction are received, the two-dimensional video (two-dimensional video of the right-eye video) is different from the two-dimensional video (two-dimensional video of the left-eye video) using the two-dimensional video frame and additional information data. 2D video frames are generated, and the two 2D video frames are output to the video output unit 21 as a pair of right-eye video and left-eye video.
However, when a pair of right-eye video and left-eye video is output from the frame copying unit 17, the pair of right-eye video and left-eye video is output to the video output unit 21.
The video output unit 21 outputs a pair of right-eye video and left-eye video to the 3D video-compatible television 7 via a video input / output interface (not shown), so that the 3D video is output to the 3D video-compatible television 7. Display on the screen.

以上で明らかなように、この実施の形態1によれば、三次元映像から二次元映像の映像フレームを生成するとともに、その映像フレーム内の欠損箇所を特定する二次元映像デコーダ13と、二次元映像デコーダ13により生成された映像フレームの中で、シーンチェンジが発生している映像フレームを検出するシーンチェンジ検出部14と、二次元映像デコーダ13により欠損箇所が特定された映像フレームが存在する場合、シーンチェンジ検出部14の検出結果を参照して、その映像フレームより時間的に前方及び後方の映像フレームの中で、シーンチェンジが発生している映像フレームを特定し、シーンチェンジが発生している前方の映像フレームからシーンチェンジが発生している後方の映像フレームまでの区間をフレーム複写区間に設定する出力制御部16とを設け、フレーム複写部17が、二次元映像デコーダ13により生成された映像フレームの中で、出力制御部16により設定されたフレーム複写区間内の映像フレームを、上記二次元映像と撮影方向が異なる二次元映像から生成された映像フレームに置き換える複写処理を行うように構成したので、エラーコンシールメントの実行に伴う急激な視差変化を抑制することができるようになる。そのため、エラーコンシールメントを実行することで、欠損が発生している三次元映像の画質を高めることができる効果を奏する。   As is apparent from the above, according to the first embodiment, a 2D video decoder 13 that generates a video frame of a 2D video from a 3D video and identifies a missing portion in the video frame, Among the video frames generated by the video decoder 13, there are a scene change detection unit 14 that detects a video frame in which a scene change has occurred, and a video frame in which a missing portion is specified by the 2D video decoder 13. Referring to the detection result of the scene change detection unit 14, the video frame where the scene change has occurred is identified from among the video frames temporally forward and backward from the video frame, and the scene change occurs. The section from the front video frame to the rear video frame where the scene change has occurred is used as the frame copy section. An output control unit 16 for determining the video frame within the frame copy section set by the output control unit 16 among the video frames generated by the 2D video decoder 13. Since the copying process is performed to replace the video frame generated from the two-dimensional video having a different shooting direction from the two-dimensional video, it is possible to suppress a rapid parallax change accompanying the execution of the error concealment. Therefore, by performing error concealment, there is an effect that it is possible to improve the image quality of a 3D video in which a defect has occurred.

また、この実施の形態1によれば、三次元映像から二次元映像の映像フレームを生成するとともに、その映像フレーム内の欠損箇所を特定する二次元映像デコーダ13と、三次元映像から上記二次元映像と撮影方向が異なる二次元映像の復元に用いる付加情報データを生成する付加情報デコーダ15と、二次元映像デコーダ13により欠損箇所が特定された映像フレームが存在する場合、二次元映像補正部18が、付加情報デコーダ15により生成された付加情報データに応じて、二次元映像デコーダ13により特定された映像フレーム内の欠損箇所の補填に用いることが可能な上記映像フレーム内の領域を指定し、その指定の領域内の画素を用いて上記欠損箇所を補填するように構成したので、補填に使用することが可能な領域に制限が設けられた上で、エラーコンシールメントが実行されるようになる。そのため、エラーコンシールメントを実行することで、欠損が発生している三次元映像の画質を高めることができる効果を奏する。   Further, according to the first embodiment, a 2D video frame is generated from a 3D video, and a 2D video decoder 13 for specifying a missing portion in the video frame, and the 2D video from the 3D video is obtained. When there is an additional information decoder 15 that generates additional information data used to restore a two-dimensional video having a shooting direction different from that of the video and a video frame in which a missing portion is specified by the two-dimensional video decoder 13, a two-dimensional video correction unit 18 Specifies an area in the video frame that can be used to fill in a missing portion in the video frame specified by the 2D video decoder 13 according to the additional information data generated by the additional information decoder 15; Since the above-mentioned missing part is filled using the pixels in the designated area, there is a restriction on the area that can be used for filling. On which was, so the error concealment is performed. Therefore, by performing error concealment, there is an effect that it is possible to improve the image quality of a 3D video in which a defect has occurred.

また、この実施の形態1によれば、三次元映像から二次元映像の映像フレームを生成する二次元映像デコーダ13と、三次元映像から上記二次元映像と撮影方向が異なる二次元映像の復元に用いる付加情報データを生成するとともに、その付加情報データ内の欠損箇所を特定する付加情報デコーダ15と、付加情報デコーダ15により欠損箇所が特定された付加情報データが存在する場合、付加情報補正部19が、二次元映像デコーダ13により生成された映像フレームに応じて、付加情報デコーダ15により特定された付加情報データ内の欠損箇所の補填に用いることが可能な上記付加情報データ内の領域を指定し、その指定の領域内の付加情報データを用いて上記欠損箇所を補填するように構成したので、補填に使用することが可能な領域に制限が設けられた上で、エラーコンシールメントが実行されるようになる。そのため、エラーコンシールメントを実行することで、欠損が発生している三次元映像の画質を高めることができる効果を奏する。   Further, according to the first embodiment, the 2D video decoder 13 that generates a video frame of a 2D video from the 3D video, and the restoration of a 2D video having a shooting direction different from the 2D video from the 3D video. When the additional information data to be used is generated and the additional information decoder 15 for specifying the missing portion in the additional information data and the additional information data for which the missing portion is specified by the additional information decoder 15 exist, the additional information correcting unit 19 Specifies an area in the additional information data that can be used to compensate for a missing portion in the additional information data specified by the additional information decoder 15 according to the video frame generated by the 2D video decoder 13. Since the above-mentioned missing part is filled using the additional information data in the specified area, the area that can be used for filling On which the limit provided, so that error concealment is performed. Therefore, by performing error concealment, there is an effect that it is possible to improve the image quality of a 3D video in which a defect has occurred.

なお、この実施の形態1では、映像配信サーバ2が、三次元映像を含むRTPパケットを配信する際、三次元映像として、右目映像の二次元映像と付加情報(右目映像から左目映像を復元する際に用いる情報)を配信するものを示したが、映像配信サーバ2が、三次元映像として、左目映像の二次元映像と付加情報(左目映像から右目映像を復元する際に用いる情報)を配信して、映像受信端末6が、左目映像の二次元映像と付加情報から右目映像と左目映像の対を生成するようにしてもよく、同様の効果を奏することができる。   In the first embodiment, when the video distribution server 2 distributes the RTP packet including the 3D video, the 2D video of the right eye video and the additional information (the left eye video is restored from the right eye video) as the 3D video. Information to be distributed), but the video distribution server 2 distributes the left-eye video 2D video and additional information (information used when restoring the right-eye video from the left-eye video) as a 3D video. Then, the video receiving terminal 6 may generate a pair of right-eye video and left-eye video from the two-dimensional video of the left-eye video and the additional information, and the same effect can be obtained.

実施の形態2.
上記実施の形態1では、映像配信サーバ2が、三次元映像を含むRTPパケットを配信する際、三次元映像として、右目映像の二次元映像と付加情報(右目映像から左目映像を復元する際に用いる情報)を配信するものを示したが、この実施の形態2では、映像配信サーバ2が、三次元映像として、右目映像の二次元映像と左目映像の二次元映像を配信する例を説明する。
右目映像と左目映像は、MPEG2やH.264/AVCなどによって符号化されていてもよい。
Embodiment 2. FIG.
In the first embodiment, when the video distribution server 2 distributes the RTP packet including the 3D video, the 2D video of the right eye video and the additional information (when restoring the left eye video from the right eye video) as the 3D video. In the second embodiment, an example in which the video distribution server 2 distributes a two-dimensional video of a right-eye video and a two-dimensional video of a left-eye video will be described as a three-dimensional video. .
Right-eye video and left-eye video are MPEG2 and H.264. It may be encoded by H.264 / AVC or the like.

図10はこの発明の実施の形態2によるエラーコンシールメント装置12を実装している映像受信端末6を示す構成図であり、図において、図2と同一符号は同一または相当部分を示すので説明を省略する。
ストリーム受信部30はホームゲートウェイ装置4により転送された三次元映像を含むRTPパケットを受信し、そのRTPパケットに含まれている三次元映像から右目映像の二次元映像と左目映像の二次元映像を分離して、それらの二次元映像をエラーコンシールメント装置12の映像デコーダ31に出力する処理を実施する。
FIG. 10 is a block diagram showing the video receiving terminal 6 in which the error concealment device 12 according to Embodiment 2 of the present invention is mounted. In the figure, the same reference numerals as those in FIG. Omitted.
The stream receiving unit 30 receives the RTP packet including the 3D video transferred by the home gateway device 4 and converts the 2D video of the right eye video and the 2D video of the left eye video from the 3D video included in the RTP packet. A process of separating the two-dimensional images and outputting them to the video decoder 31 of the error concealment device 12 is performed.

映像デコーダ31はストリーム受信部30から出力された右目映像の二次元映像をデコードして、その二次元映像の映像フレーム(以下、「右目映像フレーム」と称する)を生成するとともに、その右目映像フレーム内の欠損箇所を特定する処理を実施する。
また、映像デコーダ31はストリーム受信部30から出力された左目映像の二次元映像をデコードして、その二次元映像の映像フレーム(以下、「左目映像フレーム」と称する)を生成するとともに、その左目映像フレーム内の欠損箇所を特定する処理を実施する。
ここで、映像フレーム内の欠損箇所は、映像フレームの中で、どの位置に、どれだけの大きさの欠損があるかを示す情報である。二次元映像が、例えば、MPEG2やH.264/AVCなどによって符号化されている場合は、マクロブロックの位置によって欠損箇所を特定してもよい。
なお、映像デコーダ31は映像フレーム生成手段を構成している。
The video decoder 31 decodes the right-eye video 2D video output from the stream receiver 30 to generate a video frame of the 2D video (hereinafter referred to as “right-eye video frame”), and the right-eye video frame. The process which specifies the missing part in is implemented.
The video decoder 31 decodes the 2D video of the left-eye video output from the stream receiving unit 30 to generate a video frame of the 2D video (hereinafter referred to as “left-eye video frame”), and the left-eye video. A process for identifying a missing portion in a video frame is performed.
Here, the missing part in the video frame is information indicating how much of the missing part is located at which position in the video frame. Two-dimensional video is, for example, MPEG2 or H.264. In the case of encoding by H.264 / AVC or the like, the missing portion may be specified by the position of the macroblock.
The video decoder 31 constitutes a video frame generating means.

出力制御部32は映像デコーダ31により特定された映像フレーム内の欠損箇所の目立ち易さの度合を算出し、その目立ち易さの度合が所定の閾値以内であれば、映像補正部34に対して映像補正処理を依頼し、その目立ち易さの度合が閾値以上であれば、フレーム複写部33に対して複写処理を依頼する処理を実施する。
また、出力制御部32は映像フレームの複写処理をフレーム複写部33に依頼する際、シーンチェンジ検出部14の検出結果を参照して、当該映像フレームより時間的に前方及び後方の映像フレームの中で、シーンチェンジが発生している映像フレームを特定し、シーンチェンジが発生している前方の映像フレームからシーンチェンジが発生している後方の映像フレームまでの区間をフレーム複写区間に設定し、そのフレーム複写区間をフレーム複写部33に通知する。
さらに、出力制御部32は映像デコーダ31により欠損箇所が特定されない場合、映像デコーダ31により生成された右目映像フレーム及び左目映像フレームを映像出力部21に出力する。
なお、出力制御部32は複写区間設定手段及び処理依頼手段を構成している。
The output control unit 32 calculates the degree of conspicuousness of the missing portion in the video frame specified by the video decoder 31, and if the degree of conspicuousness is within a predetermined threshold, the output control unit 32 If the video correction process is requested and the degree of conspicuousness is equal to or greater than the threshold value, a process of requesting the copy process to the frame copying unit 33 is performed.
In addition, when the output control unit 32 requests the frame copying unit 33 to copy a video frame, the output control unit 32 refers to the detection result of the scene change detection unit 14 and determines whether the video frame is temporally forward or backward from the video frame. Then, specify the video frame where the scene change has occurred, set the section from the front video frame where the scene change has occurred to the rear video frame where the scene change has occurred as the frame copy section. The frame copying section is notified to the frame copying section 33.
Further, the output control unit 32 outputs the right-eye video frame and the left-eye video frame generated by the video decoder 31 to the video output unit 21 when the video decoder 31 does not specify a missing portion.
The output control unit 32 constitutes a copy section setting unit and a processing request unit.

フレーム複写部33は出力制御部32から複写処理の依頼を受けると、出力制御部32から出力されたフレーム複写区間内の右目映像フレーム(または左目映像フレーム)を、左目映像フレーム(または右目映像フレーム)に置き換える複写処理を行う。
即ち、フレーム複写部33は一方の映像フレームを破棄して、もう一方の映像フレームを複写することで、右目映像と左目映像の対を生成し(右目映像と左目映像は同一の映像フレームになる)、その右目映像と左目映像の対を映像出力部33に出力する。
なお、フレーム複写部33はフレーム複写手段を構成している。
When the frame copy unit 33 receives a copy processing request from the output control unit 32, the right eye video frame (or left eye video frame) in the frame copy section output from the output control unit 32 is converted into a left eye video frame (or right eye video frame). ) Is copied.
That is, the frame copying unit 33 discards one video frame and copies the other video frame to generate a pair of right-eye video and left-eye video (the right-eye video and the left-eye video are the same video frame). ), And outputs the pair of the right eye image and the left eye image to the image output unit 33.
The frame copying unit 33 constitutes a frame copying unit.

映像補正部34は出力制御部32から補填処理の依頼を受けると、映像デコーダ31により特定された右目映像フレーム及び左目映像フレーム内の欠損箇所を重ね合わせるとともに、重ね合わせ処理後に欠損箇所が存在している水平ライン上の非欠損箇所を欠損箇所に変更して欠損箇所を追加し、追加処理後の欠損箇所を示す欠損情報を生成する処理を実施する。
また、映像補正部34は当該欠損情報にしたがって右目映像フレーム及び左目映像フレームを欠損させる映像補正処理を行う。
なお、映像補正部34は映像補正手段を構成している。
When the video correction unit 34 receives a request for compensation processing from the output control unit 32, the video correction unit 34 superimposes the missing portions in the right-eye video frame and the left-eye video frame specified by the video decoder 31, and there is a missing portion after the superposition processing. The non-deletion part on the horizontal line is changed to the defect part, the defect part is added, and the process of generating the defect information indicating the defect part after the addition process is performed.
In addition, the video correction unit 34 performs video correction processing for deleting the right-eye video frame and the left-eye video frame according to the missing information.
The video correction unit 34 constitutes a video correction unit.

図10の例では、エラーコンシールメント装置12の構成要素である映像デコーダ31、シーンチェンジ検出部14、出力制御部32、フレーム複写部33及び映像補正部34のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、エラーコンシールメント装置12がコンピュータなどで構成される場合、映像デコーダ31、シーンチェンジ検出部14、出力制御部32、フレーム複写部33及び映像補正部34の処理内容の全部又は一部をコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。
図12はこの発明の実施の形態2によるエラーコンシールメント装置12の出力制御部32の処理内容を示すフローチャートである。
図14はこの発明の実施の形態2によるエラーコンシールメント装置12の映像補正部34の処理内容を示すフローチャートである。
In the example of FIG. 10, each of the video decoder 31, the scene change detection unit 14, the output control unit 32, the frame copy unit 33, and the video correction unit 34, which are components of the error concealment device 12, is dedicated hardware (for example, It is assumed that the CPU is configured by a semiconductor integrated circuit or a one-chip microcomputer), but when the error concealment device 12 is configured by a computer or the like, the video decoder 31, scene change All or part of the processing contents of the detection unit 14, the output control unit 32, the frame copy unit 33, and the video correction unit 34 are stored in the memory of the computer, and the CPU of the computer executes the program stored in the memory. You may do it.
FIG. 12 is a flowchart showing the processing contents of the output control unit 32 of the error concealment device 12 according to Embodiment 2 of the present invention.
FIG. 14 is a flowchart showing the processing contents of the video correction unit 34 of the error concealment device 12 according to Embodiment 2 of the present invention.

次に動作について説明する。
まず、映像配信サーバ2は、映像ストレージ1に保管されている三次元映像を取得して、その三次元映像をRTPパケット化し、トランスポートプロトコルとしてUDPを使用することで、その三次元映像を含むRTPパケットを外部ネットワーク3経由でホームゲートウェイ装置4に配信する。
この実施の形態2では、三次元映像として、右目映像の二次元映像と左目映像の二次元映像を配信するものとする。
Next, the operation will be described.
First, the video distribution server 2 acquires the 3D video stored in the video storage 1, converts the 3D video into an RTP packet, and uses UDP as a transport protocol, thereby including the 3D video. The RTP packet is distributed to the home gateway device 4 via the external network 3.
In the second embodiment, it is assumed that a 2D image of a right eye image and a 2D image of a left eye image are distributed as a 3D image.

ホームゲートウェイ装置4は、映像配信サーバ2から配信された三次元映像を含むRTPパケットを受信すると、そのRTPパケットをホームネットワーク5経由で映像受信端末6に転送する。
映像受信端末6は、ホームゲートウェイ装置4により転送された三次元映像を含むRTPパケットを受信して、右目映像と左目映像の対を三次元映像対応テレビ7に出力する。
ただし、映像受信端末6は、その三次元映像に欠損箇所があれば、その欠損箇所を補填してから右目映像と左目映像の対を三次元映像対応テレビ7に出力する。
When the home gateway device 4 receives the RTP packet including the 3D video distributed from the video distribution server 2, the home gateway device 4 transfers the RTP packet to the video receiving terminal 6 via the home network 5.
The video receiving terminal 6 receives the RTP packet including the 3D video transferred by the home gateway device 4 and outputs a pair of right-eye video and left-eye video to the 3D video-compatible television 7.
However, if there is a missing part in the 3D video, the video receiving terminal 6 compensates the missing part and then outputs a pair of right-eye video and left-eye video to the 3D video-compatible television 7.

以下、映像受信端末6の処理内容を具体的に説明する。
ストリーム受信部30は、ホームゲートウェイ装置4により転送された三次元映像を含むRTPパケットを受信し、そのRTPパケットに含まれている三次元映像から右目映像の二次元映像と左目映像の二次元映像を分離して、それらの二次元映像をエラーコンシールメント装置12の映像デコーダ31に出力する。
Hereinafter, the processing content of the video receiving terminal 6 will be described in detail.
The stream receiving unit 30 receives the RTP packet including the 3D video transferred by the home gateway device 4, and from the 3D video included in the RTP packet, the 2D video of the right eye video and the 2D video of the left eye video. Are output to the video decoder 31 of the error concealment device 12.

映像デコーダ31は、ストリーム受信部30から右目映像の二次元映像と左目映像の二次元映像を受けると、右目映像の二次元映像をデコードして、その二次元映像の映像フレームである右目映像フレームを生成するとともに、左目映像の二次元映像をデコードして、その二次元映像の映像フレームである左目映像フレームを生成し、その右目映像フレーム及び左目映像フレームを出力制御部32に出力する。
また、映像デコーダ31は、二次元映像をデコードする際、右目映像フレーム及び左目映像フレーム内の欠損箇所を特定する処理を実施し、右目映像フレーム及び左目映像フレーム内の欠損箇所を出力制御部32に出力する。
映像フレーム内の欠損箇所は、映像フレームの中で、どの位置に、どれだけの大きさの欠損があるかを示す情報である。映像フレームがMPEG2やH.264/AVCなどによって符号化されている場合には、マクロブロックの位置によって欠損箇所を示してもよい。
なお、映像デコーダ31は、右目映像フレーム又は左目映像フレームのいずれか一方をシーンチェンジ検出部14に出力する。
When the video decoder 31 receives the 2D video of the right-eye video and the 2D video of the left-eye video from the stream receiver 30, the video decoder 31 decodes the 2D video of the right-eye video, and the right-eye video frame that is the video frame of the 2D video The left-eye video frame is decoded to generate a left-eye video frame that is a video frame of the two-dimensional video, and the right-eye video frame and the left-eye video frame are output to the output control unit 32.
Further, the video decoder 31 performs a process of specifying a missing portion in the right-eye video frame and the left-eye video frame when decoding the 2D video, and outputs the missing portion in the right-eye video frame and the left-eye video frame to the output control unit 32. Output to.
The missing part in the video frame is information indicating how much of the missing part is located at which position in the video frame. The video frame is MPEG2 or H.264. In the case of encoding by H.264 / AVC or the like, the missing portion may be indicated by the position of the macroblock.
Note that the video decoder 31 outputs either the right-eye video frame or the left-eye video frame to the scene change detection unit 14.

シーンチェンジ検出部14は、映像デコーダ31から映像フレーム(右目映像フレーム又は左目映像フレーム)を受けると、例えば、前後の映像フレームを比較することで、映像デコーダ31により生成された映像フレームの中で、シーンチェンジが発生している映像フレームを検出し、その検出結果を出力制御部32に通知する。   When the scene change detection unit 14 receives a video frame (right-eye video frame or left-eye video frame) from the video decoder 31, for example, the scene change detection unit 14 compares the previous and next video frames in the video frame generated by the video decoder 31. Then, a video frame in which a scene change has occurred is detected, and the detection result is notified to the output control unit 32.

出力制御部32は、図11に示すような管理テーブルを備えており、各種の情報を管理テーブルに格納して管理している。
即ち、出力制御部32は、映像デコーダ31から出力された右目映像フレームを“右目映像フレームH2”として管理し、映像デコーダ31から出力された右目映像フレーム内の欠損箇所を“欠損箇所I2”として管理する。
また、出力制御部32は、映像デコーダ31から出力された左目映像フレームを“左目映像フレームJ2”として管理し、映像デコーダ31から出力された左目映像フレーム内の欠損箇所を“欠損箇所K2”として管理する。
また、出力制御部32は、シーンチェンジ検出部14によりシーンチェンジが検出された映像フレームを示すマーキング情報を“シーンチェンジ種別F2”として管理する。
さらに、出力制御部32は、処理を依頼する処理部の判定結果を“振り分け種別G2”として管理し、右目映像と左目映像の選択情報を“選択情報L2”として管理し、映像デコーダ31から出力される映像フレームの識別情報を“シーケンス番号A2”として管理する。なお、シーケンス番号A2は、映像デコーダ31からの出力順が先の映像フレームから順番に小さい番号が割り当てられる。
The output control unit 32 includes a management table as shown in FIG. 11, and manages various information stored in the management table.
That is, the output control unit 32 manages the right-eye video frame output from the video decoder 31 as “right-eye video frame H2”, and sets the missing part in the right-eye video frame output from the video decoder 31 as “missing part I2”. to manage.
Further, the output control unit 32 manages the left-eye video frame output from the video decoder 31 as “left-eye video frame J2”, and sets the missing part in the left-eye video frame output from the video decoder 31 as “missing part K2”. to manage.
Further, the output control unit 32 manages the marking information indicating the video frame in which the scene change is detected by the scene change detection unit 14 as “scene change type F2”.
Further, the output control unit 32 manages the determination result of the processing unit requesting the processing as “sorting type G2”, manages the selection information of the right eye video and the left eye video as “selection information L2”, and outputs it from the video decoder 31. The video frame identification information is managed as “sequence number A2”. Note that the sequence number A2 is assigned a number that is smaller in order from the previous video frame in the output order from the video decoder 31.

出力制御部32は、図11の管理テーブル内に、シーケンス番号A2の映像フレームに係る欠損箇所I2及び欠損箇所K2の双方が格納されていない場合、三次元映像に欠損が発生することなく正常に受信されており、三次元映像に対するエラーコンシールメントを行う必要がないので、振り分け種別G2を“映像出力”に設定する。
出力制御部32は、図11の管理テーブル内に、シーケンス番号A2の右目映像フレーム内の欠損箇所I2、または、左目映像フレーム内の欠損箇所K2の少なくとも一方が格納されている場合、右目映像又は右目映像を補正する必要があるので、振り分け種別G2を“映像補正”に設定する。
ただし、詳細は後述するが、右目映像フレーム又は左目映像フレーム内の欠損箇所の目立ち易さを示す度合が所定の閾値を超えており、右目映像又は右目映像を補正することができない場合には、振り分け種別G2を“フレーム複写”に設定する。
When both the missing part I2 and the missing part K2 related to the video frame with the sequence number A2 are not stored in the management table of FIG. 11, the output control unit 32 normally does not cause a defect in the 3D video. Since it is received and there is no need to perform error concealment on the 3D video, the distribution type G2 is set to “video output”.
If at least one of the missing part I2 in the right-eye video frame with the sequence number A2 or the missing part K2 in the left-eye video frame is stored in the management table in FIG. Since the right-eye image needs to be corrected, the distribution type G2 is set to “image correction”.
However, although details will be described later, when the degree of conspicuousness of the missing portion in the right-eye video frame or the left-eye video frame exceeds a predetermined threshold, and the right-eye video or the right-eye video cannot be corrected, The distribution type G2 is set to “frame copy”.

出力制御部32は、図11の管理テーブル内に、シーケンス番号A2の右目映像フレーム内の欠損箇所I2、または、左目映像フレーム内の欠損箇所K2の少なくとも一方が格納されており、右目映像フレーム又は左目映像フレーム内の欠損箇所の目立ち易さを示す度合が所定の閾値を超えている場合、振り分け種別G2を“フレーム複写”に設定する。
また、出力制御部32は、右目映像を左目映像に複写する場合(例えば、左目映像フレーム内の欠損箇所K2が、右目映像フレーム内の欠損箇所I2より大きい場合)、選択情報L2を“右目映像”に設定し、左目映像を右目映像に複写する場合(例えば、右目映像フレーム内の欠損箇所I2が、左目映像フレーム内の欠損箇所K2より大きい場合)、選択情報L2を“左目映像”に設定する。
The output control unit 32 stores at least one of the missing part I2 in the right-eye video frame of sequence number A2 or the missing part K2 in the left-eye video frame in the management table of FIG. When the degree of conspicuousness of the missing part in the left-eye video frame exceeds a predetermined threshold, the distribution type G2 is set to “frame copy”.
In addition, when the right control video is copied to the left-eye video (for example, when the missing part K2 in the left-eye video frame is larger than the defective part I2 in the right-eye video frame), the output control unit 32 displays the selection information L2 as “right-eye video. When the left-eye video is copied to the right-eye video (for example, when the missing part I2 in the right-eye video frame is larger than the defective part K2 in the left-eye video frame), the selection information L2 is set to “left-eye video”. To do.

出力制御部32は、振り分け種別G2を“フレーム複写”に設定する場合、図1の出力制御部16と同様に、シーンチェンジ検出部14の検出結果を参照して、シーケンス番号A2の二次元映像フレームより時間的に前方及び後方の二次元映像フレームの中で、シーンチェンジが発生している二次元映像フレームを特定する。
出力制御部32は、図1の出力制御部16と同様に、シーンチェンジが発生している前方の二次元映像フレームからシーンチェンジが発生している後方の二次元映像フレームまでの区間をフレーム複写区間に設定し、そのフレーム複写区間をフレーム複写部33に通知する。
When the distribution type G2 is set to “frame copy”, the output control unit 32 refers to the detection result of the scene change detection unit 14 as in the case of the output control unit 16 in FIG. A 2D video frame in which a scene change has occurred is identified from among the 2D video frames temporally forward and backward from the frame.
As in the case of the output control unit 16 in FIG. 1, the output control unit 32 performs frame copying of a section from a front 2D video frame in which a scene change has occurred to a back 2D video frame in which a scene change has occurred. The section is set to the section, and the frame copying section is notified to the frame copying section 33.

以下、図12を参照しながら、出力制御部32の振り分け処理を具体的に説明する。
まず、出力制御部32は、図11の管理テーブル内にシーンチェンジ種別F2が格納されているか否かを判定する(ステップST41)。
即ち、出力制御部32は、シーケンス番号A2の映像フレーム(右目映像フレーム又は左目映像フレーム)が、シーンチェンジが発生している映像フレームであるか否かを判定する。
出力制御部32は、図11の管理テーブル内にシーンチェンジ種別F2が格納されている場合、フレーム複写判定フラグがONであるか否かを判定し(ステップST42)、フレーム複写判定フラグがONであれば、そのフレーム複写判定フラグをOFFに設定する(ステップST43)。
ここで、フレーム複写判定フラグは、次に処理する映像フレームの振り分け種別G2に対して、“フレーム複写”を設定するか否かを判定する際に用いるフラグである。
Hereinafter, the distribution process of the output control unit 32 will be described in detail with reference to FIG.
First, the output control unit 32 determines whether or not the scene change type F2 is stored in the management table of FIG. 11 (step ST41).
That is, the output control unit 32 determines whether or not the video frame with the sequence number A2 (right-eye video frame or left-eye video frame) is a video frame in which a scene change has occurred.
When the scene change type F2 is stored in the management table of FIG. 11, the output control unit 32 determines whether or not the frame copy determination flag is ON (step ST42), and the frame copy determination flag is ON. If there is, the frame copy determination flag is set to OFF (step ST43).
Here, the frame copy determination flag is a flag used when determining whether or not “frame copy” is set for the distribution type G2 of the video frame to be processed next.

出力制御部32は、フレーム複写判定フラグがOFFである場合、映像補正判定フラグがONであるか否かを判定し(ステップST44)、映像補正判定フラグがONであれば、その映像補正判定フラグをOFFに設定する(ステップST45)。
ここで、映像補正判定フラグは、次に処理する映像フレームの振り分け種別G2に対して、“映像補正”を設定するか否かを判定する際に用いるフラグである。
When the frame copy determination flag is OFF, the output control unit 32 determines whether the video correction determination flag is ON (step ST44). If the video correction determination flag is ON, the video correction determination flag is determined. Is set to OFF (step ST45).
Here, the video correction determination flag is a flag used to determine whether or not “video correction” is set for the video frame distribution type G2 to be processed next.

出力制御部32は、図11の管理テーブル内にシーンチェンジ種別F2が格納されていない場合、フレーム複写判定フラグがONであるか否かを判定し(ステップST46)、フレーム複写判定フラグがONであれば、振り分け種別G1を“フレーム複写”に設定するとともに、右目映像又は左目映像のいずれかを選択して、右目映像と左目映像の選択情報L2を設定する(ステップST47)。   When the scene change type F2 is not stored in the management table of FIG. 11, the output control unit 32 determines whether or not the frame copy determination flag is ON (step ST46), and the frame copy determination flag is ON. If there is, the distribution type G1 is set to “frame copy”, and either the right-eye video or the left-eye video is selected, and the selection information L2 for the right-eye video and the left-eye video is set (step ST47).

出力制御部32は、フレーム複写判定フラグがOFFであれば、映像補正判定フラグがONであるか否かを判定し(ステップST48)、映像補正判定フラグがONであれば、映像フレームを補正する必要があるので、振り分け種別G2を“映像補正”に設定する(ステップST49)。
出力制御部32は、ステップST44,ST48において、映像補正判定フラグがOFFである場合、あるいは、ステップST45で映像補正判定フラグをOFFに設定している場合、右目映像フレーム内に欠損箇所I2がなく、かつ、左目映像フレーム内に欠損箇所K2がないかを判定する(ステップST50)。
If the frame copy determination flag is OFF, the output control unit 32 determines whether the video correction determination flag is ON (step ST48). If the video correction determination flag is ON, the output control unit 32 corrects the video frame. Since it is necessary, the distribution type G2 is set to “video correction” (step ST49).
When the video correction determination flag is OFF in steps ST44 and ST48, or when the video correction determination flag is set OFF in step ST45, the output control unit 32 has no missing portion I2 in the right-eye video frame. In addition, it is determined whether or not there is a missing portion K2 in the left-eye video frame (step ST50).

出力制御部32は、右目映像フレーム内に欠損箇所I2がなく、かつ、左目映像フレーム内に欠損箇所K2がない場合、三次元映像に対するエラーコンシールメントを行う必要がないので、振り分け種別G2を“映像出力”に設定する(ステップST51)。
出力制御部32は、右目映像フレーム内の欠損箇所I2、または、左目映像フレーム内の欠損箇所K2の少なくとも一方がある場合、右目映像フレーム内の欠損箇所の目立ち易さの度合Cを算出するとともに、左目映像フレーム内の欠損箇所の目立ち易さの度合Cを算出する(ステップST52)。
例えば、目立ち易さの度合は、欠損箇所の大きさ及び位置から算出する。あるいは、欠損箇所の周辺の動きベクトルから算出する。
目立ち易さの度合は、欠損箇所が大きいほど、欠損箇所の位置がフレーム中央に近いほど数値が大きくなるものとする。
また、目立ち易さの度合は、欠損箇所の周辺の動きベクトルが大きいほど数値が大きくなるものとする。
If there is no missing part I2 in the right-eye video frame and no missing part K2 in the left-eye video frame, the output control unit 32 does not need to perform error concealment on the 3D video. "Video output" is set (step ST51).
The output control unit 32, chipped portion I2 in the right-eye image frame or, if there is at least one of the chipped portions K2 in the left-eye image frame, calculating a degree C R of conspicuous ease of chipped portions of the right-eye image frame together, and it calculates a degree C L of conspicuous ease of chipped portions of the left-eye image frame (step ST52).
For example, the degree of conspicuousness is calculated from the size and position of the missing part. Alternatively, it is calculated from the motion vector around the missing part.
It is assumed that the degree of conspicuousness increases as the missing part is larger and the position of the missing part is closer to the center of the frame.
The degree of conspicuousness is assumed to be larger as the motion vector around the missing part is larger.

出力制御部32は、右目映像フレーム内の欠損箇所の目立ち易さの度合Cと、左目映像フレーム内の欠損箇所の目立ち易さの度合Cを算出すると、その目立ち易さの度合Cと所定の閾値を比較するとともに、その目立ち易さの度合Cと所定の閾値を比較し、目立ち易さの度合C又は目立ち易さの度合Cの少なくとも一方が所定の閾値を超えているか否かを判定する(ステップST53)。
出力制御部32は、目立ち易さの度合C又は目立ち易さの度合Cの少なくとも一方が所定の閾値を超えている場合、目立ち易さの度合Cが目立ち易さの度合Cより小さければ、選択情報L2を“右目映像”に設定し、目立ち易さの度合Cが目立ち易さの度合Cより小さければ、選択情報L2を“左目映像”に設定する(ステップST54)。
また、出力制御部32は、振り分け種別G2を“フレーム複写”に設定する(ステップST55)。
Output control unit 32, and ease of degree C R noticeable defect locations in the right-eye image frame, calculating the degree C L of conspicuous ease of chipped portions of the left-eye image frame, degree C R of the conspicuous ease and with comparing a predetermined threshold value, compare the degree C L with a predetermined threshold value of the conspicuous ease, at least one of the degree of degree C R or conspicuous ease of ease noticeable of C L exceeds a predetermined threshold value It is determined whether or not (step ST53).
The output control unit 32, noticeable when at least one of the easiness degree C R or noticeable easiness degree C R exceeds a predetermined threshold, than the degree of the easily degree C R of ease noticeable noticeable of C L if smaller, set to "right eye image" selection information L2, smaller than the degree of the easily degree C L of the easily noticeable is noticeable is C R, is set to "left-eye image" selection information L2 (step ST54).
Further, the output control unit 32 sets the distribution type G2 to “frame copy” (step ST55).

出力制御部32は、シーケンス番号A2の値から1を減じて(ステップST56)、時間的に1つ前の映像フレームが、シーンチェンジが発生している映像フレームであるか否かを判定する(ステップST57)。
時間的に1つ前の映像フレームが、シーンチェンジが発生している映像フレームでない場合、ステップST55の処理に戻り、ステップST55〜ST57の処理が繰り返し実施される。
これにより、フレーム複写区間内の映像フレームの振り分け種別G2が“フレーム複写”に設定される。
The output control unit 32 subtracts 1 from the value of the sequence number A2 (step ST56), and determines whether or not the temporally previous video frame is a video frame in which a scene change has occurred ( Step ST57).
If the temporally previous video frame is not a video frame in which a scene change has occurred, the process returns to step ST55, and the processes of steps ST55 to ST57 are repeated.
As a result, the distribution type G2 of the video frames in the frame copy section is set to “frame copy”.

出力制御部32は、目立ち易さの度合C及び目立ち易さの度合Cの双方が所定の閾値以内である場合、映像補正判定フラグをONに設定し(ステップST58)、振り分け種別G2を“映像補正”に設定する(ステップST59)。
出力制御部32は、シーケンス番号A2の値から1を減じて(ステップST60)、時間的に1つ前の映像フレームが、シーンチェンジが発生している映像フレームであるか否かを判定する(ステップST61)。
時間的に1つ前の映像フレームが、シーンチェンジが発生している映像フレームでない場合、ステップST59の処理に戻り、ステップST59〜ST61の処理が繰り返し実施される。
これにより、フレーム複写区間内の映像フレームの振り分け種別G2が“映像補正”に設定される。
The output control unit 32, when both the degree of the degree of ease conspicuous of C R and conspicuous ease C R is within the predetermined threshold, sets the image correction determination flag to ON (step ST58), the distribution type G2 “Video correction” is set (step ST59).
The output control unit 32 subtracts 1 from the value of the sequence number A2 (step ST60), and determines whether or not the temporally previous video frame is a video frame in which a scene change has occurred ( Step ST61).
If the temporally previous video frame is not a video frame in which a scene change has occurred, the process returns to step ST59, and the processes of steps ST59 to ST61 are repeated.
Thereby, the distribution type G2 of the video frame in the frame copy section is set to “video correction”.

図12では、“フレーム複写”又は“映像補正”の判定を実施した場合、バッファ内にシーンチェンジ種別F2がマークされている映像フレームがなければ、バッファ内の全ての映像フレームの振り分け種別G2を“フレーム複写”又は“映像補正”に変更する例を記載している。
バッファ内にシーンチェンジ種別F2がマークされた映像フレームが存在しない場合には、バッファ内の映像フレームの振り分け種別G2を書き換えずに、そのままとしてもよい。
In FIG. 12, when the determination of “frame copy” or “video correction” is performed, if there is no video frame marked with the scene change type F2 in the buffer, the distribution type G2 of all the video frames in the buffer is set. An example of changing to “frame copy” or “image correction” is described.
When there is no video frame marked with the scene change type F2 in the buffer, the video frame distribution type G2 in the buffer may be left as it is without rewriting.

フレーム複写部33は、出力制御部32の管理テーブルに格納されている振り分け種別G2が“フレーム複写”であれば、出力制御部32から複写処理の依頼を受けていると判断し、出力制御部32の管理テーブルに格納されているシーケンス番号A2の右目映像フレームH2、左目映像フレームJ2及び選択情報L2を取得する。
フレーム複写部33は、選択情報L2が“右目映像”である場合、右目映像フレームH2を左目映像フレームJ2に複写することで、左目映像を右目映像と同じにして、その右目映像と左目映像の対を映像出力部21に出力する。
一方、選択情報L2が“左目映像”である場合、左目映像フレームJ2を右目映像フレームH2に複写することで、右目映像を左目映像と同じにして、その右目映像と左目映像の対を映像出力部21に出力する。
If the distribution type G2 stored in the management table of the output control unit 32 is “frame copy”, the frame copy unit 33 determines that a copy processing request has been received from the output control unit 32, and the output control unit The right-eye video frame H2, the left-eye video frame J2, and the selection information L2 of the sequence number A2 stored in the management table 32 are acquired.
When the selection information L2 is “right-eye video”, the frame copying unit 33 copies the right-eye video frame H2 to the left-eye video frame J2, thereby making the left-eye video the same as the right-eye video, and the right-eye video and the left-eye video. The pair is output to the video output unit 21.
On the other hand, when the selection information L2 is “left-eye video”, the left-eye video frame J2 is copied to the right-eye video frame H2, so that the right-eye video is the same as the left-eye video, and the pair of right-eye video and left-eye video is output as video. To the unit 21.

映像補正部34は、出力制御部32の管理テーブルに格納されている振り分け種別G2が“映像補正”であれば、出力制御部32から映像補正処理の依頼を受けていると判断し、出力制御部32の管理テーブルに格納されているシーケンス番号A2の右目映像フレームH2及び欠損箇所I2と、左目映像フレームJ2及び欠損箇所K2とを取得する。
そして、映像補正部34は、右目映像フレーム内の欠損箇所I2と、左目映像フレーム内の欠損箇所K2を重ね合わせるとともに、重ね合わせ処理後に欠損箇所が存在している水平ライン上の非欠損箇所を欠損箇所に変更して欠損箇所を追加し、追加処理後の欠損箇所を示す欠損情報を生成する。
そして、映像補正部34は、当該欠損情報にしたがって右目映像フレーム及び左目映像フレームを欠損させる映像補正処理を行う。
If the distribution type G2 stored in the management table of the output control unit 32 is “video correction”, the video correction unit 34 determines that a request for video correction processing has been received from the output control unit 32 and performs output control. The right-eye video frame H2 and missing part I2 of sequence number A2 and the left-eye video frame J2 and missing part K2 stored in the management table of the unit 32 are acquired.
Then, the video correction unit 34 superimposes the missing part I2 in the right-eye video frame and the missing part K2 in the left-eye video frame, and also adds a non-missing part on the horizontal line where the missing part exists after the superposition process. It changes to a missing part, adds a missing part, and produces | generates the defect information which shows the missing part after an addition process.
Then, the video correction unit 34 performs video correction processing for deleting the right-eye video frame and the left-eye video frame according to the missing information.

図13は映像補正部34による映像フレーム内の欠損箇所の補填処理を示す説明図である。
以下、図13及び図14を参照しながら、映像補正部34の補填処理を具体的に説明する。
FIG. 13 is an explanatory diagram showing a process for filling a missing portion in a video frame by the video correction unit 34.
Hereinafter, the compensation process of the video correction unit 34 will be specifically described with reference to FIGS. 13 and 14.

映像補正部34は、出力制御部32の管理テーブルに格納されている振り分け種別G2が“映像補正”であれば、出力制御部32の管理テーブルに格納されているシーケンス番号A2の右目映像フレームH2及び欠損箇所I2と、左目映像フレームJ2及び欠損箇所K2とを取得し、そのシーケンス番号A2の値が前回の処理時に取得しているシーケンス番号A2の値と連続しているか否かを判定し(ステップST71)、シーケンス番号A2の値が連続していなければ、保持している欠損情報を破棄する(ステップST72)。   If the distribution type G2 stored in the management table of the output control unit 32 is “video correction”, the video correction unit 34 has the right-eye video frame H2 with the sequence number A2 stored in the management table of the output control unit 32. And the missing part I2, the left-eye video frame J2 and the missing part K2 are acquired, and it is determined whether or not the value of the sequence number A2 is continuous with the value of the sequence number A2 acquired during the previous processing ( If the value of sequence number A2 is not continuous (step ST71), the stored missing information is discarded (step ST72).

次に、映像補正部34は、図13に示すように、右目映像フレーム内の欠損箇所I2と左目映像フレーム内の欠損箇所K2とを重ね合わせる重ね合わせ処理を実施する(ステップST73)。
映像補正部34は、欠損箇所I2と欠損箇所K2の重ね合わせを行うと、図13に示すように、欠損箇所が存在している水平ライン上の非欠損箇所を欠損箇所に変更して欠損箇所を追加することで、当該水平ライン上の全てを欠損箇所にする。
そして、当該水平ライン上の全ての欠損箇所を示す欠損情報を生成する(ステップST75)。
Next, as shown in FIG. 13, the video correction unit 34 performs a superimposition process for superimposing the missing portion I2 in the right-eye video frame and the missing portion K2 in the left-eye video frame (step ST73).
When the image correction unit 34 superimposes the defect location I2 and the defect location K2, as shown in FIG. 13, the image correction unit 34 changes the non-deletion location on the horizontal line where the defect location exists to the defect location. By adding, everything on the horizontal line becomes a missing part.
And the defect | deletion information which shows all the defect | deletion locations on the said horizontal line is produced | generated (step ST75).

映像補正部34は、欠損情報を生成すると、その欠損情報に欠損箇所があれば(ステップST75)、保持している欠損情報と今回生成の欠損情報を重ね合わせて、重ね合わせ後の欠損情報を保持する(ステップST76)。
そして、映像補正部34は、その保持している欠損情報にしたがって右目映像フレーム及び左目映像フレームを欠損させる映像補正処理を行う。
このように、右目映像フレーム及び左目映像フレームの水平方向に欠損箇所を追加することで、人間の水平方向の視差による欠損箇所と非欠損箇所のずれを補正することができる。
これにより、水平方向の視差に対するずれが補正されるため、三次元映像の画質を高めることができる。
When the image correction unit 34 generates the defect information, if there is a defect part in the defect information (step ST75), the image correction unit 34 superimposes the stored defect information and the defect information generated this time to obtain the defect information after the overlap. Hold (step ST76).
Then, the video correction unit 34 performs video correction processing that causes the right-eye video frame and the left-eye video frame to be lost according to the loss information that is held.
In this way, by adding a missing portion in the horizontal direction of the right-eye video frame and the left-eye video frame, it is possible to correct a shift between a missing portion and a non-missing portion due to a human parallax in the horizontal direction.
Thereby, since the shift | offset | difference with respect to the parallax of a horizontal direction is correct | amended, the image quality of a three-dimensional image can be improved.

映像出力部21は、フレーム複写部33、映像補正部34又は出力制御部32から右目映像と左目映像の対を受けると、映像入出力インタフェース(図示せず)を介して、右目映像と左目映像の対を三次元映像対応テレビ7に出力することで、三次元映像を三次元映像対応テレビ7の画面に表示する。   When the video output unit 21 receives a pair of right-eye video and left-eye video from the frame copying unit 33, video correction unit 34, or output control unit 32, the right-eye video and left-eye video are transmitted via a video input / output interface (not shown). Are output to the 3D video compatible TV 7, thereby displaying the 3D video on the screen of the 3D video compatible TV 7.

以上で明らかなように、この実施の形態2によれば、三次元映像から右目映像フレーム及び左目映像フレームを生成するとともに、右目映像フレーム及び左目映像フレーム内の欠損箇所を特定する映像デコーダ31と、映像デコーダ31により欠損箇所が特定された映像フレームが存在する場合、映像デコーダ31により特定された右目映像フレーム及び左目映像フレーム内の欠損箇所を重ね合わせるとともに、重ね合わせ処理後に欠損箇所が存在している水平ライン上の非欠損箇所を欠損箇所に変更して欠損箇所を追加し、その映像フレーム内の欠損箇所を示す欠損情報にしたがって右目映像フレーム及び左目映像フレームを欠損させる映像補正処理を行う映像補正部34とを備えるように構成したので、水平方向の視差に対するずれが補正されるようになり、欠損が発生している三次元映像の画質を高めることができる効果を奏する。   As is apparent from the above, according to the second embodiment, the right-eye video frame and the left-eye video frame are generated from the 3D video, and the video decoder 31 that specifies the missing part in the right-eye video frame and the left-eye video frame is provided. When there is a video frame in which the missing part is specified by the video decoder 31, the missing part in the right-eye video frame and the left-eye video frame specified by the video decoder 31 are overlaid, and there is a missing part after the overlay processing. A video correction process is performed in which a non-defect portion on a horizontal line is changed to a defect portion and a defect portion is added, and the right-eye image frame and the left-eye image frame are lost according to the defect information indicating the defect portion in the image frame. Since the image correction unit 34 is provided, the deviation from the horizontal parallax is compensated. Come to be, defects offers an advantage of being able to improve the image quality of a three-dimensional image is generated.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 映像ストレージ、2 映像配信サーバ、3 外部ネットワーク、4 ホームゲートウェイ装置、5 ホームネットワーク、6 映像受信端末、7 三次元映像対応テレビ、11 ストリーム受信部、12 エラーコンシールメント装置、13 二次元映像デコーダ(映像フレーム生成手段)、14 シーンチェンジ検出部(シーンチェンジ検出手段)、15 付加情報デコーダ(付加情報データ生成手段)、16 出力制御部(複写区間設定手段、処理依頼手段)、17 フレーム複写部(フレーム複写手段)、18 二次元映像補正部(第1の欠損箇所補填手段)、19 付加情報補正部(第2の欠損箇所補填手段)、20 左右映像生成部、21 映像出力部、30 ストリーム受信部、31 映像デコーダ(映像フレーム生成手段)、32 出力制御部(複写区間設定手段、処理依頼手段)、33 フレーム複写部(フレーム複写手段)、34 映像補正部(映像補正手段)。   1 video storage, 2 video distribution server, 3 external network, 4 home gateway device, 5 home network, 6 video receiving terminal, 7 3D video compatible TV, 11 stream receiving unit, 12 error concealment device, 13 2D video decoder (Video frame generation means), 14 scene change detection section (scene change detection means), 15 additional information decoder (additional information data generation means), 16 output control section (copy section setting means, processing request means), 17 frame copy section (Frame copy means), 18 two-dimensional video correction section (first missing portion compensation means), 19 additional information correction section (second missing portion compensation means), 20 left and right video generation section, 21 video output section, 30 streams Receiver, 31 video decoder (video frame generating means), 32 outputs Control unit (copying section setting unit, the process requesting means), 33 frame duplicator (frame copy means) 34 image correction unit (image correction means).

Claims (10)

三次元映像から二次元映像の映像フレームを生成するとともに、上記映像フレーム内の欠損箇所を特定する映像フレーム生成手段と、
上記映像フレーム生成手段により生成された映像フレームの中で、シーンチェンジが発生している映像フレームを検出するシーンチェンジ検出手段と、
上記映像フレーム生成手段により欠損箇所が特定された映像フレームが存在する場合、上記シーンチェンジ検出手段の検出結果を参照して、上記映像フレームより時間的に前方及び後方の映像フレームの中で、シーンチェンジが発生している映像フレームを特定し、シーンチェンジが発生している前方の映像フレームからシーンチェンジが発生している後方の映像フレームまでの区間をフレーム複写区間に設定する複写区間設定手段と、
上記映像フレーム生成手段により生成された映像フレームの中で、上記複写区間設定手段により設定されたフレーム複写区間内の映像フレームを、上記二次元映像と撮影方向が異なる二次元映像から生成された映像フレームに置き換える複写処理を行うフレーム複写手段とを備えたエラーコンシールメント装置。
A video frame generating means for generating a video frame of a 2D video from the 3D video and identifying a missing portion in the video frame;
Scene change detection means for detecting a video frame in which a scene change has occurred among the video frames generated by the video frame generation means;
When there is a video frame in which a missing part is specified by the video frame generation means, a scene in a video frame temporally forward and backward from the video frame is referred to with reference to the detection result of the scene change detection means. Copy section setting means for identifying a video frame in which a change has occurred and setting a section from a front video frame in which a scene change has occurred to a rear video frame in which a scene change has occurred as a frame copy section; ,
Of the video frames generated by the video frame generation means, the video frames in the frame copy section set by the copy section setting means are generated from two-dimensional video having a shooting direction different from the two-dimensional video. An error concealment device comprising a frame copying means for performing a copying process for replacing with a frame.
三次元映像から二次元映像の映像フレームを生成するとともに、上記映像フレーム内の欠損箇所を特定する映像フレーム生成手段と、
上記三次元映像から上記二次元映像と撮影方向が異なる二次元映像の復元に用いる付加情報データを生成する付加情報データ生成手段と、
上記映像フレーム生成手段により欠損箇所が特定された映像フレームが存在する場合、上記付加情報データ生成手段により生成された付加情報データから輪郭線を抽出し、上記映像フレーム生成手段により欠損箇所が特定された映像フレームの中で、上記輪郭線で区切られている領域を欠損箇所の補填に用いることが可能な領域に指定し、指定の領域内の画素を用いて上記欠損箇所を補填する欠損箇所補填手段とを備えたエラーコンシールメント装置。
A video frame generating means for generating a video frame of a 2D video from the 3D video and identifying a missing portion in the video frame;
Additional information data generating means for generating additional information data for use in restoring a 2D video having a shooting direction different from that of the 2D video from the 3D video;
When there is a video frame in which the missing part is specified by the video frame generating means, a contour line is extracted from the additional information data generated by the additional information data generating means, and the defective part is specified by the video frame generating means. In the video frame, the area delimited by the outline is designated as an area that can be used to fill in the missing part, and the missing part is compensated by using the pixels in the designated area. And an error concealment device.
三次元映像から二次元映像の映像フレームを生成する映像フレーム生成手段と、
上記三次元映像から上記二次元映像と撮影方向が異なる二次元映像の復元に用いる付加情報データを生成するとともに、上記付加情報データ内の欠損箇所を特定する付加情報データ生成手段と、
上記付加情報データ生成手段により欠損箇所が特定された付加情報データが存在する場合、上記映像フレーム生成手段により生成された映像フレームから輪郭線を抽出し、上記付加情報データ生成手段により欠損箇所が特定された付加情報データの中で、上記輪郭線で区切られている領域を欠損箇所の補填に用いることが可能な領域に指定し、指定の領域内の付加情報データを用いて上記欠損箇所を補填する欠損箇所補填手段とを備えたエラーコンシールメント装置。
Video frame generating means for generating a video frame of 2D video from 3D video;
Generating additional information data used to restore a 2D video having a shooting direction different from that of the 2D video from the 3D video, and additional information data generating means for specifying a missing portion in the additional information data;
When there is additional information data for which a missing portion is specified by the additional information data generating means, a contour line is extracted from the video frame generated by the video frame generating means, and the defective portion is specified by the additional information data generating means. In the additional information data, the area delimited by the outline is designated as an area that can be used for filling the missing part, and the missing part is filled using the additional information data in the designated area. An error concealment device provided with a defect location filling means.
三次元映像から二次元映像の映像フレームを生成するとともに、上記映像フレーム内の欠損箇所を特定する映像フレーム生成手段と、
上記映像フレーム生成手段により生成された映像フレームの中で、シーンチェンジが発生している映像フレームを検出するシーンチェンジ検出手段と、
上記シーンチェンジ検出手段の検出結果を参照して、上記映像フレーム生成手段により欠損箇所が特定された映像フレームより時間的に前方及び後方の映像フレームの中で、シーンチェンジが発生している映像フレームを特定し、シーンチェンジが発生している前方の映像フレームからシーンチェンジが発生している後方の映像フレームまでの区間をフレーム複写区間に設定する複写区間設定手段と、
上記映像フレーム生成手段により生成された映像フレームの中で、上記複写区間設定手段により設定されたフレーム複写区間内の映像フレームを、上記二次元映像と撮影方向が異なる二次元映像から生成された映像フレームに置き換える複写処理を行うフレーム複写手段と、
上記三次元映像から上記二次元映像と撮影方向が異なる二次元映像の復元に用いる付加情報データを生成するとともに、上記付加情報データ内の欠損箇所を特定する付加情報データ生成手段と、
上記付加情報データ生成手段により生成された付加情報データに応じて、上記映像フレーム生成手段により特定された映像フレーム内の欠損箇所の補填に用いることが可能な上記映像フレーム内の領域を指定し、指定の領域内の画素を用いて上記欠損箇所を補填する第1の欠損箇所補填手段と、
上記映像フレーム生成手段により生成された映像フレームに応じて、上記付加情報データ生成手段により特定された付加情報データ内の欠損箇所の補填に用いることが可能な上記付加情報データ内の領域を指定し、指定の領域内の付加情報データを用いて上記欠損箇所を補填する第2の欠損箇所補填手段と、
上記映像フレーム生成手段により映像フレーム内の欠損箇所が特定されているが、上記付加情報データ生成手段により付加情報データ内の欠損箇所が特定されていない場合、上記第1の欠損箇所補填手段に対して欠損箇所の補填処理を依頼し、上記映像フレーム内の欠損箇所が特定されていないが、上記付加情報データ内の欠損箇所が特定されている場合、上記第2の欠損箇所補填手段に対して欠損箇所の補填処理を依頼し、上記映像フレーム及び上記付加情報データ内の欠損箇所が特定されている場合、上記フレーム複写手段に対して複写処理を依頼する処理依頼手段とを備えたエラーコンシールメント装置。
A video frame generating means for generating a video frame of a 2D video from the 3D video and identifying a missing portion in the video frame;
Scene change detection means for detecting a video frame in which a scene change has occurred among the video frames generated by the video frame generation means;
Referring to the detection result of the scene change detecting means, a video frame in which a scene change has occurred in a temporally forward and rearward video frame from the video frame in which the missing portion is specified by the video frame generating means A copy section setting means for setting a section from a front video frame in which a scene change has occurred to a rear video frame in which a scene change has occurred to a frame copy section;
Of the video frames generated by the video frame generation means, the video frames in the frame copy section set by the copy section setting means are generated from two-dimensional video having a shooting direction different from the two-dimensional video. Frame copy means for performing copy processing to replace with a frame;
Generating additional information data used to restore a 2D video having a shooting direction different from that of the 2D video from the 3D video, and additional information data generating means for specifying a missing portion in the additional information data;
In accordance with the additional information data generated by the additional information data generating means, specify an area in the video frame that can be used to compensate for a missing portion in the video frame specified by the video frame generating means, A first missing portion filling means for filling the missing portion using a pixel in a specified region;
In accordance with the video frame generated by the video frame generation means, specify an area in the additional information data that can be used to compensate for a missing portion in the additional information data specified by the additional information data generation means. A second missing portion filling means for filling the missing portion using the additional information data in the designated area;
If the missing part in the video frame is specified by the video frame generating means, but the missing part in the additional information data is not specified by the additional information data generating means, the first missing part compensating means is If the missing part in the video frame is not specified, but the missing part in the additional information data is specified, the second missing part filling means is requested. An error concealment provided with processing request means for requesting a copy process to the frame copying means when the missing part in the video frame and the additional information data is specified by requesting a filling process for the defective part. apparatus.
上記処理依頼手段は、映像フレーム内の欠損箇所が特定されていないが、付加情報データ内の欠損箇所が特定されている場合、上記付加情報データの欠損率が所定の閾値以内であれば、上記第2の欠損箇所補填手段に対して欠損箇所の補填処理を依頼し、上記欠損率が上記閾値以上であれば、上記フレーム複写手段に対して複写処理を依頼することを特徴とする請求項4記載のエラーコンシールメント装置。 Said process request means is chipped portion in the video frame is not specified, if the chipped portion in the additional information data are identified, defect rate of the additional information data is equal to or less than a predetermined threshold value, the requests the filling process of chipped portions on the second chipped portions compensation means, the defect rate is not less than the threshold value, according to claim 4, characterized in that to request the copying process on the frame copying means The described error concealment device. 三次元映像から撮影方向が異なる複数の二次元映像の映像フレームを生成するとともに、上記複数の映像フレーム内の欠損箇所を特定する映像フレーム生成手段と、
上記映像フレーム生成手段により生成された映像フレームの中で、シーンチェンジが発生している映像フレームを検出するシーンチェンジ検出手段と、
上記映像フレーム生成手段により欠損箇所が特定された映像フレームが存在する場合、上記シーンチェンジ検出手段の検出結果を参照して、上記映像フレームより時間的に前方及び後方の映像フレームの中で、シーンチェンジが発生している映像フレームを特定し、シーンチェンジが発生している前方の映像フレームからシーンチェンジが発生している後方の映像フレームまでの区間をフレーム複写区間に設定する複写区間設定手段と、
上記映像フレーム生成手段により生成された映像フレームの中で、上記複写区間設定手段により設定されたフレーム複写区間内の映像フレームを、上記映像フレーム生成手段により撮影方向が異なる二次元映像から生成された映像フレームに置き換える複写処理を行うフレーム複写手段とを備えたエラーコンシールメント装置。
Generating a plurality of 2D video frames having different shooting directions from the 3D video, and a video frame generating means for identifying a missing portion in the plurality of video frames;
Scene change detection means for detecting a video frame in which a scene change has occurred among the video frames generated by the video frame generation means;
When there is a video frame in which a missing part is specified by the video frame generation means, a scene in a video frame temporally forward and backward from the video frame is referred to with reference to the detection result of the scene change detection means. Copy section setting means for identifying a video frame in which a change has occurred and setting a section from a front video frame in which a scene change has occurred to a rear video frame in which a scene change has occurred as a frame copy section; ,
Among the video frames generated by the video frame generation means, the video frames in the frame copy section set by the copy section setting means are generated from two-dimensional videos having different shooting directions by the video frame generation means. An error concealment device comprising a frame copying means for performing a copying process for replacing with a video frame.
三次元映像から撮影方向が異なる複数の二次元映像の映像フレームを生成するとともに、上記複数の映像フレーム内の欠損箇所を特定する映像フレーム生成手段と、
上記映像フレーム生成手段により欠損箇所が特定された映像フレームが存在する場合、上記映像フレーム生成手段により特定された複数の映像フレーム内の欠損箇所を重ね合わせるとともに、重ね合わせ処理後に欠損箇所が存在している水平ライン上の非欠損箇所を欠損箇所に変更して欠損箇所を追加し、上記映像フレーム内の欠損箇所を示す欠損情報にしたがって上記映像フレーム生成手段により生成された映像フレームを欠損させる映像補正処理を行う映像補正手段とを備えたエラーコンシールメント装置。
Generating a plurality of 2D video frames having different shooting directions from the 3D video, and a video frame generating means for identifying a missing portion in the plurality of video frames;
When there is a video frame in which the missing part is specified by the video frame generating unit, the missing part in the plurality of video frames specified by the video frame generating unit is overlaid, and the missing part is present after the overlay processing. A video in which the video frame generated by the video frame generation means is lost according to the missing information indicating the missing location in the video frame by changing the non-missing location on the horizontal line to a defective location and adding the missing location. An error concealment device comprising image correction means for performing correction processing.
三次元映像から撮影方向が異なる複数の二次元映像の映像フレームを生成するとともに、上記複数の映像フレーム内の欠損箇所を特定する映像フレーム生成手段と、
上記映像フレーム生成手段により生成された映像フレームの中で、シーンチェンジが発生している映像フレームを検出するシーンチェンジ検出手段と、
上記シーンチェンジ検出手段の検出結果を参照して、上記映像フレーム生成手段により欠損箇所が特定された映像フレームより時間的に前方及び後方の映像フレームの中で、シーンチェンジが発生している映像フレームを特定し、シーンチェンジが発生している前方の映像フレームからシーンチェンジが発生している後方の映像フレームまでの区間をフレーム複写区間に設定する複写区間設定手段と、
上記映像フレーム生成手段により生成された映像フレームの中で、上記複写区間設定手段により設定されたフレーム複写区間内の映像フレームを、上記映像フレーム生成手段により撮影方向が異なる二次元映像から生成された映像フレームに置き換える複写処理を行うフレーム複写手段と、
上記映像フレーム生成手段により特定された複数の映像フレーム内の欠損箇所を重ね合わせるとともに、重ね合わせ処理後に欠損箇所が存在している水平ライン上の非欠損箇所を欠損箇所に変更して欠損箇所を追加し、上記映像フレーム内の欠損箇所を示す欠損情報にしたがって上記映像フレーム生成手段により生成された映像フレームを欠損させる映像補正処理を行う映像補正手段と、
上記映像フレーム生成手段により特定された映像フレーム内の欠損箇所の目立ち易さの度合を算出し、その目立ち易さの度合が所定の閾値以内であれば、上記映像補正手段に対して映像補正処理を依頼し、その目立ち易さの度合が上記閾値以上であれば、上記フレーム複写手段に対して複写処理を依頼する処理依頼手段とを備えたエラーコンシールメント装置。
Generating a plurality of 2D video frames having different shooting directions from the 3D video, and a video frame generating means for identifying a missing portion in the plurality of video frames;
Scene change detection means for detecting a video frame in which a scene change has occurred among the video frames generated by the video frame generation means;
Referring to the detection result of the scene change detecting means, a video frame in which a scene change has occurred in a temporally forward and rearward video frame from the video frame in which the missing portion is specified by the video frame generating means A copy section setting means for setting a section from a front video frame in which a scene change has occurred to a rear video frame in which a scene change has occurred to a frame copy section;
Among the video frames generated by the video frame generation means, the video frames in the frame copy section set by the copy section setting means are generated from two-dimensional videos having different shooting directions by the video frame generation means. A frame copying means for performing a copying process to be replaced with a video frame;
Overlapping the missing parts in the plurality of video frames specified by the video frame generating means, and changing the non-missing part on the horizontal line where the missing part exists after the overlay processing to the missing part Video correction means for performing a video correction process to add and to delete the video frame generated by the video frame generation means according to the defect information indicating the missing portion in the video frame;
The degree of conspicuousness of the missing portion in the video frame specified by the video frame generating unit is calculated, and if the degree of conspicuousness is within a predetermined threshold, the video correcting process is performed on the video correcting unit. An error concealment device comprising processing request means for requesting the frame copying means to perform copying processing if the degree of conspicuousness is not less than the threshold value.
上記処理依頼手段は、欠損箇所の大きさ及び位置から目立ち易さの度合を算出することを特徴とする請求項8記載のエラーコンシールメント装置。 It said process request means, error concealment apparatus of claim 8, wherein the calculating the degree of ease noticeable from the size and position of the defect location. 上記処理依頼手段は、欠損箇所の周辺の動きベクトルから目立ち易さの度合を算出することを特徴とする請求項8記載のエラーコンシールメント装置。 It said process request means, error concealment apparatus of claim 8, wherein the calculating the degree of ease noticeable from the motion vectors of the surrounding chipped portions.
JP2010266493A 2010-11-30 2010-11-30 Error concealment device Expired - Fee Related JP5622537B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010266493A JP5622537B2 (en) 2010-11-30 2010-11-30 Error concealment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010266493A JP5622537B2 (en) 2010-11-30 2010-11-30 Error concealment device

Publications (2)

Publication Number Publication Date
JP2012119844A JP2012119844A (en) 2012-06-21
JP5622537B2 true JP5622537B2 (en) 2014-11-12

Family

ID=46502224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010266493A Expired - Fee Related JP5622537B2 (en) 2010-11-30 2010-11-30 Error concealment device

Country Status (1)

Country Link
JP (1) JP5622537B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109819230B (en) * 2019-01-28 2020-08-25 杭州电子科技大学 Three-dimensional video error concealment method based on HEVC standard

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3332575B2 (en) * 1994-05-23 2002-10-07 三洋電機株式会社 3D video playback device
JP3992533B2 (en) * 2002-04-25 2007-10-17 シャープ株式会社 Data decoding apparatus for stereoscopic moving images enabling stereoscopic viewing
JP4912224B2 (en) * 2007-06-08 2012-04-11 キヤノン株式会社 Image display system and control method thereof
WO2010032334A1 (en) * 2008-09-22 2010-03-25 富士通株式会社 Quality index value calculation method, information processing device, dynamic distribution system, and quality index value calculation program
MX2011006360A (en) * 2008-09-30 2011-07-13 Panasonic Corp Reproduction device, recording medium, and integrated circuit.
JP5531881B2 (en) * 2010-09-22 2014-06-25 富士通株式会社 Moving picture decoding apparatus, moving picture decoding method, and integrated circuit

Also Published As

Publication number Publication date
JP2012119844A (en) 2012-06-21

Similar Documents

Publication Publication Date Title
KR101260613B1 (en) Image encoding device, image encoding method, program thereof, image decoding device, image decoding method, and program thereof
KR101667723B1 (en) 3d image signal transmission method, 3d image display apparatus and signal processing method therein
JP5763184B2 (en) Calculation of parallax for 3D images
US8780173B2 (en) Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
US8116557B2 (en) 3D image processing apparatus and method
JP4821846B2 (en) Image encoding apparatus, image encoding method and program thereof
EP2348733A2 (en) Virtual view image synthesis method and apparatus
US20140376635A1 (en) Stereo scopic video coding device, steroscopic video decoding device, stereoscopic video coding method, stereoscopic video decoding method, stereoscopic video coding program, and stereoscopic video decoding program
TWI539790B (en) Apparatus, method and software product for generating and rebuilding a video stream
KR20100095420A (en) Method and device for processing a depth-map
KR20110139189A (en) Method for processing three dimensional (3d) video signal and digital broadcast receiver for performing the processing method
JP2009044722A (en) Pseudo-3d-image generating device, image-encoding device, image-encoding method, image transmission method, image-decoding device and image image-decoding method
JP2011109671A (en) Adaptive compression of background image (acbi) based on segmentation of three dimensional objects
Shao et al. Stereoscopic video coding with asymmetric luminance and chrominance qualities
JP2010157826A (en) Image decoder, image encoding/decoding method, and program of the same
CA2841192C (en) Method and apparatus for processing a 3d service
TW200931948A (en) Generation of a signal
JP2000308089A (en) Stereoscopic image encoder and decoder
JPH03117093A (en) Method of processing and transmitting stereoscopic television image signal
JP5622537B2 (en) Error concealment device
JP2010157821A (en) Image encoder, image encoding method, and program of the same
KR101349459B1 (en) Apparatus and method for providing video and reproducting video
JP2010157823A (en) Image encoder, image encoding method, and program of the same
JP2010157822A (en) Image decoder, image encoding/decoding method, and program of the same
US20150062298A1 (en) Image quality increasing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140922

R150 Certificate of patent or registration of utility model

Ref document number: 5622537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees