JP2007251543A - Display control unit, control method thereof, information reproducing unit, and electronic equipment - Google Patents

Display control unit, control method thereof, information reproducing unit, and electronic equipment Download PDF

Info

Publication number
JP2007251543A
JP2007251543A JP2006071449A JP2006071449A JP2007251543A JP 2007251543 A JP2007251543 A JP 2007251543A JP 2006071449 A JP2006071449 A JP 2006071449A JP 2006071449 A JP2006071449 A JP 2006071449A JP 2007251543 A JP2007251543 A JP 2007251543A
Authority
JP
Japan
Prior art keywords
image data
display time
unit
reference frame
packet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006071449A
Other languages
Japanese (ja)
Inventor
Kohei Takeda
幸平 竹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006071449A priority Critical patent/JP2007251543A/en
Publication of JP2007251543A publication Critical patent/JP2007251543A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display control unit capable of reducing the capacity of a buffer provided before inputting to a decoder; and to provide a method for controlling the display control unit, an information reproducing unit, and electronic equipment. <P>SOLUTION: The display control unit 10 includes: first to N-th reference frame buffers REF1-REFN for storing image data to which display time is set, the decoder 20 for referring to the image data of the first to N-th reference frame buffers for decode processing, an image data transfer instructor 42 for instructing the transfer of the image data, and an image data transfer control unit 44 for controlling the transfer of the image data of the first to N-th reference frame buffers to the display unit. The image data transfer instructor 42 instructs the transfer of the image data, where display time arrived, and instructs the transfer of the oldest image data in the first to N-th reference frame buffers when the decoding processing is completed to the image data of a current frame, and the first to N-th reference frame buffers are full. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、表示制御装置、その制御方法、情報再生装置及び電子機器に関する。   The present invention relates to a display control device, a control method therefor, an information reproduction device, and an electronic apparatus.

地上アナログ放送に替わって登場する地上デジタル放送では、画像及び音声の高品質化に加えて種々の新サービスの提供に期待が寄せられている。地上デジタル放送の導入によって新たに提供されるサービスの1つに、携帯端末向けサービスとして、いわゆる「1セグメント放送」がある。「1セグメント放送」では、QPSK(Quadrature Phase Shift Keying)変調方式で変調されたデジタル変調波をOFDM(Orthogonal Frequency Division Multiplexing)変調方式で多重化することで、携帯端末の移動時でも安定した放送受信が可能となる。   In terrestrial digital broadcasting that appears in place of analog terrestrial broadcasting, there are expectations for the provision of various new services in addition to improving the quality of images and audio. One of the services newly provided by the introduction of terrestrial digital broadcasting is so-called “one-segment broadcasting” as a service for mobile terminals. In “1-segment broadcasting”, digital modulated waves modulated by the QPSK (Quadrature Phase Shift Keying) modulation method are multiplexed by the OFDM (Orthogonal Frequency Division Multiplexing) modulation method, so that stable broadcast reception is possible even when the mobile terminal is moving. Is possible.

このような携帯端末の一例として、携帯電話機がある。携帯電話機に「1セグメント放送」の受信機能を付加する場合、圧縮処理後の映像データ及び音声データが多重化されたトランスポートストリームの分離処理や分離処理後のデータのデコード処理を行う。そして、デコード処理の映像データ及び音声データを、同期をとりながら再生する。
特開2004−140506号公報
An example of such a mobile terminal is a mobile phone. When a reception function of “1-segment broadcasting” is added to a cellular phone, a separation process of a transport stream in which video data and audio data after compression processing are multiplexed and data decoding processing after the separation processing are performed. Then, the video data and audio data of the decoding process are reproduced while being synchronized.
JP 2004-140506 A

ところで、「1セグメント放送」においては、映像データのデコーダ処理を行う映像デコーダの前にビットストリームをバッファリングする符号化ピクチャバッファ(Coded Picture Buffer:以下、CPBと略す)というモデルが規定されている。このCPBの容量は、レベルに応じて規定されており、例えば125キロバイトや150キロバイトが規定されている。   By the way, in “1-segment broadcasting”, a model called a coded picture buffer (hereinafter abbreviated as CPB) for buffering a bit stream is defined before a video decoder that performs video data decoder processing. . The capacity of this CPB is defined according to the level, for example, 125 kilobytes or 150 kilobytes.

しかしながら、特許文献1のようにCPBの容量を考慮しない場合、例えば125キロバイトや150キロバイトのメモリの容量をCPBの容量として確保しなければならない。そのため、特許文献1の技術が適用された携帯電話機の低コスト化、低消費電力化及び小型化を図ることが困難である。従って、本来のデコード処理を破綻させることなく、できるだけCPBの容量を削減することが望ましい。   However, when the capacity of CPB is not considered as in Patent Document 1, for example, the capacity of a memory of 125 kilobytes or 150 kilobytes must be secured as the capacity of CPB. For this reason, it is difficult to reduce the cost, reduce the power consumption, and reduce the size of the mobile phone to which the technology of Patent Document 1 is applied. Therefore, it is desirable to reduce the CPB capacity as much as possible without breaking the original decoding process.

本発明は、以上のような技術的課題に鑑みてなされたものであり、その目的とするところは、デコーダに入力する前に設けられるバッファの容量を削減できる表示制御装置、その制御方法、情報再生装置及び電子機器を提供することにある。   The present invention has been made in view of the technical problems as described above, and an object of the present invention is to provide a display control apparatus capable of reducing the capacity of a buffer provided before being input to a decoder, its control method, and information. To provide a playback device and an electronic device.

上記課題を解決するために本発明は、
各参照フレームバッファが、表示時刻が設定される1フレーム分の画像データを格納する第1〜第N(Nは自然数)の参照フレームバッファと、
前記第1〜第Nの参照フレームバッファに格納された少なくとも1フレーム分の画像データを参照して、現フレームの画像データを生成するデコード処理を行うデコーダと、
画像データの転送指示を行う画像データ転送指示部と、
画像データ転送指示部からの転送指示に基づいて、前記第1〜第Nの参照フレームバッファのいずれかから1フレーム分の画像データを表示部に転送する制御を行う画像データ転送制御部とを含み、
前記画像データ転送指示部が、
現フレームのデコード処理中に表示時刻が到来した画像データの転送を指示すると共に、
前記現フレームの画像データに対するデコード処理が完了し、且つ前記第1〜第Nの参照フレームバッファがフル状態のとき、前記第1〜第Nの参照フレームバッファに格納された画像データに設定される表示時刻にかかわらず、前記第1〜第Nの参照フレームバッファに格納された画像データのうち最も古い画像データの転送指示を行う表示制御装置に関係する。
In order to solve the above problems, the present invention
Each reference frame buffer stores first to Nth (N is a natural number) reference frame buffers for storing image data for one frame for which a display time is set;
A decoder that performs decoding processing to generate image data of a current frame with reference to image data of at least one frame stored in the first to Nth reference frame buffers;
An image data transfer instruction unit for instructing transfer of image data;
An image data transfer control unit that performs control to transfer image data for one frame from any of the first to Nth reference frame buffers to a display unit based on a transfer instruction from the image data transfer instruction unit. ,
The image data transfer instruction unit
Instructing transfer of image data whose display time has arrived during decoding of the current frame,
When the decoding process for the image data of the current frame is completed and the first to Nth reference frame buffers are full, the image data stored in the first to Nth reference frame buffers is set. The present invention relates to a display control apparatus that issues an instruction to transfer the oldest image data among the image data stored in the first to Nth reference frame buffers regardless of the display time.

本発明によれば、表示時刻が設定される、デコード処理後の画像データを、表示時刻に従って表示部に転送できると共に、デコーダによるデコード処理が完了したにもかかわらず、第1〜第Nの参照フレームバッファがすべてフル状態のために、デコード処理後の画像データを参照フレームバッファに格納できないという事態を回避できる。従って、本発明によれば、デコーダの前に配置される、いわゆるCPBの容量を削減することができる。   According to the present invention, it is possible to transfer the image data after the decoding process in which the display time is set to the display unit according to the display time, and the first to Nth references even though the decoding process by the decoder is completed. Since all the frame buffers are full, it is possible to avoid a situation in which image data after decoding cannot be stored in the reference frame buffer. Therefore, according to the present invention, the capacity of the so-called CPB arranged before the decoder can be reduced.

また本発明に係る表示制御装置では、
前記画像データ転送指示部が、
前記表示時刻に対応した表示時刻データと、該表示時刻データに対応した画像データの格納先とが画像データ毎に記憶される表示時刻テーブルに基づいて、前記画像データの転送指示を行うことができる。
In the display control device according to the present invention,
The image data transfer instruction unit
Based on the display time table in which the display time data corresponding to the display time and the storage location of the image data corresponding to the display time data are stored for each image data, the transfer instruction of the image data can be performed. .

本発明によれば、表示時刻テーブルに設定された表示時刻データにより表される表示時刻であるか否かによって、画像データの転送制御の可否を決定することができる。このため、例えば画像が生成される時間間隔がフレーム毎に異なった場合であっても、各フレームの画像の管理が容易となり、表示間隔時間を変更する等の表示制御の融通性を向上させることができるようになる。また、無駄に多くの画像をバッファリングさせる必要がなくなり、表示制御装置が適用される機器の低コスト化に寄与できるようになる。   According to the present invention, whether or not image data transfer control is possible can be determined based on whether or not the display time is represented by the display time data set in the display time table. For this reason, for example, even when the time interval at which an image is generated differs from frame to frame, the management of the image of each frame is facilitated, and the flexibility of display control such as changing the display interval time is improved. Will be able to. In addition, it is not necessary to buffer a large number of images unnecessarily, and it is possible to contribute to cost reduction of a device to which the display control device is applied.

また本発明に係る表示制御装置では、
設定された時刻に割り込みを発生させるタイマ部を含み、
前記画像データ転送指示部が、
表示時刻データを前記タイマ部に設定した後、該タイマ部からの割り込みを受信したとき、前記画像データ転送制御部に前記転送指示を行うことができる。
In the display control device according to the present invention,
Includes a timer part that generates an interrupt at a set time,
The image data transfer instruction unit
After the display time data is set in the timer unit, when an interrupt from the timer unit is received, the transfer instruction can be issued to the image data transfer control unit.

また本発明に係る表示制御装置では、
計時を行うタイマ部を含み、
前記画像データ転送指示部が、
表示時刻データを前記タイマ部に設定した後、前記タイマ部をポーリングして前記表示時刻データにより表される表示時刻を経過したか否かを判別し、前記タイマ部の時刻が前記表示時刻を経過したと判別されたとき、前記画像データ転送制御部に前記転送指示を行うことができる。
In the display control device according to the present invention,
Includes a timer section that keeps time,
The image data transfer instruction unit
After setting the display time data in the timer unit, the timer unit is polled to determine whether or not the display time represented by the display time data has elapsed, and the time of the timer unit has passed the display time When it is determined that the transfer has been performed, the transfer instruction can be issued to the image data transfer control unit.

上記のいずれかの発明によれば、簡素な構成で、表示時刻に画像データの転送指示を行うことができる。   According to any one of the above inventions, it is possible to instruct image data transfer at a display time with a simple configuration.

また本発明に係る表示制御装置では、
Nが3であってもよい。
In the display control device according to the present invention,
N may be 3.

本発明によれば、必要最小限の構成で、「1セグメント放送」の再生等を行う装置への適用が可能となる。   According to the present invention, it is possible to apply the present invention to an apparatus that reproduces “one-segment broadcasting” with a minimum configuration.

また本発明は、
各参照フレームバッファが、表示時刻が設定される1フレーム分の画像データを格納する第1〜第N(Nは自然数)参照フレームバッファと、
前記第1〜第Nの参照フレームバッファに格納された少なくとも1フレーム分の画像データを参照して、現フレームの画像データを生成するデコード処理を行うデコーダと、
前記第1〜第Nの参照フレームバッファのいずれかから1フレーム分の画像データを表示部に転送する制御を行う画像データ転送制御部とを含む表示制御装置の制御方法であって、
前記画像データ転送制御部に対し、現フレームのデコード処理中に表示時刻が到来した画像データの転送を指示すると共に、
前記現フレームの画像データに対するデコード処理が完了し、且つ前記第1〜第Nの参照フレームバッファがフル状態のとき、前記第1〜第Nの参照フレームバッファに格納された画像データに設定される表示時刻にかかわらず、前記画像データ転送制御部に対し、前記第1〜第Nの参照フレームバッファに格納された画像データのうち最も古い画像データの転送指示を行う表示制御装置の制御方法に関係する。
The present invention also provides
First to Nth (N is a natural number) reference frame buffer for storing each frame of image data for which a display time is set;
A decoder that performs decoding processing to generate image data of a current frame with reference to image data of at least one frame stored in the first to Nth reference frame buffers;
A display control apparatus control method including an image data transfer control unit that performs control to transfer image data for one frame from any of the first to Nth reference frame buffers to a display unit,
Instructing the image data transfer control unit to transfer image data whose display time has arrived during decoding of the current frame,
When the decoding process for the image data of the current frame is completed and the first to Nth reference frame buffers are full, the image data stored in the first to Nth reference frame buffers is set. Regardless of the display time, the image data transfer control unit is related to the control method of the display control apparatus that instructs the image data transfer control unit to transfer the oldest image data among the image data stored in the first to Nth reference frame buffers. To do.

また本発明に係る表示制御装置の制御方法では、
前記表示時刻に対応した表示時刻データと、該表示時刻データに対応した画像データの格納先とが画像データ毎に記憶される表示時刻テーブルに基づいて、前記画像データの転送指示を行うことができる。
In the control method of the display control device according to the present invention,
Based on the display time table in which the display time data corresponding to the display time and the storage location of the image data corresponding to the display time data are stored for each image data, the transfer instruction of the image data can be performed. .

上記のいずれかの発明によれば、表示時刻が設定される、デコード処理後の画像データを、表示時刻に従って表示部に転送できると共に、デコーダによるデコード処理が完了したにもかかわらず、第1〜第Nの参照フレームバッファがすべてフル状態のために、デコード処理後の画像データを参照フレームバッファに格納できないという事態を回避できる。従って、本発明によれば、デコーダの前に配置される、いわゆるCPBの容量を削減することができる。   According to any one of the above-described inventions, the image data after the decoding process in which the display time is set can be transferred to the display unit according to the display time, and the first to the first data are obtained despite the completion of the decoding process by the decoder. Since all the Nth reference frame buffers are full, it is possible to avoid a situation in which the decoded image data cannot be stored in the reference frame buffer. Therefore, according to the present invention, the capacity of the so-called CPB arranged before the decoder can be reduced.

また本発明は、
映像データ及び音声データの少なくとも1つを再生するための情報再生装置であって、
映像データを生成するための第1のTS(Transport Stream)パケット、音声データを生成するための第2のTSパケット、前記第1及び第2のTSパケット以外の第3のTSパケットを、トランスポートストリームから抽出する分離処理部と、
前記第1のTSパケットが格納される第1の記憶領域と、前記第2のTSパケットが格納される第2の記憶領域と、前記第3のTSパケットが格納される第3の記憶領域と、第1〜第N(Nは自然数)の参照フレーム画像データが格納される参照フレーム画像データ記憶領域とを有するメモリと、
前記第1の記憶領域から読み出された前記第1のTSパケットに基づいて前記映像データを生成する映像デコード処理を行い、映像デコード処理後のデータを前記第1〜第Nの参照フレーム画像データの1つとして前記メモリの参照フレーム記憶領域に格納する映像デコーダと、
前記第2の記憶領域から読み出された前記第2のTSパケットに基づいて前記音声データを生成する音声デコード処理を行う音声デコーダと、
前記メモリの参照フレーム画像データ記憶領域から前記第1〜第Nの参照フレーム画像データの1つを画像データとして転送制御を行う画像データ転送制御部とを含み、
前記映像デコーダが、前記第1の記憶領域から前記第1のTSパケットを、前記音声デコーダとは独立して読み出し、該第1のTSパケットに基づいて前記映像デコード処理を行うと共に、
前記音声デコーダが、前記第2の記憶領域から前記第2のTSパケットを、前記映像デコーダとは独立して読み出し、該第2のTSパケットに基づいて前記音声デコード処理を行い、
前記画像データ転送制御部が、
現フレームのデコード処理中に表示時刻が到来した画像データの転送を行う共に、
前記現フレームの画像データに対するデコード処理が完了し、且つ前記第1〜第Nの参照フレーム画像データのそれぞれが格納される記憶領域のすべてがフル状態のとき、前記第1〜第Nの参照フレーム画像データに設定される表示時刻にかかわらず、前記参照フレーム画像データ記憶領域に格納された画像データのうち最も古い画像データの転送制御を行う情報再生装置に関係する。
The present invention also provides
An information reproducing apparatus for reproducing at least one of video data and audio data,
Transport a first TS (Transport Stream) packet for generating video data, a second TS packet for generating audio data, and a third TS packet other than the first and second TS packets. A separation processing unit for extracting from the stream;
A first storage area for storing the first TS packet; a second storage area for storing the second TS packet; and a third storage area for storing the third TS packet; A memory having a reference frame image data storage area for storing first to Nth (N is a natural number) reference frame image data;
A video decoding process for generating the video data based on the first TS packet read from the first storage area is performed, and the data after the video decoding process is used as the first to Nth reference frame image data. A video decoder for storing in a reference frame storage area of the memory as one of
An audio decoder for performing audio decoding processing for generating the audio data based on the second TS packet read from the second storage area;
An image data transfer control unit that controls transfer of one of the first to Nth reference frame image data as image data from a reference frame image data storage area of the memory;
The video decoder reads the first TS packet from the first storage area independently of the audio decoder, performs the video decoding process based on the first TS packet,
The audio decoder reads the second TS packet from the second storage area independently of the video decoder, performs the audio decoding process based on the second TS packet,
The image data transfer control unit is
While transferring the image data whose display time has arrived during the decoding process of the current frame,
When the decoding process for the image data of the current frame is completed and all the storage areas in which the first to Nth reference frame image data are stored are full, the first to Nth reference frames Regardless of the display time set in the image data, the present invention relates to an information reproducing apparatus that controls transfer of the oldest image data among the image data stored in the reference frame image data storage area.

また本発明に係る情報再生装置では、
前記表示時刻に対応した表示時刻データと、該表示時刻データに対応した画像データの格納先とが画像データ毎に記憶される表示時刻テーブルに基づいて、前記画像データの転送指示を行うことができる。
In the information reproducing apparatus according to the present invention,
Based on the display time table in which the display time data corresponding to the display time and the storage location of the image data corresponding to the display time data are stored for each image data, the transfer instruction of the image data can be performed. .

上記のいずれかの発明によれば、いわゆるCPBとして機能するメモリの記憶領域を削減することができるので、映像データ及び音声データの再生処理を行う情報再生装置の低コスト化を図ることができる。   According to any one of the above-described inventions, it is possible to reduce the storage area of the memory functioning as a so-called CPB, and thus it is possible to reduce the cost of the information reproducing apparatus that performs reproduction processing of video data and audio data.

また本発明は、
上記記載の情報再生装置と、
前記情報再生装置に対し、前記映像デコード処理及び前記音声デコード処理の少なくとも1つの処理開始を指示するホストとを含む電子機器に関係する。
The present invention also provides
An information reproducing apparatus as described above;
The present invention relates to an electronic apparatus including a host that instructs the information reproduction apparatus to start at least one of the video decoding process and the audio decoding process.

また本発明は、
チューナと、
前記チューナからのトランスポートストリームが供給される上記記載の情報再生装置と、
前記情報再生装置に対し、前記映像デコード処理及び前記音声デコード処理の少なくとも1つの処理開始を指示するホストとを含む電子機器に関係する。
The present invention also provides
Tuner,
The information reproducing apparatus as described above, wherein a transport stream from the tuner is supplied;
The present invention relates to an electronic apparatus including a host that instructs the information reproduction apparatus to start at least one of the video decoding process and the audio decoding process.

上記のいずれかの発明によれば、いわゆるCPBとして機能するメモリの記憶領域を削減し、映像データ及び音声データの再生処理を行う情報再生装置が適用された電子機器を提供することができる。   According to any one of the above-described inventions, it is possible to provide an electronic apparatus to which an information reproducing apparatus for reducing the storage area of a memory functioning as a so-called CPB and performing reproduction processing of video data and audio data is applied.

以下、本発明の実施の形態について図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また以下で説明される構成のすべてが本発明の必須構成要件であるとは限らない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The embodiments described below do not unduly limit the contents of the present invention described in the claims. Also, not all of the configurations described below are essential constituent requirements of the present invention.

1. 表示制御装置
図1に、本実施形態における表示制御装置の構成例のブロック図を示す。
1. Display Control Device FIG. 1 is a block diagram showing a configuration example of a display control device according to this embodiment.

表示制御装置10は、パケットデータが連続するストリームデータから生成される画像データの表示部50への転送制御を行うことで、表示部50の表示制御を行う。ここで、表示部50は、例えば電気光学装置としての液晶表示(Liquid Crystal Display:以下、LCDと略す)パネル(図示せず)と、該LCDパネルの複数の走査線及び複数のデータ線を駆動する駆動回路(図示せず)とを含むことができる。駆動回路は、LCDパネルの複数の走査線を走査しながら、該LCDパネルの複数のデータ線を画像データに基づいて駆動する。この場合、表示制御装置10は、表示部50の駆動回路に対して画像データを転送する。   The display control apparatus 10 performs display control of the display unit 50 by controlling transfer of image data generated from stream data including continuous packet data to the display unit 50. Here, the display unit 50 drives, for example, a liquid crystal display (hereinafter abbreviated as LCD) panel (not shown) as an electro-optical device, and a plurality of scanning lines and a plurality of data lines of the LCD panel. Driving circuit (not shown). The driving circuit drives the plurality of data lines of the LCD panel based on the image data while scanning the plurality of scanning lines of the LCD panel. In this case, the display control device 10 transfers the image data to the drive circuit of the display unit 50.

表示制御装置10に入力されるストリームデータは、所定のビットレートを維持するために、一旦、符号化ピクチャバッファ(Coded Picture Buffer:CPB)60に蓄積された後に出力される。このようなストリームデータは、1又は複数のパケットデータを含む。各パケットデータは、ヘッダ情報とペイロード部とを含む。そしてペイロード部のデータに基づいて生成された1又は複数の画像データを、該パケットデータにより指定された表示時刻に表示部50に表示させるための制御を行う。   The stream data input to the display control device 10 is temporarily stored in a coded picture buffer (CPB) 60 and then output in order to maintain a predetermined bit rate. Such stream data includes one or more packet data. Each packet data includes header information and a payload portion. Then, control is performed for causing the display unit 50 to display one or a plurality of image data generated based on the data in the payload portion at a display time specified by the packet data.

このような表示制御装置10は、デコーダ20と、バッファ部40と、画像データ転送指示部42と、画像データ転送制御部44とを含む。   Such a display control apparatus 10 includes a decoder 20, a buffer unit 40, an image data transfer instruction unit 42, and an image data transfer control unit 44.

バッファ部40は、第1〜第N(Nは自然数)の参照フレームバッファREF1〜REFNを含む。第1〜第Nの参照フレームバッファREF1〜REFNの各参照フレームバッファには、表示時刻が設定される、デコーダ20によるデコード処理後の1フレーム分の画像データが格納される。   The buffer unit 40 includes first to Nth (N is a natural number) reference frame buffers REF1 to REFN. In each of the first to Nth reference frame buffers REF <b> 1 to REFN, image data for one frame after the decoding process by the decoder 20, in which a display time is set, is stored.

デコーダ20は、ストリームデータを構成するパケットデータから抽出される画像データのデコード処理を行う。このデコーダ20は、バッファ部40の第1〜第Nの参照フレームバッファREF1〜REFNに格納された少なくとも1フレーム分の画像データを参照して、現フレームの画像データを生成するデコード処理を行う。そして、デコーダ20は、デコード処理後の1フレーム分の画像データを、第1〜第Nの参照フレームバッファREF1〜REFNのいずれかの参照フレームバッファに格納する。このようなデコーダ20は、例えばH.264/AVC規格に準拠したデコード処理を行うことができる。デコーダ20は、例えばデコード処理の開始の際に、処理対象の画像データを一旦、デコード用フレームバッファ46に格納し、該デコード用フレームバッファ46を作業用エリアとしてデコード処理を行うことができる。   The decoder 20 performs a decoding process on image data extracted from packet data constituting stream data. The decoder 20 refers to at least one frame of image data stored in the first to Nth reference frame buffers REF1 to REFN of the buffer unit 40 and performs a decoding process for generating image data of the current frame. Then, the decoder 20 stores the image data for one frame after the decoding processing in any one of the first to Nth reference frame buffers REF1 to REFN. Such a decoder 20 is, for example, H.264. H.264 / AVC standard compliant decoding processing can be performed. For example, when starting the decoding process, the decoder 20 can temporarily store the image data to be processed in the decoding frame buffer 46 and perform the decoding process using the decoding frame buffer 46 as a work area.

画像データ転送指示部42は、表示部50に対する1フレーム分の画像データの転送指示を画像データ転送制御部44に対して行う。より具体的には、画像データ転送指示部42は、現フレームのデコード処理中に表示時刻が到来した画像データの転送を指示する。更に、デコーダ20による現フレームの画像データに対するデコード処理が完了し、且つ第1〜第Nの参照フレームバッファREF1〜REFNのすべてがフル状態のとき、画像データ転送指示部42は、第1〜第Nの参照フレームバッファREF1〜REFNの各参照フレームバッファに格納された画像データに設定される表示時刻にかかわらず、第1〜第Nの参照フレームバッファREF1〜REFNに格納された画像データのうち最も古い画像データの転送指示を行う。   The image data transfer instruction unit 42 instructs the image data transfer control unit 44 to transfer image data for one frame to the display unit 50. More specifically, the image data transfer instruction unit 42 instructs transfer of image data whose display time has arrived during the decoding process of the current frame. Further, when the decoding process for the image data of the current frame by the decoder 20 is completed and all of the first to Nth reference frame buffers REF1 to REFN are full, the image data transfer instruction unit 42 Regardless of the display time set for the image data stored in each of the reference frame buffers REF1 to REFN of the N reference frame buffers, most of the image data stored in the first to Nth reference frame buffers REF1 to REFN. Instructs transfer of old image data.

画像データ転送制御部44は、画像データ転送指示部42からの転送指示に基づいて、第1〜第Nの参照フレームバッファREF1〜REFNのいずれかから1フレーム分の画像データを表示部50に転送する制御を行う。   The image data transfer control unit 44 transfers image data for one frame from any one of the first to Nth reference frame buffers REF <b> 1 to REFN to the display unit 50 based on a transfer instruction from the image data transfer instruction unit 42. Control.

このような表示制御装置10によれば、画像データを、その表示時刻の到来を条件に表示部50に対して転送する一方で、デコーダ20によるデコード処理が完了したときに第1〜第Nの参照フレームバッファREF1〜REFNのすべてがフルの状態のときには、第1〜第Nの参照フレームバッファREF1〜REFNのいずれかから、画像データに対して設定された表示時刻にかかわらず、該画像データを強制的に表示部50に対して転送することができる。   According to the display control device 10 as described above, the image data is transferred to the display unit 50 on the condition that the display time arrives, while the first to N-th items when the decoding process by the decoder 20 is completed. When all of the reference frame buffers REF1 to REFN are full, the image data is transferred from any one of the first to Nth reference frame buffers REF1 to REFN regardless of the display time set for the image data. Data can be forcibly transferred to the display unit 50.

一般に、ストリームデータとして次々にデコード対象のデータが入力される表示制御装置の内部の処理が停滞した場合、該表示制御装置に入力されるストリームデータをバッファリングするCPBの容量を大きくせざるを得なくなる。しかしながら、本実施形態によれば、デコーダ20によるデコード処理が完了したにもかかわらず、第1〜第Nの参照フレームバッファREF1〜REFNがすべてフル状態のために、デコード処理後の画像データを参照フレームバッファに格納できないという事態を回避できる。従って、本実施形態によれば、CPBの容量を削減することができる。   Generally, when the internal processing of the display control device to which data to be decoded is sequentially input as stream data is stagnated, the capacity of the CPB for buffering the stream data input to the display control device must be increased. Disappear. However, according to the present embodiment, since the first to Nth reference frame buffers REF1 to REFN are all full even though the decoding process by the decoder 20 is completed, the image data after the decoding process is referred to. It is possible to avoid the situation where it cannot be stored in the frame buffer. Therefore, according to the present embodiment, the capacity of CPB can be reduced.

ここで「1セグメント放送」では、H.264/AVCを採用し、その参照フレーム数を最大3フレームに制約しているため、Nは3であることが望ましい。こうすることで、必要最小限の構成で、「1セグメント放送」の再生等を行う装置への適用が可能となる。   Here, in “1-segment broadcasting”, H.264 is used. Since H.264 / AVC is employed and the number of reference frames is limited to a maximum of three frames, N is preferably 3. In this way, it is possible to apply to a device that performs “1-segment broadcast” playback or the like with a minimum configuration.

図2に、本実施形態における表示制御装置10の動作の一例の説明図を示す。   FIG. 2 is an explanatory diagram showing an example of the operation of the display control apparatus 10 in the present embodiment.

図2では、Nが3、各フレームの画像データをF0、F1、F2、F3とし、F0が最も古い画像データ(最も過去の画像データ)であるものとする。そして、図2では、デコード用フレームバッファ46、第1〜第3の参照フレームバッファREF1〜REF3のバッファリング状況を模式的に示している。   In FIG. 2, it is assumed that N is 3, image data of each frame is F0, F1, F2, and F3, and F0 is the oldest image data (oldest image data). FIG. 2 schematically shows the buffering status of the decoding frame buffer 46 and the first to third reference frame buffers REF1 to REF3.

まず、初期状態として第1〜第3の参照フレームバッファREF1〜REF3はすべてエンプティ状態であるものとする。   First, it is assumed that the first to third reference frame buffers REF1 to REF3 are all in an empty state as an initial state.

ここで、時刻T0に、画像データF0のデコードが完了すると、第1の参照フレームバッファREF1にデコード処理後の画像データF0が格納され、デコード用フレームバッファ46には、次のフレームの画像データF1が格納される。   Here, when decoding of the image data F0 is completed at time T0, the decoded image data F0 is stored in the first reference frame buffer REF1, and the image data F1 of the next frame is stored in the decoding frame buffer 46. Is stored.

次に、時刻T0後の時刻T1に、画像データF1のデコードが完了すると、第2の参照フレームバッファREF2に画像データF0が転送されると共に、第1の参照フレームバッファREF1にデコード処理後の画像データF1が格納され、デコード用フレームバッファ46には、次のフレームの画像データF2が格納される。   Next, when the decoding of the image data F1 is completed at time T1 after time T0, the image data F0 is transferred to the second reference frame buffer REF2, and the image after decoding processing is performed to the first reference frame buffer REF1. Data F1 is stored, and the image data F2 of the next frame is stored in the decoding frame buffer 46.

そして、時刻T1後において、画像データF2のデコード処理が完了する前の時刻T10に、画像データF0に設定された表示時刻が到来したとき、画像データ転送指示部42は、第2の参照フレームバッファREF2に格納された画像データF0の転送指示を行い、画像データ転送制御部44が、画像データF0を表示部50に対して転送する制御を行う。この結果、第2の参照フレームバッファREF2はエンプティ状態となる。   Then, when the display time set in the image data F0 comes at time T10 after the time T1 and before the decoding processing of the image data F2 is completed, the image data transfer instruction unit 42 receives the second reference frame buffer. An instruction to transfer the image data F0 stored in REF2 is issued, and the image data transfer control unit 44 controls to transfer the image data F0 to the display unit 50. As a result, the second reference frame buffer REF2 becomes empty.

その後、時刻T2において、画像データF2のデコードが完了すると、第2の参照フレームバッファREF2に画像データF1が転送されると共に、第1の参照フレームバッファREF1にデコード処理後の画像データF2が格納され、デコード用フレームバッファ46には、次のフレームの画像データF3が格納される。   Thereafter, when the decoding of the image data F2 is completed at time T2, the image data F1 is transferred to the second reference frame buffer REF2, and the decoded image data F2 is stored in the first reference frame buffer REF1. The decoding frame buffer 46 stores the image data F3 of the next frame.

このように、画像データ転送指示部42は、画像データF2のデコード処理中に、表示時刻が到来した画像データF0の転送を指示することができる。   As described above, the image data transfer instruction unit 42 can instruct transfer of the image data F0 whose display time has arrived during the decoding process of the image data F2.

図3に、本実施形態における表示制御装置10の動作の他の例の説明図を示す。   FIG. 3 is an explanatory diagram of another example of the operation of the display control apparatus 10 in the present embodiment.

図3においても、Nが3、各フレームの画像データをF0、F1、F2、F3、F4とし、F0が最も古い画像データ(最も過去の画像データ)であるものとする。そして、図3では、デコード用フレームバッファ46、第1〜第3の参照フレームバッファREF1〜REF3のバッファリング状況を模式的に示している。   Also in FIG. 3, it is assumed that N is 3, image data of each frame is F0, F1, F2, F3, and F4, and F0 is the oldest image data (oldest image data). FIG. 3 schematically shows the buffering status of the decoding frame buffer 46 and the first to third reference frame buffers REF1 to REF3.

まず、初期状態として第1〜第3の参照フレームバッファREF1〜REF3はすべてエンプティ状態であるものとする。   First, it is assumed that the first to third reference frame buffers REF1 to REF3 are all in an empty state as an initial state.

ここで、時刻T20に、画像データF0のデコードが完了すると、第1の参照フレームバッファREF1にデコード処理後の画像データF0が格納され、デコード用フレームバッファ46には、次のフレームの画像データF1が格納される。   Here, when the decoding of the image data F0 is completed at time T20, the decoded image data F0 is stored in the first reference frame buffer REF1, and the image data F1 of the next frame is stored in the decoding frame buffer 46. Is stored.

次に、時刻T20後の時刻T21に、画像データF1のデコードが完了すると、第2の参照フレームバッファREF2に画像データF0が転送されると共に、第1の参照フレームバッファREF1にデコード処理後の画像データF1が格納され、デコード用フレームバッファ46には、次のフレームの画像データF2が格納される。   Next, when decoding of the image data F1 is completed at time T21 after time T20, the image data F0 is transferred to the second reference frame buffer REF2, and the image after decoding processing is performed to the first reference frame buffer REF1. Data F1 is stored, and the image data F2 of the next frame is stored in the decoding frame buffer 46.

更に、時刻T21後の時刻T22に、画像データF2のデコードが完了すると、第3の参照フレームバッファREF3に画像データF0が転送され、第2の参照フレームバッファREF2に画像データF1が転送されると共に、第1の参照フレームバッファREF1にデコード処理後の画像データF2が格納され、デコード用フレームバッファ46には、次のフレームの画像データF3が格納される。   Further, when decoding of the image data F2 is completed at time T22 after time T21, the image data F0 is transferred to the third reference frame buffer REF3, and the image data F1 is transferred to the second reference frame buffer REF2. The decoded image data F2 is stored in the first reference frame buffer REF1, and the image data F3 of the next frame is stored in the decoding frame buffer 46.

そして、時刻T22後の時刻T23において、画像データF3のデコードが完了したものとする。このとき、第1〜第3の参照フレームバッファREF1〜REF3はすべてフル状態となるため、画像データ転送指示部42は、第1〜第3の参照フレームバッファREF1〜REF3に格納された画像データF2、F1、F0に設定される表示時刻にかかわらず、第1〜第3の参照フレームバッファREF1〜REF3に格納された画像データF2、F1、F0のうち最も古い画像データF0の転送指示を行う。   Assume that the decoding of the image data F3 is completed at time T23 after time T22. At this time, since the first to third reference frame buffers REF1 to REF3 are all full, the image data transfer instructing unit 42 receives the image data F2 stored in the first to third reference frame buffers REF1 to REF3. Regardless of the display time set in F1, F0, F1 instructs transfer of the oldest image data F0 among the image data F2, F1, F0 stored in the first to third reference frame buffers REF1-REF3.

そして、続いて、第3の参照フレームバッファREF3に画像データF1が転送され、第2の参照フレームバッファREF2に画像データF2が転送され、第1の参照フレームバッファREF1に画像データF1が転送され、デコード用フレームバッファ46に、次のフレームの画像データF4が格納される。   Subsequently, the image data F1 is transferred to the third reference frame buffer REF3, the image data F2 is transferred to the second reference frame buffer REF2, the image data F1 is transferred to the first reference frame buffer REF1, The decoding frame buffer 46 stores the image data F4 of the next frame.

その後、時刻T23後の時刻T30に、画像データF0に設定された表示時刻が到来したとしても、もはや画像データF0の転送指示を行うことがない。   Thereafter, even when the display time set in the image data F0 comes at time T30 after time T23, the transfer instruction of the image data F0 is no longer performed.

このように、画像データ転送指示部42は、画像データF3に対するデコード処理が完了し、且つ第1〜第3の参照フレームバッファがフル状態のとき、第1〜第3の参照フレームバッファREF1〜REF3に格納された画像データに設定される表示時刻にかかわらず、第1〜第3の参照フレームバッファREF1〜REF3に格納された最も古い画像データの転送指示を行うことができる。   Thus, the image data transfer instruction unit 42 completes the first to third reference frame buffers REF1 to REF3 when the decoding process for the image data F3 is completed and the first to third reference frame buffers are full. Regardless of the display time set for the image data stored in, the transfer instruction of the oldest image data stored in the first to third reference frame buffers REF1 to REF3 can be issued.

このような表示制御装置10は、表示時刻に対応した表示時刻データと、該表示時刻データに対応した画像データの格納先とが画像データ毎に記憶される表示時刻テーブルに基づいて、画像データの転送指示を行うことが望ましい。   Such a display control device 10 is based on a display time table in which display time data corresponding to a display time and a storage destination of image data corresponding to the display time data are stored for each image data. It is desirable to give a transfer instruction.

そのため、表示制御装置10は、更に、ヘッダ解析部48を含むことができる。このヘッダ解析部48は、ストリームデータを構成するパケットデータのヘッダ情報に含まれる表示時刻情報を検出する。そして画像データ転送指示部42は、ヘッダ解析部48によって検出された表示時刻情報を少なくとも用いて求められる、表示時刻データをテーブル化した表示時刻テーブルを参照して、フレーム毎に画像データの転送指示を行う。   Therefore, the display control device 10 can further include a header analysis unit 48. The header analysis unit 48 detects display time information included in header information of packet data constituting stream data. Then, the image data transfer instruction unit 42 refers to the display time table obtained by tabulating the display time data, which is obtained using at least the display time information detected by the header analysis unit 48, and instructs the image data transfer for each frame. I do.

図4に、本実施形態における表示時刻テーブルの説明図を示す。   FIG. 4 is an explanatory diagram of a display time table in the present embodiment.

本実施形態における表示時刻テーブルは、テーブル番号の「0」から順にフレーム単位で表示時刻データが設定される。例えばテーブル番号に対応して、フレーム番号、表示時刻データ及び参照フレームバッファのアドレスが設定される。   In the display time table in the present embodiment, display time data is set in units of frames in order from the table number “0”. For example, the frame number, display time data, and reference frame buffer address are set corresponding to the table number.

この表示時刻データは、パケットデータのヘッダ情報の表示時刻情報に基づいて求められたり、該表示時刻情報及び上記パケットデータのペイロード部に基づいて求められたりする。そして、表示時刻テーブルの最終のテーブル番号の表示時刻データとして、所定の終了コードであるEOT(End Of Table)コードが設定される。表示時刻テーブルの表示時刻データを順番に参照したときに、表示時刻データがEOTコードであるか否かを判別することで、該表示時刻テーブルの表示時刻データをすべて読み出したか否かを判断することができるようになっている。   The display time data is obtained based on the display time information of the header information of the packet data, or is obtained based on the display time information and the payload portion of the packet data. Then, an EOT (End Of Table) code which is a predetermined end code is set as the display time data of the last table number of the display time table. When referring to the display time data in the display time table in order, it is determined whether or not all the display time data in the display time table has been read out by determining whether or not the display time data is an EOT code. Can be done.

そして、デコード処理後の画像データが第1〜第Nの参照フレームバッファREF1〜REFNのいずれかに格納される場合に、表示時刻テーブルには、その画像データの格納先となる参照フレームバッファの先頭アドレスが、該画像データの表示時刻に対応して設定される。従って、画像データ転送指示部42は、この表示時刻テーブルを参照することで、画像データ転送制御部44に対する画像データの転送指示を容易に実現できるようになる。   When the decoded image data is stored in any of the first to Nth reference frame buffers REF1 to REFN, the display time table includes a head of the reference frame buffer serving as the storage destination of the image data. An address is set corresponding to the display time of the image data. Therefore, the image data transfer instruction unit 42 can easily implement an image data transfer instruction to the image data transfer control unit 44 by referring to the display time table.

表示時刻テーブルに設定されたテーブル番号に対応した表示時刻データ及び参照フレームバッファのアドレスは、表示ポインタDisPにより指定される。画像データの転送指示を行うたびにこの表示ポインタDisPをインクリメントすることで、順番に表示時刻の順に画像データの転送指示を行うことができる。   The display time data corresponding to the table number set in the display time table and the address of the reference frame buffer are specified by the display pointer DisP. By incrementing the display pointer DisP every time an image data transfer instruction is given, the image data transfer instruction can be given in order of display time.

上記のように表示制御装置10を構成し、表示時刻テーブルを生成することにより、該表示時刻テーブルに設定された表示時刻データにより表される表示時刻(再生時刻)であるか否かによって、画像データの転送制御の可否を決定することができる。このため、例えば画像が生成される時間間隔がフレーム毎に異なった場合であっても、各フレームの画像の管理が容易となり、表示間隔時間を変更する等の表示制御の融通性を向上させることができるようになる。また、無駄に多くの画像をバッファリングさせる必要がなくなり、表示制御装置10が適用される機器の低コスト化に寄与できるようになる。   By configuring the display control device 10 as described above and generating a display time table, an image is displayed depending on whether or not the display time (reproduction time) is represented by the display time data set in the display time table. Whether or not data transfer control is possible can be determined. For this reason, for example, even when the time interval at which an image is generated differs from frame to frame, the management of the image of each frame is facilitated, and the flexibility of display control such as changing the display interval time is improved. Will be able to. In addition, it is not necessary to buffer a lot of images unnecessarily, and it is possible to contribute to the cost reduction of a device to which the display control device 10 is applied.

更に、図1において表示制御装置10は、更にタイマ部70を含むことができる。タイマ部70は、画像データ転送指示部42によって設定された時刻に割り込みを発生させる。そして、画像データ転送指示部42は、表示時刻テーブルの表示時刻データの1つをこのタイマ部70に設定した後、該タイマ部70からの割り込みを受信したことを条件に画像データ転送制御部44に画像データの転送指示を行うことができる。   Further, in FIG. 1, the display control device 10 can further include a timer unit 70. The timer unit 70 generates an interrupt at the time set by the image data transfer instruction unit 42. Then, the image data transfer instruction unit 42 sets one of the display time data of the display time table in the timer unit 70, and then receives the interrupt from the timer unit 70 as a condition. An image data transfer instruction can be issued.

次に、本実施形態における表示制御装置10の要部について説明する。   Next, the main part of the display control apparatus 10 in the present embodiment will be described.

1.1 デコーダ
図5に、図1のデコーダ20の構成例のブロック図を示す。
1.1 Decoder FIG. 5 shows a block diagram of a configuration example of the decoder 20 of FIG.

図5において、図1と同一部分には同一符号を付し、適宜説明を省略する。   In FIG. 5, the same parts as those in FIG.

デコーダ20は、コンテキスト適応型可変長符号化方式(Context-Adaptive Variable Length Coding:以下、CAVLCと略す)部22、逆量子化部24、逆離散コサイン変換(Discrete Cosine Transform:以下、DCTと略す)演算部26、加算部28、デブロッキングフィルタ30、動き補償部32、動き予測部34、パラメータ解析部36を含む。動き予測部34は、画面内予測部37、重み付き予測部38を含む。   The decoder 20 includes a context adaptive variable length coding (Context-Adaptive Variable Length Coding) (hereinafter abbreviated as CAVLC) unit 22, an inverse quantization unit 24, and an inverse discrete cosine transform (hereinafter abbreviated as DCT). A calculation unit 26, an addition unit 28, a deblocking filter 30, a motion compensation unit 32, a motion prediction unit 34, and a parameter analysis unit 36 are included. The motion prediction unit 34 includes an intra-screen prediction unit 37 and a weighted prediction unit 38.

CAVLC部22は、エントロピー符号化方式により符号化されたビットストリームを復号化する処理を行う。即ち、CAVLC部22は、CAVLCにより符号化されたデータを復号化するCAVLC演算する処理を行う。このCAVLC演算については、例えば公知のH.264/AVCで規定されているため詳細な説明を省略する。   The CAVLC unit 22 performs a process of decoding the bitstream encoded by the entropy encoding method. That is, the CAVLC unit 22 performs a CAVLC calculation process for decoding data encoded by CAVLC. About this CAVLC calculation, for example, the well-known H.264. The detailed description is omitted because it is defined by H.264 / AVC.

逆量子化部24は、CAVLC部22によって復号されたデータに対して逆量子化する。その後、逆DCT演算部26が、逆量子化されたデータに対して逆DCT演算を行う。加算部28は、逆DCT演算部26の出力と動き予測部34の出力とを加算して、動き予測及び動き補償処理後の画像データを生成する。デブロッキングフィルタ30は、加算部28によって生成された画像のブロックノイズを低減させる処理を行う。デブロッキングフィルタ30の出力が、デコーダ20の出力画像データとしてバッファ部40の第1〜第Nの参照フレームバッファREF1〜REFNのいずれかに格納される。   The inverse quantization unit 24 performs inverse quantization on the data decoded by the CAVLC unit 22. Thereafter, the inverse DCT operation unit 26 performs an inverse DCT operation on the inversely quantized data. The adder 28 adds the output of the inverse DCT calculator 26 and the output of the motion predictor 34 to generate image data after motion prediction and motion compensation. The deblocking filter 30 performs processing for reducing block noise in the image generated by the adding unit 28. The output of the deblocking filter 30 is stored as output image data of the decoder 20 in any of the first to Nth reference frame buffers REF <b> 1 to REFN of the buffer unit 40.

一方、パラメータ解析部36は、ビットストリームのヘッダ情報を解析して、画面内予測部37において行われる画面内予測処理に必要なパラメータを抽出すると共に、重み付き予測部38において行われる重み付き予測処理に必要なパラメータを抽出する。   On the other hand, the parameter analysis unit 36 analyzes the header information of the bit stream, extracts parameters necessary for the intra-screen prediction process performed in the intra-screen prediction unit 37, and performs the weighted prediction performed in the weighted prediction unit 38. Extract parameters required for processing.

ビットストリームのヘッダ情報を解析するパラメータ解析部36は、画面内予測を行うか、フレーム間予測を行うかを判別することができる。画面内予測を行う場合には、動き予測部34の画面内予測部37が、加算部28の出力結果に基づいて、当該フレーム内において公知の画面内予測処理を行う。そして、フレーム間予測を行う場合には、動き予測部34の重み付き予測部38が、動き補償部32の動き補償後の画像データを用いてH.264/AVC規格で規定された公知の重み付き予測を行う。   The parameter analysis unit 36 that analyzes the header information of the bit stream can determine whether to perform intra prediction or inter frame prediction. When performing intra prediction, the intra prediction unit 37 of the motion prediction unit 34 performs a known intra prediction process within the frame based on the output result of the addition unit 28. When performing inter-frame prediction, the weighted prediction unit 38 of the motion prediction unit 34 uses the image data after motion compensation of the motion compensation unit 32 to perform H.264 prediction. A known weighted prediction defined in the H.264 / AVC standard is performed.

動き補償部32は、第1〜第Nの参照フレームバッファREF1〜REFNに格納された1又は複数の参照フレームの画像データの中から、パラメータ解析部36の解析の結果として指定された参照フレームバッファの1又は複数の画像データを用いて、H.264/AVC規格で規定された公知の動き補償処理を行う。   The motion compensation unit 32 is a reference frame buffer designated as a result of the analysis of the parameter analysis unit 36 from the image data of one or more reference frames stored in the first to Nth reference frame buffers REF1 to REFN. Using one or more image data. A known motion compensation process defined by the H.264 / AVC standard is performed.

こうして動き予測又は動き補償が行われたデータは、加算部28において、逆DCT演算後のデータと加算される。   The data subjected to motion prediction or motion compensation in this way is added to the data after the inverse DCT calculation in the adding unit 28.

こうしたデコード処理が完了し、バッファ部40の第1〜第Nの参照フレームバッファREF1〜REFNのいずれかにデコード処理後の画像データを格納するときに、デコーダ20は、デコーダ20の外部又は内部に設けられたデコード完了フラグ(図示せず)をセットする。このデコード完了フラグは、デコード完了フラグをアクセスしたときにリセットされる。   When such decoding processing is completed and the decoded image data is stored in any of the first to Nth reference frame buffers REF1 to REFN of the buffer unit 40, the decoder 20 is located outside or inside the decoder 20. A provided decode completion flag (not shown) is set. This decoding completion flag is reset when the decoding completion flag is accessed.

なお、デコーダ20の各部は、デコード用フレームバッファ46を作業エリアとして、デコード処理を行う。   Each part of the decoder 20 performs a decoding process using the decoding frame buffer 46 as a work area.

1.2 通常の画像データ転送制御
本実施形態では、タイマ部70を用いて表示時刻の到来を認識する。そして、表示時刻の到来を認識したときに、画像データ転送指示部42が画像データ転送制御部44に対して画像データの転送指示を行う。
1.2 Normal Image Data Transfer Control In this embodiment, the timer unit 70 is used to recognize the arrival of the display time. When the arrival of the display time is recognized, the image data transfer instruction unit 42 instructs the image data transfer control unit 44 to transfer image data.

図6に、図1のタイマ部70の構成例のブロック図を示す。   FIG. 6 shows a block diagram of a configuration example of the timer unit 70 of FIG.

タイマ部70は、表示時刻設定レジスタ72、カウンタ74、コンパレータ76、割り込み発生部78を含むことができる。表示時刻設定レジスタ72には、画像データ転送指示部42から表示時刻テーブルの表示時刻データの1つが設定される。カウンタ74は、所与の基準クロックのカウント数をカウントし、カウント値としてコンパレータ76に出力する。コンパレータ76は、カウンタ74のカウント値と表示時刻設定レジスタ72の設定値とを比較し、両者の値が一致したときに一致検出パルスを割り込み発生部78に出力する。割り込み発生部78は、一致検出パルスが入力されたときに割り込み信号を出力する。この割り込み信号は、画像データ転送指示部42に入力される。   The timer unit 70 can include a display time setting register 72, a counter 74, a comparator 76, and an interrupt generation unit 78. In the display time setting register 72, one of the display time data of the display time table is set from the image data transfer instruction unit. The counter 74 counts the count number of a given reference clock and outputs the count value to the comparator 76 as a count value. The comparator 76 compares the count value of the counter 74 with the set value of the display time setting register 72, and outputs a coincidence detection pulse to the interrupt generator 78 when the two values match. The interrupt generator 78 outputs an interrupt signal when the coincidence detection pulse is input. This interrupt signal is input to the image data transfer instruction unit 42.

そして、画像データ転送指示部42は、該タイマ部70からの割り込みを受信したことを条件に画像データ転送制御部44に画像データの転送指示を行う。その後、画像データ転送指示部42は、表示時刻テーブルの次の表示時刻データを、タイマ部70の表示時刻設定レジスタ72に設定し、次の割り込み信号の受信を待つ。   Then, the image data transfer instruction unit 42 instructs the image data transfer control unit 44 to transfer image data on condition that the interrupt from the timer unit 70 has been received. Thereafter, the image data transfer instruction unit 42 sets the next display time data of the display time table in the display time setting register 72 of the timer unit 70, and waits for reception of the next interrupt signal.

図7に、画像データ転送指示部42の処理例のフロー図を示す。   FIG. 7 shows a flowchart of a processing example of the image data transfer instruction unit 42.

例えば表示制御装置10が、図示しない中央演算処理装置(Central Processing Unit:CPU)及びメモリを有し、該メモリに記憶されたプログラムに従って処理を実行するCPUが、画像データ転送指示部42の機能を実現することができる。このとき、タイマ部70からの割り込み信号が受信されたときの割り込みハンドラとして、図7のフローを実行することができる。   For example, the display control device 10 has a central processing unit (CPU) and a memory (not shown), and a CPU that executes processing according to a program stored in the memory has the function of the image data transfer instruction unit 42. Can be realized. At this time, the flow of FIG. 7 can be executed as an interrupt handler when an interrupt signal from the timer unit 70 is received.

まず、画像データ転送指示部42(図示しないCPU)は、デコーダ20によるセットされるデコード完了フラグがオン(セットされた状態)か否かを判別する(ステップS100)。そして、デコード完了フラグがオンであることが判別されたとき(ステップS100:Y)、画像データ転送指示部42は、表示ポインタDisPの指すフレーム番号の画像データが格納される参照フレームバッファのアドレスを指定し、転送コマンドを画像データ転送制御部44に発行して画像データの転送指示を行う(ステップS101)。   First, the image data transfer instruction unit 42 (CPU not shown) determines whether or not the decoding completion flag set by the decoder 20 is on (set state) (step S100). When it is determined that the decode completion flag is on (step S100: Y), the image data transfer instruction unit 42 sets the address of the reference frame buffer in which the image data of the frame number indicated by the display pointer DisP is stored. A transfer command is issued to the image data transfer control unit 44 to instruct image data transfer (step S101).

その後、画像データ転送指示部42は、表示時刻テーブルのテーブル番号を指定する表示ポインタDisPをインクリメントして、次の表示時刻データを指定する(ステップS102)。そして、ステップS102でインクリメントされた表示ポインタDisPが指すテーブル番号の表示時刻データを、タイマ部70の表示時刻設定レジスタ72に設定し(ステップS103)、一連の処理を終了する(エンド)。   Thereafter, the image data transfer instruction unit 42 increments the display pointer DisP that designates the table number of the display time table, and designates the next display time data (step S102). Then, the display time data of the table number pointed to by the display pointer DisP incremented in step S102 is set in the display time setting register 72 of the timer unit 70 (step S103), and the series of processing ends (end).

一方、ステップS100において、デコード完了フラグがオンではないと判別されたとき(ステップS100:N)、画像データ転送指示部42は、次の割り込み信号の受信を待つために所定のタイマ値をタイマ部70の表示時刻設定レジスタ72に設定し(ステップS104)、一連の処理を終了する(エンド)。   On the other hand, when it is determined in step S100 that the decode completion flag is not on (step S100: N), the image data transfer instruction unit 42 sets a predetermined timer value to the timer unit in order to wait for reception of the next interrupt signal. 70 is set in the display time setting register 72 (step S104), and a series of processing ends (end).

こうすることで、画像データ転送指示部42が、表示時刻テーブルにおいてテーブル化された表示時刻テーブルに従って、画像データの転送指示を行うことができる。   In this way, the image data transfer instruction unit 42 can issue an image data transfer instruction according to the display time table tabulated in the display time table.

なお図6及び図7では、画像データ転送指示部42が、タイマ部70からの割り込み通知により表示時刻の到来を認識したが、これに限定されるものではない。例えば、画像データ転送指示部42が、タイマ部70をポーリングして、表示時刻の到来を認識するようにしてもよい。   6 and 7, the image data transfer instruction unit 42 recognizes the arrival of the display time by the interrupt notification from the timer unit 70, but the present invention is not limited to this. For example, the image data transfer instruction unit 42 may poll the timer unit 70 to recognize the arrival of the display time.

図8に、本実施形態のタイマ部70の他の構成例のブロック図を示す。   FIG. 8 shows a block diagram of another configuration example of the timer unit 70 of the present embodiment.

図8において図6と同一部分には同一符号を付し、適宜説明を省略する。図8において、図6と異なる点は、割り込み発生部78に代えてスデータスレジスタ79が設けられている点である。   In FIG. 8, the same parts as those of FIG. 8 is different from FIG. 6 in that a data register 79 is provided in place of the interrupt generation unit 78.

即ち、コンパレータ76は、カウンタ74のカウント値と表示時刻設定レジスタ72の設定値とを比較し、両者の値が一致したときに一致検出パルスをスデータスレジスタ79に出力する。スデータスレジスタ79は、コンパレータ76からの一致検出パルスにより表示時刻到来フラグをセットする。なお、この表示時刻到来フラグは、表示時刻設定レジスタ72への表示時刻データの設定時やスデータスレジスタ79への読み出しアクセス時にリセットされる。   That is, the comparator 76 compares the count value of the counter 74 with the set value of the display time setting register 72 and outputs a coincidence detection pulse to the data register 79 when the two values match. The data register 79 sets a display time arrival flag by the coincidence detection pulse from the comparator 76. The display time arrival flag is reset when display time data is set in the display time setting register 72 or when read access to the data register 79 is performed.

そして、画像データ転送指示部42は、該タイマ部70をポーリングした結果、スデータスレジスタ79の表示時刻到来フラグがセット状態になっていると検出されたことを条件に画像データ転送制御部44に画像データの転送指示を行う。その後、画像データ転送指示部42は、表示時刻テーブルの次の表示時刻データを、タイマ部70の表示時刻設定レジスタ72に設定し、次のポーリング動作を行うことになる。   Then, the image data transfer instructing unit 42 notifies the image data transfer control unit 44 on condition that, as a result of polling the timer unit 70, it is detected that the display time arrival flag of the data register 79 is set. Instructs transfer of image data. Thereafter, the image data transfer instruction unit 42 sets the next display time data in the display time table in the display time setting register 72 of the timer unit 70, and performs the next polling operation.

即ち、タイマ部70は、計時を行う。そして、画像データ転送指示部42が、表示時刻テーブルの表示時刻データの1つをタイマ部70に設定した後、タイマ部70をポーリングして表示時刻テーブルの表示時刻データにより表される表示時刻を経過したか否かを判別し、タイマ部70の時刻が表示時刻を経過したと判別されたことを条件に画像データ転送制御部44に画像データの転送指示を行う。   That is, the timer unit 70 measures time. Then, after the image data transfer instruction unit 42 sets one of the display time data in the display time table in the timer unit 70, the timer unit 70 is polled to display the display time represented by the display time data in the display time table. Whether or not the time has elapsed is determined, and the image data transfer control unit 44 is instructed to transfer image data on the condition that the time of the timer unit 70 has been determined to have passed the display time.

1.3 強制的な画像データ転送制御
本実施形態では、第1〜第Nの参照フレームバッファREF1〜REFNのすべてがフル状態で、デコーダ20のデコード処理が完了したとき、画像データ転送指示部42が、第1〜第Nの参照フレームバッファREF1〜REFNに格納された画像データを、該画像データに対して設定される表示時刻にかかわらず表示部50に転送する指示を行う。
1.3 Forcible Image Data Transfer Control In this embodiment, when all of the first to Nth reference frame buffers REF1 to REFN are full and the decoding process of the decoder 20 is completed, the image data transfer instruction unit 42 However, it instructs to transfer the image data stored in the first to Nth reference frame buffers REF1 to REFN to the display unit 50 regardless of the display time set for the image data.

図9に、画像データ転送指示部42が行う強制的な画像データ転送制御の処理例のフロー図を示す。   FIG. 9 shows a flowchart of a processing example of forced image data transfer control performed by the image data transfer instruction unit 42.

例えば表示制御装置10が、図示しないCPU及びメモリを有し、該メモリに記憶されたプログラムに従って処理を実行するCPUが、画像データ転送指示部42の機能を実現し、図9に示す処理を実行することができる。なお、図9ではNが3であるものとする。   For example, the display control apparatus 10 has a CPU and a memory (not shown), and a CPU that executes processing according to a program stored in the memory realizes the function of the image data transfer instruction unit 42 and executes the processing shown in FIG. can do. In FIG. 9, it is assumed that N is 3.

ここで、画像データ転送指示部42は、デコーダ20においてデコード処理が行われる画像データのフレーム番号を指定するデコードポインタDecPを用いる。   Here, the image data transfer instruction unit 42 uses a decode pointer DecP that specifies a frame number of image data to be decoded in the decoder 20.

まず、画像データ転送指示部42(図示しないCPU)は、デコーダ20によるセットされるデコード完了フラグがオン(セットされた状態)であるかを監視する(ステップS120:N)。そして、デコード完了フラグがオンであることが判別されたとき(ステップS120:Y)、画像データ転送指示部42は、デコードポインタDecPの示すフレーム番号の画像データが格納される参照フレームバッファのアドレスを、表示時刻テーブルに設定する(ステップS121)。この結果、図4に示す表示時刻テーブルの参照フレームバッファのアドレスが設定される。   First, the image data transfer instruction unit 42 (a CPU (not shown)) monitors whether the decoding completion flag set by the decoder 20 is on (set state) (step S120: N). When it is determined that the decode completion flag is on (step S120: Y), the image data transfer instruction unit 42 sets the address of the reference frame buffer in which the image data of the frame number indicated by the decode pointer DecP is stored. Then, it is set in the display time table (step S121). As a result, the address of the reference frame buffer in the display time table shown in FIG. 4 is set.

次に、画像データ転送指示部42は、表示ポインタDisPが指定するフレーム番号(F(DisP)と、デコードポインタDecPが指定するフレーム番号F(DecP)の差(例えば、|F(DisP)−F(DecP)|)が、参照フレームバッファが格納可能なフレーム数である3(=N)以上あるか否かを判別する(ステップS122)。これにより、第1〜第3の参照フレームバッファREF1〜REF3のすべてがフル状態であるか否かを判別している。   Next, the image data transfer instruction unit 42 determines the difference between the frame number (F (DisP) specified by the display pointer DisP and the frame number F (DecP) specified by the decode pointer DecP (for example, | F (DisP) −F It is determined whether (DecP) |) is equal to or greater than 3 (= N), which is the number of frames that can be stored in the reference frame buffer (step S122), whereby the first to third reference frame buffers REF1 to REF1. It is determined whether or not all of REF3 are full.

ステップS122において、|F(DisP)−F(DecP)|が3以上であると判別されると(ステップS122:Y)、画像データ転送指示部42は、表示ポインタDisPの示すフレーム画像データの転送指示を行い(ステップS123)、表示ポインタDisPをインクリメントする(ステップS124)。   If it is determined in step S122 that | F (DisP) −F (DecP) | is 3 or more (step S122: Y), the image data transfer instruction unit 42 transfers the frame image data indicated by the display pointer DisP. An instruction is given (step S123), and the display pointer DisP is incremented (step S124).

ステップS124の後、或いはステップS122において|F(DisP)−F(DecP)|が3以上ではないと判別されたとき(ステップS122:N)、デコードポインタDecPをインクリメントして(ステップS125)、一連の処理を終了する(エンド)。   After step S124 or when it is determined in step S122 that | F (DisP) -F (DecP) | is not 3 or more (step S122: N), the decode pointer DecP is incremented (step S125), End the processing of (end).

以上のようにすることで、第1〜第Nの参照フレームバッファREF1〜REFNのすべてがフル状態で、デコーダ20のデコード処理が完了したとき、画像データ転送指示部42が、第1〜第Nの参照フレームバッファREF1〜REFNに格納された画像データを、該画像データに対して設定される表示時刻にかかわらず表示部50に転送する指示を行うことができる。   As described above, when all of the first to Nth reference frame buffers REF1 to REFN are full and the decoding process of the decoder 20 is completed, the image data transfer instruction unit 42 performs the first to Nth reference frame buffers. The image data stored in the reference frame buffers REF1 to REFN can be instructed to be transferred to the display unit 50 regardless of the display time set for the image data.

1.4 表示時刻テーブルの生成処理
次に、本実施形態における表示時刻テーブルの生成処理について具体的に説明する。以下では、パケットデータが、PES(Packetized Elementary Stream)パケットデータであり、表示時刻情報がPTS(Presentation Time Stamp)であるものとする。
1.4 Display Time Table Generation Processing Next, display time table generation processing in the present embodiment will be described in detail. In the following, it is assumed that the packet data is PES (Packetized Elementary Stream) packet data, and the display time information is PTS (Presentation Time Stamp).

図10(A)、図10(B)に、PESパケットの説明図を示す。   FIG. 10A and FIG. 10B are explanatory diagrams of PES packets.

ここでは、1つのPESパケットは、例えばデコード処理が行われるデータ単位であるアクセスユニット(Access Unit:AU)を1つ含むものと説明するが、1つのPESパケットが2以上のAUを含んでいても良い。   Here, one PES packet is described as including one access unit (AU), which is a data unit on which decoding processing is performed, for example, but one PES packet includes two or more AUs. Also good.

図10(A)は、IDR(Instantaneous Decoding Refresh)ピクチャを含むPESパケットの構成例を示す、図10(B)は、IDRピクチャを含まないPESパケットの構成例を示す。図10(A)、図10(B)に示すように、PESパケットは、PESヘッダ(PES Header:PESH)(広義にはヘッダ情報)とペイロード部とを含む。PESHは、PTSを含む。   FIG. 10A shows a configuration example of a PES packet including an IDR (Instantaneous Decoding Refresh) picture, and FIG. 10B shows a configuration example of a PES packet not including an IDR picture. As shown in FIGS. 10A and 10B, the PES packet includes a PES header (PES Header: PESH) (header information in a broad sense) and a payload portion. PESH includes PTS.

図10(A)において、ペイロード部は、SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)、SEI(Supplemental Enhancement Information)、ビットデータ部、EOS(End Of Sequence)を含む。一方、図10(B)において、ペイロード部は、PPS、SEI、ビットデータ部、EOSを含む。   In FIG. 10A, the payload portion includes SPS (Sequence Parameter Set), PPS (Picture Parameter Set), SEI (Supplemental Enhancement Information), bit data portion, and EOS (End Of Sequence). On the other hand, in FIG. 10B, the payload portion includes PPS, SEI, bit data portion, and EOS.

SPSは、連続した複数のピクチャを単位とするシーケンス全体のパラメータが設定される。SPSは、ビデオ表示情報としてVUI(Video Usability Information)パラメータを含み、表示時刻の制御パラメータ等が設定される。このようなVUIに設定される表示時刻の制御パラメータとして、例えばnum_units_in_tick、time_scale、fixed_frame_rate_flagがある。num_units_in_tickはクロック動作周波数での時間単位数、time_scaleは1秒間の時間単位数、fixed_frame_rate_flagは固定フレームレートか可変フレームレートかを示すフラグである。   In the SPS, parameters of the entire sequence with a plurality of consecutive pictures as a unit are set. The SPS includes a VUI (Video Usability Information) parameter as video display information, and a display time control parameter and the like are set. Examples of display time control parameters set in such a VUI include num_units_in_tick, time_scale, and fixed_frame_rate_flag. num_units_in_tick is the number of time units at the clock operating frequency, time_scale is the number of time units per second, and fixed_frame_rate_flag is a flag indicating whether the frame rate is a fixed frame rate or a variable frame rate.

PPSは、ピクチャ単位で設定されるパラメータであり、IDRピクチャを含むPESパケットパケットには必ず設定される。   The PPS is a parameter set for each picture, and is always set for a PES packet packet including an IDR picture.

SEIは、バッファリング期間SEI、ピクチャタイミングSEI、パンスキャン矩形SEI、フィラーペイロードSEIがあり、IDRピクチャを含むAUは上記の4種類のSEIが設定され、IDRピクチャを含まないAUはピクチャタイミングSEI、フィラーペイロードSEIが設定される。ピクチャタイミングSEIに設定される表示時刻の制御パラメータとして、cpb_removal_delayがある。cpb_removal_delayは、直前のバッファリング期間SEIが付与されたAUに対するデコード時間を基準に、当該AUをデコードするまでの遅延時間に相当する。   The SEI includes a buffering period SEI, a picture timing SEI, a pan scan rectangle SEI, and a filler payload SEI. The AU including the IDR picture is set with the above four types of SEI, and the AU not including the IDR picture is set to the picture timing SEI, Filler payload SEI is set. As a display time control parameter set in the picture timing SEI, there is cpb_removal_delay. cpb_removal_delay corresponds to a delay time until the AU is decoded on the basis of the decoding time for the AU to which the immediately preceding buffering period SEI is given.

ビットデータ部には、画像データを生成するためのビットストリームが設定される。例えば、このビットストリームのデコード処理を行うことで画像データを生成できる。   A bit stream for generating image data is set in the bit data portion. For example, image data can be generated by performing decoding processing of this bit stream.

EOSは、シーケンスの終了を示すコードである。   EOS is a code indicating the end of the sequence.

従って、表示時刻データは、PESHのPTSや、PTSとVUI及びSEIに基づいて生成できる。そして、以下に示すフローに従って、表示時刻テーブルが生成される。   Therefore, the display time data can be generated based on the PSH of the PESH, the PTS, the VUI, and the SEI. Then, a display time table is generated according to the flow shown below.

図11に、本実施形態における表示時刻テーブルの生成処理例のフロー図を示す。   FIG. 11 shows a flowchart of a display time table generation processing example in the present embodiment.

例えば表示制御装置10が、図示しないCPU及びメモリを有し、該メモリに記憶されたプログラムに従って処理を実行するCPUが、ヘッダ解析部48又は画像データ転送指示部42の機能を実現することができる。そして、ヘッダ解析部48又は画像データ転送指示部42として機能するCPUが、以下に示す処理に従って表示時刻テーブルを生成することができる。   For example, the display control apparatus 10 includes a CPU and a memory (not shown), and a CPU that executes processing according to a program stored in the memory can realize the function of the header analysis unit 48 or the image data transfer instruction unit 42. . Then, the CPU functioning as the header analysis unit 48 or the image data transfer instruction unit 42 can generate a display time table according to the following processing.

まず、ヘッダ解析部48又は画像データ転送指示部42(図示しないCPU)は、ストリームデータからPESHのPTSを検出する(ステップS150)。PESHのPTSが検出されたとき(ステップS150:Y)、ヘッダ解析部12は、表示時刻テーブルの先頭に、PTSに対応した表示時刻データをフレーム番号と共に設定する(ステップS152)。そして、ヘッダ解析部48又は画像データ転送指示部42は、この表示時刻テーブルのテーブル番号を指定するポインタをインクリメントして(ステップS153)、一連の処理を終了する(エンド)。   First, the header analysis unit 48 or the image data transfer instruction unit 42 (CPU not shown) detects the PTS of PESH from the stream data (step S150). When the PTS of PESH is detected (step S150: Y), the header analysis unit 12 sets display time data corresponding to the PTS together with the frame number at the head of the display time table (step S152). Then, the header analysis unit 48 or the image data transfer instruction unit 42 increments the pointer that specifies the table number of the display time table (step S153), and ends the series of processing (end).

一方、ステップS150においてPESHのPTSが検出されないとき(ステップS150:N)、ヘッダ解析部48又は画像データ転送指示部42は、VUIのfixed_frame_rate_flagが0であるか否かを判別する(ステップS154)。fixed_frame_rate_flagが0であると判別されたとき(ステップS154:Y)、ヘッダ解析部48又は画像データ転送指示部42は、可変フレームレートであると判断して、このAUがIDRピクチャを含むAU(IDR_AU)であるか否かを判別する(ステップS155)。   On the other hand, when the PSH of PESH is not detected in step S150 (step S150: N), the header analysis unit 48 or the image data transfer instruction unit 42 determines whether the fixed_frame_rate_flag of the VUI is 0 (step S154). When it is determined that the fixed_frame_rate_flag is 0 (step S154: Y), the header analysis unit 48 or the image data transfer instruction unit 42 determines that the AU has a variable frame rate, and this AU includes an IDR picture AU (IDR_AU). ) Is determined (step S155).

ステップS155において、当該AUがIDR_AUであると判別されたとき(ステップS155:Y)、ヘッダ解析部48又は画像データ転送指示部42は、90kHzのカウンタで設定可能な表示時刻データCTimeを、次式のように求める(ステップS156)。   When it is determined in step S155 that the AU is IDR_AU (step S155: Y), the header analysis unit 48 or the image data transfer instruction unit 42 displays the display time data CTime that can be set by the 90 kHz counter using the following formula: (Step S156).

CTime=PTS+(Cn×num_units_in_tick/time_scale×90000) ・・・(1)
(1)式において、PTSはPESHのPTSの値、Cnは、PESパケットに含まれるn(nは自然数)番目のAUのピクチャタイミングSEIに設定されたcpb_removal_delayの値、num_units_in_tick及びtime_scaleはVUIに設定された制御パラメータの値である。
CTime = PTS + (Cn × num_units_in_tick / time_scale × 90000) (1)
In equation (1), PTS is the value of the PSH of the PESH, Cn is the value of the cpb_removal_delay set in the n (n is a natural number) AU picture timing SEI included in the PES packet, and num_units_in_tick and time_scale are set to VUI Is the value of the controlled parameter.

ステップS155において、当該AUがIDR_AUであると判別されたとき(ステップS155:Y)、ヘッダ解析部12は、表示時刻データCTimeを、次式のように求める(ステップS157)。   When it is determined in step S155 that the AU is IDR_AU (step S155: Y), the header analysis unit 12 obtains the display time data CTime as shown in the following equation (step S157).

CTime=PTS+(Cn-C1)×num_units_in_tick/time_scale×90000 ・・・(2)
(2)式において、C1は、PESパケットに含まれる1番目のAUのピクチャタイミングSEIに設定されたcpb_removal_delayの値、Cn(ここでnは2以上の整数)は、PESパケットに含まれるn番目のAUのピクチャタイミングSEIに設定されたcpb_removal_delayの値である。
CTime = PTS + (Cn-C1) × num_units_in_tick / time_scale × 90000 (2)
In Expression (2), C1 is the value of cpb_removal_delay set in the picture timing SEI of the first AU included in the PES packet, and Cn (where n is an integer of 2 or more) is the nth included in the PES packet. This is the value of cpb_removal_delay set in the picture timing SEI of the AU.

また、ステップS154において、fixed_frame_rate_flagが1であると判別されたとき(ステップS154:N)、ヘッダ解析部12は、固定フレームレートであると判断して、表示時刻データCTimeを、次式のように求める(ステップS158)。   Further, when it is determined in step S154 that fixed_frame_rate_flag is 1 (step S154: N), the header analysis unit 12 determines that the frame rate is a fixed frame rate, and displays the display time data CTime as the following equation: Obtained (step S158).

CTime=PTS+(N-1)×num_units_in_tick/time_scale ・・・(3)
(3)式において、Nは、PESパケットに含まれるN番目のAUであることを示すパラメータである。
CTime = PTS + (N-1) × num_units_in_tick / time_scale (3)
In Expression (3), N is a parameter indicating that it is the Nth AU included in the PES packet.

ステップS156、ステップS157、ステップS158のいずれかにより表示時刻データCTimeが求められると、ヘッダ解析部48又は画像データ転送指示部42は、表示時刻テーブルにこの表示時刻データCTimeをフレーム番号と共に設定する(ステップS159)。ステップS159の後、ステップS153に移って、ヘッダ解析部48又は画像データ転送指示部42は、この表示時刻テーブルのテーブル番号を指定するポインタをインクリメントして(ステップS153)、一連の処理を終了する(エンド)。   When the display time data CTime is obtained in any one of steps S156, S157, and S158, the header analysis unit 48 or the image data transfer instruction unit 42 sets the display time data CTime together with the frame number in the display time table ( Step S159). After step S159, the process proceeds to step S153, where the header analysis unit 48 or the image data transfer instruction unit 42 increments a pointer that specifies the table number of the display time table (step S153), and ends the series of processing. (End).

ストリームデータが入力されるたびに、以上のような処理を行うことで、ヘッダ解析部48又は画像データ転送指示部42は、AU毎に表示時刻データを表示時刻テーブルに設定し、図4に示す表示時刻テーブルを生成することができる。なお、表示時刻テーブルの最終テーブル番号の表示時刻データとして、終了コードであるEOTコードを公知の処理で挿入することが望ましい。   When the stream data is input, the header analysis unit 48 or the image data transfer instruction unit 42 sets the display time data in the display time table for each AU by performing the processing as described above, as shown in FIG. A display time table can be generated. Note that it is desirable to insert an EOT code as an end code by a known process as the display time data of the last table number of the display time table.

2. 情報再生装置
次に、本実施形態における表示制御装置が適用される情報再生装置について説明する。本実施形態における情報再生装置は、地上デジタル放送の再生を可能とし、H.264/AVC規格で符号化された映像データを復号することができる。
2. Information Reproducing Device Next, an information reproducing device to which the display control device in the present embodiment is applied will be described. The information reproducing apparatus according to the present embodiment enables reproduction of terrestrial digital broadcasting. Video data encoded according to the H.264 / AVC standard can be decoded.

2.1 1セグメント放送の概要
地上アナログ放送に代わって登場する地上デジタル放送では、画像及び音声の高品質化に加えて種々の新サービスの提供に期待が寄せられている。
2.1 Overview of 1-segment broadcasting In terrestrial digital broadcasting that appears in place of terrestrial analog broadcasting, there are high expectations for the provision of various new services in addition to improving the quality of images and audio.

図12に、地上デジタル放送のセグメントの概念の説明図を示す。   FIG. 12 is an explanatory diagram of the concept of digital terrestrial broadcasting segments.

地上デジタル放送では、予め割り当てられた周波数帯域を14個のセグメントに分割し、そのうちの13個のセグメントSEG1〜SEG13を使って放送が行われる。残り1個のセグメントは、ガードバンドとして用いられる。そして、放送を行うための13個のセグメントのうちの1個のセグメントSEGmが、携帯端末向けの放送の周波数帯域に割り当てられる。   In digital terrestrial broadcasting, a pre-assigned frequency band is divided into 14 segments, and broadcasting is performed using 13 segments SEG1 to SEG13. The remaining one segment is used as a guard band. Then, one segment SEGm out of 13 segments for broadcasting is allocated to the frequency band of broadcasting for mobile terminals.

1セグメント放送では、それぞれが符号化(圧縮処理)された映像データ、音声データ、その他のデータ(制御データ)が多重化されたトランスポートストリーム(Transport Stream:TS)が伝送される。より具体的には、TSの各パケットにリードソロモン符号の誤り訂正用符号が付加された後、階層分割され、各階層において畳み込み符号化やキャリア変調が施される。そして、階層合成後に、周波数インターリーブ、時間インターリーブが行われ、受信側に必要なパイロット信号を付加してOFDMセグメントフレームが形成される。このOFDMセグメントフレームに対し、逆フーリエ変換演算が施されてOFDM信号として伝送される。   In one-segment broadcasting, a transport stream (Transport Stream: TS) in which video data, audio data, and other data (control data) encoded (compressed) are multiplexed is transmitted. More specifically, a Reed-Solomon error correction code is added to each packet of the TS, and then divided into layers, and convolutional coding and carrier modulation are performed in each layer. After layer synthesis, frequency interleaving and time interleaving are performed, and a pilot signal necessary for the receiving side is added to form an OFDM segment frame. The OFDM segment frame is subjected to inverse Fourier transform operation and transmitted as an OFDM signal.

図13に、TSの説明図を示す。   FIG. 13 is an explanatory diagram of TS.

TSは、図13に示すように複数のTSパケット列で構成されている。各TSパケットの長さは、188バイトに固定されている。各TSパケットは、4バイトのTSヘッダ(TS Header:TSH)と呼ばれるヘッダ情報が付加されており、TSパケットの識別子となるPID(Packet Identifier)を含む。1セグメント放送の番組は、PIDにより特定される。   The TS is composed of a plurality of TS packet sequences as shown in FIG. The length of each TS packet is fixed to 188 bytes. Each TS packet has header information called a 4-byte TS header (TS header) added thereto, and includes a PID (Packet Identifier) serving as an identifier of the TS packet. One segment broadcast program is specified by PID.

TSパケットは、アダプテーションフィールドを含み、映像データ、音声データ等の同期再生の基準となる時刻情報であるPCR(Program Clock Reference)やダミーデータ
が埋め込まれる。ペイロードは、PES(Packetized Elementary Stream)パケットやセクションを生成するためのデータを含む。
The TS packet includes an adaptation field, and is embedded with PCR (Program Clock Reference) and dummy data which are time information serving as a reference for synchronous reproduction of video data, audio data, and the like. The payload includes data for generating a PES (Packetized Elementary Stream) packet or section.

図14に、PESパケット及びセクションの説明図を示す。   FIG. 14 is an explanatory diagram of PES packets and sections.

PESパケット及びセクションのそれぞれは、1又は複数のTSパケットの各TSパケットのペイロードにより構成される。PESパケットは、PESヘッダとペイロードとを含み、該ペイロードには、映像データ、音声データ又は字幕データがES(Elementary Stream)データとして設定される。セクションには、PESパケットに設定される映像データ等の番組情報等が設定される。   Each of the PES packet and the section is configured by the payload of each TS packet of one or a plurality of TS packets. The PES packet includes a PES header and a payload, and video data, audio data, or caption data is set as ES (Elementary Stream) data in the payload. In the section, program information such as video data set in the PES packet is set.

従って、TSを受信すると、まずセクションに含まれる番組情報を解析し、放送される番組に対応するPIDを特定する必要がある。そして、該PIDに対応する映像データ、音声データをTSから抽出し、抽出後の映像データ、音声データを再生することになる。   Therefore, when a TS is received, first, it is necessary to analyze program information included in the section and specify a PID corresponding to the broadcast program. Then, video data and audio data corresponding to the PID are extracted from the TS, and the extracted video data and audio data are reproduced.

2.2 携帯端末
1セグメント放送の受信機能を有する携帯端末では、上記のようなパケットの解析等の処理が必要となる。即ち、このような携帯端末では、高い処理能力が要求される。そのため、携帯端末(広義には電子機器)としての従来の携帯電話機に、1セグメント放送の受信機能を付加する場合には、高い処理能力を有するプロセッサ等を更に追加する必要がある。
2.2 Mobile terminal A mobile terminal having a 1-segment broadcast reception function requires processing such as packet analysis as described above. That is, such a mobile terminal is required to have a high processing capacity. Therefore, when a one-segment broadcast receiving function is added to a conventional mobile phone as a mobile terminal (electronic device in a broad sense), it is necessary to further add a processor or the like having a high processing capability.

図15に、本実施形態の比較例におけるマルチメディア処理CPUを含む携帯電話機の構成例のブロック図を示す。   FIG. 15 shows a block diagram of a configuration example of a mobile phone including a multimedia processing CPU in a comparative example of the present embodiment.

この携帯電話機900では、アンテナ910を介して受信された受信信号を復調して電話用CPU920が着呼処理を行い、電話用CPU920が発呼処理を行った信号が変調されてアンテナ910を介して送信される。電話用CPU920は、メモリ922に格納されたプログラムを読み込んで着呼処理及び発呼処理を行うことができる。   In this cellular phone 900, the received signal received via the antenna 910 is demodulated, the telephone CPU 920 performs the incoming call processing, and the signal processed by the telephone CPU 920 is modulated and transmitted via the antenna 910. Sent. The telephone CPU 920 can read a program stored in the memory 922 and perform incoming call processing and outgoing call processing.

またアンテナ930を介して受信された受信信号から、チューナ940を介して希望信号が取り出されると、該希望信号をOFDM信号として上記と逆の手順でTSが生成される。マルチメディア処理CPU950は、生成されたTSからTSパケットを解析してPESパケット及びセクションを判別し、所望の番組のTSパケットから映像データ、音声データのデコード処理を行う。マルチメディア処理CPU950は、メモリ952に格納されたプログラムを読み込んで上記のパケットの解析処理やデコード処理を行うことができる。表示パネル960は、デコード処理後の映像データに基づいて表示出力を行い、スピーカ970は、デコード処理後の音声データに基づいて音声出力を行う。   When a desired signal is extracted from the received signal received via the antenna 930 via the tuner 940, a TS is generated by using the desired signal as an OFDM signal in the reverse procedure. The multimedia processing CPU 950 analyzes the TS packet from the generated TS, determines the PES packet and the section, and decodes video data and audio data from the TS packet of the desired program. The multimedia processing CPU 950 can read the program stored in the memory 952 and perform the above-described packet analysis processing and decoding processing. The display panel 960 performs display output based on the decoded video data, and the speaker 970 performs audio output based on the decoded audio data.

このようにマルチメディア処理CPU950として、非常に高い処理能力が必要となる。高い処理能力を有するプロセッサは、一般的に、動作周波数が高くなったり、回路規模が大きくなってしまう。   In this way, the multimedia processing CPU 950 requires a very high processing capability. In general, a processor having a high processing capability has a high operating frequency and a large circuit scale.

ところで、1セグメント放送のビットレートを考慮すると、その帯域のほとんどが映像データや音声データの帯域となり、データ放送自体の帯域が狭くなると考えられる。従って、マルチメディア処理CPUで実現できる処理のうち、映像データや音声データの再生処理のみで済む場合もあるにもかかわらず、マルチメディア処理CPUを常に動作させる必要があり、消費電力の増大を招く。   By the way, considering the bit rate of 1-segment broadcasting, most of the bandwidth is considered to be the bandwidth for video data and audio data, and the bandwidth for data broadcasting itself is narrowed. Accordingly, among the processes that can be realized by the multimedia processing CPU, it is necessary to always operate the multimedia processing CPU even though only the reproduction processing of video data and audio data may be required, resulting in an increase in power consumption. .

そこで、本実施形態では、映像データのデコード処理を行う映像デコーダと音声データのデコード処理を行う音声デコーダとを独立して設け、それぞれ独立にデコード処理を行わせることで、それぞれの処理能力として低いものを採用できる。更に、映像デコーダ及び音声データの一方の動作を適宜停止させて柔軟に低消費電力化を図ることができる。   Therefore, in this embodiment, a video decoder that performs video data decoding processing and an audio decoder that performs audio data decoding processing are provided independently, and the decoding processing is performed independently, thereby reducing the processing capability of each. You can adopt things. Furthermore, it is possible to flexibly reduce power consumption by appropriately stopping one of the operations of the video decoder and the audio data.

更には、映像デコーダ及び音声デコーダを並列動作させることができるため、各デコーダの処理能力を低くて済み、より低消費電力化及び低コスト化を実現できる。   Furthermore, since the video decoder and the audio decoder can be operated in parallel, the processing capability of each decoder can be reduced, and lower power consumption and cost can be realized.

図16に、本実施形態における情報再生装置を含む携帯電話機の構成例のブロック図を示す。なお図16において、図15と同一部分には同一符号を付し、適宜説明を省略する。   FIG. 16 shows a block diagram of a configuration example of a mobile phone including the information reproducing apparatus in the present embodiment. In FIG. 16, the same parts as those in FIG. 15 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

携帯電話機100は、ホストCPU(広義にはホスト)110、RAM(Random Access Memory)120、ROM(Read Only Memory)130、表示ドライバ140、DAC(Digital-to-Analog Converter)150、画像処理IC(Integrated Circuit)(広義には情報再生装置)200を含むことができる。更に携帯電話機100は、アンテナ910、930、チューナ940、表示パネル960、スピーカ970を含む。   The cellular phone 100 includes a host CPU (host in a broad sense) 110, a RAM (Random Access Memory) 120, a ROM (Read Only Memory) 130, a display driver 140, a DAC (Digital-to-Analog Converter) 150, an image processing IC ( Integrated Circuit) (information reproducing apparatus in a broad sense) 200 can be included. Further, the cellular phone 100 includes antennas 910 and 930, a tuner 940, a display panel 960, and a speaker 970.

ホストCPU110は、図15の電話用CPU920の機能を有すると共に、画像処理IC200を制御する機能を有する。ホストCPU110は、RAM120又はROM130に格納されたプログラムを読み出し、図15の電話用CPU920の処理、画像処理IC200を制御する処理を行う。この際、ホストCPU110は、RAM120をワークエリアとして用いることができる。   The host CPU 110 has a function of controlling the image processing IC 200 as well as the function of the telephone CPU 920 in FIG. The host CPU 110 reads a program stored in the RAM 120 or the ROM 130, and performs processing of the telephone CPU 920 in FIG. 15 and processing of controlling the image processing IC 200. At this time, the host CPU 110 can use the RAM 120 as a work area.

画像処理IC200は、チューナ940からのTSから、映像データを生成するための映像用TSパケット(第1のTSパケット)、音声データを生成するための音声用TSパケット(第2のTSパケット)を抽出し、図示しない共有メモリにバッファリングする。そして画像処理IC200は、互いに独立して動作停止制御が可能な映像デコーダ及び音声デコーダ(図示せず)を含み、映像デコーダ及び音声デコーダが、それぞれ映像用TSパケット及び音声用TSパケットをデコードして映像データ及び音声データを生成する。映像データ及び音声データは、同期しながら、それぞれ表示ドライバ140及びDAC150に供給される。ホストCPU110は、このような画像処理IC200に対し、映像デコード処理及び音声デコード処理の処理開始を指示することができる。なおホストCPU110は、画像処理IC200に対し、映像デコード処理及び音声デコード処理の少なくとも1つの処理開始を指示するようにしてもよい。   The image processing IC 200 receives, from the TS from the tuner 940, a video TS packet (first TS packet) for generating video data and an audio TS packet (second TS packet) for generating audio data. Extract and buffer in a shared memory (not shown). The image processing IC 200 includes a video decoder and an audio decoder (not shown) capable of controlling the operation stop independently of each other. The video decoder and the audio decoder decode the video TS packet and the audio TS packet, respectively. Video data and audio data are generated. The video data and the audio data are supplied to the display driver 140 and the DAC 150, respectively, while being synchronized. The host CPU 110 can instruct the image processing IC 200 to start the video decoding process and the audio decoding process. The host CPU 110 may instruct the image processing IC 200 to start at least one of video decoding processing and audio decoding processing.

表示ドライバ(広義には駆動回路)140は、映像データに基づいて表示パネル(広義には電気光学装置)960を駆動する。より具体的には、表示パネル960は、複数の走査線、複数のデータ線、各画素が各走査線及び各データ線により特定される複数の画素を有し、表示パネル960として液晶表示(Liquid Crystal Display)パネルを採用できる。表示ドライバ140は、複数の走査線を走査する走査ドライバの機能と、該映像データに基づいて複数のデータ線を駆動するデータドライバの機能とを有する。   A display driver (driving circuit in a broad sense) 140 drives a display panel (electro-optical device in a broad sense) 960 based on video data. More specifically, the display panel 960 includes a plurality of scanning lines, a plurality of data lines, and a plurality of pixels, each pixel being specified by each scanning line and each data line. Crystal Display panel can be used. The display driver 140 has a function of a scanning driver that scans a plurality of scanning lines and a function of a data driver that drives a plurality of data lines based on the video data.

DAC150は、デジタル信号である音声データをアナログ信号に変換し、スピーカ970に供給する。スピーカ970は、DAC150からのアナログ信号に対応した音声出力を行う。   The DAC 150 converts audio data that is a digital signal into an analog signal and supplies the analog signal to the speaker 970. The speaker 970 outputs sound corresponding to the analog signal from the DAC 150.

2.3 情報再生装置
図17に、本実施形態の情報再生装置としての図16の画像処理IC200の構成例のブロック図を示す。
2.3 Information Reproducing Device FIG. 17 shows a block diagram of a configuration example of the image processing IC 200 of FIG. 16 as the information reproducing device of the present embodiment.

画像処理IC200は、TS分離部(分離処理部)210と、メモリ(共有メモリ)220と、映像デコーダ230と、音声デコーダ240とを含む。また画像処理IC200は、更に、画像データ転送制御部250と、チューナI/F(Interface)260と、ホストI/F270と、ドライバI/F280と、オーディオI/F290とを含む。   The image processing IC 200 includes a TS separation unit (separation processing unit) 210, a memory (shared memory) 220, a video decoder 230, and an audio decoder 240. The image processing IC 200 further includes an image data transfer control unit 250, a tuner I / F (Interface) 260, a host I / F 270, a driver I / F 280, and an audio I / F 290.

TS分離部210は、映像データを生成するための映像用TSパケット(第1のTSパケット)、音声データを生成するための音声用TSパケット(第2のTSパケット)、映像用TSパケット及び音声用TSパケット以外のパケット(第3のTSパケット)を、TSから抽出する。TS分離部210は、TSから一旦抽出された第3のTSパケットを解析するホストCPU110の解析結果に基づいて、第1及び第2のTSパケットを抽出することができる。   The TS separation unit 210 includes a video TS packet (first TS packet) for generating video data, an audio TS packet (second TS packet) for generating audio data, a video TS packet, and audio. Packets other than the TS packet for use (third TS packet) are extracted from the TS. The TS separation unit 210 can extract the first and second TS packets based on the analysis result of the host CPU 110 that analyzes the third TS packet once extracted from the TS.

映像デコーダ230は、メモリ220の記憶領域のうち映像用TSパケット専用に設けられた記憶領域から映像用TSパケットを読み出し、該映像用TSパケットに基づいて映像データを生成する映像デコード処理を行う。   The video decoder 230 reads a video TS packet from a storage area dedicated to the video TS packet in the storage area of the memory 220 and performs video decoding processing for generating video data based on the video TS packet.

音声デコーダ240は、メモリ220の記憶領域のうち音声用TSパケット専用に設けられた記憶領域から音声用TSパケットを読み出し、該音声用TSパケットに基づいて音声データを生成する音声デコード処理を行う。   The audio decoder 240 reads the audio TS packet from the storage area dedicated to the audio TS packet in the storage area of the memory 220 and performs audio decoding processing for generating audio data based on the audio TS packet.

画像データ転送制御部250は、メモリ220から読み出された映像データにより表される画像の向きを回転させる回転処理や該画像のサイズを縮小又は拡大させるリサイズ処理を行う。回転処理後のデータやリサイズ処理後のデータは、ドライバI/F280に供給される。   The image data transfer control unit 250 performs a rotation process for rotating the orientation of the image represented by the video data read from the memory 220 and a resizing process for reducing or enlarging the size of the image. The data after the rotation processing and the data after the resizing processing are supplied to the driver I / F 280.

チューナI/F260は、チューナ940とのインタフェース処理を行う。より具体的には、チューナI/F260は、チューナ940からのTSを受信する制御を行う。チューナI/F260は、TS分離部210に接続される。   The tuner I / F 260 performs an interface process with the tuner 940. More specifically, the tuner I / F 260 performs control to receive a TS from the tuner 940. Tuner I / F 260 is connected to TS separator 210.

ホストI/F270は、ホストCPU110とのインタフェース処理を行う。より具体的には、ホストI/F270は、ホストCPU110との間のデータの送受信の制御を行う。ホストI/F270は、TS分離部210、メモリ220、画像データ転送制御部250、オーディオI/F290に接続される。   The host I / F 270 performs interface processing with the host CPU 110. More specifically, the host I / F 270 controls data transmission / reception with the host CPU 110. The host I / F 270 is connected to the TS separator 210, the memory 220, the image data transfer controller 250, and the audio I / F 290.

ドライバI/F280は、画像データ転送制御部250を介してメモリ220から所定の周期で映像データを読み出し、該映像データを表示ドライバ140に対して供給する。ドライバI/F280は、表示ドライバ140に対して映像データを送信するためのインタフェース処理を行う。   The driver I / F 280 reads video data from the memory 220 at a predetermined cycle via the image data transfer control unit 250 and supplies the video data to the display driver 140. The driver I / F 280 performs interface processing for transmitting video data to the display driver 140.

オーディオI/F290は、メモリ220から所定の周期で音声データを読み出し、該音声データをDAC150に対して供給する。オーディオI/F290は、DAC150に対して音声データを送信するためのインタフェース処理を行う。   The audio I / F 290 reads audio data from the memory 220 at a predetermined cycle and supplies the audio data to the DAC 150. The audio I / F 290 performs interface processing for transmitting audio data to the DAC 150.

このような画像処理IC200では、TS分離部210により、チューナ940からのTSからTSパケットが抽出される。TSパケットは、共有メモリとしてのメモリ220の予め割り当てられた記憶領域に格納される。そして、映像デコーダ230及び音声デコーダ240が、それぞれメモリ220に割り当てられた専用の記憶領域からTSパケットを読み出して、映像データ及び音声データを生成し、互いに同期した映像データ及び音声データを表示ドライバ140及びDAC150に対して供給することができる。   In such an image processing IC 200, the TS packet is extracted from the TS from the tuner 940 by the TS separator 210. The TS packet is stored in a pre-allocated storage area of the memory 220 as a shared memory. Then, the video decoder 230 and the audio decoder 240 respectively read out TS packets from dedicated storage areas allocated to the memory 220, generate video data and audio data, and display the synchronized video data and audio data with the display driver 140. And to the DAC 150.

図18に、図17の画像処理IC200の動作説明図を示す。   FIG. 18 is a diagram for explaining the operation of the image processing IC 200 shown in FIG.

図18において、図17と同一部分には同一符号を付し、適宜説明を省略する。   In FIG. 18, the same parts as those in FIG. 17 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

メモリ220は、第1〜第8の記憶領域AR1〜AR8を有し、各記憶領域が予め割り当てられている。   The memory 220 has first to eighth storage areas AR1 to AR8, and each storage area is assigned in advance.

第1の記憶領域AR1には、映像用TSパケット専用の記憶領域として、TS分離部210によって抽出された映像用TSパケット(第1のTSパケット)が格納される。第2の記憶領域AR2には、音声用TSパケット専用の記憶領域として、TS分離部210によって抽出された音声用TSパケット(第2のTSパケット)が格納される。第3の記憶領域AR3には、TS分離部210によって抽出されたTSパケットのうち映像用TSパケット及び音声用TSパケットを除くTSパケット(第3のTSパケット)が格納される。   The first storage area AR1 stores the video TS packet (first TS packet) extracted by the TS separation unit 210 as a storage area dedicated to the video TS packet. The second storage area AR2 stores the voice TS packet (second TS packet) extracted by the TS separation unit 210 as a storage area dedicated to the voice TS packet. In the third storage area AR3, TS packets (third TS packets) excluding video TS packets and audio TS packets among the TS packets extracted by the TS separator 210 are stored.

第4の記憶領域AR4には、映像用ESデータ専用の記憶領域として、映像デコーダ230によって生成された映像用ESデータが格納される。第5の記憶領域AR5には、音声用ESデータ専用の記憶領域として、音声デコーダ240によって生成された音声用ESデータが格納される。   The fourth storage area AR4 stores the video ES data generated by the video decoder 230 as a storage area dedicated to the video ES data. The fifth storage area AR5 stores the audio ES data generated by the audio decoder 240 as a storage area dedicated to the audio ES data.

第6の記憶領域AR6には、ホストCPU110によって生成されるTSが、TSRAWデータとして格納される。TSRAWデータは、チューナ940からのTSに替わってホストCPU110により設定される。そして、TS分離部210は、TSRAWデータとして設定されたTSから、映像用TSパケット、音声用TSパケット、その他のTSパケットが抽出されるようになっている。   In the sixth storage area AR6, a TS generated by the host CPU 110 is stored as TSRAW data. TSRAW data is set by the host CPU 110 instead of the TS from the tuner 940. Then, the TS separation unit 210 extracts a video TS packet, an audio TS packet, and other TS packets from the TS set as TSRAW data.

第7の記憶領域AR7(広義には参照フレーム画像データ記憶領域)には、映像デコーダ230によるデコード処理後の映像データが格納される。第7の記憶領域AR7に格納された映像データは、画像データ転送制御部250によって読み出され、表示パネル960による映像出力に供される。第8の記憶領域AR8には、音声デコーダ240によるデコード処理後の音声データが格納される。第8の記憶領域AR8に格納された音声データは、スピーカ970による音声出力に供される。   The seventh storage area AR7 (reference frame image data storage area in a broad sense) stores video data after decoding by the video decoder 230. The video data stored in the seventh storage area AR7 is read by the image data transfer control unit 250 and used for video output by the display panel 960. The eighth storage area AR8 stores the audio data after the decoding process by the audio decoder 240. The audio data stored in the eighth storage area AR8 is provided for audio output by the speaker 970.

映像デコーダ230は、ヘッダ解析部232と、映像デコード処理部234とを含む。ヘッダ解析部232は、第1の記憶領域AR1から映像用TSパケットを読み出し、該映像用TSパケットのTSヘッダを解析してPESパケット(第1のPESパケット)を生成した後、そのPESヘッダを削除する処理を行ってそのペイロード部を映像用ESデータとしてメモリ220の第4の記憶領域AR4に格納する。メモリ220の第4の記憶領域AR4が、CPBとして機能する。   The video decoder 230 includes a header analysis unit 232 and a video decoding processing unit 234. The header analysis unit 232 reads the video TS packet from the first storage area AR1, analyzes the TS header of the video TS packet, generates a PES packet (first PES packet), and then displays the PES header. The deletion process is performed, and the payload portion is stored in the fourth storage area AR4 of the memory 220 as video ES data. The fourth storage area AR4 of the memory 220 functions as a CPB.

そして、ヘッダ解析部232は、上述のように本実施形態における表示時刻テーブルを生成する。そして、ヘッダ解析部232を含む映像デコーダ230が、該表示時刻テーブルに従って画像データ転送制御部250に対して画像データの転送指示を行う。即ち、映像デコーダ230が、本実施形態におけるヘッダ解析部48及び画像データ転送指示部42の機能を実現する。   And the header analysis part 232 produces | generates the display time table in this embodiment as mentioned above. Then, the video decoder 230 including the header analysis unit 232 instructs the image data transfer control unit 250 to transfer image data according to the display time table. That is, the video decoder 230 implements the functions of the header analysis unit 48 and the image data transfer instruction unit 42 in the present embodiment.

映像デコード処理部234は、第4の記憶領域AR4から映像用ESデータを読み出し、H.264/AVC(Advanced Video Coding)の規格に従ったデコード処理(広義には映像デコード処理)を行って生成される映像データを第7の記憶領域AR7(参照フレーム画像データ記憶領域)に書き込む。映像デコード処理部234が、本実施形態におけるデコーダ20の機能を実現する。そして、映像デコード処理部234が、第1の記憶領域AR1から読み出された第1のTSパケットに基づいて映像データを生成する映像デコード処理を行い、映像デコード処理後のデータを第1〜第Nの参照フレーム画像データの1つとして第7の記憶領域AR7(参照フレーム記憶領域)に格納する。即ち、第7の記憶領域AR7が、本実施形態における第1〜第Nの参照フレームバッファREF1〜REFNを含むバッファ部40として機能する。   The video decoding processing unit 234 reads video ES data from the fourth storage area AR4, Video data generated by performing decoding processing (video decoding processing in a broad sense) according to the H.264 / AVC (Advanced Video Coding) standard is written in the seventh storage area AR7 (reference frame image data storage area). The video decoding processing unit 234 realizes the function of the decoder 20 in the present embodiment. Then, the video decoding processing unit 234 performs video decoding processing for generating video data based on the first TS packet read from the first storage area AR1, and the data after the video decoding processing is first to first data One of the N reference frame image data is stored in the seventh storage area AR7 (reference frame storage area). That is, the seventh storage area AR7 functions as the buffer unit 40 including the first to Nth reference frame buffers REF1 to REFN in the present embodiment.

音声デコーダ240は、ヘッダ削除処理部242と、音声デコード処理部244とを含む。ヘッダ削除処理部242は、第2の記憶領域AR2から音声用TSパケットを読み出し、該音声用TSパケットのTSヘッダを解析してPESパケット(第2のPESパケット)を生成した後、そのPESヘッダを削除する処理を行ってそのペイロード部を音声用ESデータとしてメモリ220の第5の記憶領域AR5に格納する。音声デコード処理部244は、第5の記憶領域AR5から音声用ESデータを読み出し、MPEG−2AAC(Advanced Audio Coding)の規格に従ったデコード処理(広義には音声デコード処理)
を行って生成される音声データを第8の記憶領域AR8に書き込む。
The audio decoder 240 includes a header deletion processing unit 242 and an audio decoding processing unit 244. The header deletion processing unit 242 reads the audio TS packet from the second storage area AR2, analyzes the TS header of the audio TS packet, generates a PES packet (second PES packet), and then generates the PES header. The payload portion is stored as audio ES data in the fifth storage area AR5 of the memory 220. The audio decoding processing unit 244 reads audio ES data from the fifth storage area AR5, and performs decoding processing (audio decoding processing in a broad sense) in accordance with the MPEG-2 AAC (Advanced Audio Coding) standard.
Is written in the eighth storage area AR8.

そして、映像デコーダ230が、第1の記憶領域AR1から映像用TSパケット(第1のTSパケット)を、音声デコーダ240とは独立して読み出し、該映像用TSパケットに基づいて上記の映像デコード処理を行う。また音声デコーダ240が、第2の記憶領域AR2から音声用TSパケット(第2のTSパケット)を、映像デコーダ230とは独立して読み出し、該音声用TSパケットに基づいて上記の音声デコード処理を行う。こうすることで、映像と音声とを同期させて出力させる場合には映像デコーダ230及び音声デコーダ240を動作させることができる一方、映像のみを出力させる場合には映像デコーダ230のみを動作させて音声デコーダ240の動作を停止させることができる。また音声のみを出力させる場合には音声デコーダ240のみを動作させて映像デコーダ230の動作を停止させることができる。   Then, the video decoder 230 reads the video TS packet (first TS packet) from the first storage area AR1, independently of the audio decoder 240, and performs the video decoding process based on the video TS packet. I do. Also, the audio decoder 240 reads the audio TS packet (second TS packet) from the second storage area AR2 independently of the video decoder 230, and performs the above audio decoding process based on the audio TS packet. Do. In this way, the video decoder 230 and the audio decoder 240 can be operated when the video and audio are output in synchronism, while only the video decoder 230 is operated and output when only the video is output. The operation of the decoder 240 can be stopped. When outputting only audio, only the audio decoder 240 can be operated to stop the operation of the video decoder 230.

ホストCPU110は、第3の記憶領域AR3に格納されたその他のTSパケット(第3のTSパケット)を読み出し、該TSパケットからセクションを生成する。そして該セクションに含まれる各種テーブル情報を解析する。ホストCPU110は、その解析結果をメモリ220の所定の記憶領域に設定すると共にTS分離部210に対し制御情報として指定する。それ以降、TS分離部210は、チューナ940からのTSを該制御情報に従ってTSパケットを抽出する。一方、ホストCPU110は、映像デコーダ230及び音声デコーダ240に対して、それぞれ別個に起動コマンドを発行することができる。映像デコーダ230及び音声デコーダ240は、それぞれ独立してメモリ220にアクセスしてホストCPU110の解析結果を読み出し、該解析結果に対応したデコード処理を行う。   The host CPU 110 reads another TS packet (third TS packet) stored in the third storage area AR3, and generates a section from the TS packet. Then, various table information included in the section is analyzed. The host CPU 110 sets the analysis result in a predetermined storage area of the memory 220 and specifies it as control information for the TS separation unit 210. Thereafter, the TS separation unit 210 extracts TS packets from the tuner 940 according to the control information. On the other hand, the host CPU 110 can issue activation commands to the video decoder 230 and the audio decoder 240 separately. The video decoder 230 and the audio decoder 240 independently access the memory 220, read the analysis result of the host CPU 110, and perform a decoding process corresponding to the analysis result.

図18において、TS分離部210が、タイマ部70を含むことができる。画像データ転送制御部250が本実施形態における画像データ転送制御部44の機能を実現する。   In FIG. 18, the TS separation unit 210 can include a timer unit 70. The image data transfer control unit 250 implements the function of the image data transfer control unit 44 in the present embodiment.

2.3.1 再生動作
次に、本実施形態における情報再生装置としての画像処理IC200において、TSに多重化された映像データ又は音声データを再生する場合の動作について説明する。
2.3.1 Reproduction Operation Next, an operation in the case of reproducing video data or audio data multiplexed on a TS in the image processing IC 200 as an information reproduction apparatus in the present embodiment will be described.

図19に、ホストCPU110による再生処理の動作例のフロー図を示す。ホストCPU110は、RAM120又はROM130に格納されたプログラムを読み出し、該プログラムに対応した処理を実行することで図19に示す処理を行うことができるようになっている。   FIG. 19 shows a flowchart of an operation example of the reproduction processing by the host CPU 110. The host CPU 110 can perform the process shown in FIG. 19 by reading a program stored in the RAM 120 or the ROM 130 and executing a process corresponding to the program.

まずホストCPU110は、放送受信開始処理を行う(ステップS10)。これによって、TSとして受信された複数の番組のうち所望の番組の映像データ又は音声データをTSから抽出することができる。そして、ホストCPU110は、画像処理IC200の映像デコーダ230及び音声デコーダ240の少なくとも1つを起動させる。   First, the host CPU 110 performs broadcast reception start processing (step S10). Thereby, video data or audio data of a desired program among a plurality of programs received as a TS can be extracted from the TS. Then, the host CPU 110 activates at least one of the video decoder 230 and the audio decoder 240 of the image processing IC 200.

その後、ホストCPU110は、映像及び音声の再生を行う場合には映像デコーダ230及び音声デコーダ240によりデコード処理を行わせる。或いはホストCPU110は、映像のみの再生を行う場合には音声デコーダ240の動作を停止させて映像デコーダ230によりデコード処理を行わせる。或いはまた、ホストCPU110は、音声のみの再生を行う場合には映像デコーダ230の動作を停止させて音声デコーダ240によりデコード処理を行わせる(ステップS11)。   Thereafter, the host CPU 110 causes the video decoder 230 and the audio decoder 240 to perform decoding processing when reproducing video and audio. Alternatively, the host CPU 110 stops the operation of the audio decoder 240 and causes the video decoder 230 to perform decoding processing when reproducing only the video. Alternatively, when reproducing only audio, the host CPU 110 stops the operation of the video decoder 230 and causes the audio decoder 240 to perform decoding processing (step S11).

次に、ホストCPU110は、放送受信終了処理を行い(ステップS12)、一連の処理を終了する(エンド)。これによって、ホストCPU110は、画像処理IC200の各部の動作を停止させる。   Next, the host CPU 110 performs broadcast reception end processing (step S12), and ends a series of processing (end). As a result, the host CPU 110 stops the operation of each unit of the image processing IC 200.

2.3.1.1 放送受信開始処理
続いて、図19に示す放送受信開始処理の処理例について説明する。ここでは、映像及び音声の再生を行う場合について説明する。
2.3.1.1 Broadcast Reception Start Process Next, a process example of the broadcast reception start process shown in FIG. 19 will be described. Here, a case where video and audio are reproduced will be described.

図20に、図19の放送受信開始処理の動作例のフロー図を示す。ホストCPU110は、RAM120又はROM130に格納されたプログラムを読み出し、該プログラムに対応した処理を実行することで図20に示す処理を行うことができるようになっている。   FIG. 20 shows a flowchart of an operation example of the broadcast reception start process of FIG. The host CPU 110 can perform the process shown in FIG. 20 by reading a program stored in the RAM 120 or the ROM 130 and executing a process corresponding to the program.

まずホストCPU110は、画像処理IC200の映像デコーダ230、音声デコーダ240を起動する(ステップS20)。その後、ホストCPU110は、チューナ940を初期化すると共に所与の動作情報を設定する(ステップS21)。そしてホストCPU110は、DAC150に対しても初期化を行って所与の動作情報を設定する(ステップS22)。   First, the host CPU 110 activates the video decoder 230 and the audio decoder 240 of the image processing IC 200 (step S20). Thereafter, the host CPU 110 initializes the tuner 940 and sets given operation information (step S21). Then, the host CPU 110 also initializes the DAC 150 and sets given operation information (step S22).

その後ホストCPU110は、TSの受信を監視する(ステップS23:N)。TSの受信が開始されると、画像処理IC200では、TS分離部210が、上述のようにTSから映像用TSパケット、音声用TSパケット及びそれ以外のTSパケットに分離し、分離されたTSパケットは、専用に設けられたメモリ220の記憶領域に格納される。例えば画像処理IC200のメモリ220における第3の記憶領域AR3にTSパケットが格納されたことを条件に発生する割り込み信号により、ホストCPU110はTSの受信を検出できる。或いはホストCPU110が、周期的にメモリ220の第3の記憶領域AR3をアクセスすることで、TSパケットの書き込みが行われた否かを判断して、TSの受信を判別できる。   Thereafter, the host CPU 110 monitors reception of TS (step S23: N). When reception of the TS is started, in the image processing IC 200, the TS separation unit 210 separates the TS from the TS into the video TS packet, the audio TS packet, and the other TS packets as described above, and the separated TS packet. Is stored in a storage area of a memory 220 provided for exclusive use. For example, the host CPU 110 can detect reception of a TS by an interrupt signal generated on the condition that a TS packet is stored in the third storage area AR3 in the memory 220 of the image processing IC 200. Alternatively, the host CPU 110 can periodically determine whether the TS packet has been written by accessing the third storage area AR3 of the memory 220, thereby determining the reception of the TS.

このようにしてTSの受信が検出されたとき(ステップS23:Y)、ホストCPU110は、第3の記憶領域AR3に記憶されたTSパケットを読み出してセクションを生成する。そして、セクションに含まれるPSI(Program Specific Information:番組特定情報)/SI(Service Information:番組配列情報)を解析する(ステップS24)。
このPSI/SIは、MPEG−2システム(ISO/IEC 13818-1)にて規定されている。
When reception of a TS is detected in this way (step S23: Y), the host CPU 110 reads a TS packet stored in the third storage area AR3 and generates a section. Then, PSI (Program Specific Information) / SI (Service Information: program arrangement information) included in the section is analyzed (step S24).
This PSI / SI is defined by the MPEG-2 system (ISO / IEC 13818-1).

PSI/SIは、NIT(Network Information Table:ネットワーク情報テーブル)
やPMT(Program Map Table:番組対応テーブル)を含む。NITは、例えばどの放送
局からのTSかを特定するためのネットワーク識別子、PMTを特定するためのサービス識別子、放送の種類を示すサービスタイプ識別子等を含む。PMTには、例えばTSにおいて多重化される映像用TSパケットのPIDと音声用TSパケットのPIDが設定される。
PSI / SI is NIT (Network Information Table)
And PMT (Program Map Table). The NIT includes, for example, a network identifier for specifying which broadcasting station the TS is from, a service identifier for specifying the PMT, a service type identifier indicating the type of broadcast, and the like. In the PMT, for example, the PID of the video TS packet multiplexed in the TS and the PID of the audio TS packet are set.

従って、ホストCPU110は、PSI/SIからPMTを特定するためのサービス識別子を抽出し、該サービス識別子に基づき、受信したTSの映像用TSパケット及び音声用TSパケットのPIDを特定できる(ステップS25)。そして、携帯端末のユーザに選択させた番組に対応するPID、若しくは予め決められた番組に対応するPIDを、ホストCPU110が、映像デコーダ230及び音声デコーダ240に参照できるようにメモリ220の所定の記憶領域(例えば第3の記憶領域AR3)に設定し(ステップS26)、一連の処理を終了する(エンド)。   Therefore, the host CPU 110 extracts a service identifier for specifying the PMT from the PSI / SI, and can specify the PID of the received video TS packet and audio TS packet based on the service identifier (step S25). . Then, a predetermined storage in the memory 220 is provided so that the host CPU 110 can refer to the video decoder 230 and the audio decoder 240 for the PID corresponding to the program selected by the user of the mobile terminal or the PID corresponding to the predetermined program. An area (for example, the third storage area AR3) is set (step S26), and a series of processing ends (end).

こうすることで、映像デコーダ230及び音声デコーダ240は、メモリ220に設定されたPIDを参照しながら、映像用TSパケット及び音声用TSパケットに対してデコード処理を行うことができる。   In this way, the video decoder 230 and the audio decoder 240 can perform decoding processing on the video TS packet and the audio TS packet while referring to the PID set in the memory 220.

なおホストCPU110は、例えばPMTを特定するためのサービス識別子に対応する情報を、画像処理IC200のTS分離部210に設定する。こうすることで、TS分離部210は、所定の時間間隔を置いて周期的に受信されるセクションを判別し、上記のサービス識別子に対応したPMTを解析し、該PMTにより特定される映像用TSパケット及び音声用TSパケットとそれ以外のTSパケットを抽出してメモリ220に格納していく。   The host CPU 110 sets information corresponding to, for example, a service identifier for specifying the PMT in the TS separation unit 210 of the image processing IC 200. In this way, the TS separation unit 210 determines a section periodically received at a predetermined time interval, analyzes the PMT corresponding to the service identifier, and identifies the video TS specified by the PMT. Packets and TS packets for voice and other TS packets are extracted and stored in the memory 220.

図21に、図17及び図18の画像処理IC200の放送受信開始処理における動作説明図を示す。図21において、図17又は図18と同一部分には同一符号を付し、適宜説明を省略する。   FIG. 21 is a diagram for explaining the operation in the broadcast reception start process of the image processing IC 200 shown in FIGS. In FIG. 21, the same parts as those in FIG. 17 or FIG.

なお図21において、第7の記憶領域AR7を第4の記憶領域AR4と共用化し、第8の記憶領域AR8を第5の記憶領域AR5と共用化している。また、PSI/SI、NIT、PMTは、第3の記憶領域AR3内の所定の記憶領域に格納されるものとする。   In FIG. 21, the seventh storage area AR7 is shared with the fourth storage area AR4, and the eighth storage area AR8 is shared with the fifth storage area AR5. In addition, PSI / SI, NIT, and PMT are stored in a predetermined storage area in the third storage area AR3.

まずチューナ940からTSが入力される(SQ1)とTS分離部210は、PSI/SIが含まれるTSパケットをメモリ220に格納する(SQ2)。このとき、TS分離部210は、該TSパケットのPSI/SI自体を抽出してメモリ220に格納することができる。更にTS分離部210は、PSI/SIからNITを抽出してメモリ220に格納することができる。   First, when TS is input from the tuner 940 (SQ1), the TS separation unit 210 stores a TS packet including PSI / SI in the memory 220 (SQ2). At this time, the TS separation unit 210 can extract the PSI / SI itself of the TS packet and store it in the memory 220. Further, the TS separation unit 210 can extract the NIT from the PSI / SI and store it in the memory 220.

ホストCPU110は、PSI/SI、NIT、PMTを読み出して(SQ3)、これらを解析し、デコード処理対象の番組に対応するPIDを特定する。そしてホストCPU110は、サービス識別子に対応する情報又はデコード処理対象の番組に対応するPIDを、TS分離部210に設定する(SQ4)。なおホストCPU110は、PIDを、メモリ220の所定の記憶領域にも設定し、映像デコーダ230及び音声デコーダ240のデコード処理の際に参照させる。   The host CPU 110 reads PSI / SI, NIT, and PMT (SQ3), analyzes them, and identifies the PID corresponding to the program to be decoded. Then, the host CPU 110 sets information corresponding to the service identifier or PID corresponding to the program to be decoded in the TS separation unit 210 (SQ4). The host CPU 110 also sets the PID in a predetermined storage area of the memory 220 and refers to it during decoding processing by the video decoder 230 and the audio decoder 240.

TS分離部210は、設定されたPIDに基づいてTSから映像用TSパケット及び音声用TSパケットを抽出し、それぞれ第1及び第2の記憶領域AR1、AR2に書き込む(SQ5)。   The TS separation unit 210 extracts video TS packets and audio TS packets from the TS based on the set PID, and writes them to the first and second storage areas AR1 and AR2, respectively (SQ5).

その後、ホストCPU110によって起動された映像デコーダ230及び音声デコーダ240は、第1及び第2の記憶領域AR1、AR2から映像用TSパケット及び音声用TSパケットを順次読み出して(SQ6)、映像デコード処理及び音声デコード処理を行う。   Thereafter, the video decoder 230 and the audio decoder 240 activated by the host CPU 110 sequentially read the video TS packet and the audio TS packet from the first and second storage areas AR1 and AR2 (SQ6), and perform video decoding processing and Perform audio decoding.

2.3.1.2 放送受信終了処理
次に、図19に示す放送受信終了処理の動作例について説明する。ここでは、映像及び音声の再生を行う場合について説明する。
2.3.1.2 Broadcast Reception End Process Next, an operation example of the broadcast reception end process shown in FIG. 19 will be described. Here, a case where video and audio are reproduced will be described.

図22に、図19の放送受信終了処理の処理例のフロー図を示す。ホストCPU110は、RAM120又はROM130に格納されたプログラムを読み出し、該プログラムに対応した処理を実行することで図22に示す処理を行うことができるようになっている。   FIG. 22 shows a flowchart of a processing example of the broadcast reception end processing of FIG. The host CPU 110 can perform the process shown in FIG. 22 by reading a program stored in the RAM 120 or the ROM 130 and executing a process corresponding to the program.

まずホストCPU110は、画像処理IC200の映像デコーダ230、音声デコーダ240を停止させる(ステップS30)。これは、例えばホストCPU110から画像処理IC200に対し制御コマンドを発行し、画像処理IC200が該制御コマンドのデコード結果を用いて映像デコーダ230、音声デコーダ240を停止させることができる。   First, the host CPU 110 stops the video decoder 230 and the audio decoder 240 of the image processing IC 200 (step S30). For example, the host CPU 110 can issue a control command to the image processing IC 200, and the image processing IC 200 can stop the video decoder 230 and the audio decoder 240 using the decoding result of the control command.

その後、ホストCPU110は、同様にTS分離部210を停止させる(ステップS31)。そして、ホストCPU110は、チューナ940を停止させる(ステップS32)。   Thereafter, the host CPU 110 similarly stops the TS separation unit 210 (step S31). Then, the host CPU 110 stops the tuner 940 (step S32).

図23に、図17及び図18の画像処理IC200の放送受信終了処理における動作説明図を示す。図23において、図21と同一部分には同一符号を付し、適宜説明を省略する。   FIG. 23 shows an operation explanatory diagram of the broadcast reception end process of the image processing IC 200 of FIGS. 17 and 18. In FIG. 23, the same parts as those in FIG.

まずホストCPU110が、画像データ転送制御部250の動作を停止させる制御を行い、表示ドライバ140への映像データの供給を停止させる(SQ10)。次に、ホストCPU110が、映像デコーダ230及び音声デコーダ240の動作を停止させ(SQ11)、その後TS分離部210、チューナ940の順に動作を停止させていく(SQ12、SQ13)。   First, the host CPU 110 performs control to stop the operation of the image data transfer control unit 250, and stops the supply of video data to the display driver 140 (SQ10). Next, the host CPU 110 stops the operations of the video decoder 230 and the audio decoder 240 (SQ11), and then stops the operations in the order of the TS separation unit 210 and the tuner 940 (SQ12, SQ13).

2.3.1.3 再生処理
次に、映像データの再生処理を行う映像デコーダ230の動作例について説明する。
2.3.1.3 Reproduction Process Next, an operation example of the video decoder 230 that performs the reproduction process of the video data will be described.

図24に、映像デコーダ230の動作例のフロー図を示す。   FIG. 24 shows a flowchart of an operation example of the video decoder 230.

映像デコーダ230は、ホストCPU110によって起動されると、例えばメモリ220の所定の記憶領域に格納されたプログラムを読み出し、該プログラムに対応した処理を実行することで図24に示す処理を行うことができるようになっている。即ち、映像デコーダ230はCPU(中央演算処理装置)を含み、画像処理IC200(情報再生装置)の初期化処理後に、画像処理IC200の外部から、CPUに映像デコード処理を実現するためのプログラムが読み込まれ、該CPUが映像デコード処理を実現することができる。なお、映像デコーダ230の処理の少なくとも一部が、組み合わせ回路や論理回路等のハードウェアによって行われてもよい。   When the video decoder 230 is activated by the host CPU 110, for example, the video decoder 230 reads the program stored in a predetermined storage area of the memory 220, and can execute the processing shown in FIG. 24 by executing processing corresponding to the program. It is like that. That is, the video decoder 230 includes a CPU (Central Processing Unit), and after initialization processing of the image processing IC 200 (information reproduction device), a program for realizing video decoding processing is read from the outside of the image processing IC 200 to the CPU. Thus, the CPU can realize the video decoding process. Note that at least a part of the processing of the video decoder 230 may be performed by hardware such as a combinational circuit or a logic circuit.

なお、映像デコーダ230及び音声デコーダ240のうち少なくとも1つが、CPUを含み、画像処理IC200の初期化処理後に、画像処理IC200の外部から、CPUに各デコード処理を実現するためのプログラムが読み込まれるようにしてもよい。   Note that at least one of the video decoder 230 and the audio decoder 240 includes a CPU, and after initialization processing of the image processing IC 200, a program for realizing each decoding process is read into the CPU from the outside of the image processing IC 200. It may be.

まず、映像デコーダ230は、映像用TSバッファとして設けられた第1の記憶領域AR1がエンプティ状態か否かを判別する(ステップS30)。第1の記憶領域AR1から読み出されるべき映像用TSパケットがない場合、エンプティ状態となる。   First, the video decoder 230 determines whether or not the first storage area AR1 provided as the video TS buffer is in an empty state (step S30). When there is no video TS packet to be read from the first storage area AR1, the state becomes empty.

ステップS30において映像用TSバッファである第1の記憶領域AR1がエンプティ状態でないと判別されたとき(ステップS30:N)、映像デコーダ230は、更に映像用ESバッファとして設けられた第4の記憶領域AR4がフル状態か否かを判別する(ステップS31)。これ以上映像用ESデータを第4の記憶領域AR4に格納できない場合、フル状態となる。   When it is determined in step S30 that the first storage area AR1 that is the video TS buffer is not empty (step S30: N), the video decoder 230 further includes a fourth storage area provided as a video ES buffer. It is determined whether or not AR4 is full (step S31). When no more video ES data can be stored in the fourth storage area AR4, the full state is entered.

ステップS31において映像用ESバッファである第4の記憶領域AR4がフル状態でないと判別されたとき(ステップS31:N)、映像デコーダ230は、第1の記憶領域AR1から映像用TSパケットを読み出し、図20のステップS26においてホストCPU110により特定されたPID(指定PID)か否かを検出する(ステップS32)。   When it is determined in step S31 that the fourth storage area AR4 that is the video ES buffer is not full (step S31: N), the video decoder 230 reads the video TS packet from the first storage area AR1, It is detected whether or not the PID (designated PID) specified by the host CPU 110 in step S26 of FIG. 20 (step S32).

ステップS32において、映像用TSパケットのPIDが指定PIDであると検出されたとき(ステップS32:Y)、映像デコーダ230は、TSヘッダ、PESヘッダの解析を行い(ステップS33)、映像用ESデータを映像用ESバッファとして設けられた第4の記憶領域AR4に格納する(ステップS34)。   In step S32, when it is detected that the PID of the video TS packet is the designated PID (step S32: Y), the video decoder 230 analyzes the TS header and the PES header (step S33), and the video ES data Are stored in a fourth storage area AR4 provided as a video ES buffer (step S34).

その後、映像デコーダ230は、映像用TSバッファである第1の記憶領域AR1の読み出しアドレスを特定するための読み出しポインタを更新し(ステップS35)、ステップS30に戻る(リターン)。   Thereafter, the video decoder 230 updates the read pointer for specifying the read address of the first storage area AR1, which is a video TS buffer (step S35), and returns to step S30 (return).

なお、ステップS32において映像用TSパケットのPIDが指定PIDではないと検出されたとき(ステップS32:N)、ステップS35に進む。また、ステップS30において映像用TSバッファである第1の記憶領域AR1がエンプティ状態であると判別されたとき(ステップS30:Y)、又はステップS31において映像用ESバッファである第4の記憶領域AR4がフル状態であると判別されたとき(ステップS31:Y)、ステップS30に戻る(リターン)。   When it is detected in step S32 that the PID of the video TS packet is not the designated PID (step S32: N), the process proceeds to step S35. When it is determined in step S30 that the first storage area AR1 that is the video TS buffer is in an empty state (step S30: Y), or in step S31, the fourth storage area AR4 that is the video ES buffer. Is determined to be full (step S31: Y), the process returns to step S30 (return).

こうして第4の記憶領域AR4に格納された映像用ESデータは、映像デコーダ230により、H.264/AVCの規格に従ったデコード処理が行われて、映像データとして第7の記憶領域AR7(図18参照)に書き込まれる。   The video ES data stored in the fourth storage area AR4 in this way is sent to the H.264 by the video decoder 230. A decoding process according to the H.264 / AVC standard is performed and written as video data in the seventh storage area AR7 (see FIG. 18).

図25に、図17及び図18の画像処理IC200の映像デコーダの動作説明図を示す。図25において、図21と同一部分には同一符号を付し、適宜説明を省略する。   FIG. 25 is a diagram for explaining the operation of the video decoder of the image processing IC 200 shown in FIGS. In FIG. 25, the same parts as those in FIG.

なお図25において、第7の記憶領域AR7を第4の記憶領域AR4と共用化し、第8の記憶領域AR8を第5の記憶領域AR5と共用化している。また、PSI/SI、NIT、PMTは、第3の記憶領域AR3内の所定の記憶領域に格納されるものとする。   In FIG. 25, the seventh storage area AR7 is shared with the fourth storage area AR4, and the eighth storage area AR8 is shared with the fifth storage area AR5. In addition, PSI / SI, NIT, and PMT are stored in a predetermined storage area in the third storage area AR3.

まず図20に示すようにホストCPU110によりデコード処理対象の番組に対応するPIDがTS分離部210に設定される(SQ20)。チューナ940からTSが入力されたとき(SQ21)、TS分離部210は、チューナ940からのTSから映像用TSパケット、音声用TSパケット及びそれ以外のTSパケットをそれぞれ分離する(SQ22)。TS分離部210によって分離された映像用TSパケットは、第1の記憶領域AR1に格納される。TS分離部210によって分離された音声用TSパケットは、第2の記憶領域AR2に格納される。TS分離部210によって分離された映像用TSパケット及び音声用TSパケット以外のTSパケットは、PSI/SIとして第3の記憶領域AR3に格納される。この際、TS分離部210は、PSI/SIの中のNIT、PMTを抽出して第3の記憶領域AR3に格納する。   First, as shown in FIG. 20, the host CPU 110 sets the PID corresponding to the program to be decoded in the TS separator 210 (SQ20). When a TS is input from the tuner 940 (SQ21), the TS separation unit 210 separates the video TS packet, audio TS packet, and other TS packets from the TS from the tuner 940 (SQ22). The video TS packet separated by the TS separation unit 210 is stored in the first storage area AR1. The audio TS packet separated by the TS separation unit 210 is stored in the second storage area AR2. TS packets other than the video TS packet and audio TS packet separated by the TS separation unit 210 are stored in the third storage area AR3 as PSI / SI. At this time, the TS separation unit 210 extracts NIT and PMT in the PSI / SI and stores them in the third storage area AR3.

次にホストCPU110によって起動された映像デコーダ230は、第1の記憶領域AR1から映像用TSパケットを読み出し(SQ23)、映像用ESデータを生成し、該映像用ESデータを第4の記憶領域AR4に格納する(SQ24)。   Next, the video decoder 230 activated by the host CPU 110 reads the video TS packet from the first storage area AR1 (SQ23), generates video ES data, and stores the video ES data in the fourth storage area AR4. (SQ24).

その後、映像デコーダ230は、第4の記憶領域AR4から映像用ESデータを読み出して(SQ25)、H.264/AVCの規格に従ったデコード処理を行う。図25では、デコード処理後の映像データが画像データ転送制御部250に直接供給されている(SQ26)が、例えばデコード処理後の映像データを、一旦、メモリ220の所定の記憶領域に書き戻し、その後、音声データの出力タイミングと同期を取りながら画像データ転送制御部250に供給することが望ましい。   After that, the video decoder 230 reads the video ES data from the fourth storage area AR4 (SQ25). The decoding process according to the H.264 / AVC standard is performed. In FIG. 25, the decoded video data is directly supplied to the image data transfer control unit 250 (SQ26). For example, the decoded video data is temporarily written back to a predetermined storage area of the memory 220, Thereafter, it is desirable to supply the image data transfer control unit 250 while synchronizing with the output timing of the audio data.

こうして画像データ転送制御部250に供給された映像データに基づいて、表示ドライバ140が表示パネルを駆動する(SQ27)。   The display driver 140 drives the display panel based on the video data thus supplied to the image data transfer control unit 250 (SQ27).

続いて、音声データの再生処理を行う音声デコーダ240の動作例について説明する。   Next, an operation example of the audio decoder 240 that performs audio data reproduction processing will be described.

図26に、音声デコーダ240の動作例のフロー図を示す。   FIG. 26 shows a flowchart of an operation example of the audio decoder 240.

音声デコーダ240は、ホストCPU110によって起動されると、例えばメモリ220の所定の記憶領域に格納されたプログラムを読み出し、該プログラムに対応した処理を実行することで図26に示す処理を行うことができるようになっている。即ち、音声デコーダ240はCPU(中央演算処理装置)を含み、画像処理IC200(情報再生装置)の初期化処理後に、画像処理IC200の外部から、CPUに音声デコード処理を実現するためのプログラムが読み込まれ、該CPUが音声デコード処理を実現することができる。なお、音声デコーダ240の処理の少なくとも一部が、組み合わせ回路や論理回路等のハードウェアによって行われてもよい。   When the audio decoder 240 is activated by the host CPU 110, for example, the audio decoder 240 reads out a program stored in a predetermined storage area of the memory 220, and can execute the processing shown in FIG. 26 by executing processing corresponding to the program. It is like that. That is, the audio decoder 240 includes a CPU (central processing unit), and after initialization processing of the image processing IC 200 (information reproduction device), a program for realizing audio decoding processing is read into the CPU from outside the image processing IC 200. Thus, the CPU can realize the audio decoding process. Note that at least a part of the processing of the audio decoder 240 may be performed by hardware such as a combinational circuit or a logic circuit.

まず、音声デコーダ240は、音声用TSバッファとして設けられた第2の記憶領域AR2がエンプティ状態か否かを判別する(ステップS40)。第2の記憶領域AR2から読み出されるべき音声用TSパケットがない場合、エンプティ状態となる。   First, the audio decoder 240 determines whether or not the second storage area AR2 provided as the audio TS buffer is in an empty state (step S40). When there is no audio TS packet to be read from the second storage area AR2, the state becomes empty.

ステップS40において音声用TSバッファである第2の記憶領域AR2がエンプティ状態でないと判別されたとき(ステップS40:N)、音声デコーダ240は、更に音声用ESバッファとして設けられた第5の記憶領域AR5がフル状態か否かを判別する(ステップS41)。これ以上音声用ESデータを第5の記憶領域AR5に格納できない場合、フル状態となる。   When it is determined in step S40 that the second storage area AR2 that is the audio TS buffer is not empty (step S40: N), the audio decoder 240 further includes a fifth storage area provided as an audio ES buffer. It is determined whether or not AR5 is full (step S41). When no more audio ES data can be stored in the fifth storage area AR5, the full state is entered.

ステップS41において音声用ESバッファである第5の記憶領域AR5がフル状態でないと判別されたとき(ステップS41:N)、音声デコーダ240は、第2の記憶領域AR2から音声用TSパケットを読み出し、図20のステップS26においてホストCPU110により特定されたPID(指定PID)か否かを検出する(ステップS42)。   When it is determined in step S41 that the fifth storage area AR5, which is the audio ES buffer, is not full (step S41: N), the audio decoder 240 reads the audio TS packet from the second storage area AR2, It is detected whether or not the PID (specified PID) specified by the host CPU 110 in step S26 of FIG. 20 (step S42).

ステップS42において、音声用TSパケットのPIDが指定PIDであると検出されたとき(ステップS42:Y)、音声デコーダ240は、TSヘッダ、PESヘッダの解析を行い(ステップS43)、音声用ESデータを音声用ESバッファとして設けられた第5の記憶領域AR5に格納する(ステップS34)。   When it is detected in step S42 that the PID of the audio TS packet is the designated PID (step S42: Y), the audio decoder 240 analyzes the TS header and the PES header (step S43), and the audio ES data Are stored in a fifth storage area AR5 provided as an audio ES buffer (step S34).

その後、音声デコーダ240は、音声用TSバッファである第2の記憶領域AR2の読み出しアドレスを特定するための読み出しポインタを更新し(ステップS45)、ステップS40に戻る(リターン)。   Thereafter, the audio decoder 240 updates the read pointer for specifying the read address of the second storage area AR2 which is the audio TS buffer (step S45), and returns to step S40 (return).

なお、ステップS42において、音声用TSパケットのPIDが指定PIDではないと検出されたとき(ステップS42:N)、ステップS45に進む。また、ステップS40において音声用TSバッファである第2の記憶領域AR2がエンプティ状態であると判別されたとき(ステップS40:Y)、又はステップS41において音声用ESバッファである第5の記憶領域AR5がフル状態であると判別されたとき(ステップS41:Y)、ステップS40に戻る(リターン)。   In step S42, when it is detected that the PID of the voice TS packet is not the designated PID (step S42: N), the process proceeds to step S45. When it is determined in step S40 that the second storage area AR2 that is the audio TS buffer is in an empty state (step S40: Y), or in step S41, the fifth storage area AR5 that is the audio ES buffer. Is determined to be full (step S41: Y), the process returns to step S40 (return).

こうして第5の記憶領域AR5に格納された音声用ESデータは、音声デコーダ240により、MPEG−2AACの規格に従ったデコード処理が行われて、音声データとして第8の記憶領域AR8(図18参照)に書き込まれる。   The audio ES data stored in the fifth storage area AR5 in this way is decoded by the audio decoder 240 in accordance with the MPEG-2 AAC standard, and is used as audio data in the eighth storage area AR8 (see FIG. 18). ).

図27に、図17及び図18の画像処理IC200の音声デコーダの動作説明図を示す。図27において、図21と同一部分には同一符号を付し、適宜説明を省略する。   FIG. 27 is a diagram for explaining the operation of the audio decoder of the image processing IC 200 shown in FIGS. In FIG. 27, the same portions as those in FIG. 21 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

なお図27において、第7の記憶領域AR7を第4の記憶領域AR4と共用化し、第8の記憶領域AR8を第5の記憶領域AR5と共用化している。また、PSI/SI、NIT、PMTは、第3の記憶領域AR3内の所定の記憶領域に格納されるものとする。   In FIG. 27, the seventh storage area AR7 is shared with the fourth storage area AR4, and the eighth storage area AR8 is shared with the fifth storage area AR5. In addition, PSI / SI, NIT, and PMT are stored in a predetermined storage area in the third storage area AR3.

まず図20に示すようにホストCPU110によりデコード処理対象の番組に対応するPIDがTS分離部210に設定される(SQ30)。チューナ940からTSが入力されたとき(SQ31)、TS分離部210は、チューナ940からのTSから映像用TSパケット、音声用TSパケット及びそれ以外のTSパケットをそれぞれ分離する(SQ32)。TS分離部210によって分離された映像用TSパケットは、第1の記憶領域AR1に格納される。TS分離部210によって分離された音声用TSパケットは、第2の記憶領域AR2に格納される。TS分離部210によって分離された映像用TSパケット及び音声用TSパケット以外のTSパケットは、PSI/SIとして第3の記憶領域AR3に格納される。更にTS分離部210は、PSI/SIの中のNIT、PMTを抽出して第3の記憶領域AR3の所定の記憶領域に書き込むことができる。   First, as shown in FIG. 20, the host CPU 110 sets the PID corresponding to the program to be decoded in the TS separator 210 (SQ30). When a TS is input from the tuner 940 (SQ31), the TS separation unit 210 separates the video TS packet, the audio TS packet, and the other TS packets from the TS from the tuner 940 (SQ32). The video TS packet separated by the TS separation unit 210 is stored in the first storage area AR1. The audio TS packet separated by the TS separation unit 210 is stored in the second storage area AR2. TS packets other than the video TS packet and audio TS packet separated by the TS separation unit 210 are stored in the third storage area AR3 as PSI / SI. Furthermore, the TS separation unit 210 can extract NIT and PMT in the PSI / SI and write them in a predetermined storage area of the third storage area AR3.

次にホストCPU110によって起動された音声デコーダ240は、第2の記憶領域AR2から音声用TSパケットを読み出し(SQ33)、音声用ESデータを生成し、該音声用ESデータを第5の記憶領域AR5に格納する(SQ34)。   Next, the audio decoder 240 activated by the host CPU 110 reads the audio TS packet from the second storage area AR2 (SQ33), generates audio ES data, and stores the audio ES data in the fifth storage area AR5. (SQ34).

その後、音声デコーダ240は、第5の記憶領域AR5から音声用ESデータを読み出して(SQ35)、MPEG−2AACの規格に従ったデコード処理を行う。図27では、デコード処理後の音声データがDAC150に直接供給されている(SQ36)が、例えばデコード処理後の音声データを、一旦、メモリ220の所定の記憶領域に書き戻し、その後、映像データの出力タイミングと同期を取りながらDAC150に供給することが望ましい。   Thereafter, the audio decoder 240 reads audio ES data from the fifth storage area AR5 (SQ35), and performs a decoding process according to the MPEG-2 AAC standard. In FIG. 27, the decoded audio data is directly supplied to the DAC 150 (SQ36). For example, the decoded audio data is temporarily written back to a predetermined storage area of the memory 220, and then the video data It is desirable to supply to the DAC 150 in synchronization with the output timing.

以上のような音声デコーダ240の動作は、映像デコーダ230の動作とは独立して行われる。   The operation of the audio decoder 240 as described above is performed independently of the operation of the video decoder 230.

なお、本発明は上述した実施の形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形実施が可能である。なお上記の実施形態又はその変形例では、地上デジタル放送に適用可能な例について説明したが、本発明は地上デジタル放送に適用可能なものに限定されるものではない。   The present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the gist of the present invention. In the above embodiment or its modification, an example applicable to terrestrial digital broadcasting has been described. However, the present invention is not limited to one applicable to terrestrial digital broadcasting.

なお、本実施形態では、主にH.264/AVCに準拠したデコード処理に適用した場合について説明したが、これに限定されるものではなく、他の規格や、H.264/AVC規格を発展させた規格に準拠したデコード処理に適用できることは言うまでもない。   In the present embodiment, mainly H.264 is used. Although the case where the present invention is applied to decoding processing conforming to H.264 / AVC has been described, the present invention is not limited to this, and other standards, It goes without saying that the present invention can be applied to decoding processing based on a standard developed from the H.264 / AVC standard.

また、本発明のうち従属請求項に係る発明においては、従属先の請求項の構成要件の一部を省略する構成とすることもできる。また、本発明の1の独立請求項に係る発明の要部を、他の独立請求項に従属させることもできる。   In the invention according to the dependent claims of the present invention, a part of the constituent features of the dependent claims can be omitted. Moreover, the principal part of the invention according to one independent claim of the present invention can be made dependent on another independent claim.

本実施形態における表示制御装置の構成例のブロック図。The block diagram of the structural example of the display control apparatus in this embodiment. 本実施形態における表示制御装置の動作の一例の説明図。Explanatory drawing of an example of operation | movement of the display control apparatus in this embodiment. 本実施形態における表示制御装置の動作の他の例の説明図。Explanatory drawing of the other example of operation | movement of the display control apparatus in this embodiment. 本実施形態における表示時刻テーブルの説明図。Explanatory drawing of the display time table in this embodiment. 図1のデコーダの構成例のブロック図。FIG. 2 is a block diagram of a configuration example of a decoder in FIG. 1. 図1のタイマ部の構成例のブロック図。The block diagram of the structural example of the timer part of FIG. 本実施形態における画像データ転送指示部の処理例のフロー図。The flowchart of the example of a process of the image data transfer instruction | indication part in this embodiment. 図1のタイマ部の他の構成例のブロック図。The block diagram of the other structural example of the timer part of FIG. 本実施形態の画像データ転送指示部が行う強制的な画像データ転送制御の処理例のフロー図。FIG. 6 is a flowchart of a processing example of forced image data transfer control performed by an image data transfer instruction unit according to the present embodiment. 図10(A)、図10(B)はPESパケットの説明図。FIGS. 10A and 10B are explanatory diagrams of PES packets. 本実施形態における表示時刻テーブルの生成処理例のフロー図。The flowchart of the example of a production | generation process of the display time table in this embodiment. 地上デジタル放送のセグメントの概念の説明図。Explanatory drawing of the concept of the segment of digital terrestrial broadcasting. TSの説明図。Explanatory drawing of TS. PESパケット及びセクションの説明図。Explanatory drawing of a PES packet and a section. 本実施形態の比較例におけるマルチメディア処理CPUを含む携帯電話機の構成例のブロック図。The block diagram of the structural example of the mobile telephone containing the multimedia processing CPU in the comparative example of this embodiment. 本実施形態における情報再生装置を含む携帯電話機の構成例のブロック図。The block diagram of the structural example of the mobile telephone containing the information reproducing | regenerating apparatus in this embodiment. 本実施形態の情報再生装置としての図16の画像処理ICの構成例のブロック図。The block diagram of the structural example of the image processing IC of FIG. 16 as an information reproduction | regeneration apparatus of this embodiment. 図17の画像処理ICの動作説明図。FIG. 18 is an operation explanatory diagram of the image processing IC of FIG. ホストCPUによる再生処理の動作例のフロー図。The flowchart of the operation example of the reproduction | regeneration processing by host CPU. 図19の放送受信開始処理の動作例のフロー図。The flowchart of the operation example of the broadcast reception start process of FIG. 図17及び図18の画像処理ICの放送受信開始処理における動作説明図。FIG. 19 is an operation explanatory diagram of broadcast reception start processing of the image processing IC of FIGS. 17 and 18. 図19の放送受信終了処理の処理例のフロー図。The flowchart of the process example of the broadcast reception end process of FIG. 図17及び図18の画像処理ICの放送受信終了処理における動作説明図。Operation | movement explanatory drawing in the broadcast reception end process of the image processing IC of FIG.17 and FIG.18. 映像デコーダの動作例のフロー図。The flowchart of the operation example of a video decoder. 図17及び図18の画像処理ICの映像デコーダの動作説明図。FIG. 19 is an operation explanatory diagram of a video decoder of the image processing IC in FIGS. 17 and 18. 音声デコーダの動作例のフロー図。The flowchart of the operation example of an audio | voice decoder. 図17及び図18の画像処理ICの音声デコーダの動作説明図。FIG. 19 is an operation explanatory diagram of the audio decoder of the image processing IC of FIGS. 17 and 18.

符号の説明Explanation of symbols

10 表示制御装置、 20 デコーダ、 22 CAVLC部、 24 逆量子化部、
26 逆DCT演算部、 28 加算部、 30 デブロッキングフィルタ、
32 動き補償部、 34 動き予測部、 36 パラメータ解析部、
37 画面内予測部、 38 重み付き予測部、 40 バッファ部、
42 画像データ転送指示部、 44、250 画像データ転送制御部、
46 デコード用フレームバッファ、 48 ヘッダ解析部、 50 表示部、
60 CPB、 70 タイマ部、 72 表示時刻レジスタ、 74 カウンタ、
76 コンパレータ、 78 割り込み発生部、 79 ステータスレジスタ、
110 ホストCPU、 200 画像処理IC、 210 TS分離部、
220 メモリ、 230 映像デコーダ、 232 ヘッダ解析部、
234 映像デコード処理部、 240 音声デコーダ、 242 ヘッダ削除処理部、
244 音声デコード処理部、 260 チューナI/F、 270 ホストI/F、
280 ドライバI/F、 290 オーディオI/F、 940 チューナ
10 display control device, 20 decoder, 22 CAVLC unit, 24 inverse quantization unit,
26 inverse DCT calculation unit, 28 addition unit, 30 deblocking filter,
32 motion compensator, 34 motion predictor, 36 parameter analyzer,
37 intra prediction unit, 38 weighted prediction unit, 40 buffer unit,
42 image data transfer instruction unit, 44, 250 image data transfer control unit,
46 Decoding frame buffer, 48 Header analysis section, 50 Display section,
60 CPB, 70 Timer section, 72 Display time register, 74 Counter,
76 Comparator, 78 Interrupt generator, 79 Status register,
110 host CPU, 200 image processing IC, 210 TS separation unit,
220 memory, 230 video decoder, 232 header analysis unit,
234 video decoding processing unit, 240 audio decoder, 242 header deletion processing unit,
244 audio decoding processing unit, 260 tuner I / F, 270 host I / F,
280 Driver I / F, 290 Audio I / F, 940 Tuner

Claims (11)

各参照フレームバッファが、表示時刻が設定される1フレーム分の画像データを格納する第1〜第N(Nは自然数)の参照フレームバッファと、
前記第1〜第Nの参照フレームバッファに格納された少なくとも1フレーム分の画像データを参照して、現フレームの画像データを生成するデコード処理を行うデコーダと、
画像データの転送指示を行う画像データ転送指示部と、
画像データ転送指示部からの転送指示に基づいて、前記第1〜第Nの参照フレームバッファのいずれかから1フレーム分の画像データを表示部に転送する制御を行う画像データ転送制御部とを含み、
前記画像データ転送指示部が、
現フレームのデコード処理中に表示時刻が到来した画像データの転送を指示すると共に、
前記現フレームの画像データに対するデコード処理が完了し、且つ前記第1〜第Nの参照フレームバッファがフル状態のとき、前記第1〜第Nの参照フレームバッファに格納された画像データに設定される表示時刻にかかわらず、前記第1〜第Nの参照フレームバッファに格納された画像データのうち最も古い画像データの転送指示を行うことを特徴とする表示制御装置。
Each reference frame buffer stores first to Nth (N is a natural number) reference frame buffers for storing image data for one frame for which a display time is set;
A decoder that performs decoding processing to generate image data of a current frame with reference to image data of at least one frame stored in the first to Nth reference frame buffers;
An image data transfer instruction unit for instructing transfer of image data;
An image data transfer control unit that performs control to transfer image data for one frame from any of the first to Nth reference frame buffers to a display unit based on a transfer instruction from the image data transfer instruction unit. ,
The image data transfer instruction unit
Instructing transfer of image data whose display time has arrived during decoding of the current frame,
When the decoding process for the image data of the current frame is completed and the first to Nth reference frame buffers are full, the image data stored in the first to Nth reference frame buffers is set. A display control apparatus for instructing transfer of the oldest image data among the image data stored in the first to Nth reference frame buffers regardless of a display time.
請求項1において、
前記画像データ転送指示部が、
前記表示時刻に対応した表示時刻データと、該表示時刻データに対応した画像データの格納先とが画像データ毎に記憶される表示時刻テーブルに基づいて、前記画像データの転送指示を行うことを特徴とする表示制御装置。
In claim 1,
The image data transfer instruction unit
The display time data corresponding to the display time and the storage location of the image data corresponding to the display time data are instructed to transfer the image data based on a display time table stored for each image data. A display control device.
請求項1又は2において、
設定された時刻に割り込みを発生させるタイマ部を含み、
前記画像データ転送指示部が、
表示時刻データを前記タイマ部に設定した後、該タイマ部からの割り込みを受信したとき、前記画像データ転送制御部に前記転送指示を行うことを特徴とする表示制御装置。
In claim 1 or 2,
Includes a timer part that generates an interrupt at a set time,
The image data transfer instruction unit
A display control apparatus, wherein after the display time data is set in the timer unit, when the interrupt from the timer unit is received, the transfer instruction is given to the image data transfer control unit.
請求項1又は2において、
計時を行うタイマ部を含み、
前記画像データ転送指示部が、
表示時刻データを前記タイマ部に設定した後、前記タイマ部をポーリングして前記表示時刻データにより表される表示時刻を経過したか否かを判別し、前記タイマ部の時刻が前記表示時刻を経過したと判別されたとき、前記画像データ転送制御部に前記転送指示を行うことを特徴とする表示制御装置。
In claim 1 or 2,
Includes a timer section that keeps time,
The image data transfer instruction unit
After setting the display time data in the timer unit, the timer unit is polled to determine whether or not the display time represented by the display time data has elapsed, and the time of the timer unit has passed the display time When it is determined that the image data has been transferred, the image data transfer control unit is instructed to transfer the display.
請求項1乃至4のいずれかにおいて、
Nが3であることを特徴とする表示制御装置。
In any one of Claims 1 thru | or 4,
A display control apparatus, wherein N is 3.
各参照フレームバッファが、表示時刻が設定される1フレーム分の画像データを格納する第1〜第N(Nは自然数)参照フレームバッファと、
前記第1〜第Nの参照フレームバッファに格納された少なくとも1フレーム分の画像データを参照して、現フレームの画像データを生成するデコード処理を行うデコーダと、
前記第1〜第Nの参照フレームバッファのいずれかから1フレーム分の画像データを表示部に転送する制御を行う画像データ転送制御部とを含む表示制御装置の制御方法であって、
前記画像データ転送制御部に対し、現フレームのデコード処理中に表示時刻が到来した画像データの転送を指示すると共に、
前記現フレームの画像データに対するデコード処理が完了し、且つ前記第1〜第Nの参照フレームバッファがフル状態のとき、前記第1〜第Nの参照フレームバッファに格納された画像データに設定される表示時刻にかかわらず、前記画像データ転送制御部に対し、前記第1〜第Nの参照フレームバッファに格納された画像データのうち最も古い画像データの転送指示を行うことを特徴とする表示制御装置の制御方法。
First to Nth (N is a natural number) reference frame buffer for storing each frame of image data for which a display time is set;
A decoder that performs decoding processing to generate image data of a current frame with reference to image data of at least one frame stored in the first to Nth reference frame buffers;
A display control apparatus control method including an image data transfer control unit that performs control to transfer image data for one frame from any of the first to Nth reference frame buffers to a display unit,
Instructing the image data transfer control unit to transfer image data whose display time has arrived during decoding of the current frame,
When the decoding process for the image data of the current frame is completed and the first to Nth reference frame buffers are full, the image data stored in the first to Nth reference frame buffers is set. Regardless of display time, the image data transfer control unit is instructed to transfer the oldest image data among the image data stored in the first to Nth reference frame buffers. Control method.
請求項6において、
前記表示時刻に対応した表示時刻データと、該表示時刻データに対応した画像データの格納先とが画像データ毎に記憶される表示時刻テーブルに基づいて、前記画像データの転送指示を行うことを特徴とする表示制御方法。
In claim 6,
The display time data corresponding to the display time and the storage location of the image data corresponding to the display time data are instructed to transfer the image data based on a display time table stored for each image data. Display control method.
映像データ及び音声データの少なくとも1つを再生するための情報再生装置であって、
映像データを生成するための第1のTS(Transport Stream)パケット、音声データを生成するための第2のTSパケット、前記第1及び第2のTSパケット以外の第3のTSパケットを、トランスポートストリームから抽出する分離処理部と、
前記第1のTSパケットが格納される第1の記憶領域と、前記第2のTSパケットが格納される第2の記憶領域と、前記第3のTSパケットが格納される第3の記憶領域と、第1〜第N(Nは自然数)の参照フレーム画像データが格納される参照フレーム画像データ記憶領域とを有するメモリと、
前記第1の記憶領域から読み出された前記第1のTSパケットに基づいて前記映像データを生成する映像デコード処理を行い、映像デコード処理後のデータを前記第1〜第Nの参照フレーム画像データの1つとして前記メモリの参照フレーム記憶領域に格納する映像デコーダと、
前記第2の記憶領域から読み出された前記第2のTSパケットに基づいて前記音声データを生成する音声デコード処理を行う音声デコーダと、
前記メモリの参照フレーム画像データ記憶領域から前記第1〜第Nの参照フレーム画像データの1つを画像データとして転送制御を行う画像データ転送制御部とを含み、
前記映像デコーダが、前記第1の記憶領域から前記第1のTSパケットを、前記音声デコーダとは独立して読み出し、該第1のTSパケットに基づいて前記映像デコード処理を行うと共に、
前記音声デコーダが、前記第2の記憶領域から前記第2のTSパケットを、前記映像デコーダとは独立して読み出し、該第2のTSパケットに基づいて前記音声デコード処理を行い、
前記画像データ転送制御部が、
現フレームのデコード処理中に表示時刻が到来した画像データの転送を行う共に、
前記現フレームの画像データに対するデコード処理が完了し、且つ前記第1〜第Nの参照フレーム画像データのそれぞれが格納される記憶領域のすべてがフル状態のとき、前記第1〜第Nの参照フレーム画像データに設定される表示時刻にかかわらず、前記参照フレーム画像データ記憶領域に格納された画像データのうち最も古い画像データの転送制御を行うことを特徴とする情報再生装置。
An information reproducing apparatus for reproducing at least one of video data and audio data,
Transport a first TS (Transport Stream) packet for generating video data, a second TS packet for generating audio data, and a third TS packet other than the first and second TS packets. A separation processing unit for extracting from the stream;
A first storage area for storing the first TS packet; a second storage area for storing the second TS packet; and a third storage area for storing the third TS packet; A memory having a reference frame image data storage area for storing first to Nth (N is a natural number) reference frame image data;
A video decoding process for generating the video data based on the first TS packet read from the first storage area is performed, and the data after the video decoding process is used as the first to Nth reference frame image data. A video decoder for storing in a reference frame storage area of the memory as one of
An audio decoder for performing audio decoding processing for generating the audio data based on the second TS packet read from the second storage area;
An image data transfer control unit that controls transfer of one of the first to Nth reference frame image data as image data from a reference frame image data storage area of the memory;
The video decoder reads the first TS packet from the first storage area independently of the audio decoder, performs the video decoding process based on the first TS packet,
The audio decoder reads the second TS packet from the second storage area independently of the video decoder, performs the audio decoding process based on the second TS packet,
The image data transfer control unit is
While transferring the image data whose display time has arrived during the decoding process of the current frame,
When the decoding process for the image data of the current frame is completed and all the storage areas in which the first to Nth reference frame image data are stored are full, the first to Nth reference frames An information reproducing apparatus for performing transfer control of the oldest image data among the image data stored in the reference frame image data storage area regardless of a display time set for the image data.
請求項8において、
前記表示時刻に対応した表示時刻データと、該表示時刻データに対応した画像データの格納先とが画像データ毎に記憶される表示時刻テーブルに基づいて、前記画像データの転送指示を行うことを特徴とする情報再生装置。
In claim 8,
The display time data corresponding to the display time and the storage location of the image data corresponding to the display time data are instructed to transfer the image data based on a display time table stored for each image data. Information reproducing apparatus.
請求項8又は9記載の情報再生装置と、
前記情報再生装置に対し、前記映像デコード処理及び前記音声デコード処理の少なくとも1つの処理開始を指示するホストとを含むことを特徴とする電子機器。
An information reproducing apparatus according to claim 8 or 9,
An electronic apparatus comprising: a host that instructs the information reproduction apparatus to start at least one of the video decoding process and the audio decoding process.
チューナと、
前記チューナからのトランスポートストリームが供給される請求項8又は9記載の情報再生装置と、
前記情報再生装置に対し、前記映像デコード処理及び前記音声デコード処理の少なくとも1つの処理開始を指示するホストとを含むことを特徴とする電子機器。
Tuner,
The information reproduction apparatus according to claim 8 or 9, wherein a transport stream from the tuner is supplied;
An electronic apparatus comprising: a host that instructs the information reproduction apparatus to start at least one of the video decoding process and the audio decoding process.
JP2006071449A 2006-03-15 2006-03-15 Display control unit, control method thereof, information reproducing unit, and electronic equipment Pending JP2007251543A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006071449A JP2007251543A (en) 2006-03-15 2006-03-15 Display control unit, control method thereof, information reproducing unit, and electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006071449A JP2007251543A (en) 2006-03-15 2006-03-15 Display control unit, control method thereof, information reproducing unit, and electronic equipment

Publications (1)

Publication Number Publication Date
JP2007251543A true JP2007251543A (en) 2007-09-27

Family

ID=38595385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006071449A Pending JP2007251543A (en) 2006-03-15 2006-03-15 Display control unit, control method thereof, information reproducing unit, and electronic equipment

Country Status (1)

Country Link
JP (1) JP2007251543A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013024640A1 (en) * 2011-08-17 2013-02-21 Square Enix Holdings Co., Ltd. Moving image distribution server, moving image reproduction apparatus, control method, program, and recording medium
WO2013125220A1 (en) * 2012-02-23 2013-08-29 株式会社スクウェア・エニックス・ホールディングス Moving image distribution server, moving image playback device, control method, program, and recording medium
WO2013153787A1 (en) * 2012-04-12 2013-10-17 株式会社スクウェア・エニックス・ホールディングス Moving image distribution server, moving image playback device, control method, program, and recording medium
CN114302219A (en) * 2021-01-14 2022-04-08 海信视像科技股份有限公司 Display equipment and variable frame rate display method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9008187B2 (en) 2011-08-17 2015-04-14 Square Enix Holdings Co., Ltd. Moving image distribution server, moving image reproduction apparatus, control method, program, and recording medium
US8873636B2 (en) 2011-08-17 2014-10-28 Square Enix Holdings Co., Ltd. Moving image distribution server, moving image reproduction apparatus, control method, program, and recording medium
KR101422424B1 (en) * 2011-08-17 2014-07-22 가부시키가이샤 스퀘어.에닉스.홀딩스 Moving image distribution server, moving image reproduction apparatus, control method of moving image distribution server, control method of moving image reproduction apparatus, and computer-readable recording medium
JP2013041568A (en) * 2011-08-17 2013-02-28 Square Enix Holdings Co Ltd Animation distribution server, animation reproduction device, control method, program, and recording medium
WO2013024640A1 (en) * 2011-08-17 2013-02-21 Square Enix Holdings Co., Ltd. Moving image distribution server, moving image reproduction apparatus, control method, program, and recording medium
CN103329526A (en) * 2011-08-17 2013-09-25 史克威尔·艾尼克斯控股公司 Moving image distribution server, moving image reproduction apparatus, control method, program and recording medium
US8988501B2 (en) 2012-02-23 2015-03-24 Square Enix Holdings Co., Ltd. Moving image distribution server, moving image playback apparatus, control method, and recording medium
JP5307958B1 (en) * 2012-02-23 2013-10-02 株式会社スクウェア・エニックス・ホールディングス VIDEO DISTRIBUTION SERVER, VIDEO REPRODUCTION DEVICE, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
CN103392189A (en) * 2012-02-23 2013-11-13 史克威尔·艾尼克斯控股公司 Moving image distribution server, moving image playback device, control method, program, and recording medium
US9491433B2 (en) 2012-02-23 2016-11-08 Square Enix Holdings Co., Ltd. Moving image distribution server, moving image playback apparatus, control method, and recording medium
WO2013125220A1 (en) * 2012-02-23 2013-08-29 株式会社スクウェア・エニックス・ホールディングス Moving image distribution server, moving image playback device, control method, program, and recording medium
WO2013153787A1 (en) * 2012-04-12 2013-10-17 株式会社スクウェア・エニックス・ホールディングス Moving image distribution server, moving image playback device, control method, program, and recording medium
KR101536501B1 (en) * 2012-04-12 2015-07-13 신라 테크놀로지스, 인크. Moving image distribution server, moving image reproduction apparatus, control method, recording medium, and moving image distribution system
JP5404971B1 (en) * 2012-04-12 2014-02-05 株式会社スクウェア・エニックス・ホールディングス Video distribution server, control method, program, and video distribution system
US9868060B2 (en) 2012-04-12 2018-01-16 Square Enix Holdings Co., Ltd. Moving image distribution server, moving image reproduction apparatus, control method, and recording medium
US10004983B2 (en) 2012-04-12 2018-06-26 Square Enix Holdings Co., Ltd. Moving image distribution server, moving image reproduction apparatus, control method, and recording medium
US8897373B2 (en) 2012-04-12 2014-11-25 Square Enix Holdings Co., Ltd. Moving image distribution server, moving image reproduction apparatus, control method, and recording medium
CN114302219A (en) * 2021-01-14 2022-04-08 海信视像科技股份有限公司 Display equipment and variable frame rate display method

Similar Documents

Publication Publication Date Title
US11553198B2 (en) Removal delay parameters for video coding
US11044487B2 (en) Signaling change in output layer sets
US10154289B2 (en) Signaling DPB parameters in VPS extension and DPB operation
US9509996B2 (en) Method, device, and system for multiplexing of video streams
US10250897B2 (en) Tile alignment signaling and conformance constraints
KR101015390B1 (en) Robust mode staggercasting without artifacts
US20160173887A1 (en) Scaling list signaling and parameter sets activation
US20080031357A1 (en) Decoding device, information reproducing apparatus and electronic apparatus
JP2007251543A (en) Display control unit, control method thereof, information reproducing unit, and electronic equipment
KR20060113522A (en) Device and method for initialing decoder in digital broadcasting receiver
US10051311B2 (en) Electronic devices for signaling sub-picture based hypothetical reference decoder parameters
JP2007166597A (en) Information reproducing device and electronic instrument
JP2007166598A (en) Information recording device and electronic instrument
JP2007282001A (en) Decoding device, decoding method, information reproducing device, and electronic equipment
JP2008022330A (en) Information reproducing apparatus and electronic equipment
JP2007304832A (en) Memory access controller, memory access system, information reproduction device, and electronic apparatus
JP2007251542A (en) Unit and method for controlling display, information reproducing unit, and electronic equipment
JP2008022331A (en) Display controller, information reproducing apparatus, and electronic equipment
JP2007148860A (en) Structure data access circuit, structure data access system, information reproducing device, and electronic equipment
JP2007304797A (en) Data access circuit, decoder, information reproducing device, and electronic equipment
JP2008022053A (en) Decoding apparatus, information reproducing apparatus, and electronic equipment
US20080025410A1 (en) Signal Playback Device
JP2007243763A (en) Decoder, control method thereof, and information reproducing apparatus and electronic apparatus
JP2007288566A (en) Information recording and playing device and electronics equipment
JP2007299484A (en) Information recording device, information recording and reproducing device, and electronic equipment