WO2012042659A1 - 通信システム、サーバ、端末及び端末の制御方法 - Google Patents

通信システム、サーバ、端末及び端末の制御方法 Download PDF

Info

Publication number
WO2012042659A1
WO2012042659A1 PCT/JP2010/067210 JP2010067210W WO2012042659A1 WO 2012042659 A1 WO2012042659 A1 WO 2012042659A1 JP 2010067210 W JP2010067210 W JP 2010067210W WO 2012042659 A1 WO2012042659 A1 WO 2012042659A1
Authority
WO
WIPO (PCT)
Prior art keywords
video data
unit
terminal
frames
server
Prior art date
Application number
PCT/JP2010/067210
Other languages
English (en)
French (fr)
Inventor
松岡 秀樹
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to EP10857872.5A priority Critical patent/EP2624547B1/en
Priority to PCT/JP2010/067210 priority patent/WO2012042659A1/ja
Priority to JP2012536104A priority patent/JP5541365B2/ja
Publication of WO2012042659A1 publication Critical patent/WO2012042659A1/ja
Priority to US13/851,414 priority patent/US20130232530A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6131Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4436Power management, e.g. shutting down unused components of the receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/507Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction using conditional replenishment

Definitions

  • a communication system including a server that transmits video data including a plurality of frames to a terminal, and the terminal, wherein the terminal inputs the video data; While the video data of the same frame among the video data of the plurality of frames is not continuous, the video data input to the input unit is reproduced using a first power amount, while the video of the plurality of frames is reproduced.
  • Reproduction control for performing control to reproduce the video data input to the input unit using a second power amount smaller than the first power amount during a period in which video data of the same frame continues among the data. It is possible to use a communication system having a unit.
  • the first power amount is used during a period in which video data of the same frame is not continuous among the video data of the plurality of frames. While the video data is played back, the video data is played back using a second power amount smaller than the first power amount during a period in which the video data of the same frame continues among the video data of the plurality of frames. It is possible to use a terminal control method for performing control.
  • FIG. 1 It is a figure which shows an example of a structure of the communication system which concerns on one Embodiment of this invention. It is a figure which shows an example of a structure of the server shown in FIG. It is a figure which shows an example of a structure of a server side detection part.
  • (A) And (B) is a figure which shows an example of a frame process. It is a figure which shows an example of a structure of an encoding part. It is a flowchart which shows an example of operation
  • FIG. 1 is a diagram illustrating an example of a configuration of a communication system according to an embodiment.
  • the communication system 1 shown in FIG. 1 includes a server 2 and a terminal 3 exemplarily.
  • the number of servers 2 and terminals 3 is not limited to the numbers illustrated in FIG.
  • a wireless communication system in which the server 2 and the terminal 3 communicate with each other via a wireless propagation path will be described as an example.
  • the server 2 and the terminal 3 are merely examples of the communication system 1. It may be indirectly connected through a repeater or the like, or may be wired.
  • the server 2 can provide a communication service area 4 composed of cells, sectors, and the like, and can wirelessly communicate with the terminals 3 located in the communication service area 4. Further, the server 2 can transmit video data including a plurality of frames to the terminal 3. Note that the video data may include audio data, for example.
  • the terminal 3 can wirelessly communicate with the server 2 that provides the communication service area 4 to which the own station 3 belongs. Further, the terminal 3 can receive the video data transmitted from the server 2 and reproduce the received video data. Further, the terminal 3 may output the audio data included in the video data to a speaker or the like and reproduce it.
  • the terminal 3 corresponds to a period in which the same frames (hereinafter referred to as “same” includes “substantially the same”) among a plurality of frames included in the video data, and a period other than that.
  • the power consumption of the terminal 3 is reduced by performing control to change the power consumption for reproducing the video data.
  • FIG. 2 an example of the configuration of the server 2 is shown in FIG.
  • the server 2 shown in FIG. 2 includes, for example, a memory 5, a server-side detection unit 6, a frame processing unit 7, an encoding unit 8, a transmission unit 9, and an antenna 10.
  • the memory 5 temporarily stores the video data, and then outputs the video data to the server side detection unit 6.
  • the video data may be input from the outside of the server 2 or may be input from a storage device (not shown) inside the server 2, for example. That is, the memory 5 gives a predetermined delay time to each frame included in the input video data and outputs it.
  • the predetermined delay time is, for example, a time allocated to each frame included in the video data (that is, the reciprocal of the frame rate), adjacent frames among the plurality of frames included in the video data. Can be sequentially output to the server-side detection unit 6.
  • the difference detection unit 11 performs pixel processing on a frame (current frame) input without going through the memory 5 and a frame (past frame) given a predetermined delay time by the memory 5.
  • the difference of the luminance component (Y component) is taken in units and output to the determination unit 12.
  • the difference detection unit 11 may convert the difference into an absolute value.
  • the determining unit 12 determines whether or not the adjacent frames are the same based on the difference detected by the difference detecting unit 11. For example, the determination unit 12 compares the difference detected by the difference detection unit 11 with a predetermined threshold (motion threshold), and if the difference detected by the difference detection unit 11 is equal to or less than the motion threshold, the adjacent frame Can be determined to be video data of the same frame.
  • a predetermined threshold motion threshold
  • the determination unit 12 determines that the video data is in a still image state during a period in which the video data of the adjacent frames is determined to be video data of the same frame.
  • the determination unit 12 determines that the period occupied by the frame in the video data is a still image when the frames input to the server-side detection unit 6 are strictly the same. It can be determined that it is a period.
  • the determination unit 12 may determine whether the input frames are not exactly the same, that is, even if some motion is included between the frames. It can be determined that the video data of the frames input to the server-side detection unit 6 is substantially the same, and it can be determined that the period occupied by the frame in the video data is a still image period.
  • the terminal 3 greatly increases power consumption. It becomes possible to reduce. That is, the power consumption of the terminal 3 can be controlled by controlling the value of the motion threshold in the determination unit 12. However, since it is assumed that the larger the motion threshold value is, the larger the ratio of the same frame (still image frame) to all the frames included in the video data is, the terminal 3 can display the video data with higher image quality. The period during which playback is not possible may increase.
  • the value of the motion threshold value is appropriately adjusted depending on, for example, the contents of the video data and the user settings. Then, the determination result in the determination unit 12 is output to the counting unit 13. That is, the number of times that the determination unit 12 determines that the frames input to the server-side detection unit 6 have the same content is output to the counting unit 13.
  • the period determination unit 14 determines that the frame is determined when the determination unit 12 determines that the input frames are the same three times or more.
  • the occupied period is detected as a period in which the video data is in a still image state, and the detection result is output. That is, the determination unit 12 determines that the nth ( ⁇ 1) th frame and the (n + 1) th frame are the same, and the (n + 1) th frame and the (n + 2) th frame are If it is determined that the (n + 2) -th frame and the (n + 3) -th frame are the same, the period determination unit 14 determines whether the (n + 2) -th frame is the same as the (n + 3) -th frame. It is determined that the video represented by the n + 3) th frame is a still image. Then, the period determining unit 14 calculates the determined still image frame period in the video data and outputs the calculation result.
  • the frame processing unit 7 reduces the data size of the frame in the period detected by the server-side detection unit 6 (the still image period in the video data). For example, the frame processing unit 7 may reduce the data size (information amount) of the frame by thinning out predetermined pixels in the frame. Further, for example, the frame processing unit 7 may reduce the frame data size by reducing the frame rate during the period detected by the server-side detection unit 6.
  • Video data including a frame after the predetermined frame processing is performed by the frame processing unit 7 is output to the encoding unit 8.
  • the encoding unit 8 performs a predetermined encoding process on the video data including the frame after the predetermined frame process.
  • the video data that has been subjected to the encoding process by the encoding unit 8 is output to the transmission unit 9.
  • the encoding unit 8 exemplarily includes a subtraction unit 32, a Discrete Cosine Transform (DCT) unit 33, a quantization unit 34, an inverse quantization unit 35, and a prediction encoding unit. 36, a multiplexing unit 37, and an InverseTDCT (IDCT unit) 38.
  • the encoding unit 8 includes, for example, an addition unit 39, a motion compensation unit 40, and a motion prediction unit 41.
  • the IDCT unit 38 performs an inverse discrete cosine transform process on the signal input from the inverse quantization unit 35.
  • the inverse discrete cosine transform process is an example of a process for converting a spatial frequency into an image signal.
  • a unit called a Minimum Coded Unit (MCU) which is a set of blocks composed of 8 ⁇ 8 pixels, is divided.
  • the adder 39 adds the signal output from the IDCT unit 38 and the delayed signal obtained by adding a delay to the signal output from the motion compensation unit 40, and outputs the result to the motion compensation unit 40.
  • MCU Minimum Coded Unit
  • the motion prediction unit 41 predicts motion for each frame of the input video data. For example, images (frames) at two time points of a moving image are often similar. Therefore, if there is an image frame at a certain time point t, the image frame at the next time point (t + 1) can be reproduced based on the difference from the image frame at the time point t. If there is an image frame at a certain time t and an image frame at another time (t + 2d), the image frame at the time (t + d) can be reproduced.
  • the server 2 determines whether the current frame (the frame being read) among the plurality of frames included in the video data is a frame in a period determined to be a still image in step S1. (Step S2). Here, when the server 2 determines that the current frame is a frame in the period determined to be a still image in step S1 (Yes route of step S2), the data size of the frame (still image frame) is set. Reduction is performed (step S3).
  • the terminal 3 in the release 6 of HSPA +, the period during which the terminal 3 is downloading data, and after the download is completed, the terminal 3 is connected to the server 2 via a dedicated channel (Cell_DCH: Cell_Dedicated CHannel) and downloaded.
  • the terminal 3 continuously transmits user data, control information, etc. to the server 2 using the uplink dedicated physical control channel (UL-DPCCH: UpLink-Dedicated Physical Control CHannel) during both the period during which the read data is being read To do.
  • UL-DPCCH UpLink-Dedicated Physical Control CHannel
  • the terminal 3 continuously receives other data and the like from the server 2 using a downlink high-speed channel (DL_HS-CH: DownLink_HighChannelSpeed-Channel).
  • DL_HS-CH DownLink_HighChannelSpeed-Channel
  • the playback control unit 19 detects that the CPC function is on, and uses the second power amount as a trigger using the detection as a trigger. You may perform control which reproduces
  • the playback control unit 19 detects that the CPC function is off, and uses the first power amount as a trigger using the detection as a trigger. You may perform control which reproduces.
  • the reproduction control unit 19 may make the second power amount smaller than the first power amount by controlling the power supply unit 26 to stop the power supply to the noise removing unit 20 and the deinterlacer 21. it can. At this time, the video data may be sent from the reproduction control unit 19 to the scaler 22 instead of the noise removal unit 20. Further, for example, the reproduction control unit 19 may control the power supply unit 26 so as to reduce the power supply to the display unit 25, thereby making the second power amount smaller than the first power amount.
  • the noise removing unit 20 reduces noise components included in the video data. For example, the noise removing unit 20 calculates an average value of the current frame and the previous frame for a portion with a small one-frame pixel difference (luminance). In addition, the noise removing unit 20 may delay the input frame by one frame and reduce noise using a frame cyclic low-pass filter used in the next frame.
  • the deinterlacer 21 converts the input frame into a progressive image having an information amount such as double speed or quadruple speed. Further, the scaler 22 performs enlargement and contour enhancement processing on the input frame. Note that the contour emphasis processing is processing for performing optimum contour emphasis according to the enlargement magnifications in the horizontal and vertical directions.
  • the reproduction control unit 19, noise removal unit 20, deinterlacer 21, scaler 22, color / brightness correction unit 23, color adjustment unit 24, and display unit 25 constitute a functional block (display core unit 31) for video display. To do. Thereby, the power consumption of the terminal 3 can be significantly reduced. Note that when the video data sent from the server 2 is progressive, the scaler function improves the resolution to some extent by expanding the frame size included in the video data and sharpening only the edges in edge detection. Therefore, the image quality of the still image is not affected.
  • the terminal 3 detects a difference between adjacent frames among a plurality of frames included in the video data, and based on the detected difference, whether or not the adjacent frames are the same (that is, , Whether or not the video represented by the adjacent frame is a still image) is determined (step S6).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 複数のフレームからなる映像データを端末へ送信するサーバと、端末とを有する通信システムにおいて、端末が、映像データを入力される入力部(16,28)と、複数のフレームの映像データのうち、同一フレームの映像データが連続しない期間においては第1の電力量を用いて入力部(16,28)に入力された映像データを再生する一方、複数のフレームの映像データのうち、同一フレームの映像データが連続する期間においては第1の電力量よりも小さい第2の電力量を用いて入力部(16,28)に入力された映像データを再生する制御を行なう再生制御部(19)とをそなえる。

Description

通信システム、サーバ、端末及び端末の制御方法
 本発明は、通信システム、サーバ、端末及び端末の制御方法に関する。
 近年、携帯電話機などの端末は、動画像や音声などを含む映像データを受信、再生する機能を搭載していることが多い。
 上記端末は、例えば、サーバなどの外部から受信した映像データや端末内部の記憶装置から読み出した映像データを画面に表示するとともに、映像データに含まれる音声をスピーカなどから出力することで、音声付きの動画を再生することができる。
 ここで、上記再生機能は、例えば、端末の電池から供給される電力を消費する。例えば、動画再生時、1秒間に何回画面を書き換えるかを表すフレームレートに着目すると、フレームレートの値が高いほど動画像をより滑らかで綺麗に表示することができるが、1秒間に扱うデータ量が多くなるため、消費電力は大きくなる。
 なお、端末の消費電力を削減するための技術として、例えば、電子番組ガイド(EPG)データに基づいて番組の種類を判別し、判別した番組の種類に対応するフレームレートで番組を再生することにより、電力消費量を削減する方法が知られている。
 また、例えば、High Speed Packet Access Plus(HSPA+)方式の通信システムにおいて、データの不連続送受信を行なうことで端末の消費電力を削減するContinuous Packet Connectivity(CPC)機能の改善方法が提案されている。
特開2006-287898号公報 特開2009-38803号公報
 映像データは、例えば、複数のフレームを有する。また、映像データには、複数のフレームのうち同一内容のフレームが連続する期間が含まれることがある。当該期間においては、映像データは静止画であるかのように再生される。
 一般的に、静止画の再生時には、動画の再生時ほどの高画質は要求されない。
 しかしながら、端末は、上記期間においても、映像データをより滑らかで綺麗に表示すべく、映像データをより高画質で再生するための機能を駆動するので、端末の電力消費量が増加する。
 そこで、本発明は、端末の電力消費量を低減することを目的の1つとする。
 なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本発明の他の目的の一つとして位置付けることができる。
 (1)第1の案として、複数のフレームからなる映像データを端末へ送信するサーバと、前記端末とを有する通信システムであって、前記端末が、前記映像データを入力される入力部と、前記複数のフレームの映像データのうち、同一フレームの映像データが連続しない期間においては第1の電力量を用いて前記入力部に入力された前記映像データを再生する一方、前記複数のフレームの映像データのうち、同一フレームの映像データが連続する期間においては前記第1の電力量よりも小さい第2の電力量を用いて前記入力部に入力された前記映像データを再生する制御を行なう再生制御部とをそなえる、通信システムを用いることができる。
 (2)また、第2の案として、複数のフレームからなる映像データを端末へ送信するサーバであって、前記複数のフレームの映像データのうち、同一フレームの映像データが連続する期間を検出するサーバ側検出部と、前記サーバ側検出部で検出した期間における前記同一フレームのデータサイズを縮小化するフレーム処理部と、前記フレーム処理部でデータサイズを縮小化したフレームを含む映像データを前記端末へ送信する送信部とをそなえる、サーバを用いることができる。
 (3)さらに、第3の案として、複数のフレームからなる映像データを入力される入力部と、前記複数のフレームの映像データのうち、同一フレームの映像データが連続しない期間においては第1の電力量を用いて前記入力部に入力された前記映像データを再生する一方、前記複数のフレームの映像データのうち、同一フレームの映像データが連続する期間においては前記第1の電力量よりも小さい第2の電力量を用いて前記入力部に入力された前記映像データを再生する制御を行なう再生制御部とをそなえる、端末を用いることができる。
 (4)また、第4の案として、複数のフレームからなる映像データについて、前記複数のフレームの映像データのうち、同一フレームの映像データが連続しない期間においては第1の電力量を用いて前記映像データを再生する一方、前記複数のフレームの映像データのうち、同一フレームの映像データが連続する期間においては前記第1の電力量よりも小さい第2の電力量を用いて前記映像データを再生する制御を行なう、端末の制御方法を用いることができる。
 端末の電力消費量を低減することが可能となる。
本発明の一実施形態に係る通信システムの構成の一例を示す図である。 図1に示すサーバの構成の一例を示す図である。 サーバ側検出部の構成の一例を示す図である。 (A)及び(B)はフレーム処理の一例を示す図である。 符号化部の構成の一例を示す図である。 図1に示すサーバの動作の一例を示すフローチャートである。 図1に示す端末の構成の一例を示す図である。 図1に示す端末の動作の一例を示すフローチャートである。 (A)及び(B)はCPC機能を説明するための図である。
 以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に示す実施の形態は、あくまでも例示に過ぎず、以下に示す実施形態で明示しない種々の変形や技術の適用を排除する意図はない。即ち、実施形態を、本発明の趣旨を逸脱しない範囲で種々変形して実施できることはいうまでもない。
 〔1〕一実施形態の説明
 (1.1)通信システムの構成例
 図1は一実施形態に係る通信システムの構成の一例を示す図である。この図1に示す通信システム1は、例示的に、サーバ2と、端末3とをそなえる。なお、サーバ2及び端末3の数は、図1に例示する数に限定されない。また、以下では、サーバ2と端末3とが無線伝搬路を介して通信する無線通信システムを例にして説明するが、あくまで通信システム1の一例に過ぎず、例えば、サーバ2と端末3とはリピータなどを介して間接的に接続されてもよいし、有線接続されていてもよい。
 ここで、サーバ2は、セルやセクタなどで構成される通信サービスエリア4を提供し、当該通信サービスエリア4内に位置する端末3と無線通信し得る。また、サーバ2は、複数のフレームからなる映像データを端末3へ送信することができる。なお、映像データは、例えば、音声データを含んでいてもよい。
 端末3は、自局3が属する通信サービスエリア4を提供するサーバ2と無線通信し得る。また、端末3は、サーバ2から送信される映像データを受信し、受信した映像データを再生することができる。さらに、端末3は、映像データに含まれる音声データをスピーカなどに出力して再生してもよい。
 本例では、端末3が、映像データに含まれる複数のフレームのうち同一(以下、「同一」というときは「略同一」を含む)のフレームが連続する期間と、そうでない期間とに応じて、映像データの再生に消費する電力量を変更する制御を行なうことにより、端末3の電力消費量を低減する。
 (1.2)サーバ2について
 ここで、図2にサーバ2の構成の一例を示す。この図2に示すサーバ2は、例示的に、メモリ5と、サーバ側検出部6と、フレーム処理部7と、符号化部8と、送信部9と、アンテナ10とをそなえる。
 メモリ5は、映像データを一時的に格納し、その後、映像データをサーバ側検出部6へ出力する。なお、映像データは、例えば、サーバ2の外部から入力されてもよいし、サーバ2内部の記憶装置(図示省略)から入力されてもよい。
 即ち、メモリ5は、入力される映像データに含まれる各フレームに対し、所定の遅延時間を与えて出力する。ここで、前記所定の遅延時間が、例えば、映像データに含まれる各フレームにそれぞれ割り当てられた時間(即ち、フレームレートの逆数)である場合、映像データに含まれる複数のフレームのうち隣接するフレームをサーバ側検出部6に順次出力することができる。
 なお、図2に示すメモリ5の個数はあくまで一例であり、図2に示す例に限定されない。例えば、メモリ5の個数(段数)を多くするほど、サーバ側検出部6へ出力されるフレーム数が多くなり、サーバ側検出部6での検出精度を向上や、処理速度の向上を図ることが可能となる。
 ここで、サーバ側検出部6は、入力される複数のフレームのうち同一のフレームが連続する期間を検出する。例えば、サーバ側検出部6は、入力される複数のフレームが同一の内容であるかどうかを検出し、同一の内容であると検出したフレームが、映像データに含まれる複数のフレームに占める期間や割合などを算出する。なお、本例でいう同一とは、上述のごとく、略同一を含む概念である。
 このため、サーバ側検出部6は、図3に例示するように、差分検出部11と、判定部12と、計数部13と、期間決定部14とをそなえる。なお、サーバ側検出部6での検出結果及びサーバ側検出部6に入力された各フレーム(映像データ)は、フレーム処理部7へ出力される。
 差分検出部11は、入力される複数のフレーム間の差分を検出する。例えば、メモリ5における前記所定の遅延時間が映像データのフレームレートの逆数に設定されている場合、差分検出部11は、映像データに含まれる複数のフレームのうち隣接するフレーム間の差分を検出することができる。
 具体的には例えば、差分検出部11は、メモリ5を介さずに入力されるフレーム(現在のフレーム)と、メモリ5により所定の遅延時間を与えられたフレーム(過去のフレーム)とについて、画素単位で輝度成分(Y成分)の差分をとり、判定部12へ出力する。なお、差分検出部11は、当該差分を絶対値に変換してもよい。
 判定部12は、差分検出部11で検出した差分に基づいて、上記隣接するフレームが同一であるか否かを判定する。例えば、判定部12は、差分検出部11で検出した差分と所定の閾値(動き閾値)とを比較し、差分検出部11で検出した差分が前記動き閾値以下である場合に、上記隣接するフレームの映像データが同一フレームの映像データであると判定することができる。
 即ち、判定部12は、上記隣接するフレームの映像データが同一フレームの映像データであると判定している期間、映像データが静止画の状態であると判定する。
 なお、上記動き閾値がゼロに設定されている場合、判定部12は、サーバ側検出部6に入力されたフレームが厳密に同一である場合に、映像データにおいて当該フレームが占める期間が静止画の期間であると判定することができる。
 一方、動き閾値が0より大きい値に設定されている場合、判定部12は、入力されたフレームが厳密に同一でなくとも、即ち、フレーム間に多少の動きが含まれる場合であっても、サーバ側検出部6に入力されたフレームの映像データが略同一であると判定し、映像データにおいて当該フレームが占める期間が静止画の期間であると判定することができる。
 後述するように、端末3は、映像データに含まれる複数のフレームのうち同一のフレームが連続する期間(即ち、映像データが静止画の状態である期間)、映像データを高画質で再生するための機能を省略し、当該機能への電力供給を停止する。なお、ここでいう高画質とは、映像データが動画である場合に要求される画質のことをいい、映像データが静止画の状態であるような場合に要求される画質よりも高画質であるという意味である。
 映像データに含まれる複数のフレームのうち、隣接するフレームが同一である割合(期間)が多いほど、その映像データは静止画を多く含むことになるので、端末3は、消費電力量を大幅に低減することが可能となる。
 即ち、判定部12における上記動き閾値の値を制御することにより、端末3の電力消費量を制御することができる。ただし、動き閾値の値を大きくすればするほど、映像データに含まれる全フレームに対する同一のフレーム(静止画フレーム)の割合が大きいと擬制されるので、端末3では、映像データをより高画質で再生できない期間が増加する場合がある。
 そのため、動き閾値の値については、例えば、映像データの内容やユーザの設定により適宜調整されることが望ましい。
 そして、判定部12での判定結果は、計数部13へ出力される。即ち、判定部12において、サーバ側検出部6に入力されたフレームが同一の内容であると判定された回数が、計数部13へ出力される。
 計数部13は、判定部12によりフレームが同一であると判定された回数を計数する。なお、判定部12によりフレームが同一であると判定されなかった場合は計数部13の計数値はインクリメントされない。計数部13での計数結果は、期間決定部14へ出力される。
 期間決定部14は、計数部13で計数された回数が所定値(期間閾値)以上であるかどうかを判定する。そして、計数部13で計数された回数が所定値以上であると判定した場合、期間決定部14は、映像データに含まれる複数のフレームのうち、判定部12で判定されたフレームが占める期間を検出し、フレーム処理部7へ出力する。
 例えば、上記の期間閾値が「3」に設定されている場合、期間決定部14は、判定部12で入力フレームが同一であると判定された回数が3回以上である場合に、当該フレームが占める期間を映像データが静止画状態である期間として検出し、当該検出結果を出力する。
 即ち、判定部12において、第n(≧1)番目のフレームと第(n+1)番目のフレームとが同一であると判定され、第(n+1)番目のフレームと第(n+2)番目のフレームとが同一であると判定され、さらに、第(n+2)番目のフレームと第(n+3)番目のフレームとが同一であると判定された場合に、期間決定部14は、第n番目のフレームから第(n+3)番目のフレームまでによって表現される映像が静止画であると判定する。そして、期間決定部14は、映像データにおいて前記判定した静止画フレームの期間を算出し、当該算出結果を出力する。
 フレーム処理部7は、サーバ側検出部6で検出した期間(映像データにおける静止画の期間)におけるフレームのデータサイズを縮小化する。例えば、フレーム処理部7は、当該フレーム中の所定の画素を間引くことにより、フレームのデータサイズ(情報量)を減少させてもよい。また、例えば、フレーム処理部7は、サーバ側検出部6で検出した期間におけるフレームレートを低下させることにより、フレームのデータサイズを減少させてもよい。
 ここで、上記フレーム処理の一例を図4に示す。図4(A)はフレーム処理部7によるフレーム処理前のフレームの一例であり、図4(B)はフレーム処理部7によるフレーム処理後のフレームの一例である。
 この図4(A)及び図4(B)に例示するように、フレーム処理部7は、フレームで表現される画像から所定の画素を間引くことにより、フレームのデータサイズを縮小化する。なお、フレーム処理部7によるフレーム処理後のフレームで表現される画像は、図4(B)に示すように、フレームサイズが縮小化されてもよい。
 フレーム処理部7によって上記所定のフレーム処理を施された後のフレームを含む映像データは、符号化部8へ出力される。
 符号化部8は、上記所定のフレーム処理後のフレームを含む映像データについて、所定の符号化処理を施す。符号化部8によって符号化処理を施された後の映像データは、送信部9へ出力される。
 ここで、符号化部8の構成の一例を図5に示す。この図5に示すように、符号化部8は、例示的に、減算部32と、Discrete Cosine Transform(DCT)部33と、量子化部34と、逆量子化部35と、予測符号化部36と、多重化部37と、Inverse DCT(IDCT部)38とをそなえる。また、符号化部8は、例示的に、加算部39と、動き補償部40と、動き予測部41とをそなえる。
 減算部32は、入力される映像データから動き補償部40からの出力信号を減算し、減算結果をDCT部33へ出力する。
 DCT部33は、入力された映像データについて、離散コサイン変換処理を施す。離散コサイン変換処理は、元画像を圧縮しやすくするための変換技術であり、具体的には例えば、8画素×8ラインなどのように画素を集めてブロックとし、そのブロック単位で圧縮符号化処理を行なう。離散コサイン変換処理は、画像を低周波や高周波などの周波数成分に分解する仕組みを持った圧縮符号化技術のことをいい、例えば、画像表現を画素ブロックから周波数成分に変えるものであり、元画像に含まれていた情報はすべて保存されている、可逆的な処理である。
 量子化部34は、DCT部33から入力される信号について、量子化処理を施す。量子化とは、連続な信号(物理量)を、離散的な信号(諧調度)で置き換えることをいう。DCT係数の量子化は、例えば、定められた量子化ステップサイズの何倍であるかを四捨五入した整数値で求めることにより行なわれる。量子化により、例えば、64個のDCT係数の取り得るレベル数を制限することができる。
 逆量子化部35は、量子化部34から入力される信号について、逆量子化処理を施す。逆量子化とは、量子化後の信号(諧調値)の精度を落として、より少ない(粗い)区間に分け直す、又は元の区間に戻すことをいう。ここで、輝度成分用及び色差成分用の量子化テーブルを用いることができる。人間の目は、高い空間周波数の歪みほど知覚しにくいという視覚特性がある。そのことを利用して、量子化ステップサイズは、空間周波数が高いほど大きくなり、粗い量子化となる。なお、例えば、Joint Photographic Experts Group(JPEG)方式における画像品質の制御は、この量子化テーブルに一定乗数を掛けることによって行なうことができる。
 IDCT部38は、逆量子化部35から入力される信号について、逆離散コサイン変換処理を施す。逆離散コサイン変換処理は、空間周波数から画像信号に変換するための処理の一例である。なお、JPEG方式では、まず、8×8画素から構成されるブロックの集合であるMinimum Coded Unit(MCU)と呼ばれる単位に分割される。
 加算部39は、IDCT部38から出力される信号と、動き補償部40から出力される信号に遅延を与えた遅延信号とを加算して、動き補償部40へ出力する。
 予測符号化部(エントロピー符号化部)36は、逆量子化部35から入力される信号について符号化処理を施す。具体的には例えば、予測符号化部36は、出現頻度の高いシンボル(量子化された変換係数)に短い符号を割り当てる一方、出現頻度の低いシンボルに長い符号を割り当てる。なお、このような符号化方法として、例えば、ハフマン符号化や、算術符号化などがある。
 動き補償部40は、動画データの圧縮において連続するフレーム間でフレームにある画像がどのように動いたかを考慮して効率的な圧縮を行なう。例えば、動き補償部40は、2つのフレーム間で変化のあった部分(動いた部分)のベクトルデータを検出し、検出したベクトルデータと変化のない部分とを合成することにより、変化のない部分のデータを1フレーム分少なくすることができる。
 動き予測部41は、入力される映像データの各フレームについて動きを予測する。例えば、動画の2つの時点での画像(フレーム)は類似していることが多い。そこで、ある時点tの画像フレームがあれば、次の時点(t+1)の画像フレームは時点tの画像フレームからの差分に基づいて再現することができる。また、ある時点tの画像フレームと別の時点(t+2d)の画像フレームとがあれば、時点(t+d)の画像フレームを再現することができる。
 多重化部37は、予測符号化部36からの出力について、例えば、Moving Picture Experts Group phase 2(MPEG-2)や、Moving Picture Experts Group phase 4(MPEG-4)方式に規定される多重化方法で多重する。多重化部37によって多重化された映像データは、所定のシステムフォーマットでストリーム化される。なお、多重化部37に入力されるデータとしては、例えば、映像オブジェクト、音声オブジェクト、Computer Graphics(CG)オブジェクトなどがある。
 送信部9は、符号化部8によって符号化処理を施された後の映像データに対し、所定の送信処理を施す。前記所定の送信処理には、例えば、デジタル・アナログ変換処理やアップコンバートなどの無線送信処理が含まれる。
 そして、送信部9によって処理の送信処理を施された映像データは、アンテナ10によって端末3へ送信される。
 ここで、上記構成を有するサーバ2の動作の一例を図6に示す。
 この図6に示すように、まず、サーバ2は、映像データに含まれる複数のフレームのうち隣接フレーム間の差分を検出し、当該検出した差分に基づいて、前記隣接フレームが同一かどうか(即ち、隣接フレームにより表現される映像が静止画かどうか)を判定する(ステップS1)。
 次に、サーバ2は、映像データに含まれる複数のフレームのうち、現在のフレーム(読み込み中のフレーム)が、ステップS1において静止画であると判定された期間のフレームであるかどうかを判定する(ステップS2)。
 ここで、サーバ2は、現在のフレームがステップS1において静止画であると判定された期間のフレームであると判定した場合(ステップS2のYesルート)、当該フレーム(静止画フレーム)のデータサイズを縮小化する(ステップS3)。
 一方、サーバ2は、現在のフレームがステップS1において静止画であると判定された期間のフレームでないと判定した場合(ステップS2のNoルート)、当該フレームは映像データにおいて動画を構成するフレームであると判定し、当該フレームについてデータサイズの縮小化を行なわない。
 そして、サーバ2は、映像データに含まれる全てのフレームについて、ステップS2の判定処理が終了したかどうかを判定し(ステップS4)、終了していないと判定した場合は(ステップS4のNoルート)、ステップS2へ処理を移行する。なお、ステップS4の処理は、映像データに含まれる所定数のフレームについて、ステップS2の判定処理が終了したかどうかを判定してもよい。
 また、サーバ2は、映像データに含まれる全てのフレームについて、ステップS2の判定処理が終了したと判定した場合は(ステップS4のYesルート)、端末3へ映像データを送信する(ステップS5)。
 以上のように、サーバ2では、映像フレームに含まれる複数のフレームのうち、静止画を構成するフレームについてはデータサイズを縮小化して送信するので、通信システム1の通信トラフィック量を低減することができる。
 また、通信システム1が通信方式としてHSPA+を採用している場合、例えば、HSPA+方式におけるCPC機能を利用することにより、通信トラフィック量の更なる低減や、サーバ2の電力消費量の低減を図ることができる。
 ここで、HSPA+におけるCPC機能について、図9(A)及び図9(B)を用いて説明する。
 図9(A)に示すように、HSPA+のリリース6では、端末3がデータをダウンロード中の期間と、ダウンロード完了後に端末3がサーバ2と個別チャネル(Cell_DCH:Cell_Dedicated CHannel)を介して接続されダウンロードしたデータをリード中の期間との両方の期間において、端末3が、上り個別物理制御チャネル(UL-DPCCH:UpLink-Dedicated Physical Control CHannel)を用いてサーバ2へユーザデータや制御情報などを連続送信する。さらに、上記両方の期間において、端末3が、下り高速チャネル(DL_HS-CH:DownLink_High Speed-Channel)を用いてサーバ2から他のデータなどを連続受信する。
 一方、図9(B)に示すように、HSPA+のリリース7では、端末3が、データをダウンロード中の期間においてはUL-DPCCHを用いてサーバ2へユーザデータや制御情報などを連続送信するとともに、DL_HS-CHを用いてサーバ2から他のデータなどを連続受信するが、ダウンロード完了後にサーバ2とCell_DCHを介して接続され、ダウンロードしたデータをリード中の期間においては、UL-DPCCHを用いてサーバ2へユーザデータや制御情報などを不連続送信するとともに、DL_HS-CHを用いてサーバ2から他のデータなどを不連続受信する。なお、不連続受信の実行タイミングは、不連続送信の実行タイミングの一部と同期している。
 また、リリース6及び7のいずれにおいても、図9(A)及び図9(B)に示すように、端末3は、フラクショナル個別物理チャネル(F-DPCH:Fractional-Dedicated Physical CHannel)を用いて電力制御を行なう。このF-DPCHは連続的に送受信されるチャネルである。
 このように、HSPA+のリリース7では、データの不連続送受信を可能とするCPC機能が採用されており、通信トラフィック量の低減及び電力消費量の低減に貢献している。
 ところで、CPC機能は、例えば、端末3がインターネットサイト情報をダウンロード完了後に、エンドユーザがそのサイト情報を読んでいる状態で適用されるものであり、ダウンロードされるデータ量が比較的小さい場合(所定のデータ量閾値以下の場合)に適用される。
 一方、電子書籍や、動画配信サーバなどから動画像データを受信したり、静止画像データを受信したりするように、ダウンロードされるデータ量が比較的大きい場合(所定のデータ量閾値より大きい場合)は適用されない。
 そのため、動画像、静止画像配信システムでは、端末3は、データを常に連続送受信することとなるので、通信トラフィック量の低減及び電力消費量の低減を図ることができない。
 また、従来のサーバは、映像データに含まれる各フレームについて1フレーム毎に符号化、変調処理を施して、端末へ送信するので、同一の映像データが送受信されることがある。結果、不要なデータ送受信処理により、サーバ及び端末の消費電力が増大したり、通信システムにおけるトラフィック増加を招いたりすることがある。
 また、送信時間間隔(TTI:Transmission Time Interval)内データ量に対し、符号化後の映像データ量の密度が大きいため、CPC機能がオンとならない。なお、HD(High Definition)映像の場合、画素数1920×1080や画素数1440×1080が主流である。
 そこで、本例のサーバ2は、映像データに含まれる複数のフレームのうち一部のフレームについてのデータサイズを縮小化し、送信データ量を所定のデータ量閾値以下にすることにより、CPC機能をオンにさせることを可能としている。
 即ち、送信部9は、サーバ側検出部6で検出した期間において、映像データを端末3へ不連続送信する。また、このとき、送信部9は、CPC機能がオンであることを示す制御情報(以下、CPCフラグともいう)を端末3へ送信することができる。
 これにより、サーバ2は、映像データに含まれる複数のフレームのうち静止画フレームの期間において、CPC機能をオンにすることができるので、通信システム1の通信トラフィック量の低減や、電力消費量の低減を実現することができる。
 (1.3)端末3について
 次に、端末3の構成の一例を図7に示す。この図7に示す端末3は、例示的に、アンテナ15と、受信部16と、復号部17と、端末側検出部18と、再生制御部19と、ノイズ除去部20と、デインタレーサ21と、スケーラ22と、色・輝度補正部23と、色調整部24と、表示部25とをそなえる。また、端末3は、例示的に、電力供給部26と、受信感度検出部27と、データ読込部28と、記憶装置29とをそなえる。
 ここで、アンテナ15は、サーバ2から送信された映像データを受信する。
 受信部16は、アンテナ15で受信した映像データについて、所定の受信処理を施す。前記所定の受信処理には、例えば、アナログ・デジタル変換処理やダウンコンバートなどの無線受信処理が含まれる。受信部16で所定の受信処理を施された映像データは、復号部17及び受信感度検出部27へ送出される。
 復号部17は、受信部16で所定の受信処理を施された映像データについて、所定の復号処理を施す。復号部17で所定の復号処理を施された映像データは端末側検出部18へ送出される。
 また、記憶装置29は映像データを格納し、データ読込部28は記憶装置28に格納された映像データを読み出す。なお、記憶装置29に格納される映像データは、端末3の外部から入力されてもよい。データ読込部28で読み出された映像データは、端末側検出部18へ送出される。
 即ち、アンテナ15及び受信部16、並びに、記憶装置29及びデータ読込部28は、映像データを入力される入力部の一例として機能する。
 また、上記受信部16は、サーバ2からCPC機能がオンであることを示す制御情報を受信することができる。
 受信部16において上記制御情報が受信された場合、端末3は、例えば、無線コア部30内の上位レイヤにてシステム情報を解読し、CPC機能のオン指示を無線コア部30の下位レイヤに指示し、CPC機能を起動させる。なお、無線コア部30とは、例えば、受信部16,復号部17,端末側検出部18及び受信感度検出部27などにより構成される、無線受信処理のための機能ブロックをいう。
 そして、端末3でCPC機能がオンされると、受信部16は、サーバ2から送信された映像データを不連続受信する。
 即ち、受信部16は、映像データに含まれる複数のフレームのうち同一のフレームが連続する期間において、映像データを不連続で入力される機能を具備する。
 これにより、通信システム1の通信トラフィック量を低減することができるとともに、受信部16を間欠的に動作させることができるので、端末3での電力消費量を低減することが可能となる。
 端末側検出部18は、入力される複数のフレームのうち同一のフレームが連続する期間を検出する。例えば、端末側検出部18は、入力される複数のフレームが同一の内容であるかどうかを検出し、同一の内容であると検出したフレームが、映像データに含まれる複数のフレームに占める期間や割合などを算出する。このため、端末側検出部18は、サーバ側検出部6と同様の構成及び機能を有する。端末側検出部18での検出結果は再生制御部19へ送出される。
 また、受信感度検出部27は、受信部16で受信される映像データの受信感度を検出する。受信感度検出部27で検出した受信感度は再生制御部19へ送出される。
 ここで、再生制御部19は、複数のフレームの映像データのうち、同一フレームの映像データが連続しない期間においては第1の電力量を用いて映像データを再生する一方、複数のフレームの映像データのうち、同一フレームの映像データが連続する期間においては第2の電力量(<第1の電力量)を用いて映像データを再生する制御を行なう。
 これにより、映像データが動画である期間では、映像データをより高画質で再生する一方、映像データが静止画であるような期間では、映像データを低画質で再生することができ、低画質再生中では端末3の電力消費量を低減することが可能となる。
 また、再生制御部19は、フレーム処理部7によってデータサイズを縮小化されたフレームについては第2の電力量を用いて再生する制御を行なう一方、フレーム処理部7によってデータサイズを縮小化されなかったフレームについては第1の電力量を用いて再生する制御を行なってもよい。
 さらに、再生制御部19は、端末側検出部18によって検出された期間においては第2の電力量を用いて映像データを再生する制御を行なう一方、端末側検出部18によって検出された期間とは異なる期間においては第1の電力量を用いて映像データを再生する制御を行なってもよい。
 また、再生制御部19は、受信感度検出部27で検出した受信感度が所定の閾値よりも小さい期間においては第2の電力量を用いて映像データを再生する制御を行なう一方、受信感度検出部27で検出した受信感度が所定の閾値以上である期間においては第1の電力量を用いて映像データを再生する制御を行なってもよい。これにより、サーバ2と端末3との間の通信路の品質がよくない場合、映像データの高画質再生を諦めて、端末3の電力消費量を低減できる。
 さらに、再生制御部19は、サーバ2から受信したCPCフラグが「1」である場合に、CPC機能がオンであることを検出し、当該検出をトリガとして、第2の電力量を用いて映像データを再生する制御を行なってもよい。
 一方、サーバ2から受信したCPCフラグが「0」である場合、再生制御部19は、CPC機能がオフであることを検出し、当該検出をトリガとして、第1の電力量を用いて映像データを再生する制御を行なってもよい。
 ここで、再生制御部19は、映像データを再生する機能への電力供給量を減少させることにより、第2の電力量を第1の電力量よりも小さくする。
 具体的には例えば、再生制御部19は、映像データを再生するための機能の一例である、ノイズ除去部20,デインタレーサ21,スケーラ22,色・輝度補正部23,色調整部24及び表示部25に電力を供給する電力供給部26を制御する。
 例えば、再生制御部19は、ノイズ除去部20及びデインタレーサ21への電力供給を停止するよう電力供給部26を制御することにより、第2の電力量を第1の電力量よりも小さくすることができる。なお、このとき、映像データは、再生制御部19からノイズ除去部20ではなく、スケーラ22へ送出されてもよい。
 また、例えば、再生制御部19は、表示部25への電力供給を低減するよう電力供給部26を制御することにより、第2の電力量を第1の電力量よりも小さくしてもよい。
 ここで、ノイズ除去部20は、映像データに含まれるノイズ成分を軽減する。例えば、ノイズ除去部20は、1フレーム画素差分(輝度)の小さい部分に対して、現フレームと1フレーム前のフレームとの平均値を算出する。また、ノイズ除去部20は、入力されたフレームを1フレーム遅延させ、次のフレームで使用するフレーム巡回型ローパスフィルタを用いてノイズを軽減してもよい。
 また、デインタレーサ21は、入力されたフレームを2倍速、4倍速などの情報量を有するプログレッシブ画像へフレームレート変換を行なう。
 さらに、スケーラ22は、入力されたフレームについて、拡大、輪郭強調処理を行なう。なお、輪郭強調処理は、水平・垂直方向それぞれの拡大倍率に応じて最適な輪郭強調を行なう処理である。
 また、色・輝度補正部23は、入力されたフレームの色及び輝度を補正し、色調整部24は、レベル補正による方法(例えば、ヒストグラムによる色調整をする方法)を用いて、入力されたフレームの色を調整する。
 表示部25は、映像データを表示するための表示デバイスである。
 本例によれば、映像データが静止画である期間においては、ノイズ除去部20及びデインタレーサ21などへの電力供給を停止し、スケーラ22,色・輝度補正部23及び色調整部24の各処理で映像データを表示部25に表示する。
 即ち、再生制御部19,ノイズ除去部20,デインタレーサ21,スケーラ22,色・輝度補正部23,色調整部24及び表示部25は、映像表示のための機能ブロック(表示コア部31)を構成する。
 これにより、端末3の電力消費量を大幅に低減することができる。なお、スケーラ機能は、サーバ2から送信されてくる映像データがプログレッシブである場合、その映像データに含まれるフレームサイズの拡張や、エッジ検出におけるエッジだけ鮮悦化を行なうことにより、ある程度解像度を向上する機能を具備するので、静止画の画質としては影響がない。
 ここで、上記構成を有する端末3の動作の一例を図8に示す。
 この図8に示すように、まず、端末3は、映像データに含まれる複数のフレームのうち隣接フレーム間の差分を検出し、当該検出した差分に基づいて、前記隣接フレームが同一かどうか(即ち、隣接フレームにより表現される映像が静止画かどうか)を判定する(ステップS6)。
 次に、端末3は、映像データに含まれる複数のフレームのうち、現在のフレーム(読み込み中のフレーム)が、ステップS6において静止画であると判定された期間のフレームであるかどうかを判定する(ステップS7)。
 ここで、端末3は、現在のフレームがステップS6において静止画であると判定された期間のフレームであると判定した場合(ステップS7のYesルート)、ノイズ除去部20及びデインタレーサ21などへの電力供給を停止する電力制御を行なう(ステップS10)。
 一方、端末3は、現在のフレームがステップS6において静止画であると判定された期間のフレームでないと判定した場合(ステップS7のNoルート)、当該フレームは映像データにおいて動画を構成するフレームであると判定し、当該フレームについてノイズ除去処理及びデインタレース処理を施す(ステップS8及びS9)。
 そして、端末3は、映像データについて、スケーラ処理,色・輝度補正処理及び色調整処理を施す(ステップS11~S13)。
 以上のように、端末3では、映像フレームに含まれる複数のフレームのうち、静止画を構成するフレームについては再生処理に消費する電力量を低減する制御を行なうので、端末3の電力消費量を大幅に低減することができる。
 〔2〕その他
 上述した前記一実施形態におけるサーバ2及び端末3の各構成及び各機能は、必要に応じて取捨選択してもよいし、適宜組み合わせて用いてもよい。即ち、本発明の機能を発揮できるように、上記の各構成及び各機能を取捨選択したり、適宜組み合わせて用いたりしてもよい。
 1 通信システム
 2 サーバ
 3 端末
 4 通信サービスエリア
 5 メモリ
 6 サーバ側検出部
 7 フレーム処理部
 8 符号化部
 9 送信部
 10,15 アンテナ
 11 差分検出部
 12 判定部
 13 計数部
 14 期間決定部
 16 受信部
 17 復号部
 18 端末側検出部
 19 再生制御部
 20 ノイズ除去部
 21 デインタレーサ
 22 スケーラ
 23 色・輝度補正部
 24 色調整部
 25 表示部
 26 電力供給部
 27 受信感度検出部
 28 データ読込部
 29 記憶装置
 30 無線コア部
 31 表示コア部

Claims (10)

  1.  複数のフレームからなる映像データを端末へ送信するサーバと、前記端末とを有する通信システムであって、
     前記端末が、
     前記映像データを入力される入力部と、
     前記複数のフレームの映像データのうち、同一フレームの映像データが連続しない期間においては第1の電力量を用いて前記入力部に入力された前記映像データを再生する一方、前記複数のフレームの映像データのうち、同一フレームの映像データが連続する期間においては前記第1の電力量よりも小さい第2の電力量を用いて前記入力部に入力された前記映像データを再生する制御を行なう再生制御部と、をそなえる、
    ことを特徴とする、通信システム。
  2.  複数のフレームからなる映像データを端末へ送信するサーバであって、
     前記複数のフレームの映像データのうち、同一フレームの映像データが連続する期間を検出するサーバ側検出部と、
     前記サーバ側検出部で検出した期間における前記同一フレームのデータサイズを縮小化するフレーム処理部と、
     前記フレーム処理部でデータサイズを縮小化したフレームを含む映像データを前記端末へ送信する送信部と、をそなえる、
    ことを特徴とする、サーバ。
  3.  前記サーバ側検出部が、
     前記複数のフレームのうち隣接するフレーム間の差分を検出する差分検出部と、
     前記差分検出部で検出した差分に基づいて、前記隣接するフレームの映像データが同一であるか否かを判定する判定部と、をそなえる、
    ことを特徴とする、請求項2記載のサーバ。
  4.  前記送信部が、
     前記サーバ側検出部で検出した期間において、前記映像データを前記端末へ不連続送信する、
    ことを特徴とする、請求項2または3に記載のサーバ。
  5.  複数のフレームからなる映像データを入力される入力部と、
     前記複数のフレームの映像データのうち、同一フレームの映像データが連続しない期間においては第1の電力量を用いて前記入力部に入力された前記映像データを再生する一方、前記複数のフレームの映像データのうち、同一フレームの映像データが連続する期間においては前記第1の電力量よりも小さい第2の電力量を用いて前記入力部に入力された前記映像データを再生する制御を行なう再生制御部と、をそなえる、
    ことを特徴とする、端末。
  6.  前記複数のフレームの映像データのうち、同一フレームの映像データが連続する期間を検出する端末側検出部をそなえ、
     前記再生制御部が、
     前記端末側検出部によって検出された期間においては前記第2の電力量を用いて前記映像データを再生する制御を行なう、
    ことを特徴とする、請求項5記載の端末。
  7.  前記入力部が、
     前記複数のフレームの映像データのうち、同一フレームの映像データが連続する期間において、前記映像データを不連続で入力される、
    ことを特徴とする、請求項5または6に記載の端末。
  8.  前記再生制御部が、
     前記映像データを再生する機能への電力供給量を減少させることにより、前記第2の電力量を前記第1の電力量よりも小さくする、
    ことを特徴とする、請求項5~7のいずれか1項に記載の端末。
  9.  前記映像データの受信感度を検出する受信感度検出部をそなえ、
     前記再生制御部が、
     前記受信感度検出部で検出した受信感度が所定の閾値よりも小さい期間においては前記第2の電力量を用いて前記映像データを再生する制御を行なう、
    ことを特徴とする、請求項5~8のいずれか1項に記載の端末。
  10.  複数のフレームからなる映像データについて、前記複数のフレームの映像データのうち、同一フレームの映像データが連続しない期間においては第1の電力量を用いて前記映像データを再生する一方、前記複数のフレームの映像データのうち、同一フレームの映像データが連続する期間においては前記第1の電力量よりも小さい第2の電力量を用いて前記映像データを再生する制御を行なう、
    ことを特徴とする、端末の制御方法。
PCT/JP2010/067210 2010-10-01 2010-10-01 通信システム、サーバ、端末及び端末の制御方法 WO2012042659A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP10857872.5A EP2624547B1 (en) 2010-10-01 2010-10-01 Communication system, server, terminal, and terminal control method
PCT/JP2010/067210 WO2012042659A1 (ja) 2010-10-01 2010-10-01 通信システム、サーバ、端末及び端末の制御方法
JP2012536104A JP5541365B2 (ja) 2010-10-01 2010-10-01 通信システム、サーバ、端末及び端末の制御方法
US13/851,414 US20130232530A1 (en) 2010-10-01 2013-03-27 Communication system, server, terminal, and control method of terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/067210 WO2012042659A1 (ja) 2010-10-01 2010-10-01 通信システム、サーバ、端末及び端末の制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/851,414 Continuation US20130232530A1 (en) 2010-10-01 2013-03-27 Communication system, server, terminal, and control method of terminal

Publications (1)

Publication Number Publication Date
WO2012042659A1 true WO2012042659A1 (ja) 2012-04-05

Family

ID=45892163

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/067210 WO2012042659A1 (ja) 2010-10-01 2010-10-01 通信システム、サーバ、端末及び端末の制御方法

Country Status (4)

Country Link
US (1) US20130232530A1 (ja)
EP (1) EP2624547B1 (ja)
JP (1) JP5541365B2 (ja)
WO (1) WO2012042659A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069915A (ja) * 2001-08-24 2003-03-07 Fujitsu Ten Ltd デジタル放送受信機
JP2004180271A (ja) * 2002-11-14 2004-06-24 Sharp Corp デジタル放送受信装置
JP2006287898A (ja) 2005-03-09 2006-10-19 Sanyo Electric Co Ltd 携帯情報端末
JP2009038803A (ja) 2007-08-02 2009-02-19 Asustek Computer Inc 無線通信システムにおいてcpc機能を改善する方法及び装置
JP2010508727A (ja) * 2006-10-26 2010-03-18 クゥアルコム・インコーポレイテッド 不連続な送信及び/または受信を伴う圧縮モード(compressedmode)動作及び電力制御
JP2010171670A (ja) * 2009-01-22 2010-08-05 Hitachi Ltd データ送信装置、データ出力装置およびデータ伝送システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5563928A (en) * 1993-09-30 1996-10-08 Lsi Logic Corporation Method and apparatus for optimizing the performance of digital systems
US5519436A (en) * 1994-06-21 1996-05-21 Intel Corporation Static image background reference for video teleconferencing applications
US5949948A (en) * 1995-11-20 1999-09-07 Imedia Corporation Method and apparatus for implementing playback features for compressed video data
US5903673A (en) * 1997-03-14 1999-05-11 Microsoft Corporation Digital video signal encoder and encoding method
US20030030618A1 (en) * 1999-02-26 2003-02-13 Morris Jones Method and apparatus for sensing changes in digital video data
US7180496B2 (en) * 2000-08-18 2007-02-20 Semiconductor Energy Laboratory Co., Ltd. Liquid crystal display device and method of driving the same
US7054367B2 (en) * 2001-12-31 2006-05-30 Emc Corporation Edge detection based on variable-length codes of block coded video
US7406124B1 (en) * 2002-05-30 2008-07-29 Intervideo, Inc. Systems and methods for allocating bits to macroblocks within a picture depending on the motion activity of macroblocks as calculated by an L1 norm of the residual signals of the macroblocks
JP4063204B2 (ja) * 2003-11-20 2008-03-19 セイコーエプソン株式会社 画像データ圧縮装置及びエンコーダ
KR101066830B1 (ko) * 2008-08-20 2011-09-26 삼성전자주식회사 통화 송수신 방법 및 이를 이용하는 통화 장치
US20100111166A1 (en) * 2008-10-31 2010-05-06 Rmi Corporation Device for decoding a video stream and method thereof
US8564669B2 (en) * 2009-07-30 2013-10-22 General Instrument Corporation System and method of analyzing video streams for detecting black/snow or freeze
US8730278B2 (en) * 2009-11-10 2014-05-20 Panasonic Corporation Display device and method of manufacture thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069915A (ja) * 2001-08-24 2003-03-07 Fujitsu Ten Ltd デジタル放送受信機
JP2004180271A (ja) * 2002-11-14 2004-06-24 Sharp Corp デジタル放送受信装置
JP2006287898A (ja) 2005-03-09 2006-10-19 Sanyo Electric Co Ltd 携帯情報端末
JP2010508727A (ja) * 2006-10-26 2010-03-18 クゥアルコム・インコーポレイテッド 不連続な送信及び/または受信を伴う圧縮モード(compressedmode)動作及び電力制御
JP2009038803A (ja) 2007-08-02 2009-02-19 Asustek Computer Inc 無線通信システムにおいてcpc機能を改善する方法及び装置
JP2010171670A (ja) * 2009-01-22 2010-08-05 Hitachi Ltd データ送信装置、データ出力装置およびデータ伝送システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2624547A4

Also Published As

Publication number Publication date
EP2624547A4 (en) 2014-05-21
EP2624547A1 (en) 2013-08-07
JP5541365B2 (ja) 2014-07-09
EP2624547B1 (en) 2016-11-16
US20130232530A1 (en) 2013-09-05
JPWO2012042659A1 (ja) 2014-02-03

Similar Documents

Publication Publication Date Title
US11082709B2 (en) Chroma prediction method and device
US10681306B2 (en) Conversion method and conversion apparatus
EP3157242B1 (en) Display system, display method, and display device
US9137539B2 (en) Image coding apparatus, image decoding apparatus, image coding method, and image decoding method
US8810628B2 (en) Image processing apparatus and image processing method
US20070217505A1 (en) Adaptive Decoding Of Video Data
JP2015513717A (ja) データ、マルチメディアおよびビデオの送信の更新システム
JP2011029998A (ja) 画像記録装置、画像記録方法、及びプログラム
JP5541365B2 (ja) 通信システム、サーバ、端末及び端末の制御方法
JP4320509B2 (ja) 映像再符号化装置および方法
US20150078433A1 (en) Reducing bandwidth and/or storage of video bitstreams
US10531096B2 (en) Decoder, method and system for decoding multimedia streams
JP2010288028A (ja) 動画ストリーム処理装置及び動画ストリーム処理プログラム
JP4184223B2 (ja) トランスコーダ
JPWO2005062623A1 (ja) 動画像再生方法及び装置並びにプログラム
JP2010206715A (ja) 放送受信装置
JP2010130391A (ja) 画像処理方法及び画像処理装置
AU2005248864A1 (en) Adaptive decoding of video data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10857872

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2012536104

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2010857872

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010857872

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE