JP2014063259A - 端末装置,及び処理プログラム - Google Patents
端末装置,及び処理プログラム Download PDFInfo
- Publication number
- JP2014063259A JP2014063259A JP2012206747A JP2012206747A JP2014063259A JP 2014063259 A JP2014063259 A JP 2014063259A JP 2012206747 A JP2012206747 A JP 2012206747A JP 2012206747 A JP2012206747 A JP 2012206747A JP 2014063259 A JP2014063259 A JP 2014063259A
- Authority
- JP
- Japan
- Prior art keywords
- content
- terminal device
- processing
- display
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/02—Handling of images in compressed format, e.g. JPEG, MPEG
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/16—Use of wireless transmission of display information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Controls And Circuits For Display Device (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Information Transfer Between Computers (AREA)
Abstract
【解決手段】表示処理部14において表示処理が行なわれたコンテンツに対して、受信装置20へ送信するための第1のエンコード処理を実行する第1エンコーダ16を実装する集積回路3を有する。
【選択図】図1
Description
また、ネットワーク上の離れたPCを遠隔操作するための技術として、Virtual Network Computing(VNC)が知られている。VNCでは、VNCサーバとしてのミラーリング元からデスクトップ等の画面データを送信するとともに処理を受け付け、VNCクライアントとしてのミラーリング先が、受信した画面データに基づきVNCサーバを遠隔操作する。図23は、VNCサーバにおける画像処理の動作例を説明するフローチャートである。なお、図23では、1フレームの処理を示している。
図24は、装置間でVNCにより画面ミラーリングを行なう通信システム100−1の構成例を示す図であり、図25は、装置間でHDMIにより画面ミラーリングを行なう通信システム100−2の構成例を示す図である。図24に示すように、通信システム100−1は、ミラーリング元である端末装置1000−1と、ミラーリング先である表示装置2000−1とを有している。また、図25に示すように、通信システム100−2は、ミラーリング元である端末装置1000−2と、ミラーリング先である表示装置2000−2とを有している。以下、通信システム100−1及び100−2を区別しない場合には、単に通信システム100という。また、端末装置1000−1及び1000−2を区別しない場合には、単に端末装置1000といい、表示装置2000−1及び2000−2を区別しない場合には、単に表示装置2000という。
アプリケーション1100,2100は、それぞれ端末装置1000,表示装置2000においてコンテンツを生成又は管理するソフトウェアである。ライブラリ1200,2200は、それぞれアプリケーション1100とドライバ1300との間,アプリケーション2100とドライバ2300との間の中間レイヤに位置する共通インターフェースである。ドライバ1300,2300は、それぞれ端末装置1000,表示装置2000のハードウェアを制御するソフトウェアである。
アプリケーション1100−1はVNCサーバの機能を含み、アプリケーション2100−2はVNCクライアントの機能を含む。ドライバ1300−1は、VNCサーバとしてのアプリケーション1100−1により生成されたコンテンツを送信部1600へ渡す機能を有する。また、ドライバ2300−1は、受信部2600により受信されたコンテンツを受け取り、表示処理部2400−1へ渡す機能を有する。
一方、上述した図24及び図25の各構成の共通の機能に加えて、図25に示す各構成は、以下の機能を有する。
以上の構成により、図25に示す通信システム100−2は、端末装置1000−2に表示される画面を、ケーブル1000bを用いたHDMIにより、表示装置2000−2に表示(画面ミラーリング)することができる。
図26に示すように、端末装置1000−1は、System-on-a-chip(SoC,システムオンチップ)3000、カメラ5100、及びSynchronous Dynamic Random Access Memory(SDRAM)5200を有する。また、端末装置1000−1は、フラッシュメモリ5300、Wireless Fidelity(Wi−Fi)コントローラ5400、及びLCD1500を有する。
上述の如く構成された端末装置1000−1では、図27に示すようにコンテンツの表示処理及び格納処理が実行される。なお、図27では、カメラ5100により動画(ムービー)のコンテンツが撮影される場合の処理を示す。
次いで、GPU3400により、SDRAM5200が保持するコンテンツに対して描画処理が実行され(ステップS114)、DC3500により、描画結果がLCD1500へ出力される(ステップS115)。そして、LCD1500により出力結果が表示され(ステップS116)、処理が完了する。
なお、図27は、端末装置1000−1における1フレームに対する処理を示しているため、端末装置1000−1は、コンテンツの全フレームに対して図27に示す処理を行なう。
なお、関連する技術として、システムオンチップの電力管理に関し、インターコネクトに接続されるスレーブユニットが、トランザクションとともに渡される、次のトランザクションが送られるまでの時間間隔を指定する信号に応答して、電力状態を制御する技術が知られている(例えば、特許文献1参照)。この技術によれば、システムオンチップにおける電力と遅延のトレードオフを軽減して電力を管理することができ、また、中央電力コントローラを不要とすることができる。
(i)VNCでは、変更が生じたブロックのみ更新され、また、ブロックごとにVNCサーバから出力されるタイミングが異なるため、表示装置2000−1に表示される画面にブロック状の表示乱れが生じる。
(ii)VNCサーバにおける画像処理における更新ブロック数や処理の流れによって、1〜数10フレームの遅延幅がある。つまり、表示装置2000−1における画面表示に、最大数10フレーム(数秒)程度の遅延が生じる。
(iii)VNCでは、2Mbps以上の伝送速度で動作可能であるが、高解像度の動画の表示には数10Mbps以上が要求される。従って、高解像度の動画ではVNCサーバにおける画像処理が間に合わず、数〜数10フレーム飛ばしの動作となる。このため、VNC技術を用いてムービー等のマルチメディアコンテンツを表示装置2000−1に表示することは困難である。
(iv)VNCサーバにおけるフレーム間差分、動き補償、及び画像圧縮等の負荷の高い各処理はソフトウェアにより行なわれるため、端末装置1000−1のMPU(CPU1500)の使用率が上昇する。これにより、MPUは、アプリケーション1100−1及びOperating System(OS)と共通のMPUリソースを大量に使用することになり、アプリケーション1100−1及びOSの動作に与える影響が大きい。
このように、上述した各技術では、端末装置1000に表示されるコンテンツを表示装置(受信装置)2000に表示させる画面ミラーリングにおいて、利便性が損なわれるという問題がある。
1つの側面では、本発明は、端末装置に表示されるコンテンツを受信装置に表示させる際の利便性を向上させることを目的とする。
なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本発明の他の目的の1つとして位置付けることができる。
〔1〕一実施形態
〔1−1〕通信システムの説明
図1は、一実施形態に係る通信システム1の構成例を示す図であり、図2は、図1に示す端末装置10(10a〜10c)のハードウェア構成例を示す図である。図1に示すように、通信システム1は、端末装置10(10a〜10c)及び表示装置20を有している。なお、端末装置10a〜10cは、それぞれ後述する第1実施例〜第3実施例に係る端末装置であるが、基本的な構成は本実施形態に係る端末装置10と共通している。以下の説明において、端末装置10及び後述する各端末装置10a〜10cを区別しない場合には、単に端末装置10という。
端末装置10と表示装置20とは、LAN(好ましくは無線LAN)等のネットワークを介して接続される。以下、通信システム1が、端末装置10及び表示装置20間の画面ミラーリングを、Wi−Fi通信1aを介して行なう場合について説明する。
さらに、コンテンツとは、静止画、動画(ムービー,ビデオ)、及び音声(オーディオ)の1以上の組み合わせを含む情報である。以下、本実施形態においては、コンテンツは、ムービー及びオーディオを含むマルチメディアコンテンツであるものとして説明する。
送信部17は、エンコーダ16によりエンコード処理が行なわれたコンテンツを、Wi−Fi通信1aを介して表示装置20へ送信する。受信部26は、送信部17からのコンテンツを受信し、ドライバ23へ渡す。ドライバ23は、表示装置20のハードウェアを制御するソフトウェアである。また、ドライバ23は、受信部26が受信したコンテンツを受け取り、デコーダ27へ渡す。
なお、受信部26は、送信部17から受信したコンテンツを、ドライバ23ではなくライブラリ22へ渡すこととしても良い。
また、エンコーダ16によるエンコード処理は、圧縮率の高い方式により行なわれることが好ましい。これは、Wi−Fi通信1a等の無線LANは、HDMI等のケーブルを介した通信よりも転送速度が低いためである。
以上のことから、エンコーダ16によるエンコード処理は、圧縮率が1/20〜1/30程度を目標とすることが好ましい。上記圧縮率の条件を満たす方式としては、Motion-Joint Photographic Experts Group(M−JPEG)方式が挙げられる。以下、本実施形態においては、エンコーダ16は、送信するコンテンツに対して、M−JPEG方式のエンコード処理を実行し、デコーダ27は、受信したコンテンツに対して、M−JPEG方式のデコード処理を実行するものとして説明する。
次に、本実施形態に係る端末装置10のハードウェア構成例を説明する。
図2に示すように、端末装置10は、システムオンチップ(SoC)3、カメラ51、SDRAM52、フラッシュメモリ53、Wi−Fiコントローラ54、及びLCD15を有する。なお、端末装置10は、Input Output(I/O)デバイスとして、オーディオデータを取得(録音)するマイク、オーディオデータを出力するスピーカー、並びにLCD15に搭載されるタッチパネル又はキーボード等の入力装置(いずれも図示省略)を有しても良い。
SDRAM(メモリ)52は、種々のデータやプログラムを一時的に格納する記憶装置であって、揮発性メモリの一例である。SDRAM52は、CPU32がプログラムを実行する際に、データやプログラムを一時的に格納・展開して用いる。また、SDRAM52は、カメラ51により撮影されたコンテンツを一時的に保持する。
Wi−Fiコントローラ54は、表示装置20との間でWi−Fi通信によるデータの送受信を行なうコントローラであり、図1に示す送信部16の一例である。
SoC(集積回路)3は、L3インターコネクト31、CPU32、イメージングプロセッサ33、GPU34、DC35、H.264エンコーダ36、NANDコントローラ37、EMAC38を有する。
CPU32は、SDRAM52又は図示しないRead Only Memory(ROM)等に格納されたプログラムを実行することにより、種々の機能を実現するプロセッサの一例である。なお、CPU32に代えて、後述する第1〜第3実施例のように、MPUが用いられても良い。
GPU34は、SDRAM52が保持するコンテンツに対して、LCD15に表示させるための描画処理を実行するプロセッサである。また、DC35は、GPU34により描画処理が行なわれたコンテンツをLCD15へ出力するコントローラである。なお、GPU34及びDC35は、図1に示す表示処理部14の一例である。
NANDコントローラ37は、フラッシュメモリ53に対する書き込み及び読み出しを制御するコントローラであり、H.264エンコーダ36によりエンコードされたコンテンツをフラッシュメモリ53へ格納する。
なお、LCD15は、GPU34及びDC35により表示処理が行なわれたコンテンツを表示するものであり、図1に示す表示部15の一例である。
次に、上述の如く構成された端末装置10の動作例を、図3及び図4を参照して説明する。図3は、図2に示す端末装置10によるコンテンツの表示処理、格納処理、及び送信処理の動作例を説明するフローチャートであり、図4は、図2に示すM−JPEGエンコーダ16によるエンコード処理の動作例を説明するフローチャートである。
〔1−3−1〕通信システムの動作例
はじめに端末装置10の動作例を説明する。
図3に示すように、カメラ51によりコンテンツが撮影(生成)されると(ステップS1)、イメージングプロセッサ33により、コンテンツに対する画像処理が実行され(ステップS2)、画像処理結果がSDRAM52に保持される(ステップS3)。
一方、H.264エンコーダ36では、SDRAM52が保持するコンテンツに対してH.264方式のエンコードが実行され(ステップS7)、エンコード結果がフラッシュメモリ53に保持されて(ステップS8)、格納処理が完了する。
次に、M−JPEGエンコーダ16の動作例を説明する。
図4に示すように、M−JPEGエンコーダ16により、DC35によって表示処理が行なわれたコンテンツに対して、例えば16ラインごとに処理を行なうために16ライン分のバッファリングが行なわれる(ステップS11)。なお、バッファリングは、図示しないM−JPEGエンコーダ16が有するレジスタを用いて行なわれる。
なお、図4は、1フレームのうちのバッファリングされたデータに対する処理を示しているため、M−JPEGエンコーダ16により、図4に示す処理が、DC35によって表示処理が行なわれたコンテンツにおける1フレームの全ラインに対して実行される。そして、M−JPEGエンコーダ16により、1フレームに対するエンコード処理が、DC35によって表示処理が行なわれたコンテンツの全フレームに対して実行されることにより、表示装置20へ送信するためのエンコード処理が完了する。なお、M−JPEG方式のエンコードでは、コンテンツのフレームごとに独立したエンコードが行なわれるため、M−JPEGエンコーダ16は、フレーム間の差分等について考慮せずに済む。これにより、高速なエンコード処理が実現できる。
また、少なくとも表示制御部14(GPU34及びDC35)とエンコーダ16とは、SoC3内に実装され、既存のL3インターコネクト31で相互に接続される。これにより、エンコーダ16のために新たなIntegrated Circuit(IC)間接続用の高速バス(例えばL3インターコネクトに準じた転送速度のインターフェース)を追加せずに済む。このように、本実施形態に係る端末装置10は、SoC3内部への画面ミラーリングに係る通信経路の追加、SoC3に対するエンコーダ16の追加及び接続の変更等を行なうことにより実現される。これにより、VNC技術を用いた画面ミラーリングを行なうよりもMPU32の負荷を抑えることができるとともに、消費電力の増大、基板設計の難易度の増加、及びコストアップを最小限に留めることができる。
(I)M−JPEG方式のエンコード処理では、フレームごとに画面全体が出力されるため、表示装置20に表示される画面にブロック状の表示乱れは発生しない。
(II)M−JPEG方式のエンコード処理では、安定的に約2〜3フレーム程度の遅延が発生するだけであり、遅延量及び遅延幅は僅かである。
(III)M−JPEG方式のエンコード処理では、高解像度の動画のコンテンツに対しても、30fpsで連続出力が可能であり、VNCのように数〜数10フレーム飛ばしの動作とはならない。
(IV)端末装置10は、表示装置20へ送信するコンテンツに係る大半の処理を、専用のエンコーダ16により実行する。つまり、端末装置10は、コンテンツを表示装置20へ送信するための処理(主にエンコード処理)を、アプリケーション11及びOSの動作と部分的に又は完全に切り離して実行するため、アプリケーション11及びOSの動作に与える影響が小さい。
〔2〕一実施形態の実施例
次に、上述した一実施形態に係る通信システム1における、端末装置10(10a〜10c)のエンコーダ16(M−JPEGエンコーダ16)の実装例を説明する。
(1)ソフトウェアエンコード方式
(2)ハードウェアアクセラレータの時分割エンコード方式
(3)ハードウェアエンコーダ追加方式
以下、上記(1)〜(3)の構成を適用した通信システム1を、第1実施例〜第3実施例により説明する。
なお、以下、端末装置10(10a〜10c)は、MPU32に対する処理負荷が大きいカメラ51によるムービー撮影及びコンテンツの格納、表示部15によるコンテンツの表示(画面プレビュー)、並びに無線LANによる画面ミラーリング出力、の各動作を行なう場合を想定して説明する。
はじめに、図5〜図10を参照して第1実施例について説明する。第1実施例では、エンコーダ16が上記(1)のソフトウェアエンコーダにより構成される。
〔2−1−1〕第1実施例の端末装置の構成例
まず、一実施形態の第1実施例に係る端末装置10aの構成例について説明する。
DSP40は、SDRAM52が保持するオーディオデータに対する圧縮処理を実行するとともに、圧縮を行なったオーディオデータをSDRAM52に保持させるプロセッサである。なお、DSP40により圧縮されるオーディオデータは、I/Oデバイスとしてのマイク(図示省略)等により取得(録音)され、SDRAM52に保存される。
MPU32′は、複数、例えば4つのコア32a〜32dを有する。各コア32a〜32dは、独立に処理を実行することができる。第1実施例に係るMPU32′は、複数のコア32a〜32dのうちの少なくとも1つに対して、SDRAM52等に格納された処理プログラムを実行させることにより、M−JPEGエンコーダ16としての機能を実現する。
コア32a:アプリケーション11のメイン処理及びOS処理
コア32b:イメージング/ビデオ処理
コア32c+32d:ソフトウェアエンコード処理
このように、4つのコア32a〜32dそれぞれに処理を割り当てることで、MPU32′は、M−JPEGエンコーダ16としてのエンコード処理を、アプリケーション11のメイン処理及びOS処理と部分的に切り離して実行することができる。従って、コア32c及び32dがソフトウェアエンコード処理を実行している場合にも、アプリケーション11及びOSの動作に与える影響を小さく抑えることができる。
次に、上述の如く構成された端末装置10aの動作例を、図6及び図7を参照して説明する。図6及び図7は、図5に示す端末装置10aによるコンテンツの表示処理、格納処理、及び送信処理の動作例を説明するフローチャート及びシーケンス図である。
なお、図6及び図7では、カメラ51によりムービー(ビデオ)のコンテンツが撮影(生成)されるとともに、図示しないI/Oデバイスのマイクによりオーディオのコンテンツが取得(生成)される。
図7に示すように、MPU32′のコア1において、OS及びアプリケーション11が実行される(処理T1,図6のステップS21及びS22)。また、SDRAM52のビデオ表示用の領域であるVideo RAM(VRAM)が、後述するGPU34及びDC35による表示処理のために確保される(処理T2)。
一方、処理T8の処理と並行して、I/Oデバイスのタッチパネルにより、アプリケーション11に対してLCD15へのコンテンツの表示(画面プレビュー)が要求される(処理T20)。画面プレビューの要求を受けると、MPU32′のコア1により、OS描画の指示が行なわれ(処理T21)、GPU34により、LCD15に対するOSの画面の描画処理が実行される(処理T22)。このとき、OSの画面のデータがVRAM領域に保持されている場合には、GPU34により、当該画面のデータが描画処理に用いられる(処理T23)。OS描画処理が完了すると、GPU34により結果がVRAM領域に書き込まれる(処理T24)。
また、DC35により、描画結果がVRAM領域から画面ミラーリング出力され(処理T35)、DMAサブシステム39によりSDRAM52のバッファ領域に画面ミラーリングデータとして書き込まれる(処理T36)。なお、DC35は、処理T33及びT35において、それぞれ異なる解像度のコンテンツを出力することができる。例えばDC35は、表示装置20の表示部25に適した解像度で、画面ミラーリング出力を行なっても良い。一方、DC35は、処理T33及びT35において、同一のコンテンツの出力を行なう場合には、処理T35を省略して、画面ミラーリング用に処理T33の出力を分岐させても良い。
MPU32′のコア3及び4では、入力された画面ミラーリング出力に対して、M−JPEG方式の圧縮(エンコード処理)が実行され、オーディオRAWデータ及び制御信号とともにコンテナ化される(処理T39,図6のステップS23)。そして、コア3及び4により、コンテナ化したコンテンツがEMAC38へ転送され(処理T40)、Wi−Fiコントローラ54により表示装置20へ送信される(処理T41,図6のステップS10)。
以上により、端末装置10aにおいて、無線LANによる画面ミラーリング出力が完了する。
〔2−1−3〕第1実施例の表示装置の構成例
次に、一実施形態の第1実施例に係る表示装置20の構成例について説明する。
図8は、一実施形態の第1実施例に係る表示装置20のハードウェア構成例を示す図である。なお、図8に示す表示装置20の構成は、図1に示す一実施形態に係る表示装置20、並びに後述する第2実施例及び第3実施例に係る表示装置20と共通である。従って、以下の説明において、画面ミラーリングに係るコンテンツの送信元は、端末装置10aに限定されず、端末装置10であるものとする。
MPU132は、複数、例えば2つのコア132a及び132bを有する。各コア132a及び132bは、独立に処理を実行することができる。例えば、第1実施例に係る表示装置20は、予めコア132a及び132bの割り当てを以下のように決定する。
コア132b:イメージング/ビデオ処理
M−JPEGデコーダ116は、Wi−Fiコントローラ154によりWi−Fi通信1aを介して端末装置10から受信したコンテンツに対して、M−JPEG方式のデコード(伸張)処理を実行する。
〔2−1−4〕第1実施例の表示装置の動作例
次に、上述の如く構成された表示装置20の動作例を、図9及び図10を参照して説明する。図9及び図10は、図8に示す表示装置20によるコンテンツの受信処理、及び表示処理の動作例を説明するフローチャート及びシーケンス図である。
以下、図10のシーケンス図に従って、図9との対応を取りながら説明する。また、以下、図9及び図10の説明において、コア132a及び132bをそれぞれコア1及びコア2という場合がある。
ここで、Wi−Fiコントローラ154(及び図示しないEMAC)により、端末装置10からコンテンツが受信されると(処理T53,図9のステップS31)、SDRAM152のバッファ領域にコンテンツがバッファリングされる(処理T54)。バッファ領域に保持されたコンテンツは、MPU132のコア2により読み出され(処理T55)、デコンテナが実行される(処理T56)。デコンテナにおいて、ビデオ圧縮データ及びオーディオ圧縮データに分離されたコンテンツは、コア2により、それぞれSDRAM52のV−COMP領域及びA−COMP領域に保存される(処理T57及びT58)。
以上により、表示装置20において、コンテンツの受信、及びLCD25による受信したコンテンツの表示が完了する。
次に、図11〜図15を参照して第2実施例について説明する。第2実施例では、エンコーダ16が上記(2)のハードウェアアクセラレータにより構成される。
〔2−2−1〕第2実施例の端末装置の構成例
まず、一実施形態の第2実施例に係る端末装置10bの構成例について説明する。
MPU32は、複数、例えば2つのコア32a及び32bを有する。各コア32a及び32bは、独立に処理を実行することができる。例えば、第2実施例に係る端末装置10bは、予めコア32a及び32bの割り当てを以下のように決定する。
コア32b:イメージング/ビデオ処理
ハードウェアアクセラレータ(第3エンコーダ)42は、MPU32等のプロセッサに付加的に実装されたハードウェアである。具体的には、ハードウェアアクセラレータ42は、図2に示すM−JPEGエンコーダ16が実行するM−JPEG方式のエンコード処理と、H.264エンコーダ36が実行するH.264方式のエンコード処理と、を時分割で実行することができる。このため端末装置10bにおいては、M−JPEGエンコーダ16及びH.264エンコーダ36の実装を省略することができる。
なお、上述したハードウェアアクセラレータ42によるエンコード処理を実現するために、端末装置10bは、図11に示すように、DC35からL3インターコネクト31へ、表示処理の実行結果(出力)を戻すパスが実装される。また、DC35からL3インターコネクト31への出力は一度SDRAM52に保存される。そして、ハードウェアアクセラレータ42は、フレーム時間(例えば1/30s)ごとに(時分割で)、ムービー用のH.264方式のエンコード処理と、画面ミラーリング用のM−JPEG方式のエンコード処理とを切り替えて実行する。
図12は、図11に示すハードウェアアクセラレータ42の構成例を示す図であり、図13は、ハードウェアアクセラレータ42によるエンコード処理の動作例を説明するフローチャートである。
エンコード処理部420は、少なくとも図12(a)に示す両エンコード方式の共通処理を実行する。エンコード処理部420は、バッファリング機能部421、色変換機能部422、色差間引き機能部423、DCT変換機能部424、量子化機能部425、及びハフマン圧縮機能部426を有する。
第2レジスタ420aは、各機能部421〜426により例えばH.264方式のエンコードが行なわれる場合に用いられる状態情報を保持する設定レジスタであり、各機能部421〜426に対応してレジスタ421b〜426bを有する。
以上の構成により、ハードウェアアクセラレータ42は、図13に示す処理を実行する。なお、図13に示す処理のうち、M−JPEG方式のエンコードで実行される処理は、ステップS11〜S16(図4参照)である。エンコード処理部420は、M−JPEG方式及びH.264方式のいずれか一方の方式のみのエンコードを行なう際には、実行するエンコード用の設定を、対応する第1レジスタ420a又は第2レジスタ420bに対して行ない、要求される処理のみを実行する。
以下、ハードウェアアクセラレータ42による時分割エンコードの具体例を説明する。
次に、上述の如く構成された端末装置10bの動作例を、図14及び図15を参照して説明する。図14及び図15は、図11に示す端末装置10bによるコンテンツの表示処理、格納処理、及び送信処理の動作例を説明するフローチャート及びシーケンス図である。なお、図14の説明において、図3に示す符号と同一の符号は、同一又は略同一の処理を表しているため、詳細な説明は省略する。また、図15は、図7における処理T8〜T10を処理T81〜T84に置き換え、図7における処理T37及びT39を処理T85〜T89に置き換えたものである。以下、上記変更部分について説明する。
以上の処理により、端末装置10bにおいて、コンテンツの表示処理、格納処理、及び送信処理が実行される。
また、第2実施例に係る端末装置10bによれば、表示装置20へ送信するコンテンツに係るM−JPEG形式のエンコード処理が、ハードウェアアクセラレータ42により行なわれる。これにより、コンテンツを表示装置20へ送信するための処理を、アプリケーション11及びOSの動作と完全に切り離して実行することができるため、アプリケーション11及びOSの動作に与える影響を大幅に低下させることができる。
このように、第2実施例に係る端末装置10bによれば、アプリケーション11及びOSの動作を低下させることなく、また、コストの上昇を抑えることができるため、端末装置10bに表示されるコンテンツを表示装置20に表示させる際の利便性を向上させることができる。
次に、図16〜図18を参照して第3実施例について説明する。第3実施例では、エンコーダ16が上記(3)のハードウェアエンコーダの追加により実現される。
〔2−3−1〕第3実施例の端末装置の構成例
まず、一実施形態の第3実施例に係る端末装置10cの構成例について説明する。
次に、上述の如く構成された端末装置10cの動作例を、図17及び図18を参照して説明する。図17及び図18は、図16に示す端末装置10cによるコンテンツの表示処理、格納処理、及び送信処理の動作例を説明するフローチャート及びシーケンス図である。なお、図17の説明において、図3に示す符号と同一の符号は、同一又は略同一の処理を表しているため、詳細な説明は省略する。また、図18は、図7における処理T37及びT39を処理T91〜T94に置き換えたものである。以下、上記変更部分について説明する。
以上の処理により、端末装置10cにおいて、コンテンツの表示処理、格納処理、及び送信処理が実行される。
〔2−4〕SoC内部の通信量について
ここで、図2、図5、図11、及び図16に示す端末装置10(10a〜10c)において、SoC3の内部バスの通信量を概算してみる。
例えば、図19に示すように、No.1、2、及び5は、それぞれ通信量が200MB/sと多く、SoC3の内部バスにおける通信のネックになり得るフローであることが分かる。つまり、No.1、2、及び5のフローは、それぞれL3インターコネクト31を用いて通信を行なうことが好ましい。換言すれば、一実施形態及び第1実施例〜第3実施例に係る端末装置10(10a〜10c)は、いずれも上記No.1、2、及び5のフローの内部バスにL3インターコネクト31を用いているため、200MB/sの通信量を確保できていると言える。
以上、本発明の好ましい実施形態について詳述したが、本発明は、係る特定の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲内において、種々の変形、変更して実施することができる。
例えば、上述した一実施形態及び第1実施例〜第3実施例においては、ミラーリング向きのエンコード方式としてM−JPEG方式を用い、ムービー向きのエンコード方式としてH.264方式を用いたが、これに限定されるものでなく、種々のエンコード方式を用いることができる。
なお、一実施形態及び第1実施例〜第3実施例の通信システム1の各種機能の全部もしくは一部は、コンピュータ(端末装置10(10a〜10c)及び表示装置20の少なくとも一方を含む)が所定のプログラムを実行することによって実現されても良い。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
表示処理部において表示処理が行なわれたコンテンツに対して、受信装置へ送信するための第1のエンコード処理を実行する第1エンコーダを実装する集積回路を有することを特徴とする、端末装置。
コンテンツを保持するメモリと、
前記集積回路に実装され、前記メモリに保持された前記コンテンツに対して、格納部に格納するための第2のエンコード処理を実行して、前記格納部へ格納する第2エンコーダと、
前記メモリに保持された前記コンテンツに対して前記表示処理を実行する前記表示処理部と、をさらに有することを特徴とする、付記1記載の端末装置。
前記表示処理部は、前記表示処理が行なわれたコンテンツを前記メモリに保持し、
前記第1エンコーダは、前記メモリに保持された前記表示処理を行なわれたコンテンツを読み出して、前記第1のエンコード処理を実行することを特徴とする、付記2記載の端末装置。
前記表示処理部、前記第1エンコーダ、及び前記メモリは、それぞれインターコネクトに接続されることを特徴とする、付記3記載の端末装置。
(付記5)
前記第1エンコーダ及び第2エンコーダは、共通の一つの第3エンコーダにより構成されることを特徴とする、付記2〜4のいずれか1項記載の端末装置。
前記第3エンコーダは、
前記第1及び第2のエンコード処理を時分割で実行するエンコード処理部を有することを特徴とする、付記5記載の端末装置。
(付記7)
前記第3エンコーダは、
前記第1のエンコード処理における状態情報を保持する第1レジスタと、
前記第2のエンコード処理における状態情報を保持する第2レジスタと、をさらに有し、
前記エンコード処理部は、前記第1レジスタ及び第2レジスタを用いて、前記第1及び第2のエンコード処理を時分割で実行することを特徴とする、付記6記載の端末装置。
前記集積回路に実装され、前記端末装置における所定の処理を行なうとともに、前記第1のエンコード処理を実行するプロセッサをさらに有し、
前記プロセッサは、前記第1エンコーダとして機能することを特徴とする、付記2〜4のいずれか1項記載の端末装置。
前記第1のエンコード処理は、前記第2のエンコード処理よりも圧縮率の高いエンコード処理であることを特徴とする、付記2〜8のいずれか1項記載の端末装置。
(付記10)
前記表示処理部において前記表示処理が完了したコンテンツを表示する表示部をさらに有し、
前記第1エンコーダは、前記表示処理部において前記表示部に表示させるための表示処理が完了した前記コンテンツに対して、前記第1のエンコード処理を実行することを特徴とする、付記1〜9のいずれか1項記載の端末装置。
前記第1エンコーダにより前記第1のエンコード処理が行なわれた前記コンテンツを前記受信装置へ送信する送信部をさらに有することを特徴とする、付記1〜10のいずれか1項記載の端末装置。
(付記12)
前記送信部は、無線通信により前記コンテンツを前記受信装置へ送信することを特徴とする、付記11記載の端末装置。
プロセッサを実装する集積回路を有するコンピュータに、
表示処理部において表示処理が行なわれたコンテンツに対して、受信装置へ送信するための第1のエンコード処理を実行する、
処理を実行させることを特徴とする、処理プログラム。
前記コンピュータは、前記表示処理が完了したコンテンツを表示する表示部をさらに有し、
前記表示部に表示させるための表示処理が完了した前記コンテンツに対して、前記第1のエンコード処理を実行する、
処理を前記コンピュータに実行させることを特徴とする、付記13記載の処理プログラム。
表示処理部によって表示処理が行なわれたコンテンツに対して、受信装置へ送信するための第1のエンコード処理を実行する第1エンコーダを有することを特徴とする、集積回路。
1a Wi−Fi通信(LAN,ネットワーク)
10,10a〜10c,1000,1000−1,1000−2 端末装置
11,1100,1100−1,1100−2,21,2100,2100−1,2100−2 アプリケーション
12,1200,22,2200 ライブラリ
13,1300,1300−1,1300−2,23,2300,2300−1,2300−2 ドライバ
14,1400,1400−1,1400−2,24,2400,2400−1,2400−2 表示処理部
15,1500,25,2500,2500−1,2500−2 LCD(表示部)
16,16′ M−JPEGエンコーダ(エンコーダ,ビデオエンコーダ,第1エンコーダ)
17,1600 送信部
131,3100 L3インターコネクト
136 H.264エンコーダ(ビデオエンコーダ)
153,5300 フラッシュメモリ
1000a Wi−Fi(無線LAN)
1000b ケーブル
2,2000 表示装置(受信装置)
26,2600 受信部
27 M−JPEGデコーダ(ビデオデコーダ,デコーダ)
3 システムオンチップ(集積回路)
31 L3インターコネクト(接続部)
32 CPU(MPU,プロセッサ)
32′,132 MPU(プロセッサ)
32a〜32d,132a,132b コア
33,133,3300 イメージングプロセッサ
34,134,3400 GPU
35,135,3500 ディスプレイコントローラ
36,36′ H.264エンコーダ(ビデオエンコーダ,第2エンコーダ)
37,3700 NANDコントローラ
38,3800 EMAC
39,139 DMAサブシステム
3000 システムオンチップ
3200 CPU
3600 H.264エンコーダ
40 DSP
41,141 L4インターコネクト
42 ハードウェアアクセラレータ(第3エンコーダ)
420 エンコード処理部
420a レジスタグループ(第1レジスタ)
420b レジスタグループ(第2レジスタ)
421 バッファリング機能部
421a〜426a,421b〜426b レジスタ
422 色変換機能部
423 色差間引き機能部
424 DTC変換機能部
425 量子化機能部
426 ハフマン圧縮機能部
51,151,5100 カメラ
52,152 SDRAM(メモリ)
53 フラッシュメモリ(格納部)
54,154,5400 Wi−Fiコントローラ
5200 SDRAM
Claims (6)
- 表示処理部において表示処理が行なわれたコンテンツに対して、受信装置へ送信するための第1のエンコード処理を実行する第1エンコーダを実装する集積回路を有することを特徴とする、端末装置。
- 前記コンテンツを保持するメモリと、
前記集積回路に実装され、前記メモリに保持された前記コンテンツに対して、格納部に格納するための第2のエンコード処理を実行して、前記格納部へ格納する第2エンコーダと、
前記メモリに保持された前記コンテンツに対して前記表示処理を実行する前記表示処理部と、をさらに有することを特徴とする、請求項1記載の端末装置。 - 前記表示処理部は、前記表示処理が行なわれたコンテンツを前記メモリに保持し、
前記第1エンコーダは、前記メモリに保持された前記表示処理を行なわれたコンテンツを読み出して、前記第1のエンコード処理を実行することを特徴とする、請求項2記載の端末装置。 - 前記表示処理部、前記第1エンコーダ、及び前記メモリは、それぞれインターコネクトに接続されることを特徴とする、請求項3記載の端末装置。
- 前記第1エンコーダ及び第2エンコーダは、共通の一つの第3エンコーダにより構成されることを特徴とする、請求項2〜4のいずれか1項記載の端末装置。
- プロセッサを実装する集積回路を有するコンピュータに、
表示処理部において表示処理が行なわれたコンテンツに対して、受信装置へ送信するための第1のエンコード処理を実行する、
処理を実行させることを特徴とする、処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012206747A JP2014063259A (ja) | 2012-09-20 | 2012-09-20 | 端末装置,及び処理プログラム |
US14/016,694 US20140078020A1 (en) | 2012-09-20 | 2013-09-03 | Terminal apparatus, integrated circuit, and computer-readable recording medium having stored therein processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012206747A JP2014063259A (ja) | 2012-09-20 | 2012-09-20 | 端末装置,及び処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014063259A true JP2014063259A (ja) | 2014-04-10 |
Family
ID=50273925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012206747A Pending JP2014063259A (ja) | 2012-09-20 | 2012-09-20 | 端末装置,及び処理プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20140078020A1 (ja) |
JP (1) | JP2014063259A (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11228769B2 (en) | 2013-06-03 | 2022-01-18 | Texas Instruments Incorporated | Multi-threading in a video hardware engine |
KR102088384B1 (ko) * | 2013-09-04 | 2020-05-28 | 삼성전자주식회사 | 디스플레이 기기의 제어 방법, 그에 따른 싱크 기기 및 그에 따른 미러링 시스템 |
CN104767949A (zh) * | 2014-11-08 | 2015-07-08 | 晶晨半导体(上海)有限公司 | 分体式电视 |
TWI536174B (zh) * | 2014-12-17 | 2016-06-01 | 緯創資通股份有限公司 | 資料分享方法、資料分享系統及其伺服端裝置 |
CN116774961A (zh) * | 2017-08-25 | 2023-09-19 | 微软技术许可有限责任公司 | 无线可编程媒体处理*** |
JP7003079B2 (ja) * | 2019-03-14 | 2022-01-20 | 株式会社東芝 | 電子機器 |
CN110381195A (zh) * | 2019-06-05 | 2019-10-25 | 华为技术有限公司 | 一种投屏显示方法及电子设备 |
US20220398216A1 (en) * | 2021-06-14 | 2022-12-15 | Videon Central, Inc. | Appliances and methods to provide robust computational services in addition to a/v encoding, for example at edge of mesh networks |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000253400A (ja) * | 1999-03-02 | 2000-09-14 | Fujiya Denki Seisakusho:Kk | 画像データ変換通信システム |
JP2004264769A (ja) * | 2003-03-04 | 2004-09-24 | Toshiba Corp | 情報処理装置およびプログラム |
JP2004274449A (ja) * | 2003-03-10 | 2004-09-30 | Hitachi Ltd | 情報記録装置および情報記録装置における状態表示方法 |
JP2008539614A (ja) * | 2005-04-21 | 2008-11-13 | クォーティックス インク | 統合無線マルチメディア送信システム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4806515B2 (ja) * | 2003-05-19 | 2011-11-02 | 株式会社日立製作所 | 符号化装置、これを用いたビデオカメラ装置及び符号化方法 |
WO2005096168A1 (ja) * | 2004-04-01 | 2005-10-13 | Matsushita Electric Industrial Co., Ltd. | 映像音声処理用集積回路 |
US9197912B2 (en) * | 2005-03-10 | 2015-11-24 | Qualcomm Incorporated | Content classification for multimedia processing |
US9635374B2 (en) * | 2011-08-01 | 2017-04-25 | Apple Inc. | Systems and methods for coding video data using switchable encoders and decoders |
-
2012
- 2012-09-20 JP JP2012206747A patent/JP2014063259A/ja active Pending
-
2013
- 2013-09-03 US US14/016,694 patent/US20140078020A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000253400A (ja) * | 1999-03-02 | 2000-09-14 | Fujiya Denki Seisakusho:Kk | 画像データ変換通信システム |
JP2004264769A (ja) * | 2003-03-04 | 2004-09-24 | Toshiba Corp | 情報処理装置およびプログラム |
JP2004274449A (ja) * | 2003-03-10 | 2004-09-30 | Hitachi Ltd | 情報記録装置および情報記録装置における状態表示方法 |
JP2008539614A (ja) * | 2005-04-21 | 2008-11-13 | クォーティックス インク | 統合無線マルチメディア送信システム |
Also Published As
Publication number | Publication date |
---|---|
US20140078020A1 (en) | 2014-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014063259A (ja) | 端末装置,及び処理プログラム | |
US9665332B2 (en) | Display controller, screen transfer device, and screen transfer method | |
JP5726919B2 (ja) | リモートディスプレイに画像をレンダリングするためのデルタ圧縮ならびに動き予測およびメタデータの修正を可能にすること | |
US10951914B2 (en) | Reliable large group of pictures (GOP) file streaming to wireless displays | |
KR20070011335A (ko) | 영상음성 처리용 집적회로 | |
US20160188279A1 (en) | Mode-switch protocol and mechanism for hybrid wireless display system with screencasting and native graphics throwing | |
WO2009133671A1 (ja) | ビデオ符号化・復号化装置 | |
JP2003204556A (ja) | マルチメディア信号処理のための映像復元プロセッサ | |
JPH10145739A (ja) | メモリを共用するビデオ及び/又はオーディオ脱圧縮及び/又は圧縮装置 | |
US7609768B2 (en) | Video buffer control apparatus for dual video decoding and digital broadcasting receiver thereof | |
US11968380B2 (en) | Encoding and decoding video | |
US10349073B2 (en) | Decoding device, image transmission system, and decoding method | |
US9609215B2 (en) | Moving-image recording/reproduction apparatus | |
CN110583019B (zh) | 视频帧编解码器架构 | |
US10356439B2 (en) | Flexible frame referencing for display transport | |
US20130235924A1 (en) | Electronic apparatus and method for encoding | |
US10595047B2 (en) | Wireless display subsystem and system-on-chip | |
KR100623710B1 (ko) | 하드웨어 리소스를 공유하여 복수의 동영상 콘텐츠를처리하는 방법 | |
JP2016506662A (ja) | スケーラブルな高スループットビデオエンコーダ | |
US20080056377A1 (en) | Neighboring Context Management | |
TWI466100B (zh) | 電子裝置及其顯示資料之處理方法 | |
US20240205469A1 (en) | Apparatus and method for processing cloud streaming low latency playback | |
JP6067085B2 (ja) | 画面転送装置 | |
JP2016149770A (ja) | ストリーミングレイテンシの最小化システム及びそれを使用する方法 | |
KR200422852Y1 (ko) | 하드웨어 리소스를 공유하여 복수의 멀티미디어 데이터를처리하는 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150604 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170206 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170214 |