JP2010074238A - 受信装置及びその制御方法 - Google Patents

受信装置及びその制御方法 Download PDF

Info

Publication number
JP2010074238A
JP2010074238A JP2008236277A JP2008236277A JP2010074238A JP 2010074238 A JP2010074238 A JP 2010074238A JP 2008236277 A JP2008236277 A JP 2008236277A JP 2008236277 A JP2008236277 A JP 2008236277A JP 2010074238 A JP2010074238 A JP 2010074238A
Authority
JP
Japan
Prior art keywords
audio
sound
video
output
correction data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008236277A
Other languages
English (en)
Other versions
JP5253062B2 (ja
JP2010074238A5 (ja
Inventor
Atsushi Mizutome
敦 水留
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008236277A priority Critical patent/JP5253062B2/ja
Publication of JP2010074238A publication Critical patent/JP2010074238A/ja
Publication of JP2010074238A5 publication Critical patent/JP2010074238A5/ja
Application granted granted Critical
Publication of JP5253062B2 publication Critical patent/JP5253062B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Stereophonic System (AREA)
  • Television Receiver Circuits (AREA)

Abstract

【課題】受信装置の能力や機能に応じて、画面の一部(放送局が指定する代表画面やユーザが選択する画面)を切り出して視聴しても、切り出し視聴している画面の位置や画角に応じてマルチチャンネル音像を適切に保つことができる受信装置およびその制御方法を提供する。
【解決手段】受信装置が、複数チャンネルの音声を伴う第1の映像を受信する受信部102と、前記第1の映像の一部を切り出して第2の映像を出力する映像出力制御部109と、前記第2の映像と共に出力するための出力音声を生成する音声出力制御部111と、を備える。受信装置は、前記第2の映像の切り出し位置に基づいて、前記第1の映像の音声である複数チャンネルの入力音声の中から、前記出力音声の合成に用いる入力音声の組み合わせを決定し、決定した組み合わせの入力音声を合成して前記出力音声を生成する。
【選択図】図1

Description

本発明は、マルチチャンネル音声を伴う映像の一部を切り出し視聴可能な受信装置及びその制御方法に関する。
デジタル放送ではハイビジョン映像(2k×1k:1920×1024(以下、HDと記す場合あり))が一般的となっている。また、高度衛星デジタル放送においては、さらに高解像度(4k×2k:デジタルシネマ、8k×4k:スーパーハイビジョン(以下SHVと記す場合あり))の映像や22.2チャンネルのマルチチャンネル音声を送る方式が検討されている。
これら従来の解像度を超えるスーパーハイビジョンなどの放送においては、受信装置の能力や機能に応じた表示を行うことも併せて検討されている。例えば、画面全体をダウンコンバートして視聴するケースのほかに、放送局が指定した代表画面(SHV画面の一部)やユーザが選択した画面を受信機側で切り出して視聴する形態が検討されている(以下、トリミング視聴と記す場合あり)。このとき、切り出して視聴している代表画面の位置や画角(サイズ)とマルチチャンネル音像との関係を適切に保つことが必要になってくる。
従来、ユーザが視聴している画面に応じて、音声を切り替えるものとしては、次のものがある。特許文献1には、マルチ画面表示においてユーザがどの画面を見ているかを検出し、見ている画面に対応する音声に切り替えて出力する方法が開示されている。また特許文献2には、ユーザが指定した画面上の位置に近い音源を重み付けして合成出力することにより、音声のズームイン効果を得る方法が開示されている。
他方、聴取位置がスピーカに対して非対称である環境において正しい音像を提供するものとして、聴取者近傍に置かれる音声検出手段により聴取者と各スピーカまでの距離を測定し、音場を聴取者の聴取位置に定位させる音像位置補正装置がある(特許文献3)。
特開2000−278626号公報 特開平8−298635号公報 特開平7−75200号公報
通常、高解像度映像とともに送出されるマルチチャンネル音声は、その高解像度映像をフル解像度で表示し、画面の正面中央の位置で視聴する場合に最適となるよう音像が調整されている。しかし、上述のように画面の一部を切り出し視聴するような場合、その切り出し位置が画面中央部ではないケースが存在する。このとき、マルチチャンネル音声の出力バランスがオリジナルのままであると、視聴している画面と音像とにずれが生じ、違和感が発生するという問題がある。
上述した従来の技術は、マルチ画面表示においてユーザが見ている画面の音声に完全に切り替えて出力するもの(特許文献1)や、ユーザが指定した画面の位置に音声をズームインさせるもの(特許文献2)である。よって、ユーザが画面の一部を切り出して視聴している場合において、マルチチャンネルの音像を最適な位置に補正することは出来なかった。一方、聴取位置に対して、適切な音像を得る従来の技術(特許文献3)は、ユーザとスピーカとの位置関係に基づく音声補正処理のみであり、視聴画面との関係が考慮されて
いなかった。
そこで、本発明は、画面の一部を切り出し視聴する場合において、切り出された画面に応じて、適切なマルチチャンネル音像定位を得ることができる受信装置およびその制御方法を提供することを目的とする。
上記目的を達成するために本発明では、以下の構成を採用する。
本発明に係る受信装置は、複数チャンネルの音声を伴う第1の映像を受信する受信手段と、前記第1の映像の一部を切り出して第2の映像を出力する映像出力制御手段と、前記第2の映像と共に出力するための出力音声を生成する音声出力制御手段と、を備える受信装置において、前記第2の映像の切り出し位置に基づいて、前記第1の映像の音声である複数チャンネルの入力音声の中から、前記出力音声の合成に用いる入力音声の組み合わせを決定する決定手段をさらに備え、前記音声出力制御手段は、前記決定手段で決定された前記入力音声を合成して前記出力音声を生成することを特徴とする受信装置である。
本発明に係る受信装置の制御方法は、複数チャンネルの音声を伴う第1の映像を受信する工程と、前記第1の映像の一部を切り出して第2の映像を出力する工程と、前記第2の映像と共に出力するための出力音声を生成する工程と、を備え、前記出力音声を生成する工程が、前記第2の映像の切り出し位置に基づいて、前記第1の映像の音声である複数チャンネルの入力音声の中から、前記出力音声の合成に用いる入力音声の組み合わせを決定する工程と、前記決定された前記入力音声を合成して前記出力音声を生成する工程と、を含むことを特徴とする受信装置の制御方法である。
本発明によれば、受信装置の能力や機能に応じて、画面の一部を切り出して視聴しても、切り出された視聴画面に対して、適切なマルチチャンネル音像定位を実現することが可能となる。
以下、図を参照しながら、本発明による装置、方法の一実施の形態について説明する。以下に説明する実施の形態は、ハイビジョン放送の映像、音声(映像フォーマット:1920×1080/60/i、音声モード:5.1ch)が出力可能なデジタル放送受信装置において、スーパーハイビジョン放送(7680×4320/60/p、音声モード:22.2ch)を受信処理する場合の例である。
[実施例1]
図1は本発明のデジタル放送受信装置のブロック図である。
アンテナ101は、複数の映像データ、音声データ、メタデータなどが多重化されデジタル変調されたデジタルテレビジョン放送信号を受信する。より具体的には、映像フォーマットとして7680×4320/60/p(トリミング指定あり)、音声モードとして22.2chのマルチチャンネルステレオのデジタル放送番組を受信する。
受信部102は、デジタルテレビジョン放送信号の復調、誤り訂正処理などを行い、MPEG−2 TS(Transport Stream:トランスポートストリーム)信号を出力する。
信号分離部103は、ユーザが選局を行った番組のパケットIDに従って、多重化され
たMPEG−2 TS信号から映像データ、音声データ、メタデータを分離し、それぞれ映像再生部104、音声再生部105、メタデータ処理部106に送る。なお、多重化されたMPEG−2 TS信号には、データ放送(マルチメディア)データを含む場合もあるが、図1ではその処理部については図示していない。
映像再生部104は、ITU−T H.264|ISO/IEC14496−10(MPEG−4 AVC)(以下、H.264)で符号化された映像データの復号を行う。
音声再生部105は、MPEG−2 AACで符号化された音声データの復号を行う。マルチチャンネルの音声データが含まれる場合、合成することなく独立に音声出力制御部111に送る。
メタデータ処理部106は、信号分離部103でMPEG2−TS信号をフィルタリング処理するための情報を、PSI/SI(Program Specific Information/Service Information)データから取り出す。また、メタデータ処理部106は、電子番組表などに利用される番組情報、さらに本発明に係わる映像フォーマットやトリミング(切り出し位置、およびサイズ)情報、音声モードなどの情報も、PSI/SIデータから取り出す。
表示位置検出部107は、メタデータ処理部106からのトリミング情報に基づき、SHV(7680×4320)画面のどの部分を切り出すか、その座標を求め、映像出力制御部109に送る。また表示位置検出部107は、切り出し画面の座標から音声モードとして5.1ch出力可能な本受信装置のフロントスピーカ(3箇所)の座標を決定する。そして、表示位置検出部107は、3つのフロントスピーカの各々に対し、受信したSHVの音声モード(22.2ch)におけるフロントスピーカ(11箇所)のうち、どのスピーカの音声出力を合成して出力するか、その組み合わせを決定する。
補正データ算出部108は、本受信装置におけるスピーカ位置と、オリジナルのSHVの音声モード(22.2ch)におけるスピーカ位置と切り出し画面の視聴位置との位置関係から、切り出し画面視聴時の適正な音像を形成するための補正データを算出する。
本実施例では、SHV映像が複数チャンネル(22.2ch)の音声を伴う第1の映像に該当し、受信部102が第1の映像を受信する受信手段に該当する。また、映像出力制御部109が、SHV映像の一部を切り出して第2の映像(HD解像度の切り出し画面)を出力する映像出力制御手段に該当する。また、音声出力制御部111が、第2の映像と共に出力するための出力音声(ここでは5.1ch)を生成する音声出力制御手段に該当する。また、表示位置検出部107が、第2の映像の切り出し位置に基づいて、SHVの入力音声の中から、出力音声の合成に用いる入力音声の組み合わせを決定する決定手段に該当する。
ここで、補正データ算出部108について少し詳しく説明する。
図2は、補正データ算出部108の構成例である。補正データ算出部108は、角度解析部201、混合ゲインデータ算出部202、距離解析部203、ゲイン補正データ算出部204、遅延量補正データ算出部205で構成される。角度解析部201は、本受信装置のフロントスピーカと、それぞれに出力する22.2chのフロントスピーカとの角度を算出する。以下、本受信装置のフロント左スピーカをTFL、フロントセンタースピーカをTFC、フロント右スピーカをTFRと略記し、22.2chのフロントスピーカをソースと略記する。混合ゲインデータ算出部202は、算出された角度に基づき、切り出し視聴している画面に対して視聴者が感じる音声の到来方向が適正になるよう合成すべき
各ソースの音声データの混合比(ゲイン)を決定する。距離解析部203は、角度解析部201で算出された角度に基づき、22.2chの各ソースと本受信装置のフロントスピーカ(TFL/TFC/TFR)との距離の違いを算出する。ゲイン補正データ算出部204は、算出された距離の違いの情報に基づき、本受信装置のフロントスピーカ(TFL/TFC/TFR)の音声信号のゲイン(音量レベル)補正データを算出する。遅延量補正データ算出部205は、算出された距離の違いの情報に基づき、本受信装置のフロントスピーカ(TFL/TFC/TFR)の音声信号の遅延量補正データを算出する。ゲイン補正データおよび遅延量補正データは、切り出し視聴している画面に対して視聴者が感じる音声の音量と音源までの距離感が適正になるよう、決定される。
説明を図1に戻す。図1において映像出力制御部109は、表示位置検出部107からの切り出し画面の位置情報に基づき、SHV画面からHD解像度の画面を切り出して表示部110に送る。
表示部110は、HD(1920×1080)を表示できる解像度を有する表示装置である。
音声出力制御部111は、音声再生部105から出力される22.2chのフロントスピーカの各音声データを、補正データ解析部108からの混合ゲインデータに基づいて所定の割合で合成する。その後、音声出力制御部111は、ゲイン補正データ、遅延量補正データに従ってゲイン調整、遅延量調整を行い、本受信装置のフロントスピーカ(TFL/TFC/TFR)の音声データを生成する。生成された音声データはD/A(Digital−Analog)コンバータとアンプを介してTFL/TFC/TFRの各スピーカ112に出力される。合成、ゲイン調整、遅延量調整の詳細については後述する。
図3は、実施例1における切り出し視聴画面の位置を示す図である。実施例1では、スーパーハイビジョン画面301の中央部をハイビジョン解像度302で切り出し(トリミング)視聴する例を示している。
図4は、スーパーハイビジョンの画面中央部を切り出し視聴する実施例1における音声出力制御部111の構成例である。画面中央を中心に切り出しているため、本受信装置のフロントセンタースピーカ(TFC)には、22.2chのフロントセンタースピーカ(FC)の音声データを出力する。フロント左スピーカ(TFL)には、22.2chのフロント左スピーカ(FL)、フロント左センタースピーカ(FLc)、フロントセンタースピーカ(FC)の3つのソースを混合した音声データを出力する。フロント右スピーカ(TFR)には、22.2chのフロント右スピーカ(FR)、フロント右センタースピーカ(FRc)、フロントセンタースピーカ(FC)の3つのソースを混合した音声データを出力する。
図5は、22.2chシステムにおける標準的なスピーカ配置を示したものである。22.2chシステムは、フロントに11ch、サイドに4ch、リアに6ch、上部に1chの22chに、低音域用のLFE(Low Frequency Effects)を2ch(0.2chとして扱う)加えたスピーカ構成になっている。5.1chや6.1ch/7.1chシステムは、前後左右方向の音の広がりには対応できるが上下の音像表現が困難であった。22.2chシステムでは、視聴者と同じ高さの中間層のスピーカを10チャンネルに増やすとともに、上層に9チャンネル、下層に3チャンネルを配することにより、垂直方向の音像移動にも対応することが可能な構成になっている。
本明細書における実施例では、説明を簡単にするため22.2chシステム(SHV放送の音声モードの1つ)と、5.1chシステム(HD放送の音声モードの1つ)におけ
る、それぞれのフロントスピーカの関係についてのみ説明する。リアスピーカやサイドスピーカ、低域スピーカについての記載は省略する。また、実施例1及び2は、画面の上下方向に対しては中央部分をトリミング視聴する構成であるため、22.2chシステムにおける中間層のフロントスピーカについてのみ説明する。上層のフロントスピーカ(図5におけるTpFL/TpFC/TpFR)、下層のフロントスピーカ(BtFL/BtFC/BtFR)についての記載は省略する。
次に本発明に係わるブロックについて、フローチャートを用いてその動作を説明する。
図6は、メタデータ処理部106の処理フローの一実施例である。
デジタル放送においては、映像や音声、番組に関する種々の情報をPSI/SIデータ内に各種テーブルとして埋め込み、送出することが可能である。詳細は、(社)電波産業会(以下、ARIB)の発行する「デジタル放送に使用する番組配列情報」の標準規格(ARIB STD−B10)を参照のこと。
本実施例においては、PMT(Program Map Table)もしくはEIT(Event Information Table)に挿入されるコンポーネント記述子を用いて、スーパーハイビジョン映像(7680×4320/60/Pの映像フォーマット)であること、さらに放送局によるトリミング情報があることを伝送する。EITは、番組名、放送日時、番組内容など番組に関する情報を送るテーブルである。
コンポーネント記述子は、図7のようなデータ構造を持っており、その中のコンポーネント種別(component_type)という8ビットのフィールドに映像コンポーネントや音声コンポーネントの種別を示すことが出来る。
図8は、コンポーネント記述子内をより詳細に示したもので、コンポーネント種別が0x00から0xC0までは、現在規格化されている映像コンポーネントを示している。本実施例で想定している映像ストリームは、ハイビジョン映像を超えるより高解像度の映像フォーマットであり、現在は規定されていない。本実施例では、デジタルシネマやスーパーハイビジョンの映像フォーマットであることを示すコンポーネント種別として、0xE1から0xF3を割り当てている(図8)。
コンポーネント種別として、トリミング指定ありの映像フォーマットの場合、さらにトリミング(切り出し)情報を伝送する。トリミング情報はEITなどに挿入される拡張形式イベント記述子を用いて伝送することができる。拡張形式イベント記述子は、図9のようなデータ構造を持っており、その中のitem_description_charの1つとしてトリミング情報を追加する。図10のように、item_description_charにトリミングサイズやアドレスを示し、item_charにてその値を送る。
このようなメタデータが多重化されたデジタル放送を受信することを前提に説明を行う。
図6のステップS602にて、メタデータ処理部106は、PMTのコンポーネント記述子から、コンポーネント識別情報を抽出する。次に、メタデータ処理部106は、コンポーネント識別情報から、受信している番組がスーパーハイビジョン(SHV)映像であるかを判定する(S603)。ここで、SHV映像モードではなく通常のハイビジョン映像モードであった場合(図8のコンポーネント種別が0xB2など)は、画面の一部を切り出すことなく、そのままの解像度で表示する(S604)。
ステップS603にてSHV映像モードであると判定された場合、メタデータ処理部106はステップS605にて放送局によるトリミング指定があるか否かを判定する。ここでトリミング指定ありの映像モード(例えば、図8の0xF2)であった場合は、ステップS606に進む。一方、同じSHV映像であってもトリミング指定なしであった場合は、ステップS607に進む。
ステップS606では、メタデータ処理部106は、EITの拡張形式イベント記述子から、トリミング情報を抽出する。図10は、トリミングサイズ“1”(HD解像度:1920×1080であることを表す)、左上(X,Y)アドレスが(−960、+540)と記述されたトリミング情報の例である。本実施例においては画面中央の座標を(0,0)としているので、図10のトリミング情報は、SHV画面の中央部をHD解像度でトリミング(切り出す)指定をしていることになる。ステップS606にて抽出されたトリミング情報は、表示位置検出部107に送られる(S610)。
ステップS605にて放送局によるトリミング指定がなかった場合、メタデータ処理部106は、ユーザ操作によるトリミング指定があるか否かを判定する(S607)。ここで受信装置の機能としてユーザが任意の位置をトリミング視聴でき、実際にトリミング視聴している場合は、受信装置内で管理されている切り出し位置、およびサイズの情報をトリミング情報として抽出し(S608)、ステップS610に進む。一方、ユーザによるトリミング指定がなかった場合は、メタデータ処理部106は、全画面をダウンコンバートして表示するよう映像出力制御部に指示する(S609)。
図11は、表示位置検出部107の処理フローの一実施例である。
まず、ステップS1102にて、表示位置検出部107は、メタデータ処理部106で抽出されたトリミング情報を読み込む。次に、表示位置検出部107は、図10に示したようなトリミング情報に基づき、切り出し画面の座標を求める(S1103)。切り出し画面の座標データは、図1における映像出力制御部109に送られ(S1104)、所定の位置が(本実施例ではSHVの画面中央部をHD解像度で)切り出され表示部110にて表示される。
ステップS1105にて、表示位置検出部107は、切り出し画面の位置に応じて5.1chシステムにおけるフロントスピーカの位置を算出する。
図12は、視聴位置1201において、SHVの画面中央部をHD解像度でトリミング視聴する場合のフロントスピーカの配置を示したものである。上述したように、FL、FLc、FC、FRc、FRは、それぞれ22.2chシステムにおける中間層のフロント左スピーカ、フロント左センタースピーカ、フロントセンタースピーカ、フロント右センタースピーカ、フロント右スピーカを表している。また、TFL、TFC、TFRは、それぞれトリミング視聴時の5.1chシステムにおけるフロントスピーカを表している。図12に示したように、本実施例では、TFL、TFC、TFRの座標は、それぞれ、(−960,0)、(0,0)、(+960,0)となる。ちなみに、TFLとTFRの位置については、ユーザの広がり感に関する好みや視聴するコンテンツなどに応じて、切り出し画面の両端とFL、FRとの間の任意の位置に設置することが可能である(図13)。ここでは説明を簡単にするため、切り出し画面の左端にTFRを、右端にTFRを設置することとする。
次に、図11のステップS1106において、表示位置検出部107は、TFL、TFC、TFRのy座標が0(ゼロ)であるか否かを判定する。ここで、y座標が0の場合は
、図12のようにSHV画面の上下方向のちょうど中央の高さで切り出されたことになる。本実施例では、y座標が0であるゆえ、ステップS1107に進む。
ステップS1107で、表示位置検出部107は、TFL、TFC、TFRと、FL、FLc、FC、TRc、FRのx座標上の位置関係を判定する。本実施例では、例えばTFLの位置は、FLcとFCとの間に位置していると判定される。
ステップS1108〜S1110において、表示位置検出部107は、ステップS1107で判定された位置関係に従い、TFL、TFC、TFRそれぞれに、FL、FLc、FC、TRc、FRのどのスピーカからの音声を合成して出力するかを決定する。表示位置検出部107は、まずTFLと同じ位置のソースの有無を調べ、同じ位置のソースがあればそれを選択し、同じ位置のソースがなければ、表示位置検出部107は、TFLに最も近いN個(Nは2以上の整数)のソースを選択する。Nが3の場合、本実施例では、TFLに対して、FL、FLc、FCの組み合わせが選ばれる。同様にして、TFRにはFR、FRc、FCの組み合わせが選ばれる。そして本実施例は画面中央での切り出しのため、TFCとFCの座標は一致し、TFCにはFCのみが選ばれる。なお組み合わせ決定のルール(アルゴリズム)は上記の例に限らず、どのようなものを採用してもよい。例えば、TFL、TFC、TFRそれぞれの位置(x、y座標)に対応するソースの組み合わせが予め規定されたテーブルを参照することも好ましい。また、TFL等とソースとの距離に応じて、組み合わせるソースの数を動的に変化させてもよい。
表示位置検出部107は、ステップS1105にて算出されたTFL、TFC、TFRの位置情報(座標)とステップS1108〜S1110で決定されたFL、FLc、FC、TRc、FRの組み合わせ情報を補正データ算出部108に出力する(S1111)。
なお、図11のステップS1112〜S1122は、切り出し位置が異なる場合の処理フローである。ステップS1113〜S1117は、切り出し位置が上下方向のみ変化する場合の処理例である。その場合、TpFCとBtFCの2つのソースも音声合成に利用される。ステップS1112、S1118〜S1122については、他の実施例(実施例4)にて説明する。
図14は補正データ算出部108における処理フローの一実施例である。
まず、ステップS1402にて、補正データ算出部108は、表示位置検出部107にて算出、決定されたTFL、TFC、TFRの位置情報(座標)とそれぞれに出力するFL、FLc、FC、TRc、FRの組み合わせ情報を読み込む。
次に、ステップS1403にて、補正データ算出部108は、視聴位置からみた各スピーカの角度を算出する。本実施例における視聴位置(図12の1201)は、SHV視聴において視聴角100度、視聴距離0.75H(Hは画面上下サイズ)、HD視聴においては視聴角30度、視聴距離3Hとしている。これは、SHV視聴およびHD視聴の標準視聴パラメータに相当し、それぞれの標準視聴角で視聴した場合、SHVの0.75HとHDの3Hは同じ視聴距離となる。
ステップS1404では、補正データ算出部108は、ステップS1403で算出された視聴位置と各スピーカとの角度から、TFL、TFC、TFRそれぞれに対するFL、FLc、FC、FRc、FRの混合比を算出する。ステップS1405にて、補正データ算出部108は、算出した混合比を混合ゲインデータとして図1の音声出力制御部111に出力する。
図15は、TFLから出力する音声を、FL、FLc、FCの音声を混合して生成する一例を示した図である。本実施例における視聴位置と各スピーカとの角度は、視聴位置を標準視聴位置(視聴角SHV:100度、HD:30度)とした場合の値である。各スピーカとの角度に対し余弦定理等を用いることによりFL、FLc、FCの各音声ベクトルを合成し、音声の到来方向がTFLの角度となる音声ベクトルVTFLを生成する。VTFL=1として正規化することにより、FL、FLc、FCそれぞれの音声ベクトルの混合比を求めることができる。図15では、FLの出力をVFL、FLcの出力をVFLc、FCの出力をVFCの割合で合成することで、TFLからの音声ベクトルVTFLを生成している。なお、図15の例のように2次元において3つ以上のソースのベクトルを合成する場合は、必要に応じて他の拘束条件(例えばベクトルの大きさの範囲など)を追加すればよい。ここでは、合成ベクトルVTFLの一方の分解成分ベクトルであるベクトルVFCの大きさを、他方の分解ベクトルの方向がベクトルVFLcとベクトルVFLとにより合成できる範囲とすることができる。
図16は、図15に対してTFLの位置をよりFL側に変更した例である。図16においては、TFLの位置がFL側になったことにより、FL、FLc、FCの各音声ベクトル混合比として、VFCの割合が減り、VFL、VFLcの割合が増加することを示している。
図14に戻り処理フローの説明を続ける。
ステップS1406では、補正データ算出部108は、ステップS1403にて算出された視聴位置からみた各スピーカの角度から、FL、FLc、FC、FRc、FRとTFL、TFC、TFRの距離の差を算出する。図17は、FLとTFLの距離の差を求める一例である。標準視聴位置の場合、FLは正面から左に50度、本実施例のTFLの位置は同じく左に15度となる。
視聴者とFLとの距離をLFL、視聴者とTFLとの距離をLTFLとすると、LFL・cos50°=LTFL・cos15°の関係が成り立つゆえ、LTFL=LFL×cos50°/cos15°となる。
次にステップS1407にて、補正データ算出部108は、ステップS1406で求めた距離関係に基づいてゲイン補正データを算出する。例えば図17において、TFLのFLに対するゲインをG(TFL_FL)、FLのゲインをG(FL)とおく。音量は距離の2乗に反比例するため、トリミング視聴においても同じ音量で聞こえるようにするには、G(TFL_FL)=G(FL)×(LTFL/(LFLとなるようゲイン補正データを生成する。さらに、本実施例においてTFLに合成出力する他の音声チャンネル(FLc、FC)についても同様にゲイン補正データを算出し、FL、FLc、FCトータルのゲイン補正データを決定し、図1の音声出力制御部111に送る(S1408)。
ステップS1409では、補正データ算出部108は、ステップS1406で求めた距離関係に基づいて遅延量補正データを算出する。ステップS1407の説明と同じく図17を用いて説明する。図17において、TFLのFLに対する遅延量をD(TFL_FL)、FLの遅延量をD(FL)とおく。遅延量は距離に比例するため、トリミング視聴においても、視聴者が感じる音源までの距離感が同じとなるようにするには、D(TFL_FL)=D(FL)×LTFL/LFLとなるよう遅延量補正データを生成する。さらに、本実施例においてTFLに合成出力する他の音声チャンネル(FLc、FC)についても同様に遅延量補正データを算出し、FL、FLc、FCトータルの遅延量補正データを決定し、図1の音声出力制御部111に送る(S1410)。
メタデータ処理部106(図6)、表示位置検出部107(図11)、補正データ算出部108(図14)の処理を経て得られた、トリミング視聴における、混合ゲイン補正データ、ゲイン補正データ、遅延量補正データは、音声出力制御部111に入力される。
音声出力制御部111はFL、FLc、FC、FRc、FRからTFL、TFC、TFRを生成する。一例として図4を参照して、TFLを生成する流れについて説明する。まず、音声出力制御部111は、混合ゲイン補正データに基づき、FL、FLc、FCを所定の混合比で合成する。次に音声出力制御部111は、音量がほぼ同じとなるようゲイン補正データに基づきゲインを調整し、さらに音源までの距離感がほぼ同じとなるよう遅延量補正データに基づき遅延量を調整する。これらの調整が完了したデータは、D/A、AMP(アンプ)を介してTFLスピーカへと送られる。TFRについては、FC、FRc、FRを所定の混合比で合成する以外は、TFLの流れと同様である。なお、本実施例においては、画面中央部切り出し視聴のため、TFC=FCの関係になり、TFCに関して特段の補正は行わない。(図4においては、ゲイン補正部、遅延量補正部を経由しているが、ともに補正量は0(ゼロ)である。)
本実施例における音声出力制御部(図4)は、混合ゲイン調整部により音の到来方向(角度)の補正を行った後に、音量を調整するゲイン補正、ならびに音源までの距離感を調整する遅延量補正を行う構成とした。しかし、先にゲイン補正、遅延量補正を行ってから、到来方向(角度)の補正を行う構成とすることで、ゲイン、遅延量の補正をより正確に行うことも可能である。
本実施例によれば、スーパーハイビジョン(SHV)画面の中央部をハイビジョン(HD)解像度でトリミング視聴する場合、切り出された視聴画面に対して、音声の到来方向、音量、距離感が適切に補正されたマルチチャンネル音声を提供することが可能となる。
[実施例2]
次に、本発明に係わる実施例2について説明する。
図18は、実施例2における切り出し視聴画面の位置を示す図である。実施例2では、スーパーハイビジョン画面1701の一部をハイビジョン解像度1702で切り出し(トリミング)視聴する例である。実施例1との違いは、x軸方向の切り出し位置が画面中央部ではない点である。
実施例2のデジタル放送受信装置のブロック構成(図1)、ならびにメタデータ処理部、表示位置検出部、補正データ算出部の処理フロー(図6、図11、図14)は実施例1と基本的に同じである。
以下、実施例1との差分を中心に説明する。
図19は、実施例2におけるトリミング視聴時のフロントスピーカTFL、TFC、TFRの位置ならびに、TFLに合成して出力するFL、FLc、FC、FRc、FRの組み合わせを示したものである。実施例2において、TFLにはFC、FRcの音声データを組み合わせて出力する。これは切り出した画面周辺の音を中心に合成することを基本としている為であるが、さらに一定の比率でFL、FLcを加えても良い。
混合比率は、実施例1と同様、各スピーカとの角度に基づいて求めるが、実施例2では、視聴位置が原点(x,y)=(0,0)でないため、各スピーカとの角度は切り出し位置座標を加味して算出する必要がある。
視聴位置のx座標をa、SHV画面右端のx座標をb、原点座標におけるFLとの角度を50度(実施例1と同じく標準視聴位置)、視聴位置におけるFLとの角度をK度とした場合、角度Kは、以下の関係式で表すことができる。
tanK°=((a+b)/b)tan50°
このようにして、視聴位置と画面端の座標から視聴位置における各スピーカとの角度を求めることができる(図20)。
図21は、実施例2におけるTFCに合成して出力するFL、FLc、FC、FRc、FRの組み合わせを示したものである。実施例2におけるフロントセンタースピーカTFCには、FRc、FRの音声データを組み合わせて出力している。これは上述のように、切り出した画面周辺の音を中心に出力するようにしている為である。
図22は、実施例2における音声出力制御部111の一例である。実施例1と同様、切り出し画面位置から算出された、混合ゲインデータ、ゲイン補正データ、遅延量補正データに基づいてトリミング視聴時のフロントスピーカTFL、TFC、TFRのそれぞれの音声データを生成する。図19、ならびに図21にて説明したように実施例2においては、TFLにはFC、FRcを、TFCには、FRc、FRを合成して出力する構成になっている。またTFRについても、TFCと同じくFRc、FRを合成して出力する構成となっている。これは、図18からもわかるように、実施例2における切り出し画面位置の場合、TFC、TFRともにFRc、FRという2つのスピーカの間に位置しているためである。このため、TFC、TFRともにFRc、FRの音声データを合成しているが、各スピーカとの角度関係が異なるため、その混合比は異なっている。合成後は、実施例1と同様、音量調整のためのゲイン補正、距離感調整のための遅延量補正を行い、D/A、AMPを通してトリミング視聴時のフロントスピーカTFL、TFC、TFRに出力する。
本実施例によれば、SHV画面の一部(上下中央、左右中央部以外)をHD解像度でトリミング視聴する場合、切り出された視聴画面に対して、音声の到来方向、音量、距離感が適切に補正されたマルチチャンネル音声を提供することが可能となる。
[実施例3]
次に、本発明に係わる実施例3について説明する。
実施例3において、デジタル放送受信装置のブロック構成(図1)、ならびにメタデータ処理部、表示位置検出部、補正データ算出部の処理フロー(図6、図11、図14)は実施例1と基本的に同じである。
実施例3は、実施例2の切り出し画面構成における、他の実施の形態であり、番組の音声イベントのうち、ナレーションやBGMなどを、切り出し画面位置に関係なくフロントセンタースピーカTFCから出力させる構成の一例である。
図23は実施例3を適用する音声モードに関するコンポーネント記述子の一例を示したものである。これは、実施例1で説明したコンポーネント記述子(図7)、ならびにその映像コンポーネントに関する記述(図8)にさらに追加されて記述されることを想定している。図23において、コンポーネント内容の0x02は、音声コンポーネントであることを示し、コンポーネント種別が0x00から0x09までは、現在規格化されている音声モードを示している。実施例3では説明のため、デジタルシネマやスーパーハイビジョンの音声フォーマットのコンポーネント種別として、0x0Aから0x0Fを割り当て、
コンポーネント種別0x0Fには、音声チャンネル種別情報ありの音声モードを設けている。音声チャンネル種別情報ありの音声モードとは、登場人物やナレーション、BGMなどの音声イベントごとに特定の音声チャンネルを割り当てるモードである。22.2chシステムなどにおいて、特定の音声チャンネルに特定の音声イベントを割り当てることを想定している。
コンポーネント種別として、音声チャンネル種別情報ありの音声モードの場合、どの音声イベントがどの音声チャンネルで伝送されているかの情報を送る必要がある。これは、実施例1におけるトリミング情報を伝送する例と同様、EITなどに挿入される拡張形式イベント記述子を用いて伝送することができる。図24は、拡張形式イベント記述子の中のitem_description_charの1つとして音声イベントを追加し、そのitem_charにて音声イベントに対応する音声チャンネルを示した一例である。
このようなメタデータを多重化して送ることにより実施例3を実現することができる。実施例3のデジタル放送受信装置における、この音声コンポーネントに係わるメタデータの処理については、実施例1におけるトリミング情報ありの場合の処理(図6)と類似しているため、本項での説明は省略する。
図25は、実施例3における音声出力制御部111の一例である。実施例2と同様、切り出し画面位置から算出された、混合ゲインデータ、ゲイン補正データ、遅延量補正データに基づいてトリミング視聴時のフロントスピーカTFL、TFC、TFRのそれぞれの音声データを生成する。さらに実施例3においては、拡張形式イベント記述子にて伝送される音声イベントに対応する音声チャンネル情報に基づき、ナレーションやBGMの音声チャンネル(図24におけるチャンネル番号5や6)をトリミング視聴時のTFCに合成する構成となっている。(図25においては、特定chと表記)
本実施例によれば、実施例1、2の効果に加え、ナレーションやBGMのような、通常は切り出し位置に依存しない音声についても、安定して聴取することが可能となる。
[実施例4]
次に、本発明に係わる実施例4について説明する。
これまでの実施例は、説明を簡単にするため、画面上下方向にオフセットがない(y座標が0の)トリミング視聴のケースについて説明してきたが、実施例4では画面上下方向についてもオフセットがついて切り出されるケースについて簡単に説明する。
図26は、実施例4における切り出し視聴画面の位置を示す図である。実施例4では、これまでの実施例と同様、スーパーハイビジョン画面2501の一部をハイビジョン解像度2502で切り出して視聴する例であるが、x軸方向、y軸方向とも切り出し位置が中央ではない点が、これまでの実施例と異なっている。
図26のように切り出し視聴する場合は、22.2chシステムにおける中間層のスピーカだけでなく、上層および下層のスピーカを含め、トリミング視聴におけるフロントスピーカTFL、TFC、TFLに出力する組み合わせを決定する。
表示位置検出部107の処理フロー(図11)のステップS1118からステップS1122の処理がそれにあたる。これまでの実施例1から3では、中間層のFL、FLc、FC、FRc、FRのみの組み合わせを決定していたが、実施例4では、さらに上層のTpFL、TpFC、TpFR、および下層のBtFL、BtFC、BtFRまで含めて組み合わせを決定する。
組み合わせ決定後の補正データ算出部108における処理や、音声出力制御部111における処理は、合成対象となるチャンネル数が増加する以外、基本的な動作は実施例1から3と同じである。
以上、複数の実施例を挙げて本発明の具体的に構成を説明したが、本発明の範囲は上記実施例に限られることはない。例えば、上記実施例は、切り出し視聴前の音声モードに22.2chシステム、切り出し視聴時の音声モードに5.1chシステムを例に説明したが、本発明は他の音声モードの組み合わせにも適用可能である。
また上記実施例では、アンテナ101から放送波を受信する構成を例に説明したが、インターネットなどのIPネットワーク網からコンテンツ(番組)を受信する場合にも本発明を適用することが可能である。この場合であっても、表示位置を検出し、その位置とサイズに基づき、マルチチャンネルの音声出力を制御する処理は同じである。
さらに、上記実施例では、画面の切り出し位置の指定方法として、放送局からメタデータを送ることにより指定する方法と受信装置の機能によってユーザ指定する方法について説明した。しかし、放送局から受信装置上で動作するアプリケーションを送り、そのアプリケーションが切り出し位置を制御するような場合であっても、本発明を適用することが可能である。
本発明に係わるデジタル放送受信装置の構成を示すブロック図 本発明に係わる補正データ算出部の構成を示すブロック図 本発明の実施例1における切り出し画面位置を示す図 本発明の実施例1に係わる音声出力制御部の構成を示すブロック図 22.2ch音声システムのスピーカ配置を示す図 本発明に係わるメタデータ処理について説明するためのフローチャート デジタル放送で運用されるコンポーネント記述子のデータ構造を示す図 本発明に係わる映像コンポーネント種別の一例 デジタル放送で運用される拡張形式イベント記述子のデータ構造を示す図 本発明の実施例1に係わるトリミング情報の一例 本発明に係わる表示位置検出処理について説明するためのフローチャート 本発明の実施例1に係わる切り出し画面位置とスピーカ位置の関係を示す図 本発明の実施例1に係わる切り出し画面位置とスピーカ位置の関係を示す図 本発明に係わる補正データ算出処理について説明するためのフローチャート 本発明の実施例1に係わるTFL(切り出し画面のフロント左スピーカ)に出力する音声データの合成処理を説明するための図 本発明の実施例1に係わるTFL(切り出し画面のフロント左スピーカ)に出力する音声データの合成処理を説明するための図(他の例) 本発明の実施例1に係わるTFL(切り出し画面のフロント左スピーカ)とFL(オリジナル画面のフロント左スピーカ)との距離関係を説明するための図 本発明の実施例2における切り出し画面位置を示す図 本発明の実施例2に係わるTFL(切り出し画面のフロント左スピーカ)に出力する音声データの合成処理を説明するための図 本発明に係わる視聴位置における各スピーカとの角度計算について説明するための図 本発明の実施例2に係わるTFC(切り出し画面のフロントセンタースピーカ)に出力する音声データの合成処理を説明するための図 本発明の実施例2に係わる音声出力制御部の構成を示すブロック図 本発明の実施例3に係わる音声コンポーネント種別の一例 本発明の実施例3に係わる音声イベント情報の一例 本発明の実施例3に係わる音声出力制御部の構成を示すブロック図 本発明の実施例4における切り出し画面位置を示す図
符号の説明
106 メタデータ処理部
107 表示位置検出部
108 補正データ算出部
111 音声出力制御部
201 角度解析部
202 混合ゲインデータ算出部
203 距離解析部
204 ゲイン補正データ算出部
205 遅延量補正データ算出部

Claims (7)

  1. 複数チャンネルの音声を伴う第1の映像を受信する受信手段と、
    前記第1の映像の一部を切り出して第2の映像を出力する映像出力制御手段と、
    前記第2の映像と共に出力するための出力音声を生成する音声出力制御手段と、を備える受信装置において、
    前記第2の映像の切り出し位置に基づいて、前記第1の映像の音声である複数チャンネルの入力音声の中から、前記出力音声の合成に用いる入力音声の組み合わせを決定する決定手段をさらに備え、
    前記音声出力制御手段は、前記決定手段で決定された前記入力音声を合成して前記出力音声を生成することを特徴とする受信装置。
  2. 前記第2の映像の切り出し位置に応じて定まる、前記入力音声のスピーカ位置と前記出力音声のスピーカ位置と前記第2の映像の視聴位置との位置関係に基づいて、前記視聴位置における音像を補正するための補正データを算出する補正データ算出手段をさらに備え、
    前記音声出力制御手段は、前記補正データを用いて前記出力音声を生成することを特徴とする請求項1に記載の受信装置。
  3. 前記補正データは、前記視聴位置における音声の到来方向を補正するためのデータとして、前記出力音声の生成に用いる前記入力音声の混合比を決めるデータを含むことを特徴とする請求項2に記載の受信装置。
  4. 前記補正データは、前記視聴位置における音量を補正するためのデータとして、前記出力音声に与えるゲインを決めるデータを含むことを特徴とする請求項2または3に記載の受信装置。
  5. 前記補正データは、前記視聴位置における音源までの距離を補正するためのデータとして、前記出力音声に与える遅延量を決めるデータを含むことを特徴とする請求項2〜4のうちいずれか1項に記載の受信装置。
  6. 前記複数チャンネルの入力音声の中に所定の種別の入力音声が含まれている場合に、
    前記音声出力制御手段は、前記第2の映像の切り出し位置にかかわらず、前記所定の種別の入力音声を所定のチャンネルの出力音声に合成することを特徴とする請求項1〜5のうちいずれか1項に記載の受信装置。
  7. 複数チャンネルの音声を伴う第1の映像を受信する工程と、
    前記第1の映像の一部を切り出して第2の映像を出力する工程と、
    前記第2の映像と共に出力するための出力音声を生成する工程と、を備え、
    前記出力音声を生成する工程が、
    前記第2の映像の切り出し位置に基づいて、前記第1の映像の音声である複数チャンネルの入力音声の中から、前記出力音声の合成に用いる入力音声の組み合わせを決定する工程と、
    前記決定された前記入力音声を合成して前記出力音声を生成する工程と、を含むことを特徴とする受信装置の制御方法。
JP2008236277A 2008-09-16 2008-09-16 受信装置及びその制御方法 Expired - Fee Related JP5253062B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008236277A JP5253062B2 (ja) 2008-09-16 2008-09-16 受信装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008236277A JP5253062B2 (ja) 2008-09-16 2008-09-16 受信装置及びその制御方法

Publications (3)

Publication Number Publication Date
JP2010074238A true JP2010074238A (ja) 2010-04-02
JP2010074238A5 JP2010074238A5 (ja) 2011-11-04
JP5253062B2 JP5253062B2 (ja) 2013-07-31

Family

ID=42205660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008236277A Expired - Fee Related JP5253062B2 (ja) 2008-09-16 2008-09-16 受信装置及びその制御方法

Country Status (1)

Country Link
JP (1) JP5253062B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012039264A (ja) * 2010-08-04 2012-02-23 Toshiba Corp 音像定位装置
KR20150087103A (ko) * 2012-11-19 2015-07-29 엘지전자 주식회사 신호 송수신 장치 및 신호 송수신 방법
JP2016513437A (ja) * 2013-02-28 2016-05-12 エルジー エレクトロニクス インコーポレイティド 信号送受信装置および信号送受信方法
JP2016532390A (ja) * 2013-09-06 2016-10-13 エルジー エレクトロニクス インコーポレイティド デジタル放送システムにおける広域明るさ表現のための超高画質放送信号送受信方法及び装置
JP2016187136A (ja) * 2015-03-27 2016-10-27 シャープ株式会社 受信装置、受信方法、及びプログラム
JP2017508326A (ja) * 2013-12-19 2017-03-23 エルジー エレクトロニクス インコーポレイティド 放送伝送装置、放送伝送装置の動作方法、放送受信装置および放送受信装置の動作方法
JPWO2017022467A1 (ja) * 2015-08-06 2018-05-24 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2018147143A1 (ja) * 2017-02-09 2018-08-16 ソニー株式会社 情報処理装置および情報処理方法
JP7523511B2 (ja) 2017-02-09 2024-07-26 サターン ライセンシング エルエルシー 情報処理装置および情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0833100A (ja) * 1994-07-12 1996-02-02 Matsushita Electric Ind Co Ltd 映像音声再生装置と映像音声再生方法
JP2002171460A (ja) * 2000-11-30 2002-06-14 Sony Corp 再生装置
JP2006033847A (ja) * 2004-07-14 2006-02-02 Samsung Electronics Co Ltd 最適な仮想音源を提供する音響再生装置及び音響再生方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0833100A (ja) * 1994-07-12 1996-02-02 Matsushita Electric Ind Co Ltd 映像音声再生装置と映像音声再生方法
JP2002171460A (ja) * 2000-11-30 2002-06-14 Sony Corp 再生装置
JP2006033847A (ja) * 2004-07-14 2006-02-02 Samsung Electronics Co Ltd 最適な仮想音源を提供する音響再生装置及び音響再生方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8611186B2 (en) 2010-08-04 2013-12-17 Kabushiki Kaisha Toshiba Sound image localization apparatus
JP2012039264A (ja) * 2010-08-04 2012-02-23 Toshiba Corp 音像定位装置
KR102118052B1 (ko) * 2012-11-19 2020-06-02 엘지전자 주식회사 신호 송수신 장치 및 신호 송수신 방법
KR20150087103A (ko) * 2012-11-19 2015-07-29 엘지전자 주식회사 신호 송수신 장치 및 신호 송수신 방법
JP2015534751A (ja) * 2012-11-19 2015-12-03 エルジー エレクトロニクス インコーポレイティド 信号送受信装置及び信号送受信方法
US9749580B2 (en) 2012-11-19 2017-08-29 Lg Electronics Inc. Signal transceiving apparatus and signal transceiving method
JP2016513437A (ja) * 2013-02-28 2016-05-12 エルジー エレクトロニクス インコーポレイティド 信号送受信装置および信号送受信方法
US9998774B2 (en) 2013-02-28 2018-06-12 Lg Electronics Inc. Signal transmission and reception device and signal transmission and reception method
JP2016532390A (ja) * 2013-09-06 2016-10-13 エルジー エレクトロニクス インコーポレイティド デジタル放送システムにおける広域明るさ表現のための超高画質放送信号送受信方法及び装置
US9712781B2 (en) 2013-09-06 2017-07-18 Lg Electronics Inc. Method and apparatus for transmitting and receiving ultra-high definition broadcasting signal for high dynamic range representation in digital broadcasting system
JP2017508326A (ja) * 2013-12-19 2017-03-23 エルジー エレクトロニクス インコーポレイティド 放送伝送装置、放送伝送装置の動作方法、放送受信装置および放送受信装置の動作方法
JP2016187136A (ja) * 2015-03-27 2016-10-27 シャープ株式会社 受信装置、受信方法、及びプログラム
JPWO2017022467A1 (ja) * 2015-08-06 2018-05-24 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US10656900B2 (en) * 2015-08-06 2020-05-19 Sony Corporation Information processing device, information processing method, and program
US20180196635A1 (en) * 2015-08-06 2018-07-12 Sony Corporation Information processing device, information processing method, and program
TWI736542B (zh) * 2015-08-06 2021-08-21 日商新力股份有限公司 資訊處理裝置、資料配訊伺服器及資訊處理方法、以及非暫時性電腦可讀取之記錄媒體
WO2018147143A1 (ja) * 2017-02-09 2018-08-16 ソニー株式会社 情報処理装置および情報処理方法
JPWO2018147143A1 (ja) * 2017-02-09 2019-11-21 ソニー株式会社 情報処理装置および情報処理方法
US10809870B2 (en) 2017-02-09 2020-10-20 Sony Corporation Information processing apparatus and information processing method
JP7231412B2 (ja) 2017-02-09 2023-03-01 ソニーグループ株式会社 情報処理装置および情報処理方法
JP7523511B2 (ja) 2017-02-09 2024-07-26 サターン ライセンシング エルエルシー 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
JP5253062B2 (ja) 2013-07-31

Similar Documents

Publication Publication Date Title
JP5253062B2 (ja) 受信装置及びその制御方法
KR102248861B1 (ko) 고차 앰비소닉 오디오 신호의 재생 방법 및 장치
US11568881B2 (en) Methods and systems for generating and rendering object based audio with conditional rendering metadata
US20110029874A1 (en) Systems and methods for adjusting volume of combined audio channels
US9905231B2 (en) Audio signal processing method
WO2014115222A1 (en) Sound signal description method, sound signal production equipment, and sound signal reproduction equipment
US10070172B2 (en) Method and apparatus for processing broadcast data by using external device
KR20140090469A (ko) 영상표시장치의 동작 방법
Herre et al. MPEG-H 3D audio: Immersive audio coding
US20240196150A1 (en) Adaptive loudspeaker and listener positioning compensation
US20240163629A1 (en) Adaptive sound scene rotation
KR20100030756A (ko) 영상표시장치 및 그 제어방법
Neuendorf et al. Immersive audio with MPEG 3D audio-status and outlook
JP6683618B2 (ja) 音声信号処理装置
JP2024005530A (ja) 受信装置、放送システム、受信方法、および、プログラム
JP2023125821A (ja) 受信装置、放送装置、放送システム、受信方法及びプログラム
JP2016119630A (ja) 受信装置、受信方法及びプログラム
OODE et al. Standardization Trends in Object-based Audio Technology
Bleidt–Fraunhofer Object-Based Audio: Opportunities for Improved Listening Experience and Increased Listener Involvement
KR20130114477A (ko) 오디오 처리 장치, 및 그 동작방법
JP2011146800A (ja) 音声放送提供方法及び装置
JP2005142639A (ja) 信号処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110916

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130416

R151 Written notification of patent or utility model registration

Ref document number: 5253062

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees