JP3651748B2 - Terminal equipment for digital broadcasting system - Google Patents
Terminal equipment for digital broadcasting system Download PDFInfo
- Publication number
- JP3651748B2 JP3651748B2 JP14817198A JP14817198A JP3651748B2 JP 3651748 B2 JP3651748 B2 JP 3651748B2 JP 14817198 A JP14817198 A JP 14817198A JP 14817198 A JP14817198 A JP 14817198A JP 3651748 B2 JP3651748 B2 JP 3651748B2
- Authority
- JP
- Japan
- Prior art keywords
- scene description
- terminal device
- objects
- presentation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Television Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Traffic Control Systems (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、移動端末装置に向けて映像、音声、文字等からなるマルチメディア情報を放送するディジタル放送システムとその端末装置に関する。
【0002】
【従来の技術】
近年、静止軌道上の放送衛星或いは通信衛星を利用した移動体向けの衛星放送システムが提唱されている。この種のシステムは、符号化方式としてMPEG4( Moving Picture Coding Experts Group 4)を採用し、かつ衛星から移動端末装置へのダウンリンクにSバンドを使用することで、車載端末装置や携帯情報端末装置等の移動端末装置において、映像や音声、文字等からなるマルチメディア情報を受信できるようにしたもので、非常に注目されている。
ところで、この種のシステムは先に述べたようにMPEG4の使用を想定している。MPEG4は、従来の動画像符号化方式が画像を一つのシーンとして単純に符号化するのを基本としているのに対し、複数のAVOs( Audio / Visual Objects :人物や背景に代表される構成要素)からなる階層化された映像/音響信号を合成することによって、シーンを表現するものである。各階層構成要素としては、自然画像/音響でもよく、また合成画像/音響でも構わない。また、シーン全体を表すものでも、一部を表すものでも構わない。さらに各構成要素の重なり具合や時間的/空間的関係にも大きな自由度がある。
すなわち、MPEG4を使用するシステムでは、送信側において、一つのシーンを構成する複数のオブジェクトと、これらのオブジェクトを合成するためのシーン記述データとをそれぞれ最適なアルゴリズムでエレメンタリストリームに符号化し、しかるのち多重化して送信する。また受信側では、受信した各オブジェクト及びシーン記述データをそれぞれ復号したのち、シーン記述データの内容に従って各オブジェクトを合成してディスプレイやスピーカ等の提示装置へ出力する。
ところが、シーン記述データのみに従って各オブジェクトを合成して提示しようとすると、端末装置の状況によっては不適切な提示が行われる可能性がある。例えば、オブジェクトに地域性がある場合に、このオブジェクトを常に表示したとすると、端末装置には自己の現在位置とは無関係のオブジェクトが表示されることになる。また、車載端末装置の場合に、走行中に映像や文字データ等の表示データがディスプレイに表示されると、交通安全の点できわめて好ましくない。
【0003】
【発明が解決しようとする課題】
この発明は上記事情に着目してなされたもので、その目的とするところは、端末装置側で受信位置あるいは移動中における視聴形態の状況に応じて、受信したマルチメディア情報を最適な形態で提示することのできるディジタル放送システムとその端末装置を提供することにある。
【0004】
【課題を解決するための手段】
上記目的を達成するためにこの発明は、ディジタル放送システムにおいて、1以上のオブジェクトを組み合わせて各シーンを構成することで番組を制作し、この制作番組のオブジェクトを放送信号に変換して所定のサービスエリアに向けて放送するようにし、端末装置側では、前記放送信号を受信して番組の各シーンを構成する1以上のオブジェクトを再生し、任意のオブジェクトを合成することで番組を提示するように構成する。
特に、端末装置において、前記放送信号を受信してその受信信号から前記1以上のオブジェクトを再生する受信再生手段と、自装置における所定の状況を検出するための状況検出手段と、自装置の状況とユーザに提示すべきオブジェクトとの対応関係を表す設定情報を記憶したデータベースと、提示制御手段とを新たに設ける。そして、この提示制御手段により、上記状況検出手段の検出結果及び上記データベースの設定情報を基に、受信再生された複数のオブジェクトの中から提示すべきオブジェクトを選択し、この選択されたオブジェクトを提示装置に提示するようにしたものである。
【0005】
具体的には、次の3通りの構成が考えられる。
第1の構成は、状況検出手段に自装置の現在位置を検出する位置検出手段を設けるとともに、データベースに自装置の位置とユーザに提示すべきオブジェクトとの対応関係を表す設定情報を記憶しておき、提示制御手段において、上記位置検出手段により検出された自装置の現在位置と上記データベースの設定情報とを基に、受信再生された複数のオブジェクトの中から自装置の現在位置に対応するオブジェクトを選択して提示装置に提示するものである。
【0006】
第2の構成は、状況検出手段に自装置の移動状態を検出する移動状態検出手段を設けるとともに、データベースに自装置の移動状態とユーザに提示すべきオブジェクトとの対応関係を表す設定情報を記憶しておき、提示制御手段において、上記移動状態検出手段により検出された自装置の移動状態と上記データベースの設定情報とを基に、受信再生された複数のオブジェクトの中から自装置の移動状態に対応するオブジェクトを選択して提示装置に提示するものである。
【0007】
第3の構成は、状況検出手段に提示装置の種別を検出する提示種別検出手段を設けるとともに、データベースに提示装置の種別とユーザに提示すべきオブジェクトとの対応関係を表す設定情報を記憶しておき、提示制御手段において、上記提示種別検出手段により検出された提示装置の種別と上記データベースの設定情報とを基に、受信再生された複数のオブジェクトの中から提示装置の種別に対応するオブジェクトを選択して提示装置に提示するものである。
【0008】
従ってこの発明に係わる端末装置によれば、端末装置の存在位置や、端末装置の移動状態、提示装置の種類など、端末装置の種々の状況に応じてその都度最適なオブジェクトが選択されて提示されることになる。このため、端末ユーザにとってはより効果的なオブジェクト提示がなされる。
【0009】
一方他の端末装置において、上記放送局に、オブジェクトの提示条件を指定するための条件指定情報をシーン記述データに含めて送信する条件指定情報送出手段を設け、一方端末装置には、自装置における所定の状況を検出するための状況検出手段と、提示制御手段とを設け、この提示制御手段において、上記状況検出手段の検出結果及び上記再生手段により再生されたシーン記述データに含まれる条件指定情報を基に、受信再生された複数のオブジェクトの中から提示すべきオブジェクトを選択し、この選択されたオブジェクトを提示装置に提示するように構成したものである。
【0010】
この発明についても、次の3通りの具体例が考えられる。
第1の構成は、放送局の条件指定情報送出手段において、シーンを構成する各オブジェクトごとにその提示地域を指定するための地域指定情報を付加して送信し、一方端末装置では、状況検出手段に自装置の現在位置を検出する位置検出手段を設け、かつ提示制御手段において、位置検出手段で検出された自装置の現在位置と、受信再生されたシーン記述データに含まれる地域指定情報とを比較し、この比較結果を基に自装置の現在位置に対応する地域指定情報が付加されたオブジェクトを選択して提示装置に提示するものである。
【0011】
第2の構成は、放送局の条件指定情報送出手段において、シーンを構成する各オブジェクトごとにその提示条件を端末装置の移動状態に応じて指定するための指定情報を付加して送信し、一方端末装置では、状況検出手段に自装置の移動状態を検出する移動状態検出手段を設け、かつ提示制御手段において、上記移動状態検出手段で検出された自装置の移動状態と、受信再生されたシーン記述データに含まれる提示条件の指定情報とを比較し、この比較結果を基に自装置の移動状態に対応する指定情報が付加されたオブジェクトを選択して提示装置に提示するものである。
【0012】
第3の構成は、放送局の条件指定情報送出手段において、シーンを構成する各オブジェクトごとにその提示装置の種別を指定するための種別指定情報を付加して送信し、一方端末装置では、状況検出手段に提示装置の種別を検出する提示種別検出手段を設け、かつ提示制御手段において、上記提示種別検出手段で検出された提示装置の種別と、受信再生されたシーン記述データに含まれる種別指定情報とを比較し、この比較結果を基に提示装置の種別に対応する種別指定情報が付加されたオブジェクトを選択して提示装置に提示するものである。
【0013】
従ってこの発明に係わるディジタル放送システムとその端末装置によれば、端末装置の存在位置や端末装置の移動状態、提示装置の種類などの端末装置の種々の状況に応じ、しかも放送局側から指定された条件に従って、端末装置ではその都度最適なオブジェクトが選択されて提示されることになる。このため、端末ユーザにとってより効果的なオブジェクト提示がなされる。また放送局側からオブジェクトの提示条件を任意に指定することができる。
【0014】
【発明の実施の形態】
以下、図面を参照してこの発明の実施の形態について詳細に説明する。
まず、実施形態にあげるディジタル放送システムの概要について説明する。
このシステムは、放送衛星、或いは通信衛星を利用した、主に移動体向けのディジタル衛星放送システムであり、符号化方式としてMPEG4( Moving Picture Coding Experts Group 4)を採用し、かつ衛星から移動端末装置へのダウンリンクにSバンドを使用することで、車載端末装置や携帯情報端末装置等の移動端末装置において、映像や音声、文字等からなるマルチメディア情報を受信できるようにしたものである。
MPEG4は、従来の動画像符号化方式が画像を一つのシーンとして単純に符号化するのを基本としているのに対し、複数のAVOs( Audio / Visual Objects :人物や背景に代表される構成要素)からなる階層化された映像/音響信号を合成することによって、シーンを表現するものである。各階層構成要素としては、自然画像/音響でもよく、また合成画像/音響でも構わない。また、シーン全体を表すものでも、一部を表すものでも構わない。さらに各構成要素の重なり具合や時間的/空間的関係にも大きな自由度がある。
すなわち、MPEG4を使用する本システムでは、送信側において、一つのシーンを構成する1以上のオブジェクトと、そのオブジェクトを合成するためのシーン記述データとをそれぞれ最適なアルゴリズムでエレメンタリストリームに符号化し、しかるのち多重化して送信する。また受信側では、受信した各オブジェクト及びシーン記述データをそれぞれ復号したのち、シーン記述データの内容に従って各オブジェクトを合成してディスプレイやスピーカ等の提示装置へ出力する。
ところで、シーン記述データのみに従って各オブジェクトを合成して提示しようとすると、端末装置の状況によっては不適切な提示が行われることが想定される。例えば、オブジェクトに地域性がある場合に、このオブジェクトを常に表示したとすると、端末装置には自己の現在位置とは無関係のオブジェクトが表示されることになる。また、車載端末装置の場合に、走行中に映像や文字データ等の表示データがディスプレイに表示されると、運転者がその表示に気をとられて運転に集中できなくなるため、交通安全の点できわめて好ましくない。
そこで、以下に説明する実施形態では、端末装置の状況に応じて最適なオブジェクト提示を行えるようにしている。
(第1の実施形態)
この発明に係わる第1の実施形態は、端末装置に、自装置の位置とユーザに提示すべきオブジェクトとの対応関係を表す設定情報を記憶した位置判断データベースを設け、複数のGPS(Global Positioning System)衛星が送信している測距信号を受信することで自装置の位置を検出して、この位置検出データと上記位置判断データベースに記憶してある設定情報とを基に、受信復号した複数のオブジェクトの中から自装置の現在位置に対応するオブジェクトを選択し、これらのオブジェクトを合成してディスプレイ又はスピーカに出力するようにしたものである。
【0015】
図1は、この発明に係わるディジタル衛星放送システムの概略構成図である。このディジタル衛星放送システムは、少なくとも一つの送信局10と、衛星制御局20と、静止衛星30とを備えている。
【0016】
送信局10は、複数の番組プロバイダにより作成・編集された番組情報を受け取り、この番組情報をチャネル多重したのち放送信号に変換して、例えばKuバンド(12.5〜18GHz)の上り伝送路を介して静止衛星30へ送信する。チャネル多重方式としては、例えばCDM(Code Division Multiplex)方式が用いられる。
【0017】
静止衛星30は、例えば2.5m級の口径を有するKuバンド用アンテナ31と、15m級の口径を有するSバンド(例えば2.6GHz)用アンテナ32とを備えている。そして、上記送信局10から送信された放送信号を、上記Kuバンド用アンテナ31で受信したのち、トランスポンダでSバンドの信号に変換する。そして、この変換された放送信号を上記Sバンド用アンテナ32からSバンドの下り伝送路を介してサービスエリアに向け送信する。なお、上記静止衛星30に搭載する上り伝送用アンテナ31の口径は2.5m級より小さいものでもよく、またSバンド用アンテナ32の口径についても15m級に限らず8m級であってもよい。
なお、衛星制御局20は、静止衛星30の動作状態を監視し制御するものである。
【0018】
サービスエリアでは、例えばオフィスや家庭に固定的に設置された放送受信装置(図示せず)や、車載或いは携帯型の移動可能な端末装置40が、上記静止衛星30からSバンドの下り伝送路へ送信された放送信号を受信する。なお、上記Sバンドの下り伝送路では、256Kbps の伝送容量を有する複数のチャネル(例えば30チャネル)が多重化される。また、伝送情報の符号化方式としてMPEG4が用いられる。
【0019】
ところで、上記送信局10及び端末装置40はそれぞれ次のように構成される。図2は送信局10の構成を示す回路ブロック図、図3は端末装置40の構成を示す回路ブロック図である。
【0020】
先ず送信局10は、番組を制作するためのオーサリング装置11を備えている。オーサリング装置11は、各番組プロバイダから供給された音響データAU1〜AUn、映像データMP1〜MPn及び文字データTX1〜TXnを選択的に用いて、MPEG4に応じたシーン情報を生成することで放送番組を制作する。シーン情報は、複数のオブジェクト、つまり上記音響データ、映像データ及び文字データと、これらのオブジェクトを合成するためのシーン記述データとを有する。
【0021】
上記オーサリング装置11から出力された音響データ、映像データ、文字データ及びシーン記述データは、それぞれ音響オブジェクト符号化部12、映像オブジェクト符号化部13、文字オブジェクト符号化部14及びシーン記述符号化部15に入力される。これらの符号化部12〜15では、それぞれ上記音響データ、映像データ、文字データ及びシーン記述データがその性質に対し最適なアルゴリズムによりエレメンタリストリームに符号化される。この符号化されたエレメンタリストリームは、続いて多重化部16で所定のフォーマットに従い多重化されて多重化ストリームとなる。そして、この多重化ストリームは送信部17でディジタル変調され、さらにKuバンドの放送信号に変換されたのち、送信アンテナ18から静止衛星30に向け送信される。
【0022】
次に端末装置40は、上記静止衛星30から送信されたSバンドの放送信号を受信アンテナ41で受信して受信部42に入力する。受信部42では、上記放送信号に対し周波数変換及びディジタル復調が行われ、この復調された多重化ストリームは多重分離部43に入力される。多重分離部43は、上記多重化ストリームを複数のエレメンタリストリームに分離し、これらのエレメンタリストリームをそれぞれ音響オブジェクト復号化部44、映像オブジェクト復号化部45、文字オブジェクト復号化部46及びシーン記述復号化部47に入力する。
【0023】
音響オブジェクト復号化部44、映像オブジェクト復号化部45、文字オブジェクト復号化部46及びシーン記述復号化部47は、それぞれ対応する上記エレメントストリームを復号処理して音響オブジェクト、映像オブジェクト、文字オブジェクト及びシーン記述データを再生し、この復号された音響オブジェクト、映像オブジェクト及び文字オブジェクトを選択部49を介して合成部50Aに入力する。
【0024】
また上記シーン記述復号部47で復号されたシーン記述データは、シーン記述解析部48に入力される。シーン記述解析部48は、上記シーン記述データを解析し、その解析データSCを選択部49に与えてシーンを合成するに必要なオブジェクトを通過させる。またシーン記述解析部48は、シーン記述解析データSCを合成部50Aにも与える。
【0025】
ところで、端末装置40はGPS受信部62を備えており、GPS衛星GS1,GS2,…が送信している測距用信号をアンテナ61を介してこのGPS受信部62で受信する。そして、その受信信号を位置検出部63に入力する。位置検出部63は、上記各GPS衛星GS1,GS2,…から到来した測距用信号を基に自装置の座標位置を求め、その位置検出データLDを上記合成部50Aに入力する。
【0026】
また端末装置40は位置判断データベース(位置判断DB)55Aを有している。この位置判断データベース55Aには、サービスエリア内の各地域に対応付けて、提示すべきオブジェクトの識別情報(オブジェクトID)が記憶してある。図5はその一例を示すもので、オブジェクトはデフォルトデータと設定データとに分けて管理されている。このうちデフォルトデータは、例えば端末装置40の出荷時に既に書き込まれたデータである。設定データは、端末ユーザが図示しないキー入力部の操作により任意に設定できる。
【0027】
合成部50Aは、この発明に係わる新たな機能として、提示制御手段51Aと、データベース更新制御手段52Aとを備えている。
提示制御手段51Aは、上記位置検出部63から与えられた位置検出データLD、つまり端末装置40の現在位置を、上記位置判断データベース55Aに記憶されている地域と比較する。そして、現在位置を含む地域が記憶されている場合に、この地域に対応するオブジェクトを上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0028】
DB更新制御手段52Aは、送信局10からシーン記述データを使用してDB更新データが送られた場合に、シーン記述解析部48により解析された更新データの内容に従い、位置判断データベース55A内の該当データを更新する処理を行う。更新処理には、既に登録されている地域とそれに対応するオブジェクトの変更及び削除、未登録の地域とそれに対応するオブジェクトの追加がある。
【0029】
次に、以上のように構成された端末装置によるオブジェクト提示動作を説明する。図4はその制御手順及び制御内容を示すフローチャートである。
【0030】
放送信号の受信動作中に合成部50Aは、定期的にステップ4aで位置検出部63から位置検出データLDを取り込む。そして、この新たな位置検出データLDを取り込むごとに、ステップ4bでこのデータを前回取り込んだ位置検出データLDと比較し、この比較結果から自装置が所定量以上移動したか否かを判定する。そして、所定量以上移動した場合には、ステップ4cに移行してここで位置判断データベース55Aを検索し、自装置の現在位置を含む地域が登録されているか否かをステップ4dで判定する。
【0031】
この判定の結果、自装置の現在位置を含む地域が位置判断データベース55Aに登録されていると、合成部50Aはステップ4eに移行し、ここで位置判断データベース55Aから上記該当地域に対応する設定オブジェクトを読み出し、オブジェクトが記憶されているか否かを判定する。そして、設定オブジェクトが記憶されていれば、ステップ4fで当該オブジェクトを上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0032】
例えば、いま自装置の現在位置が地域「東京」であれば、図5に示すように設定オブジェクトとして「東京1:映像1」が読み出され、複数の受信オブジェクトの中からこの設定オブジェクトに対応するオブジェクトが選択される。そして、この選択されたオブジェクトがシーン記述解析データSCに従って合成されたのち、ステップ4fでディスプレイ53に供給されて表示される。
【0033】
これに対し設定オブジェクトが登録されていなかった場合には、ステップ4gに移行し、ここで位置判断データベース55Aに対応するオブジェクトのデフォルトデータが登録されているか否かを判定する。そして、登録されていれば、ステップ4hでこのデフォルトデータをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。またこのデフォルトデータも登録されていなければ、ステップ4iでその他のデフォルトデータを位置判断データベース55Aから読み出して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0034】
したがって端末装置40では、その移動に伴い、現在位置が含まれる地域に対応したオブジェクトが選択されて、ディスプレイ53に表示されるか又はスピーカ54から出力されることになる。このため、端末ユーザは常に自身が存在する地域に対応した情報を取得することが可能となる。また、位置判断データベース55Aの内容を、端末装置におけるキー操作により任意に変更、追加又は削除することができるので、各オブジェクトに対し端末ユーザが自身の希望に応じて自由な地域指定を行うことが可能となる。
【0035】
また、運用中に送信局10からシーン記述データを使用したデータベース更新データが到来したとする。この場合合成部50Aは、この受信されたデータベース更新データに従い、位置判断データベース55Aの更新作業を行う。
【0036】
例えば、いま位置判断データベース55Aが図5に示すように構成されている状態で、図6に示すようなデータベース更新データが到来したとする。そうすると、位置判断データベース55Aにおいて、地域「東京」に対応する設定オブジェクトの変更処理と、地域「川崎」とそのオブジェクトの追加処理と、地域「横浜」とそれに対応するオブジェクトの削除処理とがそれぞれ行われる。図7はこの更新後の位置判断データベースの構成を示すものである。
【0037】
このようにすることで、例えば新たな地域の追加や削除、或いは番組の変更等に応じて、送信局側から各端末装置40の位置判断データベース55Aの内容を更新することもできる。
【0038】
なお、端末装置40における自己位置の検出手段としては、GPS衛星を利用するもの以外に、PHS(Personal Handy phone System)基地局から送信されている基地局IDを検出することで検出するもの等を利用することが可能である。
【0039】
また、位置検出部63により得られた位置検出データLDと、位置判断データベース55Aに登録された地域情報とを基に、端末装置の現在位置に対応する地域情報をディスプレイ53に表示するようにしてもよく、また端末装置の移動に伴い地域が切り替わった時点でその旨のメッセージ情報をディスプレイ53に表示するようにしてもよい。またこの場合、メッセージ情報は音声メッセージとしてスピーカ54から出力するようにしてもよい。
【0040】
(第2の実施形態)
この発明に係わる第2の実施形態は、車載端末装置に、自装置の走行状態と提示対象オブジェクトとの対応関係を表す設定情報を記憶した走行状態判断データベースを設け、車両の速度情報等を基に自装置の走行状態を検出して、この走行状態検出データと上記走行状態判断データベースに記憶してある設定情報とを基に、受信復号した複数のオブジェクトの中から適切なオブジェクトを選択し合成してディスプレイ又はスピーカに出力するようにしたものである。
【0041】
図8は、この第2の実施形態に係わる車載用の端末装置の構成を示すブロック図である。なお、同図において前記図3と同一部分には同一符号を付して詳しい説明は省略する。
【0042】
この実施形態の端末装置には、走行状態判断データベース55Bが設けてある。この走行状態判断データベース55Bには、自装置の走行状態、つまり走行中及び停止中に各々対応付けて、提示すべきオブジェクトの識別情報(オブジェクトID)が記憶してある。図10はその一例を示すもので、オブジェクトはデフォルトデータとフィルタリングデータとに分けて管理されている。このうちデフォルトデータは、端末装置40の出荷時に既に書き込まれたデータである。フィルタリングデータは、端末ユーザが図示しないキー入力部の操作により任意に設定できる。
【0043】
また本実施形態の端末装置には、走行状態検出部56が設けてある。この走行状態検出部56は、車両の速度検出器から出力される速度検出信号を基に、自装置が走行中か停止中かを判定するもので、その判定結果を走行状態検出データRDとして合成部50Bに供給する。
【0044】
合成部50Bは提示制御手段51Bを備えている。この提示制御手段51Bは、上記走行状態検出部56から出力された走行状態検出データRDをキーとして走行状態判断データベース55Bをアクセスし、この検出された走行状態に対応するオブジェクト識別情報を読み出す。そして、このオブジェクト識別情報に対応するものを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0045】
このような構成であるから、本実施形態に係わる端末装置では以下のようなオブジェクト提示動作が行われる。図9はその制御手順及び制御内容を示すフローチャートである。
【0046】
放送信号の受信動作中に合成部50Bは、定期的にステップ9aにより走行状態検出部56から走行状態検出データRDを取り込む。そして、この走行状態検出データRDを取り込むごとに、ステップ9bでこの検出データRDが前回取り込んだ検出データに対し変化したか否かを判定する。そして、走行状態が「走行中」から「停止中」に、或いは「停止中」から「走行中」に変化したことを検出すると、ステップ9cに移行してここで現在の走行状態はいずれであるかを判定する。
【0047】
この判定の結果、現在の走行状態が「走行中」だったとすれば、合成部50はステップ9dに移行して、ここで走行状態判断データベース55Bからフィルタリングされたオブジェクトの読み出しを行い、フィルタリング指定されているか否かを判定する。そして、フィルタリング指定がなされていれば、ステップ9hでこのフィルタリング指定されたオブジェクトに対応するものを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0048】
また、フィルタリング指定がなされていなければ、ステップ9gによりデフォルトデータを読み出して、このデフォルトデータに対応するオブジェクトを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0049】
一方、いま自装置の走行状態が「停止中」だったとする。この場合合成部50Bは、ステップ9cからステップ9iに移行して、ここで走行状態判断データベース55Bからフィルタリングされたオブジェクトの読み出しを行い、フィルタリング指定されているか否かを判定する。そして、フィルリング指定がなされていれば、ステップ9lでこのフィルタリング指定されたオブジェクトに対応するものを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53またはスピーカ54或いはその両方に供給する。
【0050】
また、フィルタリング指定がなされていなければ、ステップ9kによりデフォルトデータを読み出して、このデフォルトデータに対応するオブジェクトを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0051】
例えば、いま自装置の走行状態が「走行中」だったとすると、図10に示すようにフィルタリング指定されたオブジェクトとして「音声」がデータベース55Bに記憶されているので、合成部50Bでは受信した複数のオブジェクトの中から音声オブジェクトが選択される。そして、この選択された音声オブジェクトがシーン記述解析データSCに従って合成されたのち、スピーカ54から拡声出力される。
【0052】
このため走行中においては、シーン情報のうち音声オブジェクトのみがスピーカ54から出力され、ディスプレイ53には映像及び文字が一切表示されない。従って、ユーザは走行中にディスプレイ53を見ることがなくなり、これにより安全な運転を行うことができる。
【0053】
これに対し停止中においては、映像オブジェクト及び文字オブジェクトがディスプレイ53に表示され、音声オブジェクトがスピーカ54から拡声出力される。従って、ユーザは車両を停止させることで、すべてのオブジェクトを含むシーン情報を視聴及び聴取することができる。
【0054】
なお、走行中におけるオブジェクトの選択を音声オブジェクトのみに固定すると、走行中には助手席や後部座席の人も映像及び文字を見ることができなくなる。そこで、キー入力部によりユーザがモード切り替え操作を行うことで、走行中においても映像オブジェクト及び文字オブジェクトがディスプレイ53に表示されるようにしてもよい。
【0055】
また、走行中においては、文字オブジェクトを音声合成技術を用いて音声オブジェクトに変換してこれをスピーカ54から出力させるようにしてもよい。このようにすると、例えばヘッドラインニュースや交通情報、天気予報等の文字オブジェクトを音声読み上げにより端末ユーザに報知することができ、端末ユーザは走行中においても文字オブジェクトの内容を知ることが可能となる。
【0056】
また、上記音声合成により生成した音声オブジェクトをスピーカ54から拡声出力する際に、音楽やパーソナリティの音声オブジェクトが既に存在する場合には、これら既存の音声オブジェクトの音量を低下させた上で合成して拡声出力させるようにするとよい。また、スピーカがステレオ対応になっている場合には、上記音声合成により生成した音声オブジェクトを一方のチャネル(例えば運転席側の右チャネル)から出力させ、既存の音声オブジェクトを他方のチャネル(助手席側の左チャネル)から出力させるようにチャネル分離を行うとよい。さらに、その際右チャネルの音量を左チャネルの音量に比べて相対的に大きくするとよい。以上のように構成すると、端末ユーザは文字オブジェクトに対応する音声合成オブジェクトをより明瞭に聞き取ることが可能となる。
【0057】
(第3の実施形態)
この発明に係わる第3の実施形態は、端末装置に、接続使用中の提示装置の種別と提示対象オブジェクトとの対応関係を表す設定情報を記憶した提示種別判断データベースを設け、放送信号の受信に先立ち接続使用中の提示装置の種別を判定して、この種別の判定結果と上記提示種別判断データベースに記憶してある設定情報とを基に、受信復号した複数のオブジェクトの中から適切なオブジェクトを選択し合成して、提示装置としてのディスプレイ又はスピーカに出力するようにしたものである。
【0058】
図12は、この第3の実施形態に係わる端末装置の構成を示すブロック図である。なお、同図において前記図3と同一部分には同一符号を付して詳しい説明は省略する。
【0059】
この実施形態の端末装置には、提示種別判断データベース55Cが設けてある。この提示種別判断データベース55Cには、接続使用中の提示装置の種別、つまりスピーカ、低解像度のディスプレイ、高解像度ディスプレイに各々対応付けて、提示すべきオブジェクトの識別情報(オブジェクトID)が記憶してある。図11はその構成の一例を示すものである。
【0060】
合成部50Cは、提示制御手段51Cと、提示種別判定手段52Cとを備えている。提示種別判定手段52Cは、合成部50Cに接続されている提示装置の種類、つまりディスプレイ53が接続されているかスピーカ54が接続されているかを判定し、さらにディスプレイが接続されている場合にはその仕様が高解像度であるか低解像度であるかを判定する。
【0061】
提示制御手段51Cは、受信オブジェクトを提示する際に、上記提示種別判定手段52Cの判定結果をキーにして提示種別判断データベース55Cをアクセスし、提示可能なオブジェクトを認識する。そして、この提示可能なオブジェクトに対応するものを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0062】
このような構成であるから、本実施形態に係わる端末装置では以下のようなオブジェクト提示動作が行われる。図13はその制御手順及び制御内容を示すフローチャートである。
【0063】
放送信号の受信に先立ち合成部50Cは、ステップ13aにおいて接続されていてかつ使用可能な提示装置の種別を判定する。この判定の結果、提示種別がスピーカ54であればステップ13bに移行して、ここで提示種別判断データベース55Cから対応するオブジェクト、つまり「音声」を読み出す。そして、ステップ13cにおいて、選択部49から入力された複数の受信オブジェクトの中から音声オブジェクトのみを選択し、この選択した音声オブジェクトが複数ある場合にはこれらをシーン記述解析データSCに従って合成したのち、スピーカ54に供給して拡声出力させる。
【0064】
一方、提示種別が低解像度ディスプレイであればステップ13dに移行して、ここで提示種別判断データベース55Cから対応するオブジェクト、つまり「文字」を読み出す。そして、ステップ13eにおいて、選択部49から入力された複数の受信オブジェクトの中から文字オブジェクトを選択し、この選択した文字オブジェクトが複数ある場合にはこれらをシーン記述解析データSCに従って合成したのち、低解像度化ディスプレイに供給して表示させる。
【0065】
なお、このとき提示装置としてスピーカ54も接続されていれば、合成部50Cは選択部49から入力された複数の受信オブジェクトの中から音声オブジェクトを選択し、この選択した音声オブジェクトをシーン記述解析データSCに従って合成したのち、スピーカ54に供給して拡声出力させる。
【0066】
また、提示種別が高解像度ディスプレイ53であれば、ステップ13fに移行して、ここで提示種別判断データベース55Cから対応するオブジェクト、つまり「映像」と「文字」を読み出す。そして、ステップ13gにおいて、選択部49から入力された複数の受信オブジェクトの中から映像オブジェクト及び文字オブジェクトをそれぞれ選択し、この選択した映像オブジェクト及び文字オブジェクトをシーン記述解析データSCに従って合成したのち、高解像度化ディスプレイ53に供給して表示させる。
【0067】
なお、このとき提示装置としてスピーカ54も接続されていれば、合成部50Cは選択部49から入力された複数の受信オブジェクトの中から音声オブジェクトを選択し、この選択した音声オブジェクトをシーン記述解析データSCに従って合成したのち、スピーカ54に供給して拡声出力させる。
【0068】
したがって、この第3の実施形態によれば、接続使用中の提示装置の種別に適合したオブジェクトが自動的に選択されて提示装置に掲示されることになり、これにより提示装置の種別に応じて常に適切なオブジェクト提示を行うことが可能となる。
【0069】
なお、提示種別判定手段52Cの判定結果をディスプレイ53に表示するようにしてもよい。このようにすると、例えばディスプレイ53が高解像度モードを有しているにも拘わらず、低解像度モードが設定されているような場合に、端末ユーザは現在モードを確認して高解像度モードへの設定変更を行うことが可能となる。
【0070】
(第4の実施形態)
この発明に係わる第4の実施形態は、送信局においてシーン記述データに各オブジェクトの提示地域を指定するための地域指定データを付加して送信する。そして端末装置においては、複数のGPS衛星が送信している測距信号を受信することで自装置の位置を検出して、この位置検出データと受信したシーン記述データに含まれる上記地域指定データとを基に、受信復号した複数のオブジェクトの中から自装置の現在位置に対応するオブジェクトを選択し、これらの選択したオブジェクトを合成してディスプレイ又はスピーカに出力するようにしたものである。
【0071】
図14は、この発明の第4の実施形態に係わる端末装置の構成を示すブロック図である。なお、同図において前記図3と同一部分には同一符号を付して詳しい説明は省略する。
【0072】
この端末装置はGPS受信部62を備えており、GPS衛星GS1,GS2,…が送信している測距用信号をアンテナ61を介してこのGPS受信部62で受信する。そして、その受信信号を位置検出部63に入力する。位置検出部63は、上記各GPS衛星GS1,GS2,…から到来した測距用信号を基に自装置の座標位置を求め、その位置検出データLDを上記合成部50Dに入力する。
【0073】
合成部50Dは、提示制御手段51Dを備えている。この提示制御手段51Dは、上記位置検出部63から与えられた位置検出データLD、つまり端末装置40の現在位置を表すデータを、シーン記述解析部48から与えられたシーン記述解析データSCに含まれる地域指定データと比較する。そして、現在位置に相当する地域指定がなされたオブジェクトを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0074】
このような構成であるから、本実施形態に係わる端末装置では以下のようなオブジェクト提示動作が行われる。図15はその制御手順及び制御内容を示すフローチャートである。
【0075】
放送信号の受信動作中に合成部50Dは、定期的にステップ15aで位置検出部63から位置検出データLDを取り込む。そして、この新たな位置検出データLDを取り込むごとに、ステップ15bでこのデータを前回取り込んだ位置検出データLDと比較し、この比較結果から自装置が所定量以上移動したか否かを判定する。そして、所定量以上移動した場合には、ステップ15cに移行してシーン記述解析データSC中の受信オブジェクトを一つ選択し、この受信オブジェクトに対応付けて付加されている地域指定データと自装置の現在位置とをステップ15dで比較する。この比較の結果、自装置の現在位置が指定地域に含まれていれば、ステップ15eに移行してここで選択部49から出力された複数の受信オブジェクトの中から該当するオブジェクトを提示対象として選択する。
【0076】
これに対し、上記ステップ15dにおいて自装置の現在位置が指定地域に含まれていないと判定されると、合成部50Dはステップ15fに移行してここでシーン記述解析データSCに未選択のオブジェクトが残っているか否かを判定する。そして、残っていればステップ15cに戻って未選択のオブジェクトを選択し、上記したステップ15dからステップ15eによる処理を実行する。以後同様に、シーン記述解析データSCに含まれるすべてのオブジェクトについて上記処理を繰り返し実行する。そして、以上の各処理により提示対象として選択された各オブジェクトを、シーン記述解析データSCに従い合成して、ディスプレイ53又はスピーカ54或いはその両方に供給してオブジェクトを提示させる。
【0077】
従って、提示装置には受信した複数のオブジェクトのうち、自装置の現在位置に相当する地域指定がなされたもののみが選択されて提示されることになる。例えば、いま送信局10から図16に示すようなシーン記述データが送られたとし、かつ自装置の現在位置が指定地域「東京」内に含まれるものとする。この場合合成部50Dでは、地域指定データにより「東京」と指定されたオブジェクト、つまり「音声1」、「文字1」及び「映像1」がそれぞれ選択され、これらのオブジェクトがシーン記述解析データSCに従って合成されたのち、ディスプレイ53に表示されるとともにスピーカ54から拡声出力される。
【0078】
したがって端末装置40では、自装置の現在位置とは無関係の地域のオブジェクトが提示されることはなくなり、端末ユーザは常に自身の現在位置に対応する情報を取得することが可能となる。また本実施形態では、各オブジェクトの地域指定を送信局10側から行うので、オブジェクトの更新に伴う指定地域の変更をすべて送信局10側で一括して行うことができる。
【0079】
(第5の実施形態)
この発明に係わる第5の実施形態は、送信局において、シーン記述データの各オブジェクトごとに、端末装置の走行状態に応じて提示するか否かを指定するための走行状態指定データを付加して送信する。そして端末装置においては、車両の速度情報等を基に自装置の走行状態を検出して、この走行状態検出データと受信したシーン記述データに含まれる上記走行状態指定データとを基に、受信復号した複数のオブジェクトの中から適切なオブジェクトを選択し、この選択したオブジェクトを合成してディスプレイ又はスピーカに出力するようにしたものである。
【0080】
図18は、この第5の実施形態に係わる車載用の端末装置の構成を示すブロック図である。なお、同図において前記図8と同一部分には同一符号を付して詳しい説明は省略する。
【0081】
この実施形態の端末装置には、図8に示した装置と同様に走行状態検出部56が設けてある。この走行状態検出部56は、車両の速度検出器から出力される速度検出信号を基に、自装置が走行中か停止中かを判定するもので、その判定結果を走行状態検出データRDとして合成部50Eに供給する。
【0082】
合成部50Eは提示制御手段51Eを備えている。この提示制御手段51Eは、上記走行状態検出部56から出力された走行状態検出データRD、つまり端末装置40が走行中か停止中かを表すデータを、シーン記述解析部48から出力されたシーン記述解析データSCに含まれる走行状態指定データと比較する。そして、自装置の現在の走行状態に対応するオブジェクトを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0083】
このような構成であるから、本実施形態に係わる端末装置では以下のようなオブジェクト提示動作が行われる。図19はその制御手順及び制御内容を示すフローチャートである。
【0084】
放送信号の受信動作中に合成部50Eは、定期的にステップ19aにより走行状態検出部56から走行状態検出データRDを取り込む。そして、この走行状態検出データRDを取り込むごとに、ステップ19bでこの検出データRDをもとに自装置の走行状態が「走行中」であるか又は「停止中」であるかを判定する。
【0085】
この判定の結果、自装置が「走行中」であれば、ステップ19cに移行してここでシーン記述データ中のオブジェクトを一つ選択し、このオブジェクトに対応付けて付加されている走行状態指定データと自装置の現在の走行状態とをステップ19dで比較する。この比較の結果、走行状態指定データが「走行中提示オン」であれば、ステップ19eに移行してここで選択部49から出力された複数の受信オブジェクトの中から該当するオブジェクトを提示対象として選択する。
【0086】
これに対し、上記ステップ19dにおいて走行状態指定データが「走行中提示オフ」であれば、そのままステップ19fに移行してシーン記述解析データSCに未選択のオブジェクトが残っているか否かを判定する。そして、未選択のオブジェクトが残っていれば、ステップ19cに戻って未選択のオブジェクトをひとつ選択し、上記したステップ19d及びステップ19eによる処理を実行する。以後同様に、シーン記述解析データSCに含まれるすべてのオブジェクトについて上記処理を繰り返し実行する。
【0087】
そして、以上の各処理により提示対象として選択された各オブジェクトを、シーン記述解析データSCに従い合成して、ディスプレイ53又はスピーカ54或いはその両方に供給してオブジェクトを提示させる。
【0088】
従って、提示装置には受信した複数のオブジェクトのうち、「走行中提示可」と指定されたオブジェクトのみが選択されて提示されることになる。例えば、いま送信局10から図17に示すようなシーン記述データが送られたとすると、合成部50Eでは走行状態指定データにより「走行中提示可」と指定されたオブジェクト、つまり「音声1」のみが選択され、この音声オブジェクトがシーン記述解析データSCに従ってスピーカ54から拡声出力される。
【0089】
したがって端末装置では、自装置の走行中においては音声オブジェクトのみが拡声出力され、映像オブジェクト及び文字オブジェクトは表示されない。このため、端末ユーザは走行中にディスプレイ53を見る必要がなくなり、これにより安全な運転を行うことができる。
【0090】
なお、ステップ19bにおいて自装置の走行状態が「停止中」と判定された場合には、合成部50Eはステップ19gに移行してここで受信された全オブジェクトを選択し、これらのオブジェクトをシーン記述解析データSCに従い合成して、ディスプレイ53又はスピーカ54或いはその両方に供給してオブジェクトを提示させる。従って端末ユーザは、車両を停止させることで、すべてのオブジェクトを含むシーン情報を視聴及び聴取することができる。
【0091】
すなわち、第5の実施形態によれば自装置の走行状態に応じて適切なオブジェクト提示を行うことができる。また、各オブジェクトに対する走行状態に応じた提示指定を送信局10側から行うので、オブジェクトの更新に伴う提示指定の変更をすべて送信局10側で一括して行うことができる。
【0092】
(第6の実施形態)
この発明に係わる第6の実施形態は、送信局において、シーン記述データの各オブジェクトごとに、使用すべき提示装置の種別を表す提示装置種別データを付加して送信する。そして端末装置においては、放送信号の受信に先立ち接続使用中の提示装置の種別を判定して、この種別の判定結果と受信したシーン記述データに含まれる上記提示装置種別データとを基に、受信復号した複数のオブジェクトの中から、接続使用中の提示装置の種別に対応したオブジェクトを選択し、これをシーン記述データに従い合成して、提示装置としてのディスプレイ又はスピーカに出力するようにしたものである。
【0093】
図20は、この第6の実施形態に係わる車載用の端末装置の構成を示すブロック図である。なお、同図において前記図12と同一部分には同一符号を付して詳しい説明は省略する。
【0094】
合成部50Fは、提示制御手段51Fと、提示種別判定手段52Fとを備えている。提示種別判定手段52Fは、合成部50Fに接続されている提示装置の種類、つまりディスプレイ53が接続されているかスピーカ54が接続されているかを判定し、さらにディスプレイ53が接続されている場合にはその仕様が高解像度であるか低解像度であるかを判定する。
【0095】
提示制御手段51Fは、受信オブジェクトを提示する際に、上記提示種別判定手段52Fの判定結果を、シーン記述解析部48により得られたシーン記述解析データSCに含まれる提示装置種別データと比較する。そして、この比較結果を基に、現在自装置に接続されている提示装置の種別に適合するオブジェクトを判断し、このオブジェクトに対応するものを選択部49から出力された複数の受信オブジェクトの中から選択し、これらをシーン記述解析データSCに従い合成してディスプレイ53又はスピーカ54に供給する。
【0096】
このような構成であるから、本実施形態に係わる端末装置では以下のようなオブジェクト提示動作が行われる。図21はその制御手順及び制御内容を示すフローチャートである。
【0097】
放送信号の受信に先立ち合成部50Fは、自装置に接続されていてかつ使用可能な提示装置の種別を判定する。すなわち、ディスプレイ53が接続されているか又はスピーカ54が接続されているか判定し、さらにディスプレイ53が接続されていればその仕様が高解像度であるか低解像度であるかを判定する。
【0098】
さて、この状態で放送信号が受信されると、合成部50Fはステップ21aにおいて、シーン記述解析部48から出力されたシーン記述解析データSCの中からオブジェクトを一つ選択し、このオブジェクトに対応付けられた提示装置種別を、先に判定しておいた自装置の提示装置の種別とステップ21bで比較する。そして、一致すれば、上記選択したオブジェクトに対応するものを、ステップ21cで選択部49から出力された複数の受信オブジェクトの中から選択する。
【0099】
これに対し上記ステップ21bによる比較の結果、送信局10側からシーン記述データにより指定された提示装置種別と、自装置に接続された提示装置の種別とが一致しなければ、合成部50Fはステップ21dに移行してシーン記述解析データSCに未選択のオブジェクトが残っているか否かを判定する。そして、残っていればステップ21aに戻って未選択のオブジェクトをひとつ選択し、上記したステップ21b及びステップ21cによる処理を実行する。以後同様に、シーン記述解析データSCに含まれるすべてのオブジェクトについて上記処理を繰り返し実行する。
【0100】
そして、以上の各処理により提示対象として選択された各オブジェクトを、シーン記述解析データSCに従い合成して、自装置に接続されている提示装置に供給してオブジェクトを提示させる。
【0101】
例えば、いま自装置にスピーカ54及び低解像度のディスプレイ54が接続されている状態で、送信局10から図22に示すようなシーン記述データが送られたとする。この場合合成部50Fは、提示装置種別データにより「スピーカ」又は「低解像度LCD」と種別指定されたオブジェクト、つまり「音声1」及び「文字1」をそれぞれ認識する。そして、選択部49から出力された複数の受信オブジェクトの中から、上記「音声1」及び「文字1」に対応する受信オブジェクトをそれぞれ選択し、これらの受信オブジェクトをシーン記述解析データSCに従い合成してスピーカ54及びディスプレイ53に供給する。
【0102】
また、自装置にスピーカ54及び高解像度のディスプレイが接続されている場合には、選択部49から出力された複数の受信オブジェクトの中から、「音声1」、「文字1」及び「映像1」に対応する受信オブジェクト、つまりすべてオブジェクトが選択され、これらの受信オブジェクトがシーン記述解析データSCに従い合成されてスピーカ54及びディスプレイ53に供給される。
【0103】
なお、端末装置がスピーカのみを持つラジオタイプの場合には、選択部49から出力された複数の受信オブジェクトの中から、「音声1」に対応する受信オブジェクト、つまり音響オブジェクトのみが選択されてスピーカ53から拡声出力される。
【0104】
従って第6の実施形態によれば、接続使用中の提示装置の種別に適応したオブジェクトが、シーン記述データに含まれている提示装置種別データを基に選択されて提示装置に掲示されることになり、これにより提示装置の種別に応じて常に適切なオブジェクト提示を行うことが可能となる。また、各オブジェクトに対する提示装置の種別指定を送信局10側から行うので、オブジェクトの更新等に伴う提示装置種別の指定変更をすべて送信局10側で一括して行うことができる利点がある。
【0105】
(その他の実施形態)
以上述べた第1乃至第3の各実施形態の各構成、及び第4乃至第6の各実施形態の各構成は、それぞれ必要に応じて適宜組み合わせてその他の実施形態とすることもできる。
【0106】
また、前記各実施形態ではいずれもディジタル衛星放送システムを例にとって説明したが、地上波を用いたディジタル放送システムにも適用可能である。
【0107】
さらに、前記各実施形態ではいずれも各オブジェクトを復号器44〜46で復号したのち、シーン記述データに従って選択部49で選択し、さらに合成部50で選択合成するように構成したが、各オブジェクトをシーン記述データに従い選択部49で選択したのち、この選択されたオブジェクトをデコードして合成するように構成してもよい。
【0108】
【発明の効果】
以上詳述したように、この発明に係わるディジタル放送システムの端末装置では、自装置における所定の状況を検出するための状況検出手段と、自装置の状況とユーザに提示すべきオブジェクトとの対応関係を表す設定情報を記憶したデータベースと、提示制御手段とを新たに設け、この提示制御手段により、上記状況検出手段の検出結果及び上記データベースの設定情報を基に、受信再生された複数のオブジェクトの中から提示すべきオブジェクトを選択し、この選択されたオブジェクトを提示装置に提示するようにしている。
【0109】
また他の発明に係わるディジタル放送システムとその端末装置では、放送局に、オブジェクトの提示条件を指定するための条件指定情報をシーン記述データに含めて送信する条件指定情報送出手段を設け、一方端末装置には、自装置における所定の状況を検出するための状況検出手段と、提示制御手段とを設け、この提示制御手段において、上記状況検出手段の検出結果及び受信再生されたシーン記述データに含まれる条件指定情報を基に、受信再生された複数のオブジェクトの中から提示すべきオブジェクトを選択し、この選択されたオブジェクトを提示装置に提示するように構成している。
【0110】
従ってこれらの発明によれば、端末装置の状況に応じて最適なオブジェクト提示を行うことが可能なディジタル放送システムとその端末装置を提供することができる。
【図面の簡単な説明】
【図1】 この発明に係わるディジタル衛星放送システムの概略構成図。
【図2】 図1に示したシステムにおける送信局の構成を示す回路ブロック図。
【図3】 この発明の第1の実施形態に係わる端末装置の構成を示す回路ブロック図。
【図4】 図3に示した端末装置による提示制御の手順及び内容を示すフローチャート。
【図5】図3に示した端末装置に設けられている位置判断データベースの構成例を示す図。
【図6】 位置判断データベースの更新データの一例を示す図。
【図7】 位置判断データベースの更新結果を示す図。
【図8】 この発明の第2の実施形態に係わる端末装置の構成を示す回路ブロック図。
【図9】 図8に示した端末装置による提示制御の手順及び内容を示すフローチャート。
【図10】 図8に示した端末装置に設けられている走行状態判断データベースの構成例を示す図。
【図11】 この発明の第3の実施形態に係わる端末装置に設けられる提示種別判断データベースの構成例を示す図。
【図12】 この発明の第3の実施形態に係わる端末装置の構成を示す回路ブロック図。
【図13】 図12に示した端末装置による提示制御の手順及び内容を示すフローチャート。
【図14】 この発明の第4の実施形態に係わる端末装置の構成を示す回路ブロック図。
【図15】 図14に示した端末装置による提示制御の手順及び内容を示すフローチャート。
【図16】 この発明の第4の実施形態で使用する地域指定機能を備えたシーン記述データの構成例を示す図。
【図17】 この発明の第5の実施形態で使用する走行状態指定機能を備えたシーン記述データの構成例を示す図。
【図18】 この発明の第5の実施形態に係わる端末装置の構成を示す回路ブロック図。
【図19】 図18に示した端末装置による提示制御の手順及び内容を示すフローチャート。
【図20】 この発明の第6の実施形態に係わる端末装置の構成を示す回路ブロック図。
【図21】 図20に示した端末装置による提示制御の手順及び内容を示すフローチャート。
【図22】 この発明の第6の実施形態で使用する地域指定機能を備えたシーン記述データの構成例を示す図。
【符号の説明】
10…送信局
11…オーサリング装置
12…音響オブジェクト符号化部
13…映像オブジェクト符号化部
14…文字オブジェクト符号化部
15…シーン記述符号化部
16…多重化部
17…送信部
18…Kuバンド用の送信アンテナ
20…衛星制御局
30…静止衛星
31…Kuバンド用の受信アンテナ
32…Sバンド用の送信アンテナ
40…端末装置
41…端末装置の受信アンテナ
42…受信部
43…多重分離部
44…音響オブジェクト復号化部
45…映像オブジェクト復号化部
46…文字オブジェクト復号化部
47…シーン記述復号化部
48…シーン記述解析部
49…選択部
50A,50B,50C,50D,50E,50F…合成部
51A,51B,51C,51D,51E,51F…提示制御手段
52A…データベース更新制御手段
52C,52F…提示種別判定手段
53…ディスプレイ
54…スピーカ
55A…位置判断データベース
55B…走行状態判断データベース
55C…提示種別判断データベース
56…走行状態検出部
61…GPS受信用アンテナ
62…GPS受信部
63…位置検出部
GS1,GS2,…GPS衛星
SC…シーン解析データ
LD…位置検出データ
RD…走行状態検出データ[0001]
BACKGROUND OF THE INVENTION
The present invention broadcasts multimedia information composed of video, audio, text, etc. to a mobile terminal device.Digital broadcasting systemAnd its terminal device.
[0002]
[Prior art]
In recent years, satellite broadcasting systems for mobiles using broadcasting satellites or communication satellites in geostationary orbit have been proposed. This type of system uses MPEG4 ( Moving Picture Coding Experts Group 4) and using the S band for the downlink from the satellite to the mobile terminal device, the mobile terminal device such as the in-vehicle terminal device or the portable information terminal device is a multimedia composed of video, audio, text, etc. It is designed to be able to receive information and is attracting a great deal of attention.
By the way, this type of system assumes the use of MPEG4 as described above. MPEG4 is based on the fact that the conventional moving image encoding method simply encodes an image as one scene, whereas a plurality of AVOs ( Audio / Visual Objects : A scene is expressed by synthesizing hierarchized video / audio signals composed of components represented by persons and backgrounds). Each hierarchical component may be a natural image / sound or a composite image / sound. Further, it may represent the entire scene or may represent a part. Furthermore, there is a great degree of freedom in the degree of overlap of components and temporal / spatial relationships.
That is, in a system using MPEG4, on the transmission side, a plurality of objects constituting one scene and scene description data for synthesizing these objects are encoded into elementary streams using an optimal algorithm. Then multiplex and send. On the receiving side, after each received object and scene description data are decoded, each object is synthesized according to the contents of the scene description data and output to a presentation device such as a display or a speaker.
However, if the objects are to be combined and presented only in accordance with the scene description data, there is a possibility that inappropriate presentation will be performed depending on the situation of the terminal device. For example, when an object has regional characteristics, if this object is always displayed, an object irrelevant to its current position is displayed on the terminal device. In the case of an in-vehicle terminal device, if display data such as video and character data is displayed on the display while traveling, it is extremely undesirable from the viewpoint of traffic safety.
[0003]
[Problems to be solved by the invention]
The present invention has been made paying attention to the above circumstances, and its object is to provide a terminal device.The received multimedia information can be presented in an optimal form depending on the reception position or the state of viewing while moving.It is to provide a digital broadcasting system and a terminal device thereof.
[0004]
[Means for Solving the Problems]
In order to achieve the above object, the present inventionIn a digital broadcasting system, a terminal is configured such that a program is produced by composing each scene by combining one or more objects, the object of the produced program is converted into a broadcast signal, and broadcast to a predetermined service area. On the side, the broadcast signal is received, one or more objects constituting each scene of the program are reproduced, and the program is presented by combining arbitrary objects.
In particular, in the terminal device, receiving and reproducing means for receiving the broadcast signal and reproducing the one or more objects from the received signal;A situation detection unit for detecting a predetermined situation in the own device, a database storing setting information indicating a correspondence relationship between the situation of the own device and an object to be presented to the user, and a presentation control unit are newly provided. Then, the presentation control means selects an object to be presented from a plurality of received and reproduced objects based on the detection result of the situation detection means and the setting information of the database, and presents the selected object. It is intended to be presented to the device.
[0005]
Specifically, the following three configurations can be considered.
In the first configuration, the situation detection means is provided with position detection means for detecting the current position of the own apparatus, and setting information representing the correspondence between the position of the own apparatus and the object to be presented to the user is stored in the database. In addition, in the presentation control means, an object corresponding to the current position of the own apparatus among the plurality of received and reproduced objects based on the current position of the own apparatus detected by the position detecting means and the setting information of the database Is selected and presented to the presentation device.
[0006]
In the second configuration, the situation detection meansMoveDetect stateMoveIn addition to providing status detection means, the databaseMoveThe setting information representing the correspondence between the state and the object to be presented to the user is stored, and the presentation control meansMoveThe own device detected by the state detection meansMoveBased on the status and the setting information in the database, the localMoveThe object corresponding to the state is selected and presented to the presentation device.
[0007]
In the third configuration, the situation detection unit is provided with a presentation type detection unit that detects the type of the presentation device, and setting information representing a correspondence relationship between the type of the presentation device and the object to be presented to the user is stored in the database. In the presentation control unit, an object corresponding to the type of the presentation device is selected from the plurality of received and reproduced objects based on the type of the presentation device detected by the presentation type detection unit and the setting information of the database. This is selected and presented to the presentation device.
[0008]
Therefore, according to the terminal device according to the present invention, the location of the terminal device and the terminal deviceMoveAn optimal object is selected and presented each time depending on various conditions of the terminal device such as the state and the type of the presentation device. For this reason, a more effective object presentation is made for the terminal user.
[0009]
on the other handIn other terminal devicesThe broadcast station is provided with condition designation information sending means for sending the condition designation information for designating the object presentation condition in the scene description data, while the terminal device detects the predetermined situation in the own apparatus. The situation detection means and the presentation control means are provided, and the presentation control means is received and reproduced based on the detection result of the situation detection means and the condition designation information included in the scene description data reproduced by the reproduction means. An object to be presented is selected from a plurality of objects, and the selected object is presented to the presentation device.
[0010]
Regarding this invention, the following three specific examples can be considered.
In the first configuration, in the condition designation information sending means of the broadcasting station, the area designation information for designating the presentation area for each object constituting the scene is added and transmitted. Provided with position detection means for detecting the current position of the own apparatus, and in the presentation control means, the current position of the own apparatus detected by the position detection means and the area designation information included in the scene description data received and reproduced Based on the comparison result, an object to which the area designation information corresponding to the current position of the device is added is selected and presented to the presentation device.
[0011]
In the second configuration, in the broadcast station condition designation information sending means, the presentation condition is set for each object constituting the scene.MoveAt the same time, the terminal device adds the specified information for specifying according to the status, and transmits it.MoveDetect stateMoveIn the presentation control means provided with the state detection means,MoveThe own device detected by the state detection meansMoveThe state and the designation information of the presentation condition included in the received and reproduced scene description data are compared. Based on the comparison result,MoveAn object to which designation information corresponding to a state is added is selected and presented to the presentation device.
[0012]
In the third configuration, the condition designation information sending means of the broadcasting station adds and sends type designation information for designating the type of the presentation device for each object constituting the scene. The detection means is provided with a presentation type detection means for detecting the type of the presentation apparatus, and the presentation control means detects the type of the presentation apparatus detected by the presentation type detection means and the type designation included in the received and reproduced scene description data. Information is compared, and based on this comparison result, an object to which type designation information corresponding to the type of the presentation device is added is selected and presented to the presentation device.
[0013]
Therefore, according to the present inventionDigital broadcasting systemAnd the terminal device, the location of the terminal device and the terminal deviceMoveIn accordance with various conditions of the terminal device such as the state and the type of the presentation device, and in accordance with the conditions specified by the broadcasting station, the terminal device selects and presents the optimum object each time. For this reason, a more effective object presentation is made for the terminal user. Also, the object presentation condition can be arbitrarily designated from the broadcasting station side.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
First, an outline of a digital broadcasting system described in the embodiment will be described.
This system is a digital satellite broadcasting system mainly for mobiles using broadcasting satellites or communication satellites, and MPEG4 ( Moving Picture Coding Experts Group 4) and using the S band for the downlink from the satellite to the mobile terminal device, the mobile terminal device such as the in-vehicle terminal device or the portable information terminal device is a multimedia composed of video, audio, text, etc. Information can be received.
MPEG4 is based on the fact that the conventional moving image encoding method simply encodes an image as one scene, whereas a plurality of AVOs ( Audio / Visual Objects : A scene is expressed by synthesizing hierarchized video / audio signals composed of components represented by persons and backgrounds). Each hierarchical component may be a natural image / sound or a composite image / sound. Further, it may represent the entire scene or may represent a part. Furthermore, there is a great degree of freedom in the degree of overlap of components and temporal / spatial relationships.
That is, in the present system using MPEG4, on the transmission side, one or more objects constituting one scene and scene description data for synthesizing the objects are encoded into elementary streams by an optimal algorithm, respectively. After that, it multiplexes and transmits. On the receiving side, after each received object and scene description data are decoded, each object is synthesized according to the contents of the scene description data and output to a presentation device such as a display or a speaker.
By the way, if each object is to be combined and presented only in accordance with the scene description data, it is assumed that the presentation is inappropriate depending on the situation of the terminal device. For example, when an object has regional characteristics, if this object is always displayed, an object irrelevant to its current position is displayed on the terminal device. In addition, in the case of an in-vehicle terminal device, if display data such as video or text data is displayed on the display while driving, the driver will be distracted by the display and cannot concentrate on driving. It is very unfavorable.
Therefore, in the embodiment described below, optimal object presentation can be performed according to the situation of the terminal device.
(First embodiment)
In the first embodiment according to the present invention, a terminal apparatus is provided with a position determination database that stores setting information indicating the correspondence between the position of the own apparatus and an object to be presented to the user, and a plurality of GPS (Global Positioning System) ) The position of the own device is detected by receiving the ranging signal transmitted by the satellite, and a plurality of received and decoded data are obtained based on the position detection data and the setting information stored in the position determination database. An object corresponding to the current position of the device is selected from the objects, and these objects are combined and output to a display or a speaker.
[0015]
FIG. 1 relates to the present invention.Digital satellite broadcasting systemFIG. thisDigital satellite broadcasting systemIncludes at least one transmitting
[0016]
The transmitting
[0017]
The
The
[0018]
In the service area, for example, a broadcast receiving device (not shown) fixedly installed in an office or home, or an in-vehicle or portable movable terminal device 40 is transferred from the
[0019]
By the way, the transmitting
[0020]
First, the transmitting station 10For producing
[0021]
The audio data, video data, character data, and scene description data output from the
[0022]
Next, the terminal device 40 receives the S-band broadcast signal transmitted from the
[0023]
The audio
[0024]
The scene description data decoded by the scene
[0025]
By the way, the terminal device 40 includes a
[0026]
The terminal device 40 has a position determination database (position determination DB) 55A. The
[0027]
The synthesizing unit 50A includes presentation control means 51A and database update control means 52A as new functions according to the present invention.
The
[0028]
When the DB update data is sent from the transmitting
[0029]
Next, an object presentation operation by the terminal device configured as described above will be described. FIG. 4 is a flowchart showing the control procedure and control contents.
[0030]
During the broadcast signal reception operation, the synthesizing unit 50A periodically takes in the position detection data LD from the
[0031]
As a result of the determination, if an area including the current position of the device is registered in the
[0032]
For example, if the current position of the own apparatus is the region “Tokyo”, “Tokyo 1:
[0033]
On the other hand, when the setting object is not registered, the process proceeds to step 4g, where it is determined whether or not the default data of the object corresponding to the
[0034]
Accordingly, in the terminal device 40, an object corresponding to the region including the current position is selected and displayed on the
[0035]
Further, it is assumed that database update data using scene description data comes from the
[0036]
For example, it is assumed that the database update data as shown in FIG. 6 has arrived while the
[0037]
By doing in this way, the content of the
[0038]
In addition, as a means for detecting the self-position in the terminal device 40, in addition to the one using a GPS satellite, one that is detected by detecting a base station ID transmitted from a PHS (Personal Handy phone System) base station, etc. It is possible to use.
[0039]
Further, based on the position detection data LD obtained by the
[0040]
(Second Embodiment)
In the second embodiment according to the present invention, the in-vehicle terminal device is provided with a traveling state determination database that stores setting information indicating the correspondence between the traveling state of the own device and the object to be presented, and is based on vehicle speed information and the like. Detecting the running state of the device itself, selecting an appropriate object from a plurality of received and decoded objects based on the running state detection data and the setting information stored in the running state determination database. And output to a display or a speaker.
[0041]
FIG. 8 is a block diagram showing a configuration of an in-vehicle terminal device according to the second embodiment. In the figure, the same parts as those in FIG.
[0042]
The terminal device of this embodiment is provided with a running
[0043]
The terminal device of this embodiment is provided with a traveling
[0044]
The combining unit 50B includes a
[0045]
Since it is such a structure, the following object presentation operation | movement is performed in the terminal device concerning this embodiment. FIG. 9 is a flowchart showing the control procedure and control contents.
[0046]
During the broadcast signal reception operation, the synthesizing unit 50B periodically captures the traveling state detection data RD from the traveling
[0047]
As a result of this determination, if the current running state is “running”, the composition unit 50 proceeds to step 9d, where the filtered object is read from the running
[0048]
If no filtering is specified, the default data is read out in
[0049]
On the other hand, it is assumed that the running state of the own device is “stopped”. In this case, the composition unit 50B proceeds from
[0050]
If no filtering is specified, the default data is read out in
[0051]
For example, assuming that the running state of the device is “running”, “voice” is stored in the
[0052]
For this reason, during traveling, only the audio object in the scene information is output from the
[0053]
On the other hand, during the stop, the video object and the character object are displayed on the
[0054]
If the selection of the object during traveling is fixed to only the audio object, the passenger and the rear seat cannot see images and characters during traveling. Therefore, the video object and the character object may be displayed on the
[0055]
Further, during traveling, the character object may be converted into a voice object using a voice synthesis technique and output from the
[0056]
In addition, when a sound object generated by the above-described sound synthesis is output from the
[0057]
(Third embodiment)
In the third embodiment according to the present invention, a terminal type is provided with a presentation type determination database that stores setting information representing the correspondence between the type of a presentation apparatus in use and a presentation target object, and is used for receiving broadcast signals. Determine the type of the presentation device in use in advance, and select an appropriate object from the plurality of received and decoded objects based on the determination result of this type and the setting information stored in the presentation type determination database. These are selected, combined, and output to a display or a speaker as a presentation device.
[0058]
FIG. 12 is a block diagram showing the configuration of the terminal device according to the third embodiment. In the figure, the same parts as those in FIG.
[0059]
The terminal device of this embodiment is provided with a presentation
[0060]
The synthesizing unit 50C includes a
[0061]
When presenting the received object, the
[0062]
Since it is such a structure, the following object presentation operation | movement is performed in the terminal device concerning this embodiment. FIG. 13 is a flowchart showing the control procedure and control contents.
[0063]
Prior to receiving the broadcast signal, the synthesizing unit 50C determines the type of presentation device that is connected and usable in
[0064]
On the other hand, if the presentation type is a low-resolution display, the process proceeds to step 13d, where the corresponding object, that is, “character” is read from the presentation
[0065]
If the
[0066]
If the presentation type is the high-
[0067]
If the
[0068]
Therefore, according to the third embodiment, an object suitable for the type of the presenting device being used for connection is automatically selected and posted on the presenting device, thereby depending on the type of the presenting device. Appropriate object presentation can always be performed.
[0069]
The determination result of the presentation type determination unit 52C may be displayed on the
[0070]
(Fourth embodiment)
In the fourth embodiment according to the present invention, the transmission station adds the area designation data for designating the presentation area of each object to the scene description data and transmits the scene description data. In the terminal device, the position of the device itself is detected by receiving ranging signals transmitted by a plurality of GPS satellites, and the region designation data included in the position detection data and the received scene description data, Based on the above, an object corresponding to the current position of the own apparatus is selected from a plurality of received and decoded objects, and the selected objects are synthesized and output to a display or a speaker.
[0071]
FIG. 14 is a block diagram showing a configuration of a terminal apparatus according to the fourth embodiment of the present invention. In the figure, the same parts as those in FIG.
[0072]
This terminal device is provided with a
[0073]
The synthesizing unit 50D includes a
[0074]
Since it is such a structure, the following object presentation operation | movement is performed in the terminal device concerning this embodiment. FIG. 15 is a flowchart showing the control procedure and control contents.
[0075]
During the broadcast signal receiving operation, the synthesizing unit 50D periodically takes in the position detection data LD from the
[0076]
On the other hand, if it is determined in
[0077]
Therefore, only the object for which the area designation corresponding to the current position of the own device is specified among the plurality of received objects is selected and presented to the presentation device. For example, it is assumed that scene description data as shown in FIG. 16 is sent from the transmitting
[0078]
Therefore, in the terminal device 40, an object in a region unrelated to the current location of the device itself is not presented, and the terminal user can always obtain information corresponding to the current location of the device. Further, in this embodiment, since the area designation of each object is performed from the
[0079]
(Fifth embodiment)
In the fifth embodiment according to the present invention, at the transmitting station, for each object of the scene description data, running state designation data for designating whether to present according to the running state of the terminal device is added. Send. The terminal device detects the running state of the own device based on the vehicle speed information and the like, and receives and decodes based on the running state detection data and the running state designation data included in the received scene description data. An appropriate object is selected from the plurality of objects, and the selected objects are synthesized and output to a display or a speaker.
[0080]
FIG. 18 is a block diagram showing a configuration of a vehicle-mounted terminal device according to the fifth embodiment. In the figure, the same parts as those in FIG.
[0081]
The terminal device of this embodiment is provided with a running
[0082]
The combining unit 50E includes a
[0083]
Since it is such a structure, the following object presentation operation | movement is performed in the terminal device concerning this embodiment. FIG. 19 is a flowchart showing the control procedure and control contents.
[0084]
During the broadcast signal reception operation, the synthesizing unit 50E periodically captures the travel state detection data RD from the travel
[0085]
If the result of this determination is that the device is “running”, the process proceeds to step 19c, where one object in the scene description data is selected, and running state designation data added in association with this object. And the current running state of the own device are compared in
[0086]
On the other hand, if the travel state designation data is “presentation off during travel” in
[0087]
Then, the objects selected as the presentation targets by the above processes are synthesized according to the scene description analysis data SC and supplied to the
[0088]
Therefore, only the objects designated as “presentable during travel” among the plurality of received objects are selected and presented to the presentation device. For example, when the scene description data as shown in FIG. 17 is sent from the transmitting
[0089]
Therefore, in the terminal device, only the sound object is loudly output while the own device is traveling, and the video object and the character object are not displayed. For this reason, the terminal user does not need to look at the
[0090]
If it is determined in
[0091]
That is, according to the fifth embodiment, appropriate object presentation can be performed according to the running state of the own device. In addition, since the presentation designation according to the running state for each object is performed from the transmitting
[0092]
(Sixth embodiment)
In the sixth embodiment according to the present invention, in the transmitting station, presentation device type data indicating the type of the presentation device to be used is added to each object of the scene description data and transmitted. Then, the terminal device determines the type of the presentation device being used in connection prior to receiving the broadcast signal, and receives it based on the determination result of this type and the presentation device type data included in the received scene description data. An object corresponding to the type of presentation device being used is selected from the plurality of decrypted objects, synthesized according to the scene description data, and output to the display or speaker as the presentation device. is there.
[0093]
FIG. 20 is a block diagram showing a configuration of an in-vehicle terminal device according to the sixth embodiment. In the figure, the same parts as those in FIG.
[0094]
The combining unit 50F includes a
[0095]
When presenting the received object, the
[0096]
Since it is such a structure, the following object presentation operation | movement is performed in the terminal device concerning this embodiment. FIG. 21 is a flowchart showing the control procedure and control contents.
[0097]
Prior to receiving the broadcast signal, the combining unit 50F determines the type of presentation device that is connected to the device and that can be used. That is, it is determined whether the
[0098]
When a broadcast signal is received in this state, the synthesizer 50F selects one object from the scene description analysis data SC output from the
[0099]
On the other hand, as a result of the comparison in
[0100]
Then, the objects selected as the presentation targets by the above processes are synthesized according to the scene description analysis data SC and supplied to the presentation apparatus connected to the own apparatus to present the objects.
[0101]
For example, assume that scene description data as shown in FIG. 22 is sent from the transmitting
[0102]
Further, when the
[0103]
When the terminal device is a radio type having only a speaker, only the reception object corresponding to “
[0104]
Therefore, according to the sixth embodiment, an object adapted to the type of the presenting device being used for connection is selected and displayed on the presenting device based on the presenting device type data included in the scene description data. Thus, it is possible to always present an appropriate object according to the type of the presentation device. In addition, since the type of the presentation device for each object is designated from the transmitting
[0105]
(Other embodiments)
The configurations of the first to third embodiments described above and the configurations of the fourth to sixth embodiments can be appropriately combined to form other embodiments as necessary.
[0106]
In each of the above embodiments, allDigital satellite broadcasting systemHowever, the present invention can also be applied to a digital broadcasting system using terrestrial waves.
[0107]
Further, in each of the above embodiments, each object is decoded by the
[0108]
【The invention's effect】
As described in detail above, the present invention relates toDigital broadcasting systemIn the terminal device, a situation detection means for detecting a predetermined situation in the own apparatus, a database storing setting information indicating a correspondence relationship between the situation of the own apparatus and an object to be presented to the user, a presentation control means, This presentation control means selects an object to be presented from a plurality of received and reproduced objects based on the detection result of the situation detection means and the setting information of the database. The object is presented to the presentation device.
[0109]
Also related to other inventionsDigital broadcasting systemIn the terminal device, the broadcast station is provided with condition designation information sending means for sending the condition designation information for designating the object presentation condition in the scene description data. A situation detection means for detecting the situation and a presentation control means are provided, and in this presentation control means, the detection result of the situation detection meansReceive playbackOn the basis of the condition specifying information included in the scene description data, an object to be presented is selected from a plurality of received and reproduced objects, and the selected object is presented to the presentation device. .
[0110]
Therefore, according to these inventions, it is possible to present an optimal object according to the situation of the terminal device.Digital broadcasting systemAnd its terminal device can be provided.
[Brief description of the drawings]
FIG. 1 relates to the present invention.Digital satellite broadcasting systemFIG.
2 is a circuit block diagram showing a configuration of a transmitting station in the system shown in FIG.
FIG. 3 is a circuit block diagram showing a configuration of a terminal apparatus according to the first embodiment of the present invention.
4 is a flowchart showing the procedure and contents of presentation control by the terminal device shown in FIG. 3;
5 is a diagram showing a configuration example of a position determination database provided in the terminal device shown in FIG. 3. FIG.
FIG. 6 is a diagram illustrating an example of update data in a position determination database.
FIG. 7 is a diagram showing a result of updating a position determination database.
FIG. 8 is a circuit block diagram showing a configuration of a terminal apparatus according to a second embodiment of the present invention.
FIG. 9 is a flowchart showing the procedure and contents of presentation control by the terminal device shown in FIG. 8;
10 is a diagram showing a configuration example of a travel state determination database provided in the terminal device shown in FIG. 8;
FIG. 11 is a diagram showing a configuration example of a presentation type determination database provided in a terminal device according to a third embodiment of the present invention.
FIG. 12 is a circuit block diagram showing a configuration of a terminal apparatus according to a third embodiment of the present invention.
FIG. 13 is a flowchart showing the procedure and contents of presentation control by the terminal device shown in FIG. 12;
FIG. 14 is a circuit block diagram showing a configuration of a terminal apparatus according to a fourth embodiment of the present invention.
15 is a flowchart showing the procedure and contents of presentation control by the terminal device shown in FIG. 14;
FIG. 16 is a diagram showing a configuration example of scene description data having an area designating function used in the fourth embodiment of the present invention.
FIG. 17 is a diagram showing a configuration example of scene description data having a running state designation function used in the fifth embodiment of the present invention.
FIG. 18 is a circuit block diagram showing a configuration of a terminal apparatus according to a fifth embodiment of the present invention.
FIG. 19 is a flowchart showing the procedure and content of presentation control by the terminal device shown in FIG. 18;
FIG. 20 is a circuit block diagram showing a configuration of a terminal apparatus according to a sixth embodiment of the present invention.
FIG. 21 is a flowchart showing the procedure and content of presentation control by the terminal device shown in FIG. 20;
FIG. 22 is a diagram showing a configuration example of scene description data having an area designating function used in the sixth embodiment of the present invention.
[Explanation of symbols]
10: Transmitting station
11 ... Authoring device
12 ... Acoustic object encoding unit
13 ... Video object encoding unit
14: Character object encoding unit
15 ... Scene description encoding unit
16: Multiplexer
17: Transmitter
18 ... Ku band transmission antenna
20 ... Satellite control station
30 ... geostationary satellite
31 ... Receiving antenna for Ku band
32 ... S-band transmission antenna
40 ... Terminal device
41. Reception antenna of terminal device
42. Reception unit
43. Demultiplexing unit
44. Acoustic object decoding unit
45 ... Video object decoding unit
46: Character object decoding unit
47. Scene description decoding unit
48. Scene description analysis section
49 ... Selection part
50A, 50B, 50C, 50D, 50E, 50F ... synthesis unit
51A, 51B, 51C, 51D, 51E, 51F ... presentation control means
52A ... Database update control means
52C, 52F ... Presentation type determination means
53 ... Display
54 ... Speaker
55A ... Position determination database
55B ... Running state judgment database
55C ... Presentation type judgment database
56 ... Running state detection unit
61 ... GPS receiving antenna
62 ... GPS receiver
63 ... Position detection unit
GS1, GS2, ... GPS satellites
SC ... Scene analysis data
LD: Position detection data
RD ... Running state detection data
Claims (8)
前記放送信号を受信してその受信信号から前記1以上のオブジェクト及びシーン記述データを復号する受信復号手段と、
前記受信復号手段で復号される1以上のオブジェクトの中から指定オブジェクトを選択的に通過させる選択する選択手段と、
前記受信復号手段で復号されるシーン記述データを解析しシーン合成に必要なオブジェクトを指定して前記選択手段に通知するシーン記述解析手段と、
前記シーン記述解析手段で解析されたシーン記述データに基づいて前記選択手段で選択されたオブジェクトを合成する合成手段と、
前記合成手段で合成されるオブジェクトを提示する提示手段と、
前記移動体が走行中か否かを判定する判定手段と、
予め、前記判定手段で少なくとも走行中と判断されるときに前記合成手段で合成するオブジェクトをフィルタリングするための設定情報を記憶するデータベースと、
前記データベースの設定情報を参照して前記判定手段の判定結果に対応するオブジェクトをフィルタリングし、前記合成手段で合成するオブジェクトを制御する制御手段とを具備したことを特徴とするディジタル放送システムの端末装置。Used in a digital broadcasting system that broadcasts a broadcast signal that multiplexes one or more objects constituting each scene of a provided program and scene description data indicating the composition content of the objects from a broadcasting station to a service area, and is mounted on a mobile unit In the terminal device to be
Receiving and decoding means for receiving the broadcast signal and decoding the one or more objects and scene description data from the received signal;
Selecting means for selectively passing a designated object from one or more objects decoded by the reception decoding means;
Scene description analysis means for analyzing the scene description data decoded by the reception decoding means and designating an object necessary for scene synthesis and notifying the selection means;
Combining means for combining the object selected by the selecting means based on the scene description data analyzed by the scene description analyzing means;
Presenting means for presenting the object to be synthesized by the synthesizing means;
Determining means for determining whether or not the moving object is running;
A database that stores setting information for filtering objects to be combined by the combining unit when the determining unit determines that the vehicle is at least traveling in advance;
A terminal device of a digital broadcasting system, comprising: a control unit that filters an object corresponding to a determination result of the determination unit with reference to setting information of the database and controls an object to be combined by the combining unit .
前記受信復号手段は、前記衛星からの放送信号を受信することを特徴とする請求項1記載のディジタル放送システムの端末装置。When a broadcast signal broadcast from the broadcasting station is transmitted toward the service area via a satellite,
2. The terminal device of the digital broadcasting system according to claim 1, wherein the receiving / decoding unit receives a broadcast signal from the satellite.
前記制御手段は、さらに前記種別検出手段で検出される種別の提示装置に合わせて前記合成手段で合成するオブジェクトを選択することを特徴とする請求項1記載のディジタル放送システムの端末装置。Furthermore, it comprises a type detection means for detecting the type of the presentation device connected as the presentation means,
The terminal device of the digital broadcasting system according to claim 1, wherein the control means further selects an object to be synthesized by the synthesizing means in accordance with the type of presentation device detected by the type detecting means.
前記受信復号手段は前記受信信号から更新情報を復号し、
さらに、前記受信復号手段で復号された更新情報に従って前記データベースに記憶されている設定情報を更新する更新制御手段を備えることを特徴とする請求項1記載のディジタル放送システムの端末装置。When the broadcast station includes update information for updating the setting information stored in the database in the broadcast signal,
The reception decoding means decodes update information from the received signal,
The terminal device of the digital broadcasting system according to claim 1, further comprising update control means for updating setting information stored in the database in accordance with update information decoded by the reception decoding means.
前記放送局が、前記移動体が走行中か否かの条件別に提示すべきオブジェクトを指定する条件別指定情報を前記放送信号に含めているとき、
前記放送信号を受信してその受信信号から前記1以上のオブジェクト、シーン記述データ及び条件別指定情報を復号する受信復号手段と、
前記受信復号手段で復号される1以上のオブジェクトの中から指定オブジェクトを選択的に通過させる選択する選択手段と、
前記受信復号手段で復号されるシーン記述データを解析しシーン合成に必要なオブジェクトを指定して前記選択手段に通知するシーン記述解析手段と、
前記シーン記述解析手段で解析されたシーン記述データに基づいて前記選択手段で選択されたオブジェクトを合成する合成手段と、
前記合成手段で合成されるオブジェクトを提示する提示手段と、
前記移動体が走行中か否かを判定する判定手段と、
前記条件別指定情報を参照して前記判定手段の判定結果に対応するオブジェクトをフィルタリングし、前記合成手段で合成するオブジェクトを制御する制御手段とを具備したことを特徴とするディジタル放送システムの端末装置。Used in a digital broadcasting system that broadcasts a broadcast signal that multiplexes one or more objects constituting each scene of a provided program and scene description data indicating the composition content of the objects from a broadcasting station to a service area, and is mounted on a mobile unit In the terminal device to be
When the broadcast station includes, in the broadcast signal, designation information by condition that designates an object to be presented by condition whether or not the mobile object is running,
Receiving and decoding means for receiving the broadcast signal and decoding the one or more objects, scene description data and conditional designation information from the received signal;
Selecting means for selectively passing a designated object from one or more objects decoded by the reception decoding means;
Scene description analysis means for analyzing the scene description data decoded by the reception decoding means and designating an object necessary for scene synthesis and notifying the selection means;
Combining means for combining the object selected by the selecting means based on the scene description data analyzed by the scene description analyzing means;
Presenting means for presenting the object to be synthesized by the synthesizing means;
Determining means for determining whether or not the moving object is running;
A terminal device for a digital broadcasting system, comprising: a control unit that filters an object corresponding to a determination result of the determination unit with reference to the designation information by condition and controls an object to be combined by the combining unit .
前記受信復号手段は、前記衛星からの放送信号を受信することを特徴とする請求項5記載のディジタル放送システムの端末装置。When a broadcast signal broadcast from the broadcasting station is transmitted toward the service area via a satellite,
6. The terminal device of the digital broadcasting system according to claim 5, wherein the receiving / decoding unit receives a broadcast signal from the satellite.
前記制御手段は、さらに前記種別検出手段で検出される種別の提示装置に合わせて前記合成手段で合成するオブジェクトを選択することを特徴とする請求項5記載のディジタル放送システムの端末装置。Furthermore, it comprises a type detection means for detecting the type of the presentation device connected as the presentation means,
6. The terminal device of a digital broadcasting system according to claim 5, wherein the control means further selects an object to be synthesized by the synthesizing means in accordance with the type of presentation device detected by the type detecting means.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14817198A JP3651748B2 (en) | 1998-05-28 | 1998-05-28 | Terminal equipment for digital broadcasting system |
EP99922563A EP1001627A4 (en) | 1998-05-28 | 1999-05-28 | Digital broadcasting system and terminal therefor |
PCT/JP1999/002849 WO1999062254A1 (en) | 1998-05-28 | 1999-05-28 | Digital broadcasting system and terminal therefor |
US09/463,577 US6711379B1 (en) | 1998-05-28 | 1999-05-28 | Digital broadcasting system and terminal therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14817198A JP3651748B2 (en) | 1998-05-28 | 1998-05-28 | Terminal equipment for digital broadcasting system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003125578A Division JP2004007633A (en) | 2003-04-30 | 2003-04-30 | Mobile digital broadcast system and terminal therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002247575A JP2002247575A (en) | 2002-08-30 |
JP3651748B2 true JP3651748B2 (en) | 2005-05-25 |
Family
ID=15446844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14817198A Expired - Fee Related JP3651748B2 (en) | 1998-05-28 | 1998-05-28 | Terminal equipment for digital broadcasting system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3651748B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4705324B2 (en) * | 2003-12-26 | 2011-06-22 | 富士通株式会社 | Data operation method |
JP4503487B2 (en) * | 2005-04-28 | 2010-07-14 | 富士通テン株式会社 | Music information providing system, terminal device, and terminal program |
JP2008054225A (en) * | 2006-08-28 | 2008-03-06 | Community Engine Kk | Distribution value charging method and distribution value charging system |
JP2008054223A (en) * | 2006-08-28 | 2008-03-06 | Community Engine Kk | Information distributing method and information distribution system |
JP2009055487A (en) | 2007-08-28 | 2009-03-12 | Fujitsu Ten Ltd | Digital radio broadcast receiving apparatus, radio broadcast receiving unit and digital radio broadcast receiving system |
JP2017076853A (en) * | 2015-10-14 | 2017-04-20 | 住友電工システムソリューション株式会社 | Transmission device, reception device, terminal device, and server |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0823314A (en) * | 1994-07-06 | 1996-01-23 | Sony Corp | Data broadcast system |
EP0772856B1 (en) * | 1994-07-29 | 1998-04-15 | Seiko Communications Holding N.V. | Dual channel advertising referencing vehicle location |
JPH08247774A (en) * | 1995-03-15 | 1996-09-27 | Sumitomo Electric Ind Ltd | Navigation system |
JPH0965206A (en) * | 1995-08-21 | 1997-03-07 | Toshiba Corp | Program selection device |
JP2852214B2 (en) * | 1995-10-25 | 1999-01-27 | 四国日本電気ソフトウェア株式会社 | Automatic introduction device and automatic introduction method of destination |
JP3158064B2 (en) * | 1996-02-07 | 2001-04-23 | シャープ株式会社 | Video encoding device and video decoding device |
JPH09223976A (en) * | 1996-02-16 | 1997-08-26 | Yazaki Corp | Screen selection method and screen selection device for on-vehicle fm multiplex data receiver |
JPH104539A (en) * | 1996-06-18 | 1998-01-06 | Matsushita Electric Ind Co Ltd | Data multiplexing method and multiplexed data reproduction device |
JPH1078329A (en) * | 1996-09-04 | 1998-03-24 | Daihatsu Motor Co Ltd | Information transmitter and information receiver |
JPH10153438A (en) * | 1996-11-25 | 1998-06-09 | Sumitomo Electric Ind Ltd | Navigation device |
JPH10234014A (en) * | 1997-02-20 | 1998-09-02 | Matsushita Electric Ind Co Ltd | Image decoding method, image decoder, image multiplexing method, image multiplexer and recording medium |
JPH10276382A (en) * | 1997-03-31 | 1998-10-13 | Hitachi Denshi Ltd | Transmitter-receiver |
-
1998
- 1998-05-28 JP JP14817198A patent/JP3651748B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002247575A (en) | 2002-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6711379B1 (en) | Digital broadcasting system and terminal therefor | |
KR100803120B1 (en) | Method for Magnfying Part of Moving Picture Data | |
KR100816407B1 (en) | Apparatus for receiving digital broadcast and displaying advertisement information | |
US20060105787A1 (en) | Apparatus and method for providing location-based information | |
JP2001298375A (en) | Digital radio | |
CN101359917B (en) | Method of providing broadcast service and broadcasting receiver therefor | |
JP3752443B2 (en) | Mobile receiver | |
JP3651748B2 (en) | Terminal equipment for digital broadcasting system | |
EP1753229A2 (en) | Method for searching a digital broadcasting channel in a digital broadcasting reception device | |
KR100770457B1 (en) | Digital multi-meadia broadcasting receiving apparatus having tpeg receiving/outputting function and processing method thereof | |
US7606525B2 (en) | Broadcasting receiver and method thereof | |
EP1961219A1 (en) | Broadcast receiver for and method of providing broadcast channel information | |
KR100846284B1 (en) | Method for epg sharing of portable terminal | |
KR20080099608A (en) | Method for processing function of wireless phone connected with navigation device | |
JP2001053635A (en) | Receiver and receiving method | |
JP3641136B2 (en) | Digital broadcasting system and its terminal equipment | |
US8346157B1 (en) | Content customization in asymmertic communication systems | |
JP2004007633A (en) | Mobile digital broadcast system and terminal therefor | |
JP4470994B2 (en) | Audio system for vehicles | |
JP4018588B2 (en) | Satellite broadcast system and satellite broadcast receiver | |
KR20060024046A (en) | System for providing traffic information relating dmb broadcasting program and method thereof | |
JP2002257568A (en) | Information reproducing method with smell and device therefor | |
KR100399077B1 (en) | Broadcasting Control System and Method of Train | |
KR20060099966A (en) | System and method for displaying background image in mobile multimedia broadcasting terminal | |
KR101117571B1 (en) | System for providing Traffic information using digital radio and Method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040921 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050217 |
|
LAPS | Cancellation because of no payment of annual fees |