JP3651748B2 - Terminal equipment for digital broadcasting system - Google Patents

Terminal equipment for digital broadcasting system Download PDF

Info

Publication number
JP3651748B2
JP3651748B2 JP14817198A JP14817198A JP3651748B2 JP 3651748 B2 JP3651748 B2 JP 3651748B2 JP 14817198 A JP14817198 A JP 14817198A JP 14817198 A JP14817198 A JP 14817198A JP 3651748 B2 JP3651748 B2 JP 3651748B2
Authority
JP
Japan
Prior art keywords
scene description
terminal device
objects
presentation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14817198A
Other languages
Japanese (ja)
Other versions
JP2002247575A (en
Inventor
勤 大輪
聡 宮川
亨 寺内
成 田代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP14817198A priority Critical patent/JP3651748B2/en
Priority to EP99922563A priority patent/EP1001627A4/en
Priority to PCT/JP1999/002849 priority patent/WO1999062254A1/en
Priority to US09/463,577 priority patent/US6711379B1/en
Publication of JP2002247575A publication Critical patent/JP2002247575A/en
Application granted granted Critical
Publication of JP3651748B2 publication Critical patent/JP3651748B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、移動端末装置に向けて映像、音声、文字等からなるマルチメディア情報を放送するディジタル放送システムとその端末装置に関する。
【0002】
【従来の技術】
近年、静止軌道上の放送衛星或いは通信衛星を利用した移動体向けの衛星放送システムが提唱されている。この種のシステムは、符号化方式としてMPEG4( Moving Picture Coding Experts Group 4)を採用し、かつ衛星から移動端末装置へのダウンリンクにSバンドを使用することで、車載端末装置や携帯情報端末装置等の移動端末装置において、映像や音声、文字等からなるマルチメディア情報を受信できるようにしたもので、非常に注目されている。
ところで、この種のシステムは先に述べたようにMPEG4の使用を想定している。MPEG4は、従来の動画像符号化方式が画像を一つのシーンとして単純に符号化するのを基本としているのに対し、複数のAVOs( Audio Visual Objects :人物や背景に代表される構成要素)からなる階層化された映像/音響信号を合成することによって、シーンを表現するものである。各階層構成要素としては、自然画像/音響でもよく、また合成画像/音響でも構わない。また、シーン全体を表すものでも、一部を表すものでも構わない。さらに各構成要素の重なり具合や時間的/空間的関係にも大きな自由度がある。
すなわち、MPEG4を使用するシステムでは、送信側において、一つのシーンを構成する複数のオブジェクトと、これらのオブジェクトを合成するためのシーン記述データとをそれぞれ最適なアルゴリズムでエレメンタリストリームに符号化し、しかるのち多重化して送信する。また受信側では、受信した各オブジェクト及びシーン記述データをそれぞれ復号したのち、シーン記述データの内容に従って各オブジェクトを合成してディスプレイやスピーカ等の提示装置へ出力する。
ところが、シーン記述データのみに従って各オブジェクトを合成して提示しようとすると、端末装置の状況によっては不適切な提示が行われる可能性がある。例えば、オブジェクトに地域性がある場合に、このオブジェクトを常に表示したとすると、端末装置には自己の現在位置とは無関係のオブジェクトが表示されることになる。また、車載端末装置の場合に、走行中に映像や文字データ等の表示データがディスプレイに表示されると、交通安全の点できわめて好ましくない。
【0003】
【発明が解決しようとする課題】
この発明は上記事情に着目してなされたもので、その目的とするところは、端末装置側で受信位置あるいは移動中における視聴形態の状況に応じて、受信したマルチメディア情報を最適な形態で提示することのできるディジタル放送システムとその端末装置を提供することにある。
【0004】
【課題を解決するための手段】
上記目的を達成するためにこの発明は、ディジタル放送システムにおいて、1以上のオブジェクトを組み合わせて各シーンを構成することで番組を制作し、この制作番組のオブジェクトを放送信号に変換して所定のサービスエリアに向けて放送するようにし、端末装置側では、前記放送信号を受信して番組の各シーンを構成する1以上のオブジェクトを再生し、任意のオブジェクトを合成することで番組を提示するように構成する。
特に、端末装置において、前記放送信号を受信してその受信信号から前記1以上のオブジェクトを再生する受信再生手段と、自装置における所定の状況を検出するための状況検出手段と、自装置の状況とユーザに提示すべきオブジェクトとの対応関係を表す設定情報を記憶したデータベースと、提示制御手段とを新たに設ける。そして、この提示制御手段により、上記状況検出手段の検出結果及び上記データベースの設定情報を基に、受信再生された複数のオブジェクトの中から提示すべきオブジェクトを選択し、この選択されたオブジェクトを提示装置に提示するようにしたものである。
【0005】
具体的には、次の3通りの構成が考えられる。
第1の構成は、状況検出手段に自装置の現在位置を検出する位置検出手段を設けるとともに、データベースに自装置の位置とユーザに提示すべきオブジェクトとの対応関係を表す設定情報を記憶しておき、提示制御手段において、上記位置検出手段により検出された自装置の現在位置と上記データベースの設定情報とを基に、受信再生された複数のオブジェクトの中から自装置の現在位置に対応するオブジェクトを選択して提示装置に提示するものである。
【0006】
第2の構成は、状況検出手段に自装置の移動状態を検出する移動状態検出手段を設けるとともに、データベースに自装置の移動状態とユーザに提示すべきオブジェクトとの対応関係を表す設定情報を記憶しておき、提示制御手段において、上記移動状態検出手段により検出された自装置の移動状態と上記データベースの設定情報とを基に、受信再生された複数のオブジェクトの中から自装置の移動状態に対応するオブジェクトを選択して提示装置に提示するものである。
【0007】
第3の構成は、状況検出手段に提示装置の種別を検出する提示種別検出手段を設けるとともに、データベースに提示装置の種別とユーザに提示すべきオブジェクトとの対応関係を表す設定情報を記憶しておき、提示制御手段において、上記提示種別検出手段により検出された提示装置の種別と上記データベースの設定情報とを基に、受信再生された複数のオブジェクトの中から提示装置の種別に対応するオブジェクトを選択して提示装置に提示するものである。
【0008】
従ってこの発明に係わる端末装置によれば、端末装置の存在位置や、端末装置の移動状態、提示装置の種類など、端末装置の種々の状況に応じてその都度最適なオブジェクトが選択されて提示されることになる。このため、端末ユーザにとってはより効果的なオブジェクト提示がなされる。
【0009】
一方他の端末装置において、上記放送局に、オブジェクトの提示条件を指定するための条件指定情報をシーン記述データに含めて送信する条件指定情報送出手段を設け、一方端末装置には、自装置における所定の状況を検出するための状況検出手段と、提示制御手段とを設け、この提示制御手段において、上記状況検出手段の検出結果及び上記再生手段により再生されたシーン記述データに含まれる条件指定情報を基に、受信再生された複数のオブジェクトの中から提示すべきオブジェクトを選択し、この選択されたオブジェクトを提示装置に提示するように構成したものである。
【0010】
この発明についても、次の3通りの具体例が考えられる。
第1の構成は、放送局の条件指定情報送出手段において、シーンを構成する各オブジェクトごとにその提示地域を指定するための地域指定情報を付加して送信し、一方端末装置では、状況検出手段に自装置の現在位置を検出する位置検出手段を設け、かつ提示制御手段において、位置検出手段で検出された自装置の現在位置と、受信再生されたシーン記述データに含まれる地域指定情報とを比較し、この比較結果を基に自装置の現在位置に対応する地域指定情報が付加されたオブジェクトを選択して提示装置に提示するものである。
【0011】
第2の構成は、放送局の条件指定情報送出手段において、シーンを構成する各オブジェクトごとにその提示条件を端末装置の移動状態に応じて指定するための指定情報を付加して送信し、一方端末装置では、状況検出手段に自装置の移動状態を検出する移動状態検出手段を設け、かつ提示制御手段において、上記移動状態検出手段で検出された自装置の移動状態と、受信再生されたシーン記述データに含まれる提示条件の指定情報とを比較し、この比較結果を基に自装置の移動状態に対応する指定情報が付加されたオブジェクトを選択して提示装置に提示するものである。
【0012】
第3の構成は、放送局の条件指定情報送出手段において、シーンを構成する各オブジェクトごとにその提示装置の種別を指定するための種別指定情報を付加して送信し、一方端末装置では、状況検出手段に提示装置の種別を検出する提示種別検出手段を設け、かつ提示制御手段において、上記提示種別検出手段で検出された提示装置の種別と、受信再生されたシーン記述データに含まれる種別指定情報とを比較し、この比較結果を基に提示装置の種別に対応する種別指定情報が付加されたオブジェクトを選択して提示装置に提示するものである。
【0013】
従ってこの発明に係わるディジタル放送システムとその端末装置によれば、端末装置の存在位置や端末装置の移動状態、提示装置の種類などの端末装置の種々の状況に応じ、しかも放送局側から指定された条件に従って、端末装置ではその都度最適なオブジェクトが選択されて提示されることになる。このため、端末ユーザにとってより効果的なオブジェクト提示がなされる。また放送局側からオブジェクトの提示条件を任意に指定することができる。
【0014】
【発明の実施の形態】
以下、図面を参照してこの発明の実施の形態について詳細に説明する。
まず、実施形態にあげるディジタル放送システムの概要について説明する。
このシステムは、放送衛星、或いは通信衛星を利用した、主に移動体向けのディジタル衛星放送システムであり、符号化方式としてMPEG4( Moving Picture Coding Experts Group 4)を採用し、かつ衛星から移動端末装置へのダウンリンクにSバンドを使用することで、車載端末装置や携帯情報端末装置等の移動端末装置において、映像や音声、文字等からなるマルチメディア情報を受信できるようにしたものである。
MPEG4は、従来の動画像符号化方式が画像を一つのシーンとして単純に符号化するのを基本としているのに対し、複数のAVOs( Audio Visual Objects :人物や背景に代表される構成要素)からなる階層化された映像/音響信号を合成することによって、シーンを表現するものである。各階層構成要素としては、自然画像/音響でもよく、また合成画像/音響でも構わない。また、シーン全体を表すものでも、一部を表すものでも構わない。さらに各構成要素の重なり具合や時間的/空間的関係にも大きな自由度がある。
すなわち、MPEG4を使用する本システムでは、送信側において、一つのシーンを構成する1以上のオブジェクトと、そのオブジェクトを合成するためのシーン記述データとをそれぞれ最適なアルゴリズムでエレメンタリストリームに符号化し、しかるのち多重化して送信する。また受信側では、受信した各オブジェクト及びシーン記述データをそれぞれ復号したのち、シーン記述データの内容に従って各オブジェクトを合成してディスプレイやスピーカ等の提示装置へ出力する。
ところで、シーン記述データのみに従って各オブジェクトを合成して提示しようとすると、端末装置の状況によっては不適切な提示が行われることが想定される。例えば、オブジェクトに地域性がある場合に、このオブジェクトを常に表示したとすると、端末装置には自己の現在位置とは無関係のオブジェクトが表示されることになる。また、車載端末装置の場合に、走行中に映像や文字データ等の表示データがディスプレイに表示されると、運転者がその表示に気をとられて運転に集中できなくなるため、交通安全の点できわめて好ましくない。
そこで、以下に説明する実施形態では、端末装置の状況に応じて最適なオブジェクト提示を行えるようにしている。
(第1の実施形態)
この発明に係わる第1の実施形態は、端末装置に、自装置の位置とユーザに提示すべきオブジェクトとの対応関係を表す設定情報を記憶した位置判断データベースを設け、複数のGPS(Global Positioning System)衛星が送信している測距信号を受信することで自装置の位置を検出して、この位置検出データと上記位置判断データベースに記憶してある設定情報とを基に、受信復号した複数のオブジェクトの中から自装置の現在位置に対応するオブジェクトを選択し、これらのオブジェクトを合成してディスプレイ又はスピーカに出力するようにしたものである。
【0015】
図1は、この発明に係わるディジタル衛星放送システムの概略構成図である。このディジタル衛星放送システムは、少なくとも一つの送信局10と、衛星制御局20と、静止衛星30とを備えている。
【0016】
送信局10は、複数の番組プロバイダにより作成・編集された番組情報を受け取り、この番組情報をチャネル多重したのち放送信号に変換して、例えばKuバンド(12.5〜18GHz)の上り伝送路を介して静止衛星30へ送信する。チャネル多重方式としては、例えばCDM(Code Division Multiplex)方式が用いられる。
【0017】
静止衛星30は、例えば2.5m級の口径を有するKuバンド用アンテナ31と、15m級の口径を有するSバンド(例えば2.6GHz)用アンテナ32とを備えている。そして、上記送信局10から送信された放送信号を、上記Kuバンド用アンテナ31で受信したのち、トランスポンダでSバンドの信号に変換する。そして、この変換された放送信号を上記Sバンド用アンテナ32からSバンドの下り伝送路を介してサービスエリアに向け送信する。なお、上記静止衛星30に搭載する上り伝送用アンテナ31の口径は2.5m級より小さいものでもよく、またSバンド用アンテナ32の口径についても15m級に限らず8m級であってもよい。
なお、衛星制御局20は、静止衛星30の動作状態を監視し制御するものである。
【0018】
サービスエリアでは、例えばオフィスや家庭に固定的に設置された放送受信装置(図示せず)や、車載或いは携帯型の移動可能な端末装置40が、上記静止衛星30からSバンドの下り伝送路へ送信された放送信号を受信する。なお、上記Sバンドの下り伝送路では、256Kbps の伝送容量を有する複数のチャネル(例えば30チャネル)が多重化される。また、伝送情報の符号化方式としてMPEG4が用いられる。
【0019】
ところで、上記送信局10及び端末装置40はそれぞれ次のように構成される。図2は送信局10の構成を示す回路ブロック図、図3は端末装置40の構成を示す回路ブロック図である。
【0020】
先ず送信局10は、番組を制作するためのオーサリング装置11を備えている。オーサリング装置11は、各番組プロバイダから供給された音響データAU1〜AUn、映像データMP1〜MPn及び文字データTX1〜TXnを選択的に用いて、MPEG4に応じたシーン情報を生成することで放送番組を制作する。シーン情報は、複数のオブジェクト、つまり上記音響データ、映像データ及び文字データと、これらのオブジェクトを合成するためのシーン記述データとを有する。
【0021】
上記オーサリング装置11から出力された音響データ、映像データ、文字データ及びシーン記述データは、それぞれ音響オブジェクト符号化部12、映像オブジェクト符号化部13、文字オブジェクト符号化部14及びシーン記述符号化部15に入力される。これらの符号化部12〜15では、それぞれ上記音響データ、映像データ、文字データ及びシーン記述データがその性質に対し最適なアルゴリズムによりエレメンタリストリームに符号化される。この符号化されたエレメンタリストリームは、続いて多重化部16で所定のフォーマットに従い多重化されて多重化ストリームとなる。そして、この多重化ストリームは送信部17でディジタル変調され、さらにKuバンドの放送信号に変換されたのち、送信アンテナ18から静止衛星30に向け送信される。
【0022】
次に端末装置40は、上記静止衛星30から送信されたSバンドの放送信号を受信アンテナ41で受信して受信部42に入力する。受信部42では、上記放送信号に対し周波数変換及びディジタル復調が行われ、この復調された多重化ストリームは多重分離部43に入力される。多重分離部43は、上記多重化ストリームを複数のエレメンタリストリームに分離し、これらのエレメンタリストリームをそれぞれ音響オブジェクト復号化部44、映像オブジェクト復号化部45、文字オブジェクト復号化部46及びシーン記述復号化部47に入力する。
【0023】
音響オブジェクト復号化部44、映像オブジェクト復号化部45、文字オブジェクト復号化部46及びシーン記述復号化部47は、それぞれ対応する上記エレメントストリームを復号処理して音響オブジェクト、映像オブジェクト、文字オブジェクト及びシーン記述データを再生し、この復号された音響オブジェクト、映像オブジェクト及び文字オブジェクトを選択部49を介して合成部50Aに入力する。
【0024】
また上記シーン記述復号部47で復号されたシーン記述データは、シーン記述解析部48に入力される。シーン記述解析部48は、上記シーン記述データを解析し、その解析データSCを選択部49に与えてシーンを合成するに必要なオブジェクトを通過させる。またシーン記述解析部48は、シーン記述解析データSCを合成部50Aにも与える。
【0025】
ところで、端末装置40はGPS受信部62を備えており、GPS衛星GS1,GS2,…が送信している測距用信号をアンテナ61を介してこのGPS受信部62で受信する。そして、その受信信号を位置検出部63に入力する。位置検出部63は、上記各GPS衛星GS1,GS2,…から到来した測距用信号を基に自装置の座標位置を求め、その位置検出データLDを上記合成部50Aに入力する。
【0026】
また端末装置40は位置判断データベース(位置判断DB)55Aを有している。この位置判断データベース55Aには、サービスエリア内の各地域に対応付けて、提示すべきオブジェクトの識別情報(オブジェクトID)が記憶してある。図5はその一例を示すもので、オブジェクトはデフォルトデータと設定データとに分けて管理されている。このうちデフォルトデータは、例えば端末装置40の出荷時に既に書き込まれたデータである。設定データは、端末ユーザが図示しないキー入力部の操作により任意に設定できる。
【0027】
合成部50Aは、この発明に係わる新たな機能として、提示制御手段51Aと、データベース更新制御手段52Aとを備えている。
提示制御手段51Aは、上記位置検出部63から与えられた位置検出データLD、つまり端末装置40の現在位置を、上記位置判断データベース55Aに記憶されている地域と比較する。そして、現在位置を含む地域が記憶されている場合に、この地域に対応するオブジェクトを上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0028】
DB更新制御手段52Aは、送信局10からシーン記述データを使用してDB更新データが送られた場合に、シーン記述解析部48により解析された更新データの内容に従い、位置判断データベース55A内の該当データを更新する処理を行う。更新処理には、既に登録されている地域とそれに対応するオブジェクトの変更及び削除、未登録の地域とそれに対応するオブジェクトの追加がある。
【0029】
次に、以上のように構成された端末装置によるオブジェクト提示動作を説明する。図4はその制御手順及び制御内容を示すフローチャートである。
【0030】
放送信号の受信動作中に合成部50Aは、定期的にステップ4aで位置検出部63から位置検出データLDを取り込む。そして、この新たな位置検出データLDを取り込むごとに、ステップ4bでこのデータを前回取り込んだ位置検出データLDと比較し、この比較結果から自装置が所定量以上移動したか否かを判定する。そして、所定量以上移動した場合には、ステップ4cに移行してここで位置判断データベース55Aを検索し、自装置の現在位置を含む地域が登録されているか否かをステップ4dで判定する。
【0031】
この判定の結果、自装置の現在位置を含む地域が位置判断データベース55Aに登録されていると、合成部50Aはステップ4eに移行し、ここで位置判断データベース55Aから上記該当地域に対応する設定オブジェクトを読み出し、オブジェクトが記憶されているか否かを判定する。そして、設定オブジェクトが記憶されていれば、ステップ4fで当該オブジェクトを上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0032】
例えば、いま自装置の現在位置が地域「東京」であれば、図5に示すように設定オブジェクトとして「東京1:映像1」が読み出され、複数の受信オブジェクトの中からこの設定オブジェクトに対応するオブジェクトが選択される。そして、この選択されたオブジェクトがシーン記述解析データSCに従って合成されたのち、ステップ4fでディスプレイ53に供給されて表示される。
【0033】
これに対し設定オブジェクトが登録されていなかった場合には、ステップ4gに移行し、ここで位置判断データベース55Aに対応するオブジェクトのデフォルトデータが登録されているか否かを判定する。そして、登録されていれば、ステップ4hでこのデフォルトデータをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。またこのデフォルトデータも登録されていなければ、ステップ4iでその他のデフォルトデータを位置判断データベース55Aから読み出して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0034】
したがって端末装置40では、その移動に伴い、現在位置が含まれる地域に対応したオブジェクトが選択されて、ディスプレイ53に表示されるか又はスピーカ54から出力されることになる。このため、端末ユーザは常に自身が存在する地域に対応した情報を取得することが可能となる。また、位置判断データベース55Aの内容を、端末装置におけるキー操作により任意に変更、追加又は削除することができるので、各オブジェクトに対し端末ユーザが自身の希望に応じて自由な地域指定を行うことが可能となる。
【0035】
また、運用中に送信局10からシーン記述データを使用したデータベース更新データが到来したとする。この場合合成部50Aは、この受信されたデータベース更新データに従い、位置判断データベース55Aの更新作業を行う。
【0036】
例えば、いま位置判断データベース55Aが図5に示すように構成されている状態で、図6に示すようなデータベース更新データが到来したとする。そうすると、位置判断データベース55Aにおいて、地域「東京」に対応する設定オブジェクトの変更処理と、地域「川崎」とそのオブジェクトの追加処理と、地域「横浜」とそれに対応するオブジェクトの削除処理とがそれぞれ行われる。図7はこの更新後の位置判断データベースの構成を示すものである。
【0037】
このようにすることで、例えば新たな地域の追加や削除、或いは番組の変更等に応じて、送信局側から各端末装置40の位置判断データベース55Aの内容を更新することもできる。
【0038】
なお、端末装置40における自己位置の検出手段としては、GPS衛星を利用するもの以外に、PHS(Personal Handy phone System)基地局から送信されている基地局IDを検出することで検出するもの等を利用することが可能である。
【0039】
また、位置検出部63により得られた位置検出データLDと、位置判断データベース55Aに登録された地域情報とを基に、端末装置の現在位置に対応する地域情報をディスプレイ53に表示するようにしてもよく、また端末装置の移動に伴い地域が切り替わった時点でその旨のメッセージ情報をディスプレイ53に表示するようにしてもよい。またこの場合、メッセージ情報は音声メッセージとしてスピーカ54から出力するようにしてもよい。
【0040】
(第2の実施形態)
この発明に係わる第2の実施形態は、車載端末装置に、自装置の走行状態と提示対象オブジェクトとの対応関係を表す設定情報を記憶した走行状態判断データベースを設け、車両の速度情報等を基に自装置の走行状態を検出して、この走行状態検出データと上記走行状態判断データベースに記憶してある設定情報とを基に、受信復号した複数のオブジェクトの中から適切なオブジェクトを選択し合成してディスプレイ又はスピーカに出力するようにしたものである。
【0041】
図8は、この第2の実施形態に係わる車載用の端末装置の構成を示すブロック図である。なお、同図において前記図3と同一部分には同一符号を付して詳しい説明は省略する。
【0042】
この実施形態の端末装置には、走行状態判断データベース55Bが設けてある。この走行状態判断データベース55Bには、自装置の走行状態、つまり走行中及び停止中に各々対応付けて、提示すべきオブジェクトの識別情報(オブジェクトID)が記憶してある。図10はその一例を示すもので、オブジェクトはデフォルトデータとフィルタリングデータとに分けて管理されている。このうちデフォルトデータは、端末装置40の出荷時に既に書き込まれたデータである。フィルタリングデータは、端末ユーザが図示しないキー入力部の操作により任意に設定できる。
【0043】
また本実施形態の端末装置には、走行状態検出部56が設けてある。この走行状態検出部56は、車両の速度検出器から出力される速度検出信号を基に、自装置が走行中か停止中かを判定するもので、その判定結果を走行状態検出データRDとして合成部50Bに供給する。
【0044】
合成部50Bは提示制御手段51Bを備えている。この提示制御手段51Bは、上記走行状態検出部56から出力された走行状態検出データRDをキーとして走行状態判断データベース55Bをアクセスし、この検出された走行状態に対応するオブジェクト識別情報を読み出す。そして、このオブジェクト識別情報に対応するものを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0045】
このような構成であるから、本実施形態に係わる端末装置では以下のようなオブジェクト提示動作が行われる。図9はその制御手順及び制御内容を示すフローチャートである。
【0046】
放送信号の受信動作中に合成部50Bは、定期的にステップ9aにより走行状態検出部56から走行状態検出データRDを取り込む。そして、この走行状態検出データRDを取り込むごとに、ステップ9bでこの検出データRDが前回取り込んだ検出データに対し変化したか否かを判定する。そして、走行状態が「走行中」から「停止中」に、或いは「停止中」から「走行中」に変化したことを検出すると、ステップ9cに移行してここで現在の走行状態はいずれであるかを判定する。
【0047】
この判定の結果、現在の走行状態が「走行中」だったとすれば、合成部50はステップ9dに移行して、ここで走行状態判断データベース55Bからフィルタリングされたオブジェクトの読み出しを行い、フィルタリング指定されているか否かを判定する。そして、フィルリング指定がなされていれば、ステップ9hでこのフィルタリング指定されたオブジェクトに対応するものを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0048】
また、フィルタリング指定がなされていなければ、ステップ9gによりデフォルトデータを読み出して、このデフォルトデータに対応するオブジェクトを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0049】
一方、いま自装置の走行状態が「停止中」だったとする。この場合合成部50Bは、ステップ9cからステップ9iに移行して、ここで走行状態判断データベース55Bからフィルタリングされたオブジェクトの読み出しを行い、フィルタリング指定されているか否かを判定する。そして、フィルリング指定がなされていれば、ステップ9lでこのフィルタリング指定されたオブジェクトに対応するものを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53またはスピーカ54或いはその両方に供給する。
【0050】
また、フィルタリング指定がなされていなければ、ステップ9kによりデフォルトデータを読み出して、このデフォルトデータに対応するオブジェクトを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0051】
例えば、いま自装置の走行状態が「走行中」だったとすると、図10に示すようにフィルタリング指定されたオブジェクトとして「音声」がデータベース55Bに記憶されているので、合成部50Bでは受信した複数のオブジェクトの中から音声オブジェクトが選択される。そして、この選択された音声オブジェクトがシーン記述解析データSCに従って合成されたのち、スピーカ54から拡声出力される。
【0052】
このため走行中においては、シーン情報のうち音声オブジェクトのみがスピーカ54から出力され、ディスプレイ53には映像及び文字が一切表示されない。従って、ユーザは走行中にディスプレイ53を見ることがなくなり、これにより安全な運転を行うことができる。
【0053】
これに対し停止中においては、映像オブジェクト及び文字オブジェクトがディスプレイ53に表示され、音声オブジェクトがスピーカ54から拡声出力される。従って、ユーザは車両を停止させることで、すべてのオブジェクトを含むシーン情報を視聴及び聴取することができる。
【0054】
なお、走行中におけるオブジェクトの選択を音声オブジェクトのみに固定すると、走行中には助手席や後部座席の人も映像及び文字を見ることができなくなる。そこで、キー入力部によりユーザがモード切り替え操作を行うことで、走行中においても映像オブジェクト及び文字オブジェクトがディスプレイ53に表示されるようにしてもよい。
【0055】
また、走行中においては、文字オブジェクトを音声合成技術を用いて音声オブジェクトに変換してこれをスピーカ54から出力させるようにしてもよい。このようにすると、例えばヘッドラインニュースや交通情報、天気予報等の文字オブジェクトを音声読み上げにより端末ユーザに報知することができ、端末ユーザは走行中においても文字オブジェクトの内容を知ることが可能となる。
【0056】
また、上記音声合成により生成した音声オブジェクトをスピーカ54から拡声出力する際に、音楽やパーソナリティの音声オブジェクトが既に存在する場合には、これら既存の音声オブジェクトの音量を低下させた上で合成して拡声出力させるようにするとよい。また、スピーカがステレオ対応になっている場合には、上記音声合成により生成した音声オブジェクトを一方のチャネル(例えば運転席側の右チャネル)から出力させ、既存の音声オブジェクトを他方のチャネル(助手席側の左チャネル)から出力させるようにチャネル分離を行うとよい。さらに、その際右チャネルの音量を左チャネルの音量に比べて相対的に大きくするとよい。以上のように構成すると、端末ユーザは文字オブジェクトに対応する音声合成オブジェクトをより明瞭に聞き取ることが可能となる。
【0057】
(第3の実施形態)
この発明に係わる第3の実施形態は、端末装置に、接続使用中の提示装置の種別と提示対象オブジェクトとの対応関係を表す設定情報を記憶した提示種別判断データベースを設け、放送信号の受信に先立ち接続使用中の提示装置の種別を判定して、この種別の判定結果と上記提示種別判断データベースに記憶してある設定情報とを基に、受信復号した複数のオブジェクトの中から適切なオブジェクトを選択し合成して、提示装置としてのディスプレイ又はスピーカに出力するようにしたものである。
【0058】
図12は、この第3の実施形態に係わる端末装置の構成を示すブロック図である。なお、同図において前記図3と同一部分には同一符号を付して詳しい説明は省略する。
【0059】
この実施形態の端末装置には、提示種別判断データベース55Cが設けてある。この提示種別判断データベース55Cには、接続使用中の提示装置の種別、つまりスピーカ、低解像度のディスプレイ、高解像度ディスプレイに各々対応付けて、提示すべきオブジェクトの識別情報(オブジェクトID)が記憶してある。図11はその構成の一例を示すものである。
【0060】
合成部50Cは、提示制御手段51Cと、提示種別判定手段52Cとを備えている。提示種別判定手段52Cは、合成部50Cに接続されている提示装置の種類、つまりディスプレイ53が接続されているかスピーカ54が接続されているかを判定し、さらにディスプレイが接続されている場合にはその仕様が高解像度であるか低解像度であるかを判定する。
【0061】
提示制御手段51Cは、受信オブジェクトを提示する際に、上記提示種別判定手段52Cの判定結果をキーにして提示種別判断データベース55Cをアクセスし、提示可能なオブジェクトを認識する。そして、この提示可能なオブジェクトに対応するものを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0062】
このような構成であるから、本実施形態に係わる端末装置では以下のようなオブジェクト提示動作が行われる。図13はその制御手順及び制御内容を示すフローチャートである。
【0063】
放送信号の受信に先立ち合成部50Cは、ステップ13aにおいて接続されていてかつ使用可能な提示装置の種別を判定する。この判定の結果、提示種別がスピーカ54であればステップ13bに移行して、ここで提示種別判断データベース55Cから対応するオブジェクト、つまり「音声」を読み出す。そして、ステップ13cにおいて、選択部49から入力された複数の受信オブジェクトの中から音声オブジェクトのみを選択し、この選択した音声オブジェクトが複数ある場合にはこれらをシーン記述解析データSCに従って合成したのち、スピーカ54に供給して拡声出力させる。
【0064】
一方、提示種別が低解像度ディスプレイであればステップ13dに移行して、ここで提示種別判断データベース55Cから対応するオブジェクト、つまり「文字」を読み出す。そして、ステップ13eにおいて、選択部49から入力された複数の受信オブジェクトの中から文字オブジェクトを選択し、この選択した文字オブジェクトが複数ある場合にはこれらをシーン記述解析データSCに従って合成したのち、低解像度化ディスプレイに供給して表示させる。
【0065】
なお、このとき提示装置としてスピーカ54も接続されていれば、合成部50Cは選択部49から入力された複数の受信オブジェクトの中から音声オブジェクトを選択し、この選択した音声オブジェクトをシーン記述解析データSCに従って合成したのち、スピーカ54に供給して拡声出力させる。
【0066】
また、提示種別が高解像度ディスプレイ53であれば、ステップ13fに移行して、ここで提示種別判断データベース55Cから対応するオブジェクト、つまり「映像」と「文字」を読み出す。そして、ステップ13gにおいて、選択部49から入力された複数の受信オブジェクトの中から映像オブジェクト及び文字オブジェクトをそれぞれ選択し、この選択した映像オブジェクト及び文字オブジェクトをシーン記述解析データSCに従って合成したのち、高解像度化ディスプレイ53に供給して表示させる。
【0067】
なお、このとき提示装置としてスピーカ54も接続されていれば、合成部50Cは選択部49から入力された複数の受信オブジェクトの中から音声オブジェクトを選択し、この選択した音声オブジェクトをシーン記述解析データSCに従って合成したのち、スピーカ54に供給して拡声出力させる。
【0068】
したがって、この第3の実施形態によれば、接続使用中の提示装置の種別に適合したオブジェクトが自動的に選択されて提示装置に掲示されることになり、これにより提示装置の種別に応じて常に適切なオブジェクト提示を行うことが可能となる。
【0069】
なお、提示種別判定手段52Cの判定結果をディスプレイ53に表示するようにしてもよい。このようにすると、例えばディスプレイ53が高解像度モードを有しているにも拘わらず、低解像度モードが設定されているような場合に、端末ユーザは現在モードを確認して高解像度モードへの設定変更を行うことが可能となる。
【0070】
(第4の実施形態)
この発明に係わる第4の実施形態は、送信局においてシーン記述データに各オブジェクトの提示地域を指定するための地域指定データを付加して送信する。そして端末装置においては、複数のGPS衛星が送信している測距信号を受信することで自装置の位置を検出して、この位置検出データと受信したシーン記述データに含まれる上記地域指定データとを基に、受信復号した複数のオブジェクトの中から自装置の現在位置に対応するオブジェクトを選択し、これらの選択したオブジェクトを合成してディスプレイ又はスピーカに出力するようにしたものである。
【0071】
図14は、この発明の第4の実施形態に係わる端末装置の構成を示すブロック図である。なお、同図において前記図3と同一部分には同一符号を付して詳しい説明は省略する。
【0072】
この端末装置はGPS受信部62を備えており、GPS衛星GS1,GS2,…が送信している測距用信号をアンテナ61を介してこのGPS受信部62で受信する。そして、その受信信号を位置検出部63に入力する。位置検出部63は、上記各GPS衛星GS1,GS2,…から到来した測距用信号を基に自装置の座標位置を求め、その位置検出データLDを上記合成部50Dに入力する。
【0073】
合成部50Dは、提示制御手段51Dを備えている。この提示制御手段51Dは、上記位置検出部63から与えられた位置検出データLD、つまり端末装置40の現在位置を表すデータを、シーン記述解析部48から与えられたシーン記述解析データSCに含まれる地域指定データと比較する。そして、現在位置に相当する地域指定がなされたオブジェクトを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0074】
このような構成であるから、本実施形態に係わる端末装置では以下のようなオブジェクト提示動作が行われる。図15はその制御手順及び制御内容を示すフローチャートである。
【0075】
放送信号の受信動作中に合成部50Dは、定期的にステップ15aで位置検出部63から位置検出データLDを取り込む。そして、この新たな位置検出データLDを取り込むごとに、ステップ15bでこのデータを前回取り込んだ位置検出データLDと比較し、この比較結果から自装置が所定量以上移動したか否かを判定する。そして、所定量以上移動した場合には、ステップ15cに移行してシーン記述解析データSC中の受信オブジェクトを一つ選択し、この受信オブジェクトに対応付けて付加されている地域指定データと自装置の現在位置とをステップ15dで比較する。この比較の結果、自装置の現在位置が指定地域に含まれていれば、ステップ15eに移行してここで選択部49から出力された複数の受信オブジェクトの中から該当するオブジェクトを提示対象として選択する。
【0076】
これに対し、上記ステップ15dにおいて自装置の現在位置が指定地域に含まれていないと判定されると、合成部50Dはステップ15fに移行してここでシーン記述解析データSCに未選択のオブジェクトが残っているか否かを判定する。そして、残っていればステップ15cに戻って未選択のオブジェクトを選択し、上記したステップ15dからステップ15eによる処理を実行する。以後同様に、シーン記述解析データSCに含まれるすべてのオブジェクトについて上記処理を繰り返し実行する。そして、以上の各処理により提示対象として選択された各オブジェクトを、シーン記述解析データSCに従い合成して、ディスプレイ53又はスピーカ54或いはその両方に供給してオブジェクトを提示させる。
【0077】
従って、提示装置には受信した複数のオブジェクトのうち、自装置の現在位置に相当する地域指定がなされたもののみが選択されて提示されることになる。例えば、いま送信局10から図16に示すようなシーン記述データが送られたとし、かつ自装置の現在位置が指定地域「東京」内に含まれるものとする。この場合合成部50Dでは、地域指定データにより「東京」と指定されたオブジェクト、つまり「音声1」、「文字1」及び「映像1」がそれぞれ選択され、これらのオブジェクトがシーン記述解析データSCに従って合成されたのち、ディスプレイ53に表示されるとともにスピーカ54から拡声出力される。
【0078】
したがって端末装置40では、自装置の現在位置とは無関係の地域のオブジェクトが提示されることはなくなり、端末ユーザは常に自身の現在位置に対応する情報を取得することが可能となる。また本実施形態では、各オブジェクトの地域指定を送信局10側から行うので、オブジェクトの更新に伴う指定地域の変更をすべて送信局10側で一括して行うことができる。
【0079】
(第5の実施形態)
この発明に係わる第5の実施形態は、送信局において、シーン記述データの各オブジェクトごとに、端末装置の走行状態に応じて提示するか否かを指定するための走行状態指定データを付加して送信する。そして端末装置においては、車両の速度情報等を基に自装置の走行状態を検出して、この走行状態検出データと受信したシーン記述データに含まれる上記走行状態指定データとを基に、受信復号した複数のオブジェクトの中から適切なオブジェクトを選択し、この選択したオブジェクトを合成してディスプレイ又はスピーカに出力するようにしたものである。
【0080】
図18は、この第5の実施形態に係わる車載用の端末装置の構成を示すブロック図である。なお、同図において前記図8と同一部分には同一符号を付して詳しい説明は省略する。
【0081】
この実施形態の端末装置には、図8に示した装置と同様に走行状態検出部56が設けてある。この走行状態検出部56は、車両の速度検出器から出力される速度検出信号を基に、自装置が走行中か停止中かを判定するもので、その判定結果を走行状態検出データRDとして合成部50Eに供給する。
【0082】
合成部50Eは提示制御手段51Eを備えている。この提示制御手段51Eは、上記走行状態検出部56から出力された走行状態検出データRD、つまり端末装置40が走行中か停止中かを表すデータを、シーン記述解析部48から出力されたシーン記述解析データSCに含まれる走行状態指定データと比較する。そして、自装置の現在の走行状態に対応するオブジェクトを、上記選択部49から入力された複数の受信オブジェクトの中から選択し、この選択したオブジェクトをシーン記述解析データSCに従って合成して、ディスプレイ53又はスピーカ54或いはその両方に供給する。
【0083】
このような構成であるから、本実施形態に係わる端末装置では以下のようなオブジェクト提示動作が行われる。図19はその制御手順及び制御内容を示すフローチャートである。
【0084】
放送信号の受信動作中に合成部50Eは、定期的にステップ19aにより走行状態検出部56から走行状態検出データRDを取り込む。そして、この走行状態検出データRDを取り込むごとに、ステップ19bでこの検出データRDをもとに自装置の走行状態が「走行中」であるか又は「停止中」であるかを判定する。
【0085】
この判定の結果、自装置が「走行中」であれば、ステップ19cに移行してここでシーン記述データ中のオブジェクトを一つ選択し、このオブジェクトに対応付けて付加されている走行状態指定データと自装置の現在の走行状態とをステップ19dで比較する。この比較の結果、走行状態指定データが「走行中提示オン」であれば、ステップ19eに移行してここで選択部49から出力された複数の受信オブジェクトの中から該当するオブジェクトを提示対象として選択する。
【0086】
これに対し、上記ステップ19dにおいて走行状態指定データが「走行中提示オフ」であれば、そのままステップ19fに移行してシーン記述解析データSCに未選択のオブジェクトが残っているか否かを判定する。そして、未選択のオブジェクトが残っていれば、ステップ19cに戻って未選択のオブジェクトをひとつ選択し、上記したステップ19d及びステップ19eによる処理を実行する。以後同様に、シーン記述解析データSCに含まれるすべてのオブジェクトについて上記処理を繰り返し実行する。
【0087】
そして、以上の各処理により提示対象として選択された各オブジェクトを、シーン記述解析データSCに従い合成して、ディスプレイ53又はスピーカ54或いはその両方に供給してオブジェクトを提示させる。
【0088】
従って、提示装置には受信した複数のオブジェクトのうち、「走行中提示可」と指定されたオブジェクトのみが選択されて提示されることになる。例えば、いま送信局10から図17に示すようなシーン記述データが送られたとすると、合成部50Eでは走行状態指定データにより「走行中提示可」と指定されたオブジェクト、つまり「音声1」のみが選択され、この音声オブジェクトがシーン記述解析データSCに従ってスピーカ54から拡声出力される。
【0089】
したがって端末装置では、自装置の走行中においては音声オブジェクトのみが拡声出力され、映像オブジェクト及び文字オブジェクトは表示されない。このため、端末ユーザは走行中にディスプレイ53を見る必要がなくなり、これにより安全な運転を行うことができる。
【0090】
なお、ステップ19bにおいて自装置の走行状態が「停止中」と判定された場合には、合成部50Eはステップ19gに移行してここで受信された全オブジェクトを選択し、これらのオブジェクトをシーン記述解析データSCに従い合成して、ディスプレイ53又はスピーカ54或いはその両方に供給してオブジェクトを提示させる。従って端末ユーザは、車両を停止させることで、すべてのオブジェクトを含むシーン情報を視聴及び聴取することができる。
【0091】
すなわち、第5の実施形態によれば自装置の走行状態に応じて適切なオブジェクト提示を行うことができる。また、各オブジェクトに対する走行状態に応じた提示指定を送信局10側から行うので、オブジェクトの更新に伴う提示指定の変更をすべて送信局10側で一括して行うことができる。
【0092】
(第6の実施形態)
この発明に係わる第6の実施形態は、送信局において、シーン記述データの各オブジェクトごとに、使用すべき提示装置の種別を表す提示装置種別データを付加して送信する。そして端末装置においては、放送信号の受信に先立ち接続使用中の提示装置の種別を判定して、この種別の判定結果と受信したシーン記述データに含まれる上記提示装置種別データとを基に、受信復号した複数のオブジェクトの中から、接続使用中の提示装置の種別に対応したオブジェクトを選択し、これをシーン記述データに従い合成して、提示装置としてのディスプレイ又はスピーカに出力するようにしたものである。
【0093】
図20は、この第6の実施形態に係わる車載用の端末装置の構成を示すブロック図である。なお、同図において前記図12と同一部分には同一符号を付して詳しい説明は省略する。
【0094】
合成部50Fは、提示制御手段51Fと、提示種別判定手段52Fとを備えている。提示種別判定手段52Fは、合成部50Fに接続されている提示装置の種類、つまりディスプレイ53が接続されているかスピーカ54が接続されているかを判定し、さらにディスプレイ53が接続されている場合にはその仕様が高解像度であるか低解像度であるかを判定する。
【0095】
提示制御手段51Fは、受信オブジェクトを提示する際に、上記提示種別判定手段52Fの判定結果を、シーン記述解析部48により得られたシーン記述解析データSCに含まれる提示装置種別データと比較する。そして、この比較結果を基に、現在自装置に接続されている提示装置の種別に適合するオブジェクトを判断し、このオブジェクトに対応するものを選択部49から出力された複数の受信オブジェクトの中から選択し、これらをシーン記述解析データSCに従い合成してディスプレイ53又はスピーカ54に供給する。
【0096】
このような構成であるから、本実施形態に係わる端末装置では以下のようなオブジェクト提示動作が行われる。図21はその制御手順及び制御内容を示すフローチャートである。
【0097】
放送信号の受信に先立ち合成部50Fは、自装置に接続されていてかつ使用可能な提示装置の種別を判定する。すなわち、ディスプレイ53が接続されているか又はスピーカ54が接続されているか判定し、さらにディスプレイ53が接続されていればその仕様が高解像度であるか低解像度であるかを判定する。
【0098】
さて、この状態で放送信号が受信されると、合成部50Fはステップ21aにおいて、シーン記述解析部48から出力されたシーン記述解析データSCの中からオブジェクトを一つ選択し、このオブジェクトに対応付けられた提示装置種別を、先に判定しておいた自装置の提示装置の種別とステップ21bで比較する。そして、一致すれば、上記選択したオブジェクトに対応するものを、ステップ21cで選択部49から出力された複数の受信オブジェクトの中から選択する。
【0099】
これに対し上記ステップ21bによる比較の結果、送信局10側からシーン記述データにより指定された提示装置種別と、自装置に接続された提示装置の種別とが一致しなければ、合成部50Fはステップ21dに移行してシーン記述解析データSCに未選択のオブジェクトが残っているか否かを判定する。そして、残っていればステップ21aに戻って未選択のオブジェクトをひとつ選択し、上記したステップ21b及びステップ21cによる処理を実行する。以後同様に、シーン記述解析データSCに含まれるすべてのオブジェクトについて上記処理を繰り返し実行する。
【0100】
そして、以上の各処理により提示対象として選択された各オブジェクトを、シーン記述解析データSCに従い合成して、自装置に接続されている提示装置に供給してオブジェクトを提示させる。
【0101】
例えば、いま自装置にスピーカ54及び低解像度のディスプレイ54が接続されている状態で、送信局10から図22に示すようなシーン記述データが送られたとする。この場合合成部50Fは、提示装置種別データにより「スピーカ」又は「低解像度LCD」と種別指定されたオブジェクト、つまり「音声1」及び「文字1」をそれぞれ認識する。そして、選択部49から出力された複数の受信オブジェクトの中から、上記「音声1」及び「文字1」に対応する受信オブジェクトをそれぞれ選択し、これらの受信オブジェクトをシーン記述解析データSCに従い合成してスピーカ54及びディスプレイ53に供給する。
【0102】
また、自装置にスピーカ54及び高解像度のディスプレイが接続されている場合には、選択部49から出力された複数の受信オブジェクトの中から、「音声1」、「文字1」及び「映像1」に対応する受信オブジェクト、つまりすべてオブジェクトが選択され、これらの受信オブジェクトがシーン記述解析データSCに従い合成されてスピーカ54及びディスプレイ53に供給される。
【0103】
なお、端末装置がスピーカのみを持つラジオタイプの場合には、選択部49から出力された複数の受信オブジェクトの中から、「音声1」に対応する受信オブジェクト、つまり音響オブジェクトのみが選択されてスピーカ53から拡声出力される。
【0104】
従って第6の実施形態によれば、接続使用中の提示装置の種別に適応したオブジェクトが、シーン記述データに含まれている提示装置種別データを基に選択されて提示装置に掲示されることになり、これにより提示装置の種別に応じて常に適切なオブジェクト提示を行うことが可能となる。また、各オブジェクトに対する提示装置の種別指定を送信局10側から行うので、オブジェクトの更新等に伴う提示装置種別の指定変更をすべて送信局10側で一括して行うことができる利点がある。
【0105】
(その他の実施形態)
以上述べた第1乃至第3の各実施形態の各構成、及び第4乃至第6の各実施形態の各構成は、それぞれ必要に応じて適宜組み合わせてその他の実施形態とすることもできる。
【0106】
また、前記各実施形態ではいずれもディジタル衛星放送システムを例にとって説明したが、地上波を用いたディジタル放送システムにも適用可能である。
【0107】
さらに、前記各実施形態ではいずれも各オブジェクトを復号器44〜46で復号したのち、シーン記述データに従って選択部49で選択し、さらに合成部50で選択合成するように構成したが、各オブジェクトをシーン記述データに従い選択部49で選択したのち、この選択されたオブジェクトをデコードして合成するように構成してもよい。
【0108】
【発明の効果】
以上詳述したように、この発明に係わるディジタル放送システムの端末装置では、自装置における所定の状況を検出するための状況検出手段と、自装置の状況とユーザに提示すべきオブジェクトとの対応関係を表す設定情報を記憶したデータベースと、提示制御手段とを新たに設け、この提示制御手段により、上記状況検出手段の検出結果及び上記データベースの設定情報を基に、受信再生された複数のオブジェクトの中から提示すべきオブジェクトを選択し、この選択されたオブジェクトを提示装置に提示するようにしている。
【0109】
また他の発明に係わるディジタル放送システムとその端末装置では、放送局に、オブジェクトの提示条件を指定するための条件指定情報をシーン記述データに含めて送信する条件指定情報送出手段を設け、一方端末装置には、自装置における所定の状況を検出するための状況検出手段と、提示制御手段とを設け、この提示制御手段において、上記状況検出手段の検出結果及び受信再生されたシーン記述データに含まれる条件指定情報を基に、受信再生された複数のオブジェクトの中から提示すべきオブジェクトを選択し、この選択されたオブジェクトを提示装置に提示するように構成している。
【0110】
従ってこれらの発明によれば、端末装置の状況に応じて最適なオブジェクト提示を行うことが可能なディジタル放送システムとその端末装置を提供することができる。
【図面の簡単な説明】
【図1】 この発明に係わるディジタル衛星放送システムの概略構成図。
【図2】 図1に示したシステムにおける送信局の構成を示す回路ブロック図。
【図3】 この発明の第1の実施形態に係わる端末装置の構成を示す回路ブロック図。
【図4】 図3に示した端末装置による提示制御の手順及び内容を示すフローチャート。
【図5】図3に示した端末装置に設けられている位置判断データベースの構成例を示す図。
【図6】 位置判断データベースの更新データの一例を示す図。
【図7】 位置判断データベースの更新結果を示す図。
【図8】 この発明の第2の実施形態に係わる端末装置の構成を示す回路ブロック図。
【図9】 図8に示した端末装置による提示制御の手順及び内容を示すフローチャート。
【図10】 図8に示した端末装置に設けられている走行状態判断データベースの構成例を示す図。
【図11】 この発明の第3の実施形態に係わる端末装置に設けられる提示種別判断データベースの構成例を示す図。
【図12】 この発明の第3の実施形態に係わる端末装置の構成を示す回路ブロック図。
【図13】 図12に示した端末装置による提示制御の手順及び内容を示すフローチャート。
【図14】 この発明の第4の実施形態に係わる端末装置の構成を示す回路ブロック図。
【図15】 図14に示した端末装置による提示制御の手順及び内容を示すフローチャート。
【図16】 この発明の第4の実施形態で使用する地域指定機能を備えたシーン記述データの構成例を示す図。
【図17】 この発明の第5の実施形態で使用する走行状態指定機能を備えたシーン記述データの構成例を示す図。
【図18】 この発明の第5の実施形態に係わる端末装置の構成を示す回路ブロック図。
【図19】 図18に示した端末装置による提示制御の手順及び内容を示すフローチャート。
【図20】 この発明の第6の実施形態に係わる端末装置の構成を示す回路ブロック図。
【図21】 図20に示した端末装置による提示制御の手順及び内容を示すフローチャート。
【図22】 この発明の第6の実施形態で使用する地域指定機能を備えたシーン記述データの構成例を示す図。
【符号の説明】
10…送信局
11…オーサリング装置
12…音響オブジェクト符号化部
13…映像オブジェクト符号化部
14…文字オブジェクト符号化部
15…シーン記述符号化部
16…多重化部
17…送信部
18…Kuバンド用の送信アンテナ
20…衛星制御局
30…静止衛星
31…Kuバンド用の受信アンテナ
32…Sバンド用の送信アンテナ
40…端末装置
41…端末装置の受信アンテナ
42…受信部
43…多重分離部
44…音響オブジェクト復号化部
45…映像オブジェクト復号化部
46…文字オブジェクト復号化部
47…シーン記述復号化部
48…シーン記述解析部
49…選択部
50A,50B,50C,50D,50E,50F…合成部
51A,51B,51C,51D,51E,51F…提示制御手段
52A…データベース更新制御手段
52C,52F…提示種別判定手段
53…ディスプレイ
54…スピーカ
55A…位置判断データベース
55B…走行状態判断データベース
55C…提示種別判断データベース
56…走行状態検出部
61…GPS受信用アンテナ
62…GPS受信部
63…位置検出部
GS1,GS2,…GPS衛星
SC…シーン解析データ
LD…位置検出データ
RD…走行状態検出データ
[0001]
BACKGROUND OF THE INVENTION
The present invention broadcasts multimedia information composed of video, audio, text, etc. to a mobile terminal device.Digital broadcasting systemAnd its terminal device.
[0002]
[Prior art]
  In recent years, satellite broadcasting systems for mobiles using broadcasting satellites or communication satellites in geostationary orbit have been proposed. This type of system uses MPEG4 ( Moving Picture Coding Experts Group 4) and using the S band for the downlink from the satellite to the mobile terminal device, the mobile terminal device such as the in-vehicle terminal device or the portable information terminal device is a multimedia composed of video, audio, text, etc. It is designed to be able to receive information and is attracting a great deal of attention.
  By the way, this type of system assumes the use of MPEG4 as described above. MPEG4 is based on the fact that the conventional moving image encoding method simply encodes an image as one scene, whereas a plurality of AVOs ( Audio / Visual Objects : A scene is expressed by synthesizing hierarchized video / audio signals composed of components represented by persons and backgrounds). Each hierarchical component may be a natural image / sound or a composite image / sound. Further, it may represent the entire scene or may represent a part. Furthermore, there is a great degree of freedom in the degree of overlap of components and temporal / spatial relationships.
  That is, in a system using MPEG4, on the transmission side, a plurality of objects constituting one scene and scene description data for synthesizing these objects are encoded into elementary streams using an optimal algorithm. Then multiplex and send. On the receiving side, after each received object and scene description data are decoded, each object is synthesized according to the contents of the scene description data and output to a presentation device such as a display or a speaker.
  However, if the objects are to be combined and presented only in accordance with the scene description data, there is a possibility that inappropriate presentation will be performed depending on the situation of the terminal device. For example, when an object has regional characteristics, if this object is always displayed, an object irrelevant to its current position is displayed on the terminal device. In the case of an in-vehicle terminal device, if display data such as video and character data is displayed on the display while traveling, it is extremely undesirable from the viewpoint of traffic safety.
[0003]
[Problems to be solved by the invention]
  The present invention has been made paying attention to the above circumstances, and its object is to provide a terminal device.The received multimedia information can be presented in an optimal form depending on the reception position or the state of viewing while moving.It is to provide a digital broadcasting system and a terminal device thereof.
[0004]
[Means for Solving the Problems]
In order to achieve the above object, the present inventionIn a digital broadcasting system, a terminal is configured such that a program is produced by composing each scene by combining one or more objects, the object of the produced program is converted into a broadcast signal, and broadcast to a predetermined service area. On the side, the broadcast signal is received, one or more objects constituting each scene of the program are reproduced, and the program is presented by combining arbitrary objects.
In particular, in the terminal device, receiving and reproducing means for receiving the broadcast signal and reproducing the one or more objects from the received signal;A situation detection unit for detecting a predetermined situation in the own device, a database storing setting information indicating a correspondence relationship between the situation of the own device and an object to be presented to the user, and a presentation control unit are newly provided. Then, the presentation control means selects an object to be presented from a plurality of received and reproduced objects based on the detection result of the situation detection means and the setting information of the database, and presents the selected object. It is intended to be presented to the device.
[0005]
Specifically, the following three configurations can be considered.
In the first configuration, the situation detection means is provided with position detection means for detecting the current position of the own apparatus, and setting information representing the correspondence between the position of the own apparatus and the object to be presented to the user is stored in the database. In addition, in the presentation control means, an object corresponding to the current position of the own apparatus among the plurality of received and reproduced objects based on the current position of the own apparatus detected by the position detecting means and the setting information of the database Is selected and presented to the presentation device.
[0006]
In the second configuration, the situation detection meansMoveDetect stateMoveIn addition to providing status detection means, the databaseMoveThe setting information representing the correspondence between the state and the object to be presented to the user is stored, and the presentation control meansMoveThe own device detected by the state detection meansMoveBased on the status and the setting information in the database, the localMoveThe object corresponding to the state is selected and presented to the presentation device.
[0007]
In the third configuration, the situation detection unit is provided with a presentation type detection unit that detects the type of the presentation device, and setting information representing a correspondence relationship between the type of the presentation device and the object to be presented to the user is stored in the database. In the presentation control unit, an object corresponding to the type of the presentation device is selected from the plurality of received and reproduced objects based on the type of the presentation device detected by the presentation type detection unit and the setting information of the database. This is selected and presented to the presentation device.
[0008]
Therefore, according to the terminal device according to the present invention, the location of the terminal device and the terminal deviceMoveAn optimal object is selected and presented each time depending on various conditions of the terminal device such as the state and the type of the presentation device. For this reason, a more effective object presentation is made for the terminal user.
[0009]
on the other handIn other terminal devicesThe broadcast station is provided with condition designation information sending means for sending the condition designation information for designating the object presentation condition in the scene description data, while the terminal device detects the predetermined situation in the own apparatus. The situation detection means and the presentation control means are provided, and the presentation control means is received and reproduced based on the detection result of the situation detection means and the condition designation information included in the scene description data reproduced by the reproduction means. An object to be presented is selected from a plurality of objects, and the selected object is presented to the presentation device.
[0010]
Regarding this invention, the following three specific examples can be considered.
In the first configuration, in the condition designation information sending means of the broadcasting station, the area designation information for designating the presentation area for each object constituting the scene is added and transmitted. Provided with position detection means for detecting the current position of the own apparatus, and in the presentation control means, the current position of the own apparatus detected by the position detection means and the area designation information included in the scene description data received and reproduced Based on the comparison result, an object to which the area designation information corresponding to the current position of the device is added is selected and presented to the presentation device.
[0011]
In the second configuration, in the broadcast station condition designation information sending means, the presentation condition is set for each object constituting the scene.MoveAt the same time, the terminal device adds the specified information for specifying according to the status, and transmits it.MoveDetect stateMoveIn the presentation control means provided with the state detection means,MoveThe own device detected by the state detection meansMoveThe state and the designation information of the presentation condition included in the received and reproduced scene description data are compared. Based on the comparison result,MoveAn object to which designation information corresponding to a state is added is selected and presented to the presentation device.
[0012]
In the third configuration, the condition designation information sending means of the broadcasting station adds and sends type designation information for designating the type of the presentation device for each object constituting the scene. The detection means is provided with a presentation type detection means for detecting the type of the presentation apparatus, and the presentation control means detects the type of the presentation apparatus detected by the presentation type detection means and the type designation included in the received and reproduced scene description data. Information is compared, and based on this comparison result, an object to which type designation information corresponding to the type of the presentation device is added is selected and presented to the presentation device.
[0013]
Therefore, according to the present inventionDigital broadcasting systemAnd the terminal device, the location of the terminal device and the terminal deviceMoveIn accordance with various conditions of the terminal device such as the state and the type of the presentation device, and in accordance with the conditions specified by the broadcasting station, the terminal device selects and presents the optimum object each time. For this reason, a more effective object presentation is made for the terminal user. Also, the object presentation condition can be arbitrarily designated from the broadcasting station side.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
First, an outline of a digital broadcasting system described in the embodiment will be described.
This system is a digital satellite broadcasting system mainly for mobiles using broadcasting satellites or communication satellites, and MPEG4 ( Moving Picture Coding Experts Group 4) and using the S band for the downlink from the satellite to the mobile terminal device, the mobile terminal device such as the in-vehicle terminal device or the portable information terminal device is a multimedia composed of video, audio, text, etc. Information can be received.
MPEG4 is based on the fact that the conventional moving image encoding method simply encodes an image as one scene, whereas a plurality of AVOs ( Audio / Visual Objects : A scene is expressed by synthesizing hierarchized video / audio signals composed of components represented by persons and backgrounds). Each hierarchical component may be a natural image / sound or a composite image / sound. Further, it may represent the entire scene or may represent a part. Furthermore, there is a great degree of freedom in the degree of overlap of components and temporal / spatial relationships.
That is, in the present system using MPEG4, on the transmission side, one or more objects constituting one scene and scene description data for synthesizing the objects are encoded into elementary streams by an optimal algorithm, respectively. After that, it multiplexes and transmits. On the receiving side, after each received object and scene description data are decoded, each object is synthesized according to the contents of the scene description data and output to a presentation device such as a display or a speaker.
By the way, if each object is to be combined and presented only in accordance with the scene description data, it is assumed that the presentation is inappropriate depending on the situation of the terminal device. For example, when an object has regional characteristics, if this object is always displayed, an object irrelevant to its current position is displayed on the terminal device. In addition, in the case of an in-vehicle terminal device, if display data such as video or text data is displayed on the display while driving, the driver will be distracted by the display and cannot concentrate on driving. It is very unfavorable.
Therefore, in the embodiment described below, optimal object presentation can be performed according to the situation of the terminal device.
(First embodiment)
In the first embodiment according to the present invention, a terminal apparatus is provided with a position determination database that stores setting information indicating the correspondence between the position of the own apparatus and an object to be presented to the user, and a plurality of GPS (Global Positioning System) ) The position of the own device is detected by receiving the ranging signal transmitted by the satellite, and a plurality of received and decoded data are obtained based on the position detection data and the setting information stored in the position determination database. An object corresponding to the current position of the device is selected from the objects, and these objects are combined and output to a display or a speaker.
[0015]
FIG. 1 relates to the present invention.Digital satellite broadcasting systemFIG. thisDigital satellite broadcasting systemIncludes at least one transmitting station 10, a satellite control station 20, and a geostationary satellite 30.
[0016]
The transmitting station 10 receives program information created / edited by a plurality of program providers, channel-multiplexes this program information, and then converts it into a broadcast signal. For example, it transmits an uplink transmission path of Ku band (12.5 to 18 GHz). To the geostationary satellite 30. As the channel multiplexing method, for example, a CDM (Code Division Multiplex) method is used.
[0017]
The geostationary satellite 30 includes a Ku-band antenna 31 having a diameter of, for example, 2.5 m and an S-band (for example, 2.6 GHz) antenna 32 having a diameter of 15 m. The broadcast signal transmitted from the transmitting station 10 is received by the Ku band antenna 31 and then converted into an S band signal by a transponder. Then, the converted broadcast signal is transmitted from the S-band antenna 32 to the service area via the S-band downlink transmission path. The diameter of the upstream transmission antenna 31 mounted on the geostationary satellite 30 may be smaller than 2.5 m class, and the diameter of the S-band antenna 32 is not limited to 15 m class but may be 8 m class.
The satellite control station 20 monitors and controls the operating state of the geostationary satellite 30.
[0018]
In the service area, for example, a broadcast receiving device (not shown) fixedly installed in an office or home, or an in-vehicle or portable movable terminal device 40 is transferred from the stationary satellite 30 to the S-band downlink transmission path. Receive the transmitted broadcast signal. Note that a plurality of channels (for example, 30 channels) having a transmission capacity of 256 Kbps are multiplexed in the S-band downlink transmission path. MPEG4 is used as a transmission information encoding method.
[0019]
By the way, the transmitting station 10 and the terminal device 40 are configured as follows. FIG. 2 is a circuit block diagram showing the configuration of the transmitting station 10, and FIG. 3 is a circuit block diagram showing the configuration of the terminal device 40.
[0020]
First, the transmitting station 10For producing programsAn authoring device 11 is provided. The authoring device 11 selectively uses the audio data AU1 to AUn, the video data MP1 to MPn, and the character data TX1 to TXn supplied from each program provider to generate scene information according to MPEG4.To produce broadcast programs. The scene information includes a plurality of objects, that is, the audio data, video data, and character data, and scene description data for synthesizing these objects.
[0021]
The audio data, video data, character data, and scene description data output from the authoring device 11 are an audio object encoding unit 12, a video object encoding unit 13, a character object encoding unit 14, and a scene description encoding unit 15, respectively. Is input. In these encoding units 12 to 15, the audio data, the video data, the character data, and the scene description data are encoded into elementary streams by an algorithm that is optimal for the property. The encoded elementary stream is then multiplexed in the multiplexing unit 16 according to a predetermined format to become a multiplexed stream. The multiplexed stream is digitally modulated by the transmission unit 17 and further converted into a Ku-band broadcast signal, and then transmitted from the transmission antenna 18 to the stationary satellite 30.
[0022]
Next, the terminal device 40 receives the S-band broadcast signal transmitted from the geostationary satellite 30 by the receiving antenna 41 and inputs it to the receiving unit 42. The receiving unit 42 performs frequency conversion and digital demodulation on the broadcast signal, and the demodulated multiplexed stream is input to the demultiplexing unit 43. The demultiplexing unit 43 separates the multiplexed stream into a plurality of elementary streams, and these elementary streams are respectively connected to an audio object decoding unit 44, a video object decoding unit 45, a character object decoding unit 46, and a scene description. The data is input to the decryption unit 47.
[0023]
The audio object decoding unit 44, the video object decoding unit 45, the character object decoding unit 46, and the scene description decoding unit 47 decode the corresponding element streams to perform an audio object, a video object, a character object, and a scene. The description data is reproduced, and the decoded acoustic object, video object, and character object are input to the synthesis unit 50A via the selection unit 49.
[0024]
The scene description data decoded by the scene description decoding unit 47 is input to the scene description analysis unit 48. The scene description analysis unit 48 analyzes the scene description data, gives the analysis data SC to the selection unit 49, and passes objects necessary for synthesizing the scene. The scene description analysis unit 48 also provides the scene description analysis data SC to the synthesis unit 50A.
[0025]
By the way, the terminal device 40 includes a GPS receiver 62, and the GPS receiver 62 receives the ranging signals transmitted by the GPS satellites GS1, GS2,. Then, the received signal is input to the position detection unit 63. The position detection unit 63 obtains the coordinate position of its own apparatus based on the distance measurement signals coming from the GPS satellites GS1, GS2,... And inputs the position detection data LD to the synthesis unit 50A.
[0026]
The terminal device 40 has a position determination database (position determination DB) 55A. The position determination database 55A stores identification information (object ID) of an object to be presented in association with each region in the service area. FIG. 5 shows an example of this, and objects are managed separately for default data and setting data. Of these, the default data isFor exampleThis data has already been written when the terminal device 40 is shipped. The setting data can be arbitrarily set by the terminal user by operating a key input unit (not shown).
[0027]
The synthesizing unit 50A includes presentation control means 51A and database update control means 52A as new functions according to the present invention.
The presentation control unit 51A compares the position detection data LD given from the position detection unit 63, that is, the current position of the terminal device 40 with the area stored in the position determination database 55A. When a region including the current position is stored, an object corresponding to this region is selected from the plurality of received objects input from the selection unit 49, and the selected object is selected from the scene description analysis data SC. And is supplied to the display 53 and / or the speaker 54.
[0028]
When the DB update data is sent from the transmitting station 10 using the scene description data, the DB update control means 52A, according to the content of the update data analyzed by the scene description analysis unit 48, the corresponding in the position determination database 55A. Process to update data. The update process includes changing and deleting an already registered area and its corresponding object, and adding an unregistered area and its corresponding object.
[0029]
Next, an object presentation operation by the terminal device configured as described above will be described. FIG. 4 is a flowchart showing the control procedure and control contents.
[0030]
During the broadcast signal reception operation, the synthesizing unit 50A periodically takes in the position detection data LD from the position detection unit 63 in step 4a. Each time this new position detection data LD is captured, this data is compared with the previously detected position detection data LD in step 4b, and it is determined from this comparison result whether or not the apparatus has moved a predetermined amount or more. If it has moved a predetermined amount or more, the process proceeds to step 4c, where the position determination database 55A is searched, and it is determined in step 4d whether or not an area including the current position of the own apparatus is registered.
[0031]
As a result of the determination, if an area including the current position of the device is registered in the position determination database 55A, the composition unit 50A proceeds to step 4e, where the setting object corresponding to the corresponding area is transferred from the position determination database 55A. To determine whether the object is stored. If the setting object is stored, the object is selected from the plurality of receiving objects input from the selection unit 49 in step 4f, and the selected object is synthesized according to the scene description analysis data SC. Supplied to display 53 and / or speaker 54.
[0032]
For example, if the current position of the own apparatus is the region “Tokyo”, “Tokyo 1: Video 1” is read as a setting object as shown in FIG. 5 and corresponds to this setting object from a plurality of receiving objects. The object to be selected is selected. Then, after the selected object is synthesized in accordance with the scene description analysis data SC, it is supplied to the display 53 and displayed in step 4f.
[0033]
On the other hand, when the setting object is not registered, the process proceeds to step 4g, where it is determined whether or not the default data of the object corresponding to the position determination database 55A is registered. If registered, the default data is synthesized in accordance with the scene description analysis data SC in step 4h and supplied to the display 53 and / or the speaker 54. If this default data is not registered, the other default data is read from the position determination database 55A in step 4i and supplied to the display 53 and / or the speaker 54.
[0034]
Accordingly, in the terminal device 40, an object corresponding to the region including the current position is selected and displayed on the display 53 or output from the speaker 54 with the movement. For this reason, the terminal user can always acquire information corresponding to the area where the terminal user exists. In addition, the contents of the position determination database 55A can be arbitrarily changed, added, or deleted by a key operation on the terminal device, so that the terminal user can freely specify the area for each object according to his / her wishes. It becomes possible.
[0035]
Further, it is assumed that database update data using scene description data comes from the transmission station 10 during operation. In this case, the synthesizing unit 50A updates the position determination database 55A according to the received database update data.
[0036]
For example, it is assumed that the database update data as shown in FIG. 6 has arrived while the position determination database 55A is configured as shown in FIG. Then, in the position determination database 55A, the setting object changing process corresponding to the region “Tokyo”, the adding process of the region “Kawasaki” and its objects, and the deleting process of the region “Yokohama” and the corresponding objects are respectively performed. Is called. FIG. 7 shows the configuration of the updated position determination database.
[0037]
By doing in this way, the content of the position determination database 55A of each terminal device 40 can also be updated from the transmitting station side according to, for example, addition or deletion of a new area or change of a program.
[0038]
In addition, as a means for detecting the self-position in the terminal device 40, in addition to the one using a GPS satellite, one that is detected by detecting a base station ID transmitted from a PHS (Personal Handy phone System) base station, etc. It is possible to use.
[0039]
Further, based on the position detection data LD obtained by the position detection unit 63 and the area information registered in the position determination database 55A, the area information corresponding to the current position of the terminal device is displayed on the display 53. Alternatively, message information to that effect may be displayed on the display 53 at the time when the region is switched as the terminal device moves. In this case, the message information may be output from the speaker 54 as a voice message.
[0040]
(Second Embodiment)
In the second embodiment according to the present invention, the in-vehicle terminal device is provided with a traveling state determination database that stores setting information indicating the correspondence between the traveling state of the own device and the object to be presented, and is based on vehicle speed information and the like. Detecting the running state of the device itself, selecting an appropriate object from a plurality of received and decoded objects based on the running state detection data and the setting information stored in the running state determination database. And output to a display or a speaker.
[0041]
FIG. 8 is a block diagram showing a configuration of an in-vehicle terminal device according to the second embodiment. In the figure, the same parts as those in FIG.
[0042]
The terminal device of this embodiment is provided with a running state determination database 55B. In this running state determination database 55B, identification information (object ID) of an object to be presented is stored in association with the running state of the device itself, that is, during running and when stopped. FIG. 10 shows an example of this, and objects are managed separately for default data and filtering data. Of these, the default data is data that has already been written when the terminal device 40 is shipped. The filtering data can be arbitrarily set by the terminal user by operating a key input unit (not shown).
[0043]
The terminal device of this embodiment is provided with a traveling state detection unit 56. The running state detection unit 56 determines whether the own apparatus is running or stopped based on the speed detection signal output from the vehicle speed detector, and synthesizes the determination result as the running state detection data RD. Supplied to the unit 50B.
[0044]
The combining unit 50B includes a presentation control unit 51B. The presentation control means 51B accesses the driving state determination database 55B using the driving state detection data RD output from the driving state detection unit 56 as a key, and corresponds to the detected driving state.Object identification informationIs read. And thisObject identification informationAre selected from a plurality of received objects input from the selection unit 49, and the selected objects are synthesized in accordance with the scene description analysis data SC and supplied to the display 53 and / or the speaker 54. .
[0045]
Since it is such a structure, the following object presentation operation | movement is performed in the terminal device concerning this embodiment. FIG. 9 is a flowchart showing the control procedure and control contents.
[0046]
During the broadcast signal reception operation, the synthesizing unit 50B periodically captures the traveling state detection data RD from the traveling state detection unit 56 in step 9a. Each time the travel state detection data RD is captured, it is determined in step 9b whether or not the detection data RD has changed with respect to the previously captured detection data. When it is detected that the running state has changed from “running” to “stopped” or from “stopped” to “running”, the process proceeds to step 9c, where the current running state is any. Determine whether.
[0047]
As a result of this determination, if the current running state is “running”, the composition unit 50 proceeds to step 9d, where the filtered object is read from the running state judgment database 55B, and the filtering is designated. It is determined whether or not. And PhilTIf the ring is designated, the object corresponding to the object designated for filtering in step 9h is selected from the plurality of received objects input from the selection unit 49, and the selected object is selected from the scene description analysis data. Combined in accordance with the SC and supplied to the display 53 or the speaker 54 or both.
[0048]
If no filtering is specified, the default data is read out in step 9g, an object corresponding to the default data is selected from the plurality of received objects input from the selection unit 49, and the selected object is selected. Are synthesized in accordance with the scene description analysis data SC and supplied to the display 53 and / or the speaker 54.
[0049]
On the other hand, it is assumed that the running state of the own device is “stopped”. In this case, the composition unit 50B proceeds from step 9c to step 9i, where the filtered object is read from the running state determination database 55B, and it is determined whether or not filtering is designated. If the filling is designated, in step 9l, the object corresponding to the object designated for filtering is selected from the plurality of received objects input from the selection unit 49, and the selected object is selected from the scene. The data are synthesized according to the description analysis data SC and supplied to the display 53 and / or the speaker 54.
[0050]
If no filtering is specified, the default data is read out in step 9k, an object corresponding to the default data is selected from the plurality of received objects input from the selection unit 49, and the selected object is selected. Are synthesized in accordance with the scene description analysis data SC and supplied to the display 53 and / or the speaker 54.
[0051]
For example, assuming that the running state of the device is “running”, “voice” is stored in the database 55B as an object specified for filtering as shown in FIG. A sound object is selected from the objects. The selected audio object is synthesized in accordance with the scene description analysis data SC, and then output from the speaker 54.
[0052]
For this reason, during traveling, only the audio object in the scene information is output from the speaker 54, and no video and characters are displayed on the display 53. Accordingly, the user does not see the display 53 while traveling, and thus safe driving can be performed.
[0053]
On the other hand, during the stop, the video object and the character object are displayed on the display 53, and the sound object is loudly output from the speaker 54. Therefore, the user can view and listen to scene information including all objects by stopping the vehicle.
[0054]
If the selection of the object during traveling is fixed to only the audio object, the passenger and the rear seat cannot see images and characters during traveling. Therefore, the video object and the character object may be displayed on the display 53 even when the user performs a mode switching operation by the key input unit.
[0055]
Further, during traveling, the character object may be converted into a voice object using a voice synthesis technique and output from the speaker 54. In this way, for example, character objects such as headline news, traffic information, and weather forecasts can be notified to the terminal user by reading aloud, and the terminal user can know the contents of the character object even while traveling. .
[0056]
In addition, when a sound object generated by the above-described sound synthesis is output from the speaker 54, if a sound object of music or personality already exists, the sound object is synthesized after reducing the volume of the existing sound object. It is good to make a loud output. If the speaker is stereo-compatible, the voice object generated by the above voice synthesis is output from one channel (for example, the right channel on the driver's seat side), and the existing voice object is output to the other channel (passenger seat). The channel separation is preferably performed so that the signal is output from the left side channel. Further, at this time, the volume of the right channel may be relatively increased compared to the volume of the left channel. With the configuration described above, the terminal user can hear the speech synthesis object corresponding to the character object more clearly.
[0057]
(Third embodiment)
In the third embodiment according to the present invention, a terminal type is provided with a presentation type determination database that stores setting information representing the correspondence between the type of a presentation apparatus in use and a presentation target object, and is used for receiving broadcast signals. Determine the type of the presentation device in use in advance, and select an appropriate object from the plurality of received and decoded objects based on the determination result of this type and the setting information stored in the presentation type determination database. These are selected, combined, and output to a display or a speaker as a presentation device.
[0058]
FIG. 12 is a block diagram showing the configuration of the terminal device according to the third embodiment. In the figure, the same parts as those in FIG.
[0059]
The terminal device of this embodiment is provided with a presentation type determination database 55C. In this presentation type determination database 55C, identification information (object ID) of an object to be presented is stored in association with the type of the presentation device being used, that is, the speaker, the low resolution display, and the high resolution display. is there. FIG. 11 shows an example of the configuration.
[0060]
The synthesizing unit 50C includes a presentation control unit 51C and a presentation type determination unit 52C. The presentation type determination unit 52C determines the type of the presentation device connected to the combining unit 50C, that is, whether the display 53 is connected or the speaker 54 is connected. Determine whether the specification is high resolution or low resolution.
[0061]
When presenting the received object, the presentation control unit 51C accesses the presentation type determination database 55C using the determination result of the presentation type determination unit 52C as a key, and recognizes an object that can be presented. Then, the object corresponding to the presentable object is selected from the plurality of receiving objects input from the selection unit 49, and the selected object is synthesized according to the scene description analysis data SC, and displayed on the display 53 or the speaker. 54 or both.
[0062]
Since it is such a structure, the following object presentation operation | movement is performed in the terminal device concerning this embodiment. FIG. 13 is a flowchart showing the control procedure and control contents.
[0063]
Prior to receiving the broadcast signal, the synthesizing unit 50C determines the type of presentation device that is connected and usable in step 13a. As a result of this determination, if the presentation type is the speaker 54, the process proceeds to step 13b, where the corresponding object, that is, “speech” is read from the presentation type judgment database 55C. In step 13c, only the audio object is selected from the plurality of received objects input from the selection unit 49, and when there are a plurality of selected audio objects, these are synthesized according to the scene description analysis data SC. The sound is supplied to the speaker 54 and output.
[0064]
On the other hand, if the presentation type is a low-resolution display, the process proceeds to step 13d, where the corresponding object, that is, “character” is read from the presentation type judgment database 55C. In step 13e, a character object is selected from a plurality of received objects input from the selection unit 49. If there are a plurality of selected character objects, these are synthesized in accordance with the scene description analysis data SC, and then the low-level object is selected. Supply to a resolution display and display.
[0065]
If the speaker 54 is also connected as a presentation device at this time, the synthesizing unit 50C selects an audio object from a plurality of received objects input from the selection unit 49, and selects the selected audio object as scene description analysis data. After synthesizing according to the SC, the signal is supplied to the speaker 54 to be output loudly.
[0066]
If the presentation type is the high-resolution display 53, the process proceeds to step 13f, where the corresponding objects, that is, “video” and “character” are read from the presentation type judgment database 55C. In step 13g, a video object and a character object are respectively selected from the plurality of received objects input from the selection unit 49, and the selected video object and character object are synthesized according to the scene description analysis data SC, It is supplied to the resolution display 53 and displayed.
[0067]
If the speaker 54 is also connected as a presentation device at this time, the synthesizing unit 50C selects an audio object from a plurality of received objects input from the selection unit 49, and selects the selected audio object as scene description analysis data. After synthesizing according to the SC, the signal is supplied to the speaker 54 to be output loudly.
[0068]
Therefore, according to the third embodiment, an object suitable for the type of the presenting device being used for connection is automatically selected and posted on the presenting device, thereby depending on the type of the presenting device. Appropriate object presentation can always be performed.
[0069]
The determination result of the presentation type determination unit 52C may be displayed on the display 53. In this case, for example, when the low resolution mode is set even though the display 53 has the high resolution mode, the terminal user confirms the current mode and sets the high resolution mode. Changes can be made.
[0070]
(Fourth embodiment)
In the fourth embodiment according to the present invention, the transmission station adds the area designation data for designating the presentation area of each object to the scene description data and transmits the scene description data. In the terminal device, the position of the device itself is detected by receiving ranging signals transmitted by a plurality of GPS satellites, and the region designation data included in the position detection data and the received scene description data, Based on the above, an object corresponding to the current position of the own apparatus is selected from a plurality of received and decoded objects, and the selected objects are synthesized and output to a display or a speaker.
[0071]
FIG. 14 is a block diagram showing a configuration of a terminal apparatus according to the fourth embodiment of the present invention. In the figure, the same parts as those in FIG.
[0072]
This terminal device is provided with a GPS receiving unit 62, and the distance measuring signal transmitted by the GPS satellites GS 1, GS 2,... Is received by the GPS receiving unit 62 via the antenna 61. Then, the received signal is input to the position detection unit 63. The position detection unit 63 obtains the coordinate position of the own apparatus based on the distance measurement signals coming from the GPS satellites GS1, GS2,... And inputs the position detection data LD to the synthesis unit 50D.
[0073]
The synthesizing unit 50D includes a presentation control unit 51D. The presentation control means 51D includes the position detection data LD given from the position detection unit 63, that is, data representing the current position of the terminal device 40 in the scene description analysis data SC given from the scene description analysis unit 48. Compare with region-specific data. Then, the object for which the region designation corresponding to the current position is specified is selected from the plurality of received objects input from the selection unit 49, and the selected objects are synthesized according to the scene description analysis data SC, and the display 53 is displayed. Or it supplies to the speaker 54 or both.
[0074]
Since it is such a structure, the following object presentation operation | movement is performed in the terminal device concerning this embodiment. FIG. 15 is a flowchart showing the control procedure and control contents.
[0075]
During the broadcast signal receiving operation, the synthesizing unit 50D periodically takes in the position detection data LD from the position detection unit 63 in step 15a. Each time this new position detection data LD is captured, this data is compared with the previously detected position detection data LD in step 15b, and it is determined from this comparison result whether or not the apparatus has moved a predetermined amount or more. If it has moved by a predetermined amount or more, the process proceeds to step 15c to select one reception object in the scene description analysis data SC, and the region designation data added in association with this reception object and the own device. The current position is compared with step 15d. As a result of the comparison, if the current position of the own device is included in the designated area, the process proceeds to step 15e, where a corresponding object is selected from the plurality of received objects output from the selection unit 49 as a presentation target. To do.
[0076]
On the other hand, if it is determined in step 15d that the current position of the device is not included in the designated area, the composition unit 50D proceeds to step 15f, where an unselected object is included in the scene description analysis data SC. It is determined whether it remains. If it remains, the process returns to step 15c to select an unselected object, and the processing from step 15d to step 15e described above is executed. Thereafter, similarly, the above process is repeatedly executed for all objects included in the scene description analysis data SC. Then, the objects selected as the presentation targets by the above processes are synthesized according to the scene description analysis data SC and supplied to the display 53 and / or the speaker 54 to present the objects.
[0077]
Therefore, only the object for which the area designation corresponding to the current position of the own device is specified among the plurality of received objects is selected and presented to the presentation device. For example, it is assumed that scene description data as shown in FIG. 16 is sent from the transmitting station 10 and the current position of the own apparatus is included in the designated area “Tokyo”. In this case, the synthesis unit 50D selects the objects designated as “Tokyo” by the area designation data, that is, “speech 1”, “character 1”, and “video 1”, and these objects are selected according to the scene description analysis data SC. After being synthesized, it is displayed on the display 53 and output loudly from the speaker 54.
[0078]
Therefore, in the terminal device 40, an object in a region unrelated to the current location of the device itself is not presented, and the terminal user can always obtain information corresponding to the current location of the device. Further, in this embodiment, since the area designation of each object is performed from the transmission station 10 side, all changes in the designated area associated with the update of the object can be performed collectively on the transmission station 10 side.
[0079]
(Fifth embodiment)
In the fifth embodiment according to the present invention, at the transmitting station, for each object of the scene description data, running state designation data for designating whether to present according to the running state of the terminal device is added. Send. The terminal device detects the running state of the own device based on the vehicle speed information and the like, and receives and decodes based on the running state detection data and the running state designation data included in the received scene description data. An appropriate object is selected from the plurality of objects, and the selected objects are synthesized and output to a display or a speaker.
[0080]
FIG. 18 is a block diagram showing a configuration of a vehicle-mounted terminal device according to the fifth embodiment. In the figure, the same parts as those in FIG.
[0081]
The terminal device of this embodiment is provided with a running state detection unit 56 as in the device shown in FIG. The running state detection unit 56 determines whether the own apparatus is running or stopped based on the speed detection signal output from the vehicle speed detector, and synthesizes the determination result as the running state detection data RD. To the unit 50E.
[0082]
The combining unit 50E includes a presentation control unit 51E. The presentation control means 51E uses the scene description output from the scene description analysis unit 48 to display the driving state detection data RD output from the driving state detection unit 56, that is, data indicating whether the terminal device 40 is running or stopped. It compares with the running condition designation data included in the analysis data SC. Then, an object corresponding to the current running state of the own apparatus is selected from the plurality of received objects input from the selection unit 49, and the selected objects are synthesized according to the scene description analysis data SC, and displayed on the display 53. Or it supplies to the speaker 54 or both.
[0083]
Since it is such a structure, the following object presentation operation | movement is performed in the terminal device concerning this embodiment. FIG. 19 is a flowchart showing the control procedure and control contents.
[0084]
During the broadcast signal reception operation, the synthesizing unit 50E periodically captures the travel state detection data RD from the travel state detection unit 56 in step 19a. Each time the travel state detection data RD is captured, it is determined in step 19b whether the travel state of the apparatus is “running” or “stopped” based on the detection data RD.
[0085]
If the result of this determination is that the device is “running”, the process proceeds to step 19c, where one object in the scene description data is selected, and running state designation data added in association with this object. And the current running state of the own device are compared in step 19d. As a result of the comparison, if the driving state designation data is “presenting on running”, the process proceeds to step 19e, where the corresponding object is selected as a presentation target from the plurality of received objects output from the selection unit 49. To do.
[0086]
On the other hand, if the travel state designation data is “presentation off during travel” in step 19d, the process proceeds to step 19f and it is determined whether or not an unselected object remains in the scene description analysis data SC. If there remains an unselected object, the process returns to step 19c to select one unselected object, and the processes in steps 19d and 19e described above are executed. Thereafter, similarly, the above process is repeatedly executed for all objects included in the scene description analysis data SC.
[0087]
Then, the objects selected as the presentation targets by the above processes are synthesized according to the scene description analysis data SC and supplied to the display 53 and / or the speaker 54 to present the objects.
[0088]
Therefore, only the objects designated as “presentable during travel” among the plurality of received objects are selected and presented to the presentation device. For example, when the scene description data as shown in FIG. 17 is sent from the transmitting station 10 now, only the object designated as “available during running” by the running state designation data, that is, “sound 1”, in the synthesis unit 50E. The audio object is selected and output from the speaker 54 in accordance with the scene description analysis data SC.
[0089]
Therefore, in the terminal device, only the sound object is loudly output while the own device is traveling, and the video object and the character object are not displayed. For this reason, the terminal user does not need to look at the display 53 during traveling, and can thereby perform safe driving.
[0090]
If it is determined in step 19b that the running state of the own apparatus is “stopped”, the composition unit 50E proceeds to step 19g and selects all the objects received here, and describes these objects in the scene description. The objects are combined according to the analysis data SC and supplied to the display 53 and / or the speaker 54 to present the object. Therefore, the terminal user can view and listen to scene information including all objects by stopping the vehicle.
[0091]
That is, according to the fifth embodiment, appropriate object presentation can be performed according to the running state of the own device. In addition, since the presentation designation according to the running state for each object is performed from the transmitting station 10 side, all changes in the presentation designation accompanying the update of the object can be performed collectively on the transmitting station 10 side.
[0092]
(Sixth embodiment)
In the sixth embodiment according to the present invention, in the transmitting station, presentation device type data indicating the type of the presentation device to be used is added to each object of the scene description data and transmitted. Then, the terminal device determines the type of the presentation device being used in connection prior to receiving the broadcast signal, and receives it based on the determination result of this type and the presentation device type data included in the received scene description data. An object corresponding to the type of presentation device being used is selected from the plurality of decrypted objects, synthesized according to the scene description data, and output to the display or speaker as the presentation device. is there.
[0093]
FIG. 20 is a block diagram showing a configuration of an in-vehicle terminal device according to the sixth embodiment. In the figure, the same parts as those in FIG.
[0094]
The combining unit 50F includes a presentation control unit 51F and a presentation type determination unit 52F. The presentation type determination unit 52F determines the type of the presentation device connected to the combining unit 50F, that is, whether the display 53 is connected or the speaker 54 is connected, and if the display 53 is connected, It is determined whether the specification is high resolution or low resolution.
[0095]
When presenting the received object, the presentation control unit 51F compares the determination result of the presentation type determination unit 52F with the presentation device type data included in the scene description analysis data SC obtained by the scene description analysis unit 48. Based on the comparison result, an object that matches the type of the presentation device currently connected to the device itself is determined, and the object corresponding to the object is selected from the plurality of reception objects output from the selection unit 49. These are selected, synthesized according to the scene description analysis data SC, and supplied to the display 53 or the speaker 54.
[0096]
Since it is such a structure, the following object presentation operation | movement is performed in the terminal device concerning this embodiment. FIG. 21 is a flowchart showing the control procedure and control contents.
[0097]
Prior to receiving the broadcast signal, the combining unit 50F determines the type of presentation device that is connected to the device and that can be used. That is, it is determined whether the display 53 is connected or the speaker 54 is connected. If the display 53 is further connected, it is determined whether the specification is high resolution or low resolution.
[0098]
When a broadcast signal is received in this state, the synthesizer 50F selects one object from the scene description analysis data SC output from the scene description analyzer 48 in step 21a, and associates it with this object. The presented presentation device type is compared with the type of the presentation device of the own device that has been determined in step 21b. If they match, the object corresponding to the selected object is selected from the plurality of received objects output from the selection unit 49 in step 21c.
[0099]
On the other hand, as a result of the comparison in step 21b, if the presentation device type designated by the scene description data from the transmitting station 10 side does not match the type of the presentation device connected to the own device, the combining unit 50F The process proceeds to 21d to determine whether or not an unselected object remains in the scene description analysis data SC. If it remains, the process returns to step 21a to select one unselected object, and the processes in steps 21b and 21c described above are executed. Thereafter, similarly, the above process is repeatedly executed for all objects included in the scene description analysis data SC.
[0100]
Then, the objects selected as the presentation targets by the above processes are synthesized according to the scene description analysis data SC and supplied to the presentation apparatus connected to the own apparatus to present the objects.
[0101]
For example, assume that scene description data as shown in FIG. 22 is sent from the transmitting station 10 in a state where the speaker 54 and the low-resolution display 54 are connected to the own apparatus. In this case, the synthesizing unit 50F recognizes objects designated as “speaker” or “low resolution LCD” by the presentation device type data, that is, “speech 1” and “character 1”, respectively. Then, the reception objects corresponding to the “speech 1” and “character 1” are selected from the plurality of reception objects output from the selection unit 49, and these reception objects are synthesized according to the scene description analysis data SC. To the speaker 54 and the display 53.
[0102]
Further, when the speaker 54 and a high-resolution display are connected to the own apparatus, “sound 1”, “character 1”, and “video 1” are selected from the plurality of reception objects output from the selection unit 49. Are received, that is, all objects are selected, and these received objects are synthesized in accordance with the scene description analysis data SC and supplied to the speaker 54 and the display 53.
[0103]
When the terminal device is a radio type having only a speaker, only the reception object corresponding to “sound 1”, that is, the acoustic object is selected from the plurality of reception objects output from the selection unit 49, and the speaker is selected. The sound is output from 53.
[0104]
Therefore, according to the sixth embodiment, an object adapted to the type of the presenting device being used for connection is selected and displayed on the presenting device based on the presenting device type data included in the scene description data. Thus, it is possible to always present an appropriate object according to the type of the presentation device. In addition, since the type of the presentation device for each object is designated from the transmitting station 10 side, there is an advantage that all the designation device type designation changes associated with the update of the object can be performed collectively on the transmitting station 10 side.
[0105]
(Other embodiments)
The configurations of the first to third embodiments described above and the configurations of the fourth to sixth embodiments can be appropriately combined to form other embodiments as necessary.
[0106]
In each of the above embodiments, allDigital satellite broadcasting systemHowever, the present invention can also be applied to a digital broadcasting system using terrestrial waves.
[0107]
Further, in each of the above embodiments, each object is decoded by the decoders 44 to 46, then selected by the selection unit 49 according to the scene description data, and further selected and synthesized by the synthesis unit 50. After selecting by the selection unit 49 according to the scene description data, the selected object may be decoded and synthesized.
[0108]
【The invention's effect】
As described in detail above, the present invention relates toDigital broadcasting systemIn the terminal device, a situation detection means for detecting a predetermined situation in the own apparatus, a database storing setting information indicating a correspondence relationship between the situation of the own apparatus and an object to be presented to the user, a presentation control means, This presentation control means selects an object to be presented from a plurality of received and reproduced objects based on the detection result of the situation detection means and the setting information of the database. The object is presented to the presentation device.
[0109]
Also related to other inventionsDigital broadcasting systemIn the terminal device, the broadcast station is provided with condition designation information sending means for sending the condition designation information for designating the object presentation condition in the scene description data. A situation detection means for detecting the situation and a presentation control means are provided, and in this presentation control means, the detection result of the situation detection meansReceive playbackOn the basis of the condition specifying information included in the scene description data, an object to be presented is selected from a plurality of received and reproduced objects, and the selected object is presented to the presentation device. .
[0110]
Therefore, according to these inventions, it is possible to present an optimal object according to the situation of the terminal device.Digital broadcasting systemAnd its terminal device can be provided.
[Brief description of the drawings]
FIG. 1 relates to the present invention.Digital satellite broadcasting systemFIG.
2 is a circuit block diagram showing a configuration of a transmitting station in the system shown in FIG.
FIG. 3 is a circuit block diagram showing a configuration of a terminal apparatus according to the first embodiment of the present invention.
4 is a flowchart showing the procedure and contents of presentation control by the terminal device shown in FIG. 3;
5 is a diagram showing a configuration example of a position determination database provided in the terminal device shown in FIG. 3. FIG.
FIG. 6 is a diagram illustrating an example of update data in a position determination database.
FIG. 7 is a diagram showing a result of updating a position determination database.
FIG. 8 is a circuit block diagram showing a configuration of a terminal apparatus according to a second embodiment of the present invention.
FIG. 9 is a flowchart showing the procedure and contents of presentation control by the terminal device shown in FIG. 8;
10 is a diagram showing a configuration example of a travel state determination database provided in the terminal device shown in FIG. 8;
FIG. 11 is a diagram showing a configuration example of a presentation type determination database provided in a terminal device according to a third embodiment of the present invention.
FIG. 12 is a circuit block diagram showing a configuration of a terminal apparatus according to a third embodiment of the present invention.
FIG. 13 is a flowchart showing the procedure and contents of presentation control by the terminal device shown in FIG. 12;
FIG. 14 is a circuit block diagram showing a configuration of a terminal apparatus according to a fourth embodiment of the present invention.
15 is a flowchart showing the procedure and contents of presentation control by the terminal device shown in FIG. 14;
FIG. 16 is a diagram showing a configuration example of scene description data having an area designating function used in the fourth embodiment of the present invention.
FIG. 17 is a diagram showing a configuration example of scene description data having a running state designation function used in the fifth embodiment of the present invention.
FIG. 18 is a circuit block diagram showing a configuration of a terminal apparatus according to a fifth embodiment of the present invention.
FIG. 19 is a flowchart showing the procedure and content of presentation control by the terminal device shown in FIG. 18;
FIG. 20 is a circuit block diagram showing a configuration of a terminal apparatus according to a sixth embodiment of the present invention.
FIG. 21 is a flowchart showing the procedure and content of presentation control by the terminal device shown in FIG. 20;
FIG. 22 is a diagram showing a configuration example of scene description data having an area designating function used in the sixth embodiment of the present invention.
[Explanation of symbols]
10: Transmitting station
11 ... Authoring device
12 ... Acoustic object encoding unit
13 ... Video object encoding unit
14: Character object encoding unit
15 ... Scene description encoding unit
16: Multiplexer
17: Transmitter
18 ... Ku band transmission antenna
20 ... Satellite control station
30 ... geostationary satellite
31 ... Receiving antenna for Ku band
32 ... S-band transmission antenna
40 ... Terminal device
41. Reception antenna of terminal device
42. Reception unit
43. Demultiplexing unit
44. Acoustic object decoding unit
45 ... Video object decoding unit
46: Character object decoding unit
47. Scene description decoding unit
48. Scene description analysis section
49 ... Selection part
50A, 50B, 50C, 50D, 50E, 50F ... synthesis unit
51A, 51B, 51C, 51D, 51E, 51F ... presentation control means
52A ... Database update control means
52C, 52F ... Presentation type determination means
53 ... Display
54 ... Speaker
55A ... Position determination database
55B ... Running state judgment database
55C ... Presentation type judgment database
56 ... Running state detection unit
61 ... GPS receiving antenna
62 ... GPS receiver
63 ... Position detection unit
GS1, GS2, ... GPS satellites
SC ... Scene analysis data
LD: Position detection data
RD ... Running state detection data

Claims (8)

提供番組の各シーンを構成する1以上のオブジェクト、及び前記オブジェクトの合成内容を示すシーン記述データを多重した放送信号を放送局からサービスエリアに向け放送するディジタル放送システムで使用され、移動体に搭載される端末装置において、
前記放送信号を受信してその受信信号から前記1以上のオブジェクト及びシーン記述データを復号する受信復号手段と、
前記受信復号手段で復号される1以上のオブジェクトの中から指定オブジェクトを選択的に通過させる選択する選択手段と、
前記受信復号手段で復号されるシーン記述データを解析しシーン合成に必要なオブジェクトを指定して前記選択手段に通知するシーン記述解析手段と、
前記シーン記述解析手段で解析されたシーン記述データに基づいて前記選択手段で選択されたオブジェクトを合成する合成手段と、
前記合成手段で合成されるオブジェクトを提示する提示手段と、
前記移動体が走行中か否かを判定する判定手段と、
予め、前記判定手段で少なくとも走行中と判断されるときに前記合成手段で合成するオブジェクトをフィルタリングするための設定情報を記憶するデータベースと、
前記データベースの設定情報を参照して前記判定手段の判定結果に対応するオブジェクトをフィルタリングし、前記合成手段で合成するオブジェクトを制御する制御手段とを具備したことを特徴とするディジタル放送システムの端末装置。
Used in a digital broadcasting system that broadcasts a broadcast signal that multiplexes one or more objects constituting each scene of a provided program and scene description data indicating the composition content of the objects from a broadcasting station to a service area, and is mounted on a mobile unit In the terminal device to be
Receiving and decoding means for receiving the broadcast signal and decoding the one or more objects and scene description data from the received signal;
Selecting means for selectively passing a designated object from one or more objects decoded by the reception decoding means;
Scene description analysis means for analyzing the scene description data decoded by the reception decoding means and designating an object necessary for scene synthesis and notifying the selection means;
Combining means for combining the object selected by the selecting means based on the scene description data analyzed by the scene description analyzing means;
Presenting means for presenting the object to be synthesized by the synthesizing means;
Determining means for determining whether or not the moving object is running;
A database that stores setting information for filtering objects to be combined by the combining unit when the determining unit determines that the vehicle is at least traveling in advance;
A terminal device of a digital broadcasting system, comprising: a control unit that filters an object corresponding to a determination result of the determination unit with reference to setting information of the database and controls an object to be combined by the combining unit .
前記放送局から放送される放送信号が、衛星を中継して前記サービスエリアに向けて送信されるとき、
前記受信復号手段は、前記衛星からの放送信号を受信することを特徴とする請求項1記載のディジタル放送システムの端末装置。
When a broadcast signal broadcast from the broadcasting station is transmitted toward the service area via a satellite,
2. The terminal device of the digital broadcasting system according to claim 1, wherein the receiving / decoding unit receives a broadcast signal from the satellite.
さらに、前記提示手段として接続される提示装置の種別を検出する種別検出手段を備え、
前記制御手段は、さらに前記種別検出手段で検出される種別の提示装置に合わせて前記合成手段で合成するオブジェクトを選択することを特徴とする請求項1記載のディジタル放送システムの端末装置。
Furthermore, it comprises a type detection means for detecting the type of the presentation device connected as the presentation means,
The terminal device of the digital broadcasting system according to claim 1, wherein the control means further selects an object to be synthesized by the synthesizing means in accordance with the type of presentation device detected by the type detecting means.
前記放送局が前記放送信号に前記データベースに記憶されている設定情報を更新するための更新情報を含めている場合に、
前記受信復号手段は前記受信信号から更新情報を復号し、
さらに、前記受信復号手段で復号された更新情報に従って前記データベースに記憶されている設定情報を更新する更新制御手段を備えることを特徴とする請求項1記載のディジタル放送システムの端末装置。
When the broadcast station includes update information for updating the setting information stored in the database in the broadcast signal,
The reception decoding means decodes update information from the received signal,
The terminal device of the digital broadcasting system according to claim 1, further comprising update control means for updating setting information stored in the database in accordance with update information decoded by the reception decoding means.
提供番組の各シーンを構成する1以上のオブジェクト、及び前記オブジェクトの合成内容を示すシーン記述データを多重した放送信号を放送局からサービスエリアに向け放送するディジタル放送システムで使用され、移動体に搭載される端末装置において、
前記放送局が、前記移動体が走行中か否かの条件別に提示すべきオブジェクトを指定する条件別指定情報を前記放送信号に含めているとき、
前記放送信号を受信してその受信信号から前記1以上のオブジェクト、シーン記述データ及び条件別指定情報を復号する受信復号手段と、
前記受信復号手段で復号される1以上のオブジェクトの中から指定オブジェクトを選択的に通過させる選択する選択手段と、
前記受信復号手段で復号されるシーン記述データを解析しシーン合成に必要なオブジェクトを指定して前記選択手段に通知するシーン記述解析手段と、
前記シーン記述解析手段で解析されたシーン記述データに基づいて前記選択手段で選択されたオブジェクトを合成する合成手段と、
前記合成手段で合成されるオブジェクトを提示する提示手段と、
前記移動体が走行中か否かを判定する判定手段と、
前記条件別指定情報を参照して前記判定手段の判定結果に対応するオブジェクトをフィルタリングし、前記合成手段で合成するオブジェクトを制御する制御手段とを具備したことを特徴とするディジタル放送システムの端末装置。
Used in a digital broadcasting system that broadcasts a broadcast signal that multiplexes one or more objects constituting each scene of a provided program and scene description data indicating the composition content of the objects from a broadcasting station to a service area, and is mounted on a mobile unit In the terminal device to be
When the broadcast station includes, in the broadcast signal, designation information by condition that designates an object to be presented by condition whether or not the mobile object is running,
Receiving and decoding means for receiving the broadcast signal and decoding the one or more objects, scene description data and conditional designation information from the received signal;
Selecting means for selectively passing a designated object from one or more objects decoded by the reception decoding means;
Scene description analysis means for analyzing the scene description data decoded by the reception decoding means and designating an object necessary for scene synthesis and notifying the selection means;
Combining means for combining the object selected by the selecting means based on the scene description data analyzed by the scene description analyzing means;
Presenting means for presenting the object to be synthesized by the synthesizing means;
Determining means for determining whether or not the moving object is running;
A terminal device for a digital broadcasting system, comprising: a control unit that filters an object corresponding to a determination result of the determination unit with reference to the designation information by condition and controls an object to be combined by the combining unit .
前記放送局から放送される放送信号が、衛星を中継して前記サービスエリアに向けて送信されるとき、
前記受信復号手段は、前記衛星からの放送信号を受信することを特徴とする請求項5記載のディジタル放送システムの端末装置。
When a broadcast signal broadcast from the broadcasting station is transmitted toward the service area via a satellite,
6. The terminal device of the digital broadcasting system according to claim 5, wherein the receiving / decoding unit receives a broadcast signal from the satellite.
さらに、前記提示手段として接続される提示装置の種別を検出する種別検出手段を備え、
前記制御手段は、さらに前記種別検出手段で検出される種別の提示装置に合わせて前記合成手段で合成するオブジェクトを選択することを特徴とする請求項5記載のディジタル放送システムの端末装置。
Furthermore, it comprises a type detection means for detecting the type of the presentation device connected as the presentation means,
6. The terminal device of a digital broadcasting system according to claim 5, wherein the control means further selects an object to be synthesized by the synthesizing means in accordance with the type of presentation device detected by the type detecting means.
前記条件別指定情報が前記シーン記述データに含まれているとき、前記シーン記述解析手段は、前記シーン記述データから条件別指定情報を抽出して前記制御手段に出力することを特徴とする請求項5記載のディジタル放送システムの端末装置。  2. The scene description analyzing means extracts condition-specific designation information from the scene description data and outputs the condition designation information to the control means when the condition-specific designation information is included in the scene description data. 5. A terminal device of the digital broadcasting system according to 5.
JP14817198A 1998-05-28 1998-05-28 Terminal equipment for digital broadcasting system Expired - Fee Related JP3651748B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP14817198A JP3651748B2 (en) 1998-05-28 1998-05-28 Terminal equipment for digital broadcasting system
EP99922563A EP1001627A4 (en) 1998-05-28 1999-05-28 Digital broadcasting system and terminal therefor
PCT/JP1999/002849 WO1999062254A1 (en) 1998-05-28 1999-05-28 Digital broadcasting system and terminal therefor
US09/463,577 US6711379B1 (en) 1998-05-28 1999-05-28 Digital broadcasting system and terminal therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14817198A JP3651748B2 (en) 1998-05-28 1998-05-28 Terminal equipment for digital broadcasting system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003125578A Division JP2004007633A (en) 2003-04-30 2003-04-30 Mobile digital broadcast system and terminal therefor

Publications (2)

Publication Number Publication Date
JP2002247575A JP2002247575A (en) 2002-08-30
JP3651748B2 true JP3651748B2 (en) 2005-05-25

Family

ID=15446844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14817198A Expired - Fee Related JP3651748B2 (en) 1998-05-28 1998-05-28 Terminal equipment for digital broadcasting system

Country Status (1)

Country Link
JP (1) JP3651748B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4705324B2 (en) * 2003-12-26 2011-06-22 富士通株式会社 Data operation method
JP4503487B2 (en) * 2005-04-28 2010-07-14 富士通テン株式会社 Music information providing system, terminal device, and terminal program
JP2008054225A (en) * 2006-08-28 2008-03-06 Community Engine Kk Distribution value charging method and distribution value charging system
JP2008054223A (en) * 2006-08-28 2008-03-06 Community Engine Kk Information distributing method and information distribution system
JP2009055487A (en) 2007-08-28 2009-03-12 Fujitsu Ten Ltd Digital radio broadcast receiving apparatus, radio broadcast receiving unit and digital radio broadcast receiving system
JP2017076853A (en) * 2015-10-14 2017-04-20 住友電工システムソリューション株式会社 Transmission device, reception device, terminal device, and server

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0823314A (en) * 1994-07-06 1996-01-23 Sony Corp Data broadcast system
EP0772856B1 (en) * 1994-07-29 1998-04-15 Seiko Communications Holding N.V. Dual channel advertising referencing vehicle location
JPH08247774A (en) * 1995-03-15 1996-09-27 Sumitomo Electric Ind Ltd Navigation system
JPH0965206A (en) * 1995-08-21 1997-03-07 Toshiba Corp Program selection device
JP2852214B2 (en) * 1995-10-25 1999-01-27 四国日本電気ソフトウェア株式会社 Automatic introduction device and automatic introduction method of destination
JP3158064B2 (en) * 1996-02-07 2001-04-23 シャープ株式会社 Video encoding device and video decoding device
JPH09223976A (en) * 1996-02-16 1997-08-26 Yazaki Corp Screen selection method and screen selection device for on-vehicle fm multiplex data receiver
JPH104539A (en) * 1996-06-18 1998-01-06 Matsushita Electric Ind Co Ltd Data multiplexing method and multiplexed data reproduction device
JPH1078329A (en) * 1996-09-04 1998-03-24 Daihatsu Motor Co Ltd Information transmitter and information receiver
JPH10153438A (en) * 1996-11-25 1998-06-09 Sumitomo Electric Ind Ltd Navigation device
JPH10234014A (en) * 1997-02-20 1998-09-02 Matsushita Electric Ind Co Ltd Image decoding method, image decoder, image multiplexing method, image multiplexer and recording medium
JPH10276382A (en) * 1997-03-31 1998-10-13 Hitachi Denshi Ltd Transmitter-receiver

Also Published As

Publication number Publication date
JP2002247575A (en) 2002-08-30

Similar Documents

Publication Publication Date Title
US6711379B1 (en) Digital broadcasting system and terminal therefor
KR100803120B1 (en) Method for Magnfying Part of Moving Picture Data
KR100816407B1 (en) Apparatus for receiving digital broadcast and displaying advertisement information
US20060105787A1 (en) Apparatus and method for providing location-based information
JP2001298375A (en) Digital radio
CN101359917B (en) Method of providing broadcast service and broadcasting receiver therefor
JP3752443B2 (en) Mobile receiver
JP3651748B2 (en) Terminal equipment for digital broadcasting system
EP1753229A2 (en) Method for searching a digital broadcasting channel in a digital broadcasting reception device
KR100770457B1 (en) Digital multi-meadia broadcasting receiving apparatus having tpeg receiving/outputting function and processing method thereof
US7606525B2 (en) Broadcasting receiver and method thereof
EP1961219A1 (en) Broadcast receiver for and method of providing broadcast channel information
KR100846284B1 (en) Method for epg sharing of portable terminal
KR20080099608A (en) Method for processing function of wireless phone connected with navigation device
JP2001053635A (en) Receiver and receiving method
JP3641136B2 (en) Digital broadcasting system and its terminal equipment
US8346157B1 (en) Content customization in asymmertic communication systems
JP2004007633A (en) Mobile digital broadcast system and terminal therefor
JP4470994B2 (en) Audio system for vehicles
JP4018588B2 (en) Satellite broadcast system and satellite broadcast receiver
KR20060024046A (en) System for providing traffic information relating dmb broadcasting program and method thereof
JP2002257568A (en) Information reproducing method with smell and device therefor
KR100399077B1 (en) Broadcasting Control System and Method of Train
KR20060099966A (en) System and method for displaying background image in mobile multimedia broadcasting terminal
KR101117571B1 (en) System for providing Traffic information using digital radio and Method thereof

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050217

LAPS Cancellation because of no payment of annual fees