JP3308562B2 - Video conference terminal - Google Patents

Video conference terminal

Info

Publication number
JP3308562B2
JP3308562B2 JP17402591A JP17402591A JP3308562B2 JP 3308562 B2 JP3308562 B2 JP 3308562B2 JP 17402591 A JP17402591 A JP 17402591A JP 17402591 A JP17402591 A JP 17402591A JP 3308562 B2 JP3308562 B2 JP 3308562B2
Authority
JP
Japan
Prior art keywords
terminal
video
data
stored
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17402591A
Other languages
Japanese (ja)
Other versions
JPH0522321A (en
Inventor
洋二 柴田
正明 滝沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP17402591A priority Critical patent/JP3308562B2/en
Priority to EP92111982A priority patent/EP0523626B1/en
Priority to DE69214217T priority patent/DE69214217T2/en
Priority to AU19641/92A priority patent/AU645210B2/en
Priority to CA002073893A priority patent/CA2073893C/en
Priority to US07/913,401 priority patent/US5365265A/en
Publication of JPH0522321A publication Critical patent/JPH0522321A/en
Application granted granted Critical
Publication of JP3308562B2 publication Critical patent/JP3308562B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2383Channel coding or modulation of digital bit-stream, e.g. QPSK modulation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • G09B5/14Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations with provision for individual teacher-student communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving MPEG packets from an IP network
    • H04N21/4382Demodulation or channel decoding, e.g. QPSK demodulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q11/00Selecting arrangements for multiplex systems
    • H04Q11/04Selecting arrangements for multiplex systems for time-division multiplexing
    • H04Q11/0428Integrated services digital network, i.e. systems for transmission of different types of digitised signals, e.g. speech, data, telecentral, television signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2213/00Indexing scheme relating to selecting arrangements in general and for multiplex systems
    • H04Q2213/13209ISDN
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2213/00Indexing scheme relating to selecting arrangements in general and for multiplex systems
    • H04Q2213/13337Picturephone, videotelephony

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、テレビ会議・電話端末
に関し、特に、3以上の多地点間で会話や会議を行なう
多地点テレビ会議システムに好適なテレビ会議端末に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video conference / telephone terminal, and more particularly to a video conference terminal suitable for a multi-point video conference system for conducting a conversation or a conference between three or more multi-points. Things.

【0002】[0002]

【従来の技術】従来の多地点テレビ会議システムとして
は、CCITT(International Tel
egraph and Telephone Cons
ultative Committee)勧告H.32
0において提案されている多地点テレビ会議システムが
知られている。
2. Description of the Related Art Conventional multipoint video conference systems include CCITT (International Tel).
egrap and Telephone Cons
(ultimate Committee) Recommendation H. 32
The multipoint teleconferencing system proposed in US Pat.

【0003】この多地点テレビ会議システムは、テレビ
会議・電話端末(以下、単に「端末」という)の他に、
多地点テレビ会議を実現するためにMCUを設けてい
る。そして、多地点テレビ会議に参加する全ての端末と
MCUとを接続し、MCUが多地点間の通信を制御する
ことにより多地点テレビ会議を実現している。
This multipoint video conference system includes a video conference / telephone terminal (hereinafter simply referred to as a "terminal"),
An MCU is provided to realize a multipoint video conference. Then, all terminals participating in the multipoint video conference are connected to the MCU, and the MCU controls the multipoint communication to realize the multipoint video conference.

【0004】[0004]

【発明が解決しようとする課題】前記従来の多地点テレ
ビ会議システムによれば、MCUを設け、MCUと多地
点テレビ会議に参加する全ての端末を接続することによ
り多地点テレビ会議を実現するため、以下のような問題
が生じる。
According to the conventional multi-point video conference system, an MCU is provided, and the MCU is connected to all terminals participating in the multi-point video conference to realize the multi-point video conference. However, the following problem occurs.

【0005】1.MCUの収容能力によって、多地点テ
レビ会議に参加できる端末数、通信速度に制限がある。
[0005] 1. The number of terminals that can participate in a multipoint video conference and the communication speed are limited by the capacity of the MCU.

【0006】2.多地点テレビ会議に参加する全ての端
末が、多地点テレビ会議に参加可能な状態にあっても、
MCUが動作していない場合、もしくは、全てのMCU
が他グループの多地点会議のために塞がっている場合
多地点テレビ会議を開催できない。
[0006] 2. Even if all terminals participating in the multipoint video conference are in a state where they can participate in the multipoint video conference,
If the MCU is not operating, or if all MCUs
In the case but it is blocked for multipoint conference of other groups
You can not hold a multipoint video conference.

【0007】3.MCUが、多地点テレビ会議に参加す
る端末から遠地点にある場合、通信料金が高価となる。
[0007] 3. When the MCU is located at an apogee from a terminal participating in the multipoint video conference, the communication fee becomes high.

【0008】そこで、本発明は、MCUを必要とせず
に、多地点テレビ会議に参加する端末のみで多地点テレ
ビ会議を実現できるテレビ会議端末を提供することを目
的とする。
Accordingly, an object of the present invention is to provide a video conference terminal capable of realizing a multipoint video conference with only terminals participating in the multipoint video conference without requiring an MCU.

【0009】[0009]

【課題を解決するための手段】前記目的達成のために、
本発明は、通信フレームを伝送するディジタル通信路
と、前記ディジタル通信路によってリング状に接続され
た複数のテレビ電話・会議端末とを有し、前記テレビ電
話・会議端末は、前記複数のテレビ電話・会議端末と複
数のテレビ電話・会議端末間を接続するディジタル通信
路によって構成されるループを、前記通信フレームが周
回するように、受信した通信フレームを前記ループ上、
下流に位置するテレビ電話・会議端末に中継する中継手
段と、前記中継手段が中継する通信フレームに、発生し
たテレビ電話・会議用データを格納することにより、ル
ープ上の他のテレビ電話・会議端末に発生したテレビ電
話・会議用データを伝える送信手段と、前記中継手段が
中継する通信フレームから、先に自テレビ電話・会議端
末の送信手段が格納し、前記ループを周回してきたテレ
ビ電話・会議用データを取り除くキャンセル手段とを有
することを特徴とする多地点テレビ会議システムを提供
する。
To achieve the above object,
The present invention includes a digital communication path for transmitting a communication frame, and a plurality of videophone / conference terminals connected in a ring by the digital communication path, wherein the videophone / conference terminal includes the plurality of videophone / conference terminals. A loop formed by a digital communication path connecting a conference terminal and a plurality of videophones / conference terminals, such that the communication frame circulates;
A relay unit for relaying to a videophone / conference terminal located downstream, and storing the generated videophone / conference data in a communication frame relayed by the relay unit, so that other videophone / conference terminals on the loop can be stored. Transmitting means for transmitting the videophone / conference data generated in the videophone / conference terminal, and transmitting means for the videophone / conference terminal stored in the communication frame relayed by the relay means, and the videophone / conference which has been circulated through the loop. And a canceling means for removing the use data.

【0010】前記目的達成のために、本発明は、デジタ
ル通信回線を介して複数のテレビ会議端末間でテレビ会
議通信を行うテレビ会議端末であって、画像データを取
り込む画像入力手段と、上記複数のテレビ会議端末の少
なくとも一つから入力された画像データを複数の領域を
有する通信フレームの少なくとも一つの領域に格納した
第一の通信フレームを、上記デジタル通信回線を介して
受信するインタフェース手段と、上記第一通信フレーム
に格納された画像データを表示する画像表示手段と、上
記第一の通信フレームの上記複数の領域のうちの予め指
定された領域の画像データを上記画像入力手段から取り
込んだ画像データと置き換える画像置き換え手段と、上
記複数のテレビ会議端末間のテレビ会議通信を制御する
制御信号を生成する会議制御手段と、上記制御信号を上
記画像置き換え手段から出力された画像データと多重化
して第二の通信フレームを生成するとともに、上記デジ
タル通信回線を介して受信した第一の通信フレームの分
離を行う多重分離手段と、を備え、 上記インタフェース
手段は、上記第二の通信フレームを上記デジタル通信回
線を介して送信することを特徴とするテレビ会議端末を
提供する。
In order to achieve the above object, the present invention provides a digital
Video conference between multiple video conference terminals via
This is a video conference terminal that performs conference communication and downloads image data.
Image input means and a small number of the
At least image data input from one area
Stored in at least one area of the communication frame
The first communication frame via the digital communication line
Interface means for receiving, and the first communication frame
Image display means for displaying the image data stored in the
The finger of the plurality of areas of the first communication frame is
The image data of the specified area from the image input means.
Image replacement means for replacing the embedded image data;
Control video conference communication between multiple video conference terminals
A conference control means for generating a control signal;
Multiplexing with image data output from the image replacing means
To generate a second communication frame,
Of the first communication frame received via the
Demultiplexing means for demultiplexing, the interface
Means for transmitting the second communication frame to the digital communication circuit.
Video conferencing terminal characterized by transmitting over a line
provide.

【0011】[0011]

【作用】本発明に係る多地点テレビ会議システムによれ
ば、前記テレビ電話・会議端末は、前記複数のテレビ電
話・会議端末と複数のテレビ電話・会議端末間を接続す
るディジタル通信路によって構成されるループを、通信
フレームを周回させる。そして、各端末は、中継する通
信フレームに発生したテレビ電話・会議用データを格納
することにより、ループ上の他のテレビ電話・会議端末
に発生したテレビ電話・会議用データを伝える。また、
ループを周回してきた通信フレームから、先に自身が発
信したテレビ電話・会議用データを取り除くことによ
り、テレビ電話・会議用データ2重の送信や、不要なテ
レビ電話・会議用データの蓄積を排除する。
According to the multipoint video conference system according to the present invention, the video telephone / conference terminal is constituted by a digital communication path connecting the plurality of video telephone / conference terminals and the plurality of video telephone / conference terminals. Loop around the communication frame. Each terminal transmits the generated videophone / conference data to another videophone / conference terminal on the loop by storing the generated videophone / conference data in the relayed communication frame. Also,
By removing the videophone / conference data transmitted by the user from the communication frame that has circulated around the loop, transmission of videophone / conference data twice and unnecessary accumulation of videophone / conference data are eliminated. I do.

【0012】また、本発明に係るテレビ会議端末によれ
ば、インターフェース手段により、通信フレームを、当
該端末が接続されたデジタル通信回線(複数のテレビ会
議端末がループ状に接続されたデジタル通信回線)上を
周回させる。そして、この回線上を周回する通信フレー
ムに多地点テレビ会議を制御するための制御情報を格納
する。このようにすることで、多地点テレビ会議システ
ムを構成する各テレビ会議端末間で制御情報の交換が可
能となる。
Also, according to the video conference terminal of the present invention,
If the communication frame is
The digital communication line to which the terminal is connected
Digital communication line connected in a loop)
Orbit. The communication frame that circulates on this line
Stores control information for controlling multipoint videoconferencing in the system
I do. In this way, a multipoint video conference system
Control information can be exchanged between the video conference terminals that make up the system.
It works.

【0013】[0013]

【実施例】以下、本発明に係る多地点テレビ会議システ
ムの一実施例を説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a multipoint video conference system according to the present invention will be described below.

【0014】まず、図1に本実施例に係る多地点テレビ
会議システムの構成を、多地点テレビ会議に参加する端
末数を4として示す。
First, FIG. 1 shows the configuration of a multipoint video conference system according to this embodiment, in which the number of terminals participating in the multipoint video conference is four.

【0015】図中、1、2、3、4が端末、5がデジタ
ル通信網である。また、端末A1は、本実施例におい
て、多地点テレビ会議の議長としての機能を担う議長端
末である。なお、本実施例においては、デジタル通信網
としてCCITT、Iシリーズ勧告で規定されているI
SDNを想定する。また、説明を簡単にするために、各
端末は、ISDNと2B+Dの基本インタフェースで接
続されているものと想定する。
In the figure, 1, 2, 3, and 4 are terminals and 5 is a digital communication network. In this embodiment, the terminal A1 is a chair terminal that functions as a chair of a multipoint video conference. In the present embodiment, as a digital communication network, CCITT, an I
Assume SDN. Further, for the sake of simplicity, it is assumed that each terminal is connected to ISDN by a basic interface of 2B + D.

【0016】さて、本実施例では、多地点テレビ会議に
参加する各端末をループ状に接続する。すなわち、図示
するように、端末A1は、それぞれ異なるBチャネルで
端末D4と端末B2に接続し、端末B2は端末A1と端
末C3に接続し、端末C3は、端末B2と端末D4に接
続し、端末D4は端末C3と端末A1に接続する。
In this embodiment, each terminal participating in the multipoint video conference is connected in a loop. That is, as shown, terminal A1 connects to terminals D4 and B2 with different B channels, terminal B2 connects to terminals A1 and C3, terminal C3 connects to terminals B2 and D4, Terminal D4 connects to terminal C3 and terminal A1.

【0017】次に、図2に、本実施例に係る端末の構成
を示す。
Next, FIG. 2 shows a configuration of a terminal according to the present embodiment.

【0018】図中、200はCRTやビデオカメラ等の
ビデオ入出力機器、201はビデオ情報を符号化/復号
化するビデオコーデック、202はビデオ情報の多重化
/分離処理を行なうビデオパス制御部、210はスピー
カやマイクロフォン等のオーデイオ入出力機器、211
はオーディオ情報を符号化/復号化するオーディオコー
デック、212はオーディオ情報の処理を行なうオーデ
ィオ処理部、220は多地点テレビ会議に伴う各部の制
御を行なう会議制御部、230はテレマティック装置、
240は端末全体の制御を行なうシステム制御部、25
0はデジタル通信網5との間で呼制御等の通信制御を行
なうエンド・網信号制御部、260は後述するH221
フレームのフレーミング処理を行なうMUX/DMU
X、270は網との下位レイヤのインタフェースを担う
網インタフェース部である。また、システム制御部は他
の端末との間の制御データや通知データの処理を担うエ
ンドエンド信号制御部を含む。
In FIG. 1, reference numeral 200 denotes a video input / output device such as a CRT or a video camera; 201, a video codec for encoding / decoding video information; 202, a video path control unit for multiplexing / demultiplexing video information; 210 is an audio input / output device such as a speaker or a microphone;
Is an audio codec that encodes / decodes audio information, 212 is an audio processing unit that processes audio information, 220 is a conference control unit that controls each unit associated with a multipoint video conference, 230 is a telematic device,
240 is a system control unit for controlling the entire terminal, 25
0 is an end / network signal control unit for performing communication control such as call control with the digital communication network 5;
MUX / DMU for framing frames
X and 270 are network interface units that serve as lower layer interfaces with the network. Further, the system control unit includes an end-end signal control unit that handles control data and notification data with other terminals.

【0019】これらのうち、ビデオ入出力機器200、
ビデオコーデック201、オーデイオ入出力機器21
0、オーディオコーデック211、テレマティック装置
230、システム制御部240、エンド・網信号制御部
250、MUX/DMUX260、網インタフェース部
270、エンドエンド信号制御部の詳細と、通常の1対
1通信における動作は、CCITT勧告H.320、
H.221、H.242、H.261に規定されている
通りであるので、説明を省略し、以下、多地点テレビ会
議を実行する場合において、前記通常の1対1通信の場
合と異なる点を説明していく。
Among them, the video input / output device 200,
Video codec 201, audio input / output device 21
0, details of the audio codec 211, the telematic device 230, the system control unit 240, the end / network signal control unit 250, the MUX / DMUX 260, the network interface unit 270, the end / end signal control unit, and the operation in the normal one-to-one communication Is CCITT Recommendation H. 320,
H. 221, H .; 242, H .; 261, the description is omitted, and the following description will focus on points that are different from those in the normal one-to-one communication when a multipoint video conference is performed.

【0020】以下、本実施例に係る多地点テレビ会議シ
ステムの動作の概要を説明する。
Hereinafter, an outline of the operation of the multipoint video conference system according to the present embodiment will be described.

【0021】図3、図4、図5は、端末A、B、C、D
の4端末が多地点テレビ会議を行なっている場合におけ
る、各端末のビデオ入出力機器200でのビデオ出力
と、オーディオ出力機器210でのオーディオ出力のよ
うすを示したものである。
FIGS. 3, 4 and 5 show terminals A, B, C and D
3 shows video output from the video input / output device 200 and audio output from the audio output device 210 of each terminal when the four terminals are in a multipoint video conference.

【0022】図3に示した例は、全ての端末が1つの端
末から発信されたビデオ情報を出力する例である。図3
Aは、端末Bより発信されたビデオ情報を全ての端末A
BCDが表示出力している場合を示している。ビデオ情
報の発信元端末は、通常、会議における発言者が使用し
ている端末であり、発信元端末は、前記議長端末よりの
指示によって決定されるか、もしくは、最も大きなレベ
ルのオーデイオ情報を発信している端末に自動的に決定
される。図3Bは、端末Bから端末Cにビデオ情報の発
信元端末が切り替わったところを示している。
The example shown in FIG. 3 is an example in which all terminals output video information transmitted from one terminal. FIG.
A transmits the video information transmitted from terminal B to all terminals A
This shows a case where a BCD is outputting a display. The source terminal of the video information is usually the terminal used by the speaker in the conference, and the source terminal is determined by an instruction from the chair terminal or transmits the highest level of audio information. Is automatically determined by the terminal that is running. FIG. 3B shows a state where the source terminal of the video information is switched from terminal B to terminal C.

【0023】一方、各端末におけるオーディオ出力は、
出力するビデオ情報によらずに、会議に参加している他
端末から受信したオーディオ情報を全てミックスして出
力する。但し、自端末が発信したオーディオ情報につい
ては、エコーキャンセルの技術を用いて自端末では出力
しないようにする。
On the other hand, the audio output at each terminal is
Regardless of the video information to be output, all audio information received from other terminals participating in the conference is mixed and output. However, audio information transmitted by the own terminal is not output by the own terminal using an echo canceling technique.

【0024】すなわち、図3に示した例では、端末Aで
端末B、C、Dが発信したオーデイオ情報を出力し、端
末Bで端末A、C、Dが発信したオーデイオ情報を出力
し、端末Cで端末A、B、Dが発信したオーデイオ情報
を出力し、端末Dで端末A、B、Cが発信したオーデイ
オ情報を出力する。
That is, in the example shown in FIG. 3, the terminal A outputs the audio information transmitted by the terminals B, C and D, and the terminal B outputs the audio information transmitted by the terminals A, C and D. The terminal C outputs the audio information transmitted by the terminals A, B and D, and the terminal D outputs the audio information transmitted by the terminals A, B and C.

【0025】図4に示した例は、全ての端末が、異なる
2つの端末から発信された2つのビデオ情報を出力する
例である。図4は、端末Aと端末Dより発信された2つ
のビデオ情報を全ての端末A、B、C、Dが上下に表示
出力しているところを示している。この場合も、表示出
力する2つの発信元端末は、前記議長端末よりの指示に
よって決定されるか、もしくは、大きなレベルのオーデ
イオ情報を発信している順に2つの端末に自動的に決定
される。
The example shown in FIG. 4 is an example in which all terminals output two pieces of video information transmitted from two different terminals. FIG. 4 shows that all the terminals A, B, C, and D display and output two pieces of video information transmitted from the terminals A and D vertically. Also in this case, the two originating terminals to be displayed and output are determined by the instruction from the chair terminal, or are automatically determined to the two terminals in the order of transmitting the audio information of a large level.

【0026】なお、図4の場合も先に図3に示した場合
と同様に、音声については、出力するビデオ情報によら
ずに、会議に参加している他端末から受信したオーディ
オ情報を全てミックスして出力する。
In the case of FIG. 4, as in the case shown in FIG. 3, all audio information received from other terminals participating in the conference is output regardless of the video information to be output. Mix and output.

【0027】図5に示した例は、全ての端末が、テレビ
会議に参加している全ての端末の4つのビデオ情報を出
力する例である。図5は、端末A、B、C、Dが、4分
割した画面上に、端末A、B、C、Dのビデオ情報を表
示出力するようすを示している。
The example shown in FIG. 5 is an example in which all terminals output four pieces of video information of all terminals participating in a video conference. FIG. 5 shows a state in which the terminals A, B, C, and D display and output the video information of the terminals A, B, C, and D on the screen divided into four.

【0028】なお、図5の場合も先に図3に示した場合
と同様に、音声については、出力するビデオ情報によら
ずに、会議に参加している他端末から受信したオーディ
オ情報を全てミックスして出力する。
In the case of FIG. 5, as in the case shown in FIG. 3, all audio information received from other terminals participating in the conference is output regardless of the video information to be output. Mix and output.

【0029】5端末以上の端末で多地点テレビ会議を実
行する場合は、表示出力する4つの発信元端末は、前記
議長端末よりの指示によって決定するか、もしくは、大
きなレベルのオーデイオ情報を発信している順につの
端末に自動的に決定する。
When a multipoint video conference is to be carried out with five or more terminals, the four source terminals to be displayed and output are determined according to an instruction from the chair terminal, or transmit a large level of audio information. automatically determining the four terminals in order that.

【0030】さて、次に、本実施例において端末間の通
信に用いる通信フレームについて説明する。
Next, a communication frame used for communication between terminals in this embodiment will be described.

【0031】本実施例では、端末間の通信フレームとし
て、CCITT、H.221で勧告されているフレーム
(本明細書中「H.221フレーム」という)を用い
る。
In the present embodiment, CCITT, H.264, etc. are used as communication frames between terminals. 221 (referred to as “H.221 frame” in this specification).

【0032】図6に、このH.221フレームの構成を
示す。
FIG. 2 shows a configuration of a 221 frame.

【0033】図中、600がフレーム同期に用いるFA
S、601がコマンドや端末能力等の送信に用いるBA
S、602はサブチャネル#8でありMLPメッセージ
の送信等に用いられる。その他の領域603はビデオデ
ータやオーディオデータやデータの送信に用いられる領
域である。
In the figure, reference numeral 600 denotes an FA used for frame synchronization.
S, BA used to transmit commands, terminal capabilities, etc.
S and 602 are subchannels # 8, which are used for transmitting MLP messages and the like. The other area 603 is an area used for transmitting video data, audio data, and data.

【0034】領域603の、ビデオデータやオーディオ
データやデータへの割り当ては、BAS601にコマン
ドや端末能力によって指定される。
The assignment of the area 603 to video data, audio data, and data is specified in the BAS 601 by a command or terminal capability.

【0035】以下、本実施例に係る多地点テレビ会議シ
ステムの詳細について説明する。
The details of the multipoint video conference system according to the present embodiment will be described below.

【0036】まず、図3、4、5に示した多地点テレビ
会議システムのビデオ出力を実現する手段について説明
する。いま、4端末A、B、C、Dが、図1に示すよう
にループ状に接続されているものとする。
First, means for realizing video output of the multipoint video conference system shown in FIGS. Now, it is assumed that four terminals A, B, C, and D are connected in a loop as shown in FIG.

【0037】初めに、各端末のビデオデータの送信フレ
ームについて説明する。ビデオデータはビデオ入出力機
器200で取り込んだビデオ情報をビデオコーデック2
01でDCT等により符号化したデータである。また、
ビデオデータの送信フレームは前記H221フレームの
領域603のビデオデータに割り当てられた領域上に格
納される。
First, a transmission frame of video data of each terminal will be described. The video data is obtained by converting the video information captured by the video input / output device 200 into a video codec 2.
01 is data encoded by DCT or the like. Also,
The transmission frame of the video data is stored in the area assigned to the video data in the area 603 of the H221 frame.

【0038】さて、本実施例においては、このビデオデ
ータの送信フレームとしてCCITT、H.261勧告
に従ったフレーム(以下「H.261フレーム」とい
う)を用いる。
In this embodiment, as the transmission frame of the video data, the CCITT, H.264,. H.261 frame (hereinafter referred to as “H.261 frame”) is used.

【0039】図7に、本実施例において用いるH.26
1フレームの構成を示す。
FIG. 7 shows the H.264 used in this embodiment. 26
1 shows a configuration of one frame.

【0040】図7aが、H.261フレームの構成であ
る。
FIG. 261 frames.

【0041】図7aに示すように、H.261フレーム
は、PSC701、TR702、PTYPE703、P
EI704、PSPARE705のヘッダ部と、GOB
1〜12のデータ部より成る。PSC701は同期用デ
ータを示し、TR702がパケットの循環型のシーケン
ス番号を示している。
As shown in FIG. 261 frames include PSC 701, TR 702, PTYPE 703, P
EI704, PSPARE705 header part and GOB
It consists of 1 to 12 data parts. PSC 701 indicates synchronization data, and TR 702 indicates a cyclic sequence number of the packet.

【0042】GOB1〜12に格納されたビデオデータ
で1画像フレームを構成する。すなわち、GOB1〜1
2には、それぞれ、1画像フレームを12分割した画像
領域のビデオデータが格納される。図8aに、GOB1
〜12と画像フレーム中の領域との関係を示す。
One image frame is composed of the video data stored in the GOBs 1 to 12. That is, GOB1 to GOB1
2 stores video data of an image area obtained by dividing one image frame into 12 parts. FIG.
12 shows the relationship between 〜12 and an area in an image frame.

【0043】さて、図3に示した1つの端末からのビデ
オ情報を全端末が表示出力する場合、ビデオ情報の発信
元となる端末は、ビデオ入出力機器200で取り込んだ
ビデオ情報を表示出力すると共に、GOB1〜12にビ
デオデータを格納してH.261フレームを作成して送
信する。他の端末は、このH.261フレームを受信し
て表示出力すると共に、次の送信先の端末にこのH.2
61フレームを中継送信する。発信元端末は、自分が発
信したH.261フレームが、ループ上に端末を接続し
た通信路を周回して戻ってきたらこれを表示出力すると
共に、自端末が先に発信したデータを廃棄する。
Now, when all terminals display and output the video information from one terminal shown in FIG. 3, the terminal that is the source of the video information displays and outputs the video information captured by the video input / output device 200. At the same time, video data is stored in 261 frames are created and transmitted. Other terminals use the H.264 service. 261 frame is received and displayed for output, and the H.264 frame is transmitted to the next destination terminal. 2
Relay transmission of 61 frames. The originating terminal transmits the H.264 message transmitted by itself. When the 261 frame returns after looping around the communication path connecting the terminal on the loop, this is displayed and output, and the data transmitted earlier by the own terminal is discarded.

【0044】図7bが、先に図5に示した、全ての端末
が、テレビ会議に参加している全ての端末の4つのビデ
オ情報を出力する場合のH.261フレームの使用例で
ある。本例では、GOB1、3、5を端末Aに、GOB
2、4、6を端末Bに、GOB7、9、11を端末C
に、GOB8、9、12を端末Dに割り当てる。図8c
に、各端末に割り当てたGOBと画像領域との関係を示
す。
FIG. 7B shows the H.264 when all the terminals output the four pieces of video information of all the terminals participating in the video conference shown in FIG. This is an example of using 261 frames. In this example, GOBs 1, 3, and 5 are assigned to terminal A,
2, 4, and 6 to terminal B, and GOBs 7, 9, and 11 to terminal C.
, GOBs 8, 9, and 12 are allocated to terminal D. FIG. 8c
Shows the relationship between the GOB assigned to each terminal and the image area.

【0045】端末Aが議長端末とすると、この場合、
端末Aはビデオ入出力機器200で1/4に縮小して取
り込んだビデオ情報を符号化し、GOB1、3、5にビ
デオデータを格納してH.261フレームを作成して送
信する。端末Bは、このH.261フレームを受信して
H.261フレームのGOB1〜12のビデオデータの
示すビデオ情報を表示出力する。また、ビデオ入出力機
器200で1/4に縮小して取り込んだビデオ情報を符
号化し、受信したH.261フレームのGOB2、4、
6に新たな自己のビデオデータを格納して次の送信先の
端末に、H.261フレームを送信する。
Assuming that terminal A is now the chair terminal,
The terminal A encodes video information that has been reduced to 1/4 and captured by the video input / output device 200, stores the video data in GOBs 1, 3, and 5, and stores the video data in H.264. 261 frames are created and transmitted. The terminal B transmits the H.264. H.261 frame is received, and H.261 is received. Video information indicated by video data of GOBs 1 to 12 of 261 frames is displayed and output. In addition, the video input / output device 200 encodes the video information which has been reduced to 1/4 and taken in, and receives the encoded H.264 information. 261 frames of GOB2, 4,
6 stores its own video data and sends it to the next destination terminal. 261 frames are transmitted.

【0046】端末C、Dも、端末Bと同様に、H.26
1フレームを受信してGOBのビデオデータの示すビデ
オ情報を表示出力する。また、ビデオ入出力機器200
で1/4に縮小して取り込んだビデオ情報を符号化し、
受信したH.261フレームの割り当てられたGOBに
自己のビデオデータを格納して次の送信先の端末に、送
信する。
Terminals C and D are also the same as terminal B 26
One frame is received and the video information indicated by the GOB video data is displayed and output. In addition, the video input / output device 200
Encodes the video information captured by reducing it to 1/4,
The received H. The own video data is stored in the GOB to which 261 frames are allocated, and transmitted to the next destination terminal.

【0047】端末Aは、自分が発信したH.261フレ
ームが、ループ上に端末を接続した通信路を周回して戻
ってきたら、H.261フレームのGOBのビデオデー
タの示すビデオ情報を表示出力する。また、ビデオ入出
力機器200で1/4に縮小して取り込んだビデオ情報
を符号化し、受信したH.261フレームのGOB1、
3、5に新たな自己のビデオデータを格納し、必要に応
じてH.261フレームのヘッダを更新して、端末Bに
送信する。
The terminal A sends the H.100 message transmitted by itself. If the H.261 frame circulates around the communication path connecting the terminal on the loop and returns, The video information indicated by the 261 frame GOB video data is displayed and output. In addition, the video input / output device 200 encodes the video information which has been reduced to 1/4 and taken in, and receives the encoded H.264 information. GOB1 of 261 frames,
New video data of the self is stored in H.3 and 5, and H.3. The header of the 261 frame is updated and transmitted to the terminal B.

【0048】なお、図4に示すように、全ての端末が、
異なる2つの端末から発信された2つのビデオ情報を出
力する場合は、発信元となる2つの端末に図8bに示す
ように、GOBを割り当てるようにする。ただし、この
場合、発信元とならない端末は受信したH.261フレ
ームのビデオデータ表示出力と、H.261フレームの
中継のみを行なう。また、端末Aが発信元端末とならな
い場合は、フレームの生成処理と、フレームの中継処理
と、H.261フレームのビデオデータ表示出力のみを
行なう。
As shown in FIG. 4, all terminals
In the case of outputting two pieces of video information transmitted from two different terminals, GOBs are allocated to the two terminals as transmission sources as shown in FIG. 8B. However, in this case, the terminal that is not the transmission source receives the received H.264. H.261 frame video data display output; Only the relay of 261 frames is performed. If the terminal A is not the source terminal, the frame generation processing, the frame relay processing, Only the 261 frame video data display output is performed.

【0049】さて、図7c、dは、先に図5に示した、
全ての端末が、テレビ会議に参加している全ての端末の
4つのビデオ情報を出力する場合のH.261フレーム
の他の使用例である。
Now, FIGS. 7C and 7D are the same as those shown in FIG.
H. a case where all terminals output four pieces of video information of all terminals participating in a video conference This is another usage example of the H.261 frame.

【0050】図7cは、各端末に、GOBのみならず
H.261フレームをも割り当てた例である。この場
合、各端末は、割り当てられたH.261フレームの割
り当てられたGOBに1/4に縮小した自己のビデオデ
ータを格納し、他のGOBにはデータを格納せずに所定
のヘッダのみを付加して送信する。また、各端末は、受
信したH.261フレームから、当該フレームが割り当
てられた端末に割り当てられたGOBに格納されている
ビデオデータをGOBに対応した領域に表示出力する。
また、自分が発信したH.261フレームが、ループ上
に端末を接続した通信路を周回して戻ってきたら、割り
当てられたGOBに新たなビデオデータを格納し、必要
に応じてフレームのヘッダを更新して送信する。なお、
このような動作により、4つのH.261フレームで1
画像フレームを構成することになる。
FIG. 7C shows that each terminal has not only GOB but also H.264. This is an example in which 261 frames are also allocated. In this case, each terminal transmits the assigned H.264. Its own video data reduced to 1/4 is stored in the assigned GOB of 261 frames, and only the predetermined header is added to the other GOBs without storing the data and transmitted. Also, each terminal receives the received H.264. From the 261 frame, the video data stored in the GOB assigned to the terminal to which the frame is assigned is displayed and output in an area corresponding to the GOB.
In addition, H. When the 261 frame returns around the communication path connecting the terminal on the loop, new video data is stored in the assigned GOB, and the frame header is updated and transmitted as necessary. In addition,
By such an operation, the four H.264s. 1 in 261 frames
This constitutes an image frame.

【0051】図7cは、図7bの例において、各端末が
所定のヘッダのみを付加したGOBをH.261フレー
ム中から省略した例である。
FIG. 7C shows that, in the example of FIG. This is an example in which 261 frames are omitted.

【0052】このように受信したH.261フレームの
割り当てられたGOBに自己のビデオデータを格納した
中継送信を制御するのは、各端末のビデオパス制御部2
02(図2参照)である。
The received H.264 message is as follows. The relay transmission in which its own video data is stored in the GOB assigned with 261 frames is controlled by the video path control unit 2 of each terminal.
02 (see FIG. 2).

【0053】以下、ビデオパス制御部の詳細について説
明する。
Hereinafter, details of the video path control unit will be described.

【0054】まず、図7bに示した、GOBを順次異な
る端末に割り当てたH.261フレームを取り扱うビ
オパス制御部の第1の例を説明する。
First, as shown in FIG. 7B, H.264 in which GOBs are sequentially allocated to different terminals. A first example of handling Ubi de <br/> Opus controller takes 261 frames will be described.

【0055】図9に、ビデオパス制御部の内部構成を示
す。
FIG. 9 shows the internal configuration of the video path control unit.

【0056】図中、201はビデオコーデック、260
がMUX/DMUX、202がビデオパス制御部であ
る。
[0056] In the figure, 201 is a video codec, 260
Denotes a MUX / DMUX, and 202 denotes a video path control unit.

【0057】図示するように、ビデオコーデック201
は端末の送信系として、ビデオコーダ910、送信バッ
ファ911、送信エラーコレクト912を備え、受信系
として受信エラーコレクト932、受信バッファ93
1、ビデオデコーダ930を備え、制御系としてビデオ
コーデック制御920を備える。
As shown, the video codec 201
Includes a video coder 910, a transmission buffer 911, and a transmission error correct 912 as a transmission system of a terminal, and a reception error collection 932, a reception buffer 93 as a reception system.
1. A video decoder 930 is provided, and a video codec control 920 is provided as a control system.

【0058】また、ビデオパス制御部202は、端末の
送信系として備えられ、ビデオSW900、ビデオクロ
ック切り換え制御902、信号遅延901を備える。
The video path control unit 202 is provided as a transmission system of the terminal, and includes a video SW 900, a video clock switching control 902, and a signal delay 901.

【0059】MUX/DMUX260は、網インタフェ
ース270を介して受信したH.221フレームのH.
261フレームを受信し、ビデオコーデック201の受
信系に渡す。また、MUX/DMUX260は、H.2
61フレームを作成し、他のデータとともにH.221
フレームを生成し、網インタフェース270を介して送
信する。
The MUX / DMUX 260 receives the H.264 received via the network interface 270. H.221 frame
261 frames are received and passed to the receiving system of the video codec 201. The MUX / DMUX 260 is based on H.264. 2
61 frames are created, and H.61 frames are created together with other data. 221
A frame is generated and transmitted via the network interface 270.

【0060】受信系の動作は、従来の1対1通信の場合
と同様であり、MUX/DMUX260から受け取った
H.261フレームを解析し、GOB1〜12のビデオ
データをビデオコーデック201が復号化してビデオ入
出力機器200に出力する。
The operation of the receiving system is the same as that of the conventional one-to-one communication. The video codec 201 decodes the 261 frames, decodes the video data of the GOBs 1 to 12, and outputs the decoded data to the video input / output device 200.

【0061】送信系の動作は、前述したように、自端末
のビデオデータをGOB1〜12の全てに格納して送信
する場合と、受信したGOB1〜12をそのまま送信す
る場合と、自端末のビデオデータを割り当てられたGO
Bに格納して、受信した他端末が発信元となっているG
OBと共に送信する場合の3通りがある。
As described above, the transmission system operates when the video data of the own terminal is stored and transmitted in all the GOBs 1 to 12, when the received GOBs 1 to 12 are transmitted as they are, and when the video data of the own terminal is transmitted. GO assigned data
G stored in B and received from another terminal
There are three types of transmission with OB.

【0062】自端末のビデオデータをGOB1〜12の
全てに格納して送信する旨、会議制御部220から通知
を受けた場合、ビデオコーデックは、ビデオ入出力機器
200で取り込んだビデオ情報を符号化し、GOB1〜
12に格納したH.261フレームを生成して送信バッ
ファ911に格納する。ビデオSW900は、ビデオコ
ーデックの送信バッファ911からのデータ903を選
択し、H.261フレームを送信エラーコレクト912
を介してMUX/DMUX260へ渡す。
When receiving a notification from the conference control unit 220 that the video data of the own terminal is stored and transmitted in all of the GOBs 1 to 12, the video codec encodes the video information captured by the video input / output device 200. , GOB1
12 stored in H.12. 261 frames are generated and stored in the transmission buffer 911. The video SW 900 selects the data 903 from the transmission buffer 911 of the video codec. 261 frames to be transmitted error correct 912
To the MUX / DMUX 260 via

【0063】受信したGOB1〜12をそのまま送信す
る旨、会議制御部220から通知を受けた場合、ビデオ
SW900は、受信系からのデータ904を選択し、受
信したH.261フレームを、そのまま送信エラーコレ
クト912を介してMUX/DMUX260へ渡す。
When the video SW 900 receives a notification from the conference control unit 220 that the received GOBs 1 to 12 are to be transmitted as they are, the video SW 900 selects the data 904 from the receiving system and receives the received H.264 data. The 261 frame is passed to the MUX / DMUX 260 via the transmission error correct 912 as it is.

【0064】自端末のビデオデータを割り当てられたG
OBに格納して、受信した他端末が発信元となっている
GOBと共に送信する旨、会議制御部220から通知を
受けた場合、ビデオコーデックは、ビデオ入出力機器2
00で取り込んだビデオ情報を1/4に縮小して符号化
し、自端末に割り当てられたGOBに格納したH.26
1フレームを生成して送信バッファ911に格納する。
GOBの割り当ても、会議制御部220から通知され
る。ビデオSW900は、ビデオコーデックの送信バッ
ファ911からのデータ903と信号遅延901で遅延
させた受信系からのデータ905とを切り換え出力す
る。そして、自端末に割り当てられたGOBについては
ビデオコーデックの送信バッファ911からのデータ9
03を、送信エラーコレクト912を介してMUX/D
MUX260へ渡し、他のGOBとH.261フレーム
のヘッダについては受信系からのデータを、送信エラー
コレクト912を介してMUX/DMUX260へ渡
す。但し、議長端末となった端末は、自端末に割り当て
られたGOBとH.261フレームのヘッダについては
ビデオコーデックの送信バッファ911からのデータ9
03を、送信エラーコレクト912を介してMUX/D
MUX260へ渡し、他のGOBについては受信系から
のデータを、送信エラーコレクト912を介してMUX
/DMUX260へ渡す。
G to which video data of the own terminal is allocated
The video codec is stored in the OB and transmitted from the conference control unit 220 to the effect that the received other terminal is transmitted together with the GOB that is the transmission source.
00, the video information fetched is reduced to 1/4 and encoded, and stored in the GOB assigned to the own terminal. 26
One frame is generated and stored in the transmission buffer 911.
The GOB assignment is also notified from the conference control unit 220. The video SW 900 switches and outputs data 903 from the transmission buffer 911 of the video codec and data 905 from the reception system delayed by the signal delay 901. Then, the GOB allocated to the own terminal is transmitted from the transmission buffer 911 of the video codec.
03 to the MUX / D via the transmission error collect 912.
MUX 260, and other GOBs and H.264. For the header of the 261 frame, data from the receiving system is passed to the MUX / DMUX 260 via the transmission error correct 912. However, the terminal that has become the chair terminal is the GOB assigned to the own terminal and the H.264 terminal. For the header of the 261 frame, data 9 from the transmission buffer 911 of the video codec is used.
03 to the MUX / D via the transmission error collect 912.
The data is passed to the MUX 260, and the data from the receiving system is transmitted to the other GOBs via the transmission error correct 912.
/ DMUX 260.

【0065】このような、ビデオSW900のデータ9
03とデータ905との切り換えタイミングを制御する
のが、ビデオSWクロック切り換え制御902である。
また、信号遅延901による遅延は、この切り換え制御
に要する時間分、データ905のビデオSW900への
入力を調整するために行なうものである。
Such data 9 of the video SW 900
The video SW clock switching control 902 controls the switching timing between the data SW 03 and the data 905.
The delay due to the signal delay 901, the time required for this switching control, and performs the order to you adjust the input to the video SW900 data 905.

【0066】ビデオクロック切り換え制御902のビデ
オSW900の切り換え制御詳細について説明する。
[0066] will be described in detail the switching control of the video SW900 of the video clock switching control 902.

【0067】さて、この例では、各端末は割り当てられ
たGOBの直後の位置にエンドフラグとしてPSCとT
Rを付加して送信するものとし、ビデオクロック切り換
え制御902はこのエンドフラグに基づいてビデオSW
900の切り換えを制御する。エンドフラグとして、P
SCを用いるのは、PSCの値はビデオデータ中に表れ
ないよう規定されているからである。
In this example, each terminal sets PSC and T as end flags at the position immediately after the assigned GOB.
R, and the video clock switching control 902 determines the video SW based on the end flag.
900 switching is controlled. P as the end flag
SC is used because the value of PSC is specified so as not to appear in the video data.

【0068】また、このエンドフラグに用いるPSC
と、H.261ヘッダに用いるPSC701を区別する
ために、固定値”11111”をTRとしてエンドフラ
グとして用いるPSCの直後に続ける。 そして、H.
261フレームのヘッダ中のTR702(5ビット)の
最上位ビットは値を0固定として用いる。すなわち、
H.261フレームのシーケンス番号としては1から1
5までを用いる。
The PSC used for this end flag
And H. In order to distinguish the PSC 701 used for the H.261 header, a fixed value "11111" is used as a TR immediately after the PSC used as an end flag. And H.
The value of the most significant bit of TR 702 (5 bits) in the header of the 261 frame is fixed at 0. That is,
H. The sequence number of the 261 frame is 1 to 1
Use up to 5.

【0069】図10に、ビデオSWクロック切り換え制
御902の内部構成を示す。
FIG. 10 shows the internal configuration of the video SW clock switching control 902.

【0070】図中、1006はデータレジスタ、100
1はエンドフラグ検出、1002はSW制御、100
5、1003、1004はSWである。
In the figure, 1006 is a data register, 100
1 is end flag detection, 1002 is SW control, 100
5, 1003 and 1004 are SWs.

【0071】この例では、ビデオコーデック201は、
1/4に縮小したビデオ情報を符号化したビデオデータ
を割り当てられたGOBに格納したH.261フレーム
を送信バッファ911に格納すると共に、割り当てられ
たGOBの直後にエンドフラグPSCとTRを格納す
る。
In this example, the video codec 201
H.264 in which video data obtained by encoding video information reduced to 1/4 is stored in the assigned GOB. 261 frames are stored in the transmission buffer 911, and the end flags PSC and TR are stored immediately after the assigned GOB.

【0072】さて、いま、ビデオSW900は、遅延さ
れた受信系からのデータ905を選択し、遅延された受
信系からのデータ905が送信エラーコレクト912送
出されているものとする。
Now, it is assumed that the video SW 900 selects the data 905 from the delayed receiving system, and the data 905 from the delayed receiving system has been transmitted to the transmission error correct 912.

【0073】このとき、SW1005は受信系からのデ
ータ904を選択し、データレジスタ1006とエンド
フラグ検出1001でエンドフラグを監視する。そし
て、エンドフラグが検出されたなら、これをSW制御1
002に伝える。SW制御1002は、この通知を受け
各SW900、1003、1004、1005を切り換
える。そして、読みだしクロックを送出し、自端末が議
長端末でなければ、送信バッファ911に格納されてい
る、自端末に割り当てられているGOBとその直後に付
加したエンドフラグを読みだす。自端末が議長端末であ
れば、送信バッファ911に格納されている、H.26
1フレームのヘッダ部分と、これに連続する自端末に割
り当てられているGOB1、3、5と、その直後に付加
したエンドフラグを読みだす。
At this time, the SW 1005 selects the data 904 from the receiving system, and monitors the end flag by the data register 1006 and the end flag detection 1001. If the end flag is detected, the end flag is set to SW control 1
002. Upon receiving this notification, the SW control 1002 switches among the SWs 900, 1003, 1004, and 1005. Then, a read clock is transmitted, and if the own terminal is not the chair terminal, the GOB assigned to the own terminal and the end flag added immediately after that, which are stored in the transmission buffer 911, are read. If the own terminal is the chair terminal, H.264 is stored in the transmission buffer 911. 26
The header part of one frame, GOBs 1, 3, and 5 assigned to the terminal which is continuous with the header part and the end flag added immediately thereafter are read out.

【0074】この読みだされたデータ903は、遅延さ
れた受信系からのデータ905に代えて、ビデオSW9
00で選択されて、送信エラーコレクト912に送出さ
れる。この、ビデオSW900の切り換えタイミング
が、データ903のスタート位置が、遅延された受信系
からのデータ905上のエンドフラグのスタート位置か
ら始まるように、信号遅延901は遅延時間を調整され
ている。この結果、受信系からのデータの上のエンドフ
ラグは消失する。
The read data 903 replaces the data 905 from the delayed receiving system with the video SW 9
00 is selected and sent to the transmission error correct 912. The delay time of the signal delay 901 is adjusted such that the switching timing of the video SW 900 is such that the start position of the data 903 starts from the start position of the end flag on the data 905 from the delayed receiving system. As a result, the end flag on the data from the receiving system disappears.

【0075】さて、以上の動作によって、SW1005
は、送信バッファ911よりのデータ903を選択する
ので、今度は、データレジスタ1006とエンドフラグ
検出1001でデータ903のエンドフラグを監視す
る。そして、エンドフラグが検出されたなら、これをS
W制御1002に伝える。SW制御1002は、この通
知を受け各SW900、1003、1004、1005
を切り換える。結果、ビデオSW900で、遅延された
受信系からのデータ905を選択し、遅延された受信系
からのデータ905を送信エラーコレクト912送出す
る初めの状態に戻る。
By the operation described above, the SW 1005
Selects the data 903 from the transmission buffer 911. This time, the end flag of the data 903 is monitored by the data register 1006 and the end flag detection 1001. If the end flag is detected, this is set to S
Notify W control 1002. The SW control 1002 receives this notification, and switches SW 900, 1003, 1004, 1005
Switch. As a result, the video SW 900 selects the data 905 from the delayed receiving system, and returns to the initial state of transmitting the data 905 from the delayed receiving system to the transmission error correct 912.

【0076】ところで、このように、各端末は割り当て
られたGOBの直後の位置にエンドフラグとしてPSC
とTRを付加して送信するようにすると、ループ状の通
信路において1つ次の位置にある端末に割り当てられた
GOBが格納されていた位置に、エンドフラグ等が格納
されてしまう場合がある。たとえば、端末Bにおいて
は、端末Cに割り当てられたGOB7が格納されている
位置にエンドフラグ等が格納されてしまうことがある。
しかし、このH.261フレーム上の端末Cが発信した
データは既に、他の端末A、B、Dを周回しており、次
にH.261フレームを受信する端末Cで新たなビデオ
データに更新されるデータである。したがい、支障は生
じない。
As described above, each terminal has a PSC as an end flag at a position immediately after the assigned GOB.
When the transmission is performed by adding the TRB and the TR, the end flag or the like may be stored at the position where the GOB assigned to the terminal at the next position in the loop communication path is stored. . For example, in the terminal B, an end flag or the like may be stored at a position where the GOB 7 assigned to the terminal C is stored.
However, this H. The data transmitted by the terminal C on the H.261 frame has already circulated to the other terminals A, B, and D. This data is updated to new video data at the terminal C receiving the 261 frame. Therefore, no trouble occurs.

【0077】次に、図7bに示したGOBを、順次異な
る端末に割り当てたH.261フレームを取り扱うビ
オパス制御部の第2の例を説明する。
Next, GOBs shown in FIG. 7B are sequentially assigned to different terminals. The second example of handling Ubi de <br/> Opus controller takes 261 frames will be described.

【0078】図11に、この第2の例に係るビデオパス
制御部の構成を示す。
FIG. 11 shows the configuration of the video path control unit according to the second example.

【0079】図中、1100はメモリ、1104はメモ
リ1100のリードアドレスを生成するリードアドレス
生成部、1105はメモリ1100のライトアドレスを
生成するライトアドレス生成部、1103はSW制御
部、1102はレジスタ、1101はGOB比較部、1
106はビデオSW、1107は送信用バッファであ
る。
In the figure, reference numeral 1100 denotes a memory; 1104, a read address generator for generating a read address of the memory 1100; 1105, a write address generator for generating a write address of the memory 1100; 1103, a SW controller; 1102, a register; 1101 is a GOB comparison unit, 1
Reference numeral 106 denotes a video SW, and 1107 denotes a transmission buffer.

【0080】ビデオコーデックは、ビデオ入出力機器2
00で取り込んだビデオ情報を1/4に縮小して符号化
し、自端末に割り当てられたGOBに格納したH.26
1フレームを生成して送信バッファ911に格納する。
The video codec is a video input / output device 2
00, the video information fetched is reduced to 1/4 and encoded, and stored in the GOB assigned to the own terminal. 26
One frame is generated and stored in the transmission buffer 911.

【0081】メモリ1100には、リードアドレス生成
部1104によって、受信系よりのデータ904が格納
される。GOB比較部1101は、データ904のGO
Bを監視し、GOB番号が自端末に割り当てられたGO
Bである場合には、メモリ1100への書き込みと、ラ
イトアドレス生成部1104のアドレスのインクリメン
トを停止し、停止したアドレス値をレジスタ1102に
格納する。そして、データ904のGOB番号が自端末
に割り当てられたGOBでなくなれば、メモリ1100
への書き込みと、ライトアドレス生成部1104のアド
レスのインクリメントを再開し、データ904をメモリ
1100に書き込む。但し議長端末は、H.261フレ
ームのヘッダ部分も自端末に割り当てられたGOBと同
様に扱う。
Data 904 from the receiving system is stored in memory 1100 by read address generating section 1104. The GOB comparison unit 1101 calculates the GO
B is monitored, and the GOB number is assigned to the own terminal.
In the case of B, the writing to the memory 1100 and the increment of the address of the write address generation unit 1104 are stopped, and the stopped address value is stored in the register 1102. If the GOB number of the data 904 is no longer the GOB assigned to the own terminal, the memory 1100
And the write address generation unit 1104 resumes incrementing the address, and writes the data 904 to the memory 1100. However, the chair terminal is H.264. The header part of the 261 frame is handled in the same way as the GOB assigned to the own terminal.

【0082】さて、メモリ1100に格納されたデータ
は、リードアドレス生成部1105の生成するアドレス
により読みだされ、ビデオSW1106を介して送信用
バッファ1107を介して送信エラーコレクト912に
送信される。SW制御部1103は、レジスタ1102
に格納されたアドレス値とリードアドレス生成部110
4の生成するアドレス値を比較し、一致したら、メモリ
1100からの読みだしと、リードアドレス生成部11
04のアドレスのインクリメントを停止し、ビデオSW
1106を切り換え、送信バッファ911より、自端末
に割り当てられたGOBデータ903を読みだして、送
信用バッファ1107を介して送信エラーコレクト91
2に送信する。但し議長端末は、H.261フレームの
ヘッダ部分と自端末に割り当てられたGOBデータ90
3を読みだして、送信エラーコレクト912に送信す
る。そして、送信バッファ911よりの読みだしが終了
したら、ライトアドレス生成部1104のアドレスのイ
ンクリメントを再開し、ビデオSW1106を切り換
え、メモリ1100よりのデータの読みだし送信エラー
コレクト912への送信を再開する。
The data stored in the memory 1100 is read by the address generated by the read address generation unit 1105 and transmitted to the transmission error collect 912 via the video SW 1106 and the transmission buffer 1107. The SW control unit 1103 includes a register 1102
Value and read address generation unit 110
4 are compared with each other, and if they match, reading from the memory 1100 and the read address generation unit 11
04, stop incrementing the address
1106, the GOB data 903 assigned to the terminal is read from the transmission buffer 911, and the transmission error correct 91 is transmitted via the transmission buffer 1107.
Send to 2. However, the chair terminal is H.264. 261 frame header part and GOB data 90 assigned to the terminal itself
3 is read and transmitted to the transmission error collect 912. Then, when the reading from the transmission buffer 911 is completed, the increment of the address of the write address generation unit 1104 is restarted, the video SW 1106 is switched, and the reading of the data from the memory 1100 and the transmission to the transmission error correct 912 are restarted.

【0083】なお、H.261フレームを受信した時点
で、ビデオコーデック201による符号化が終了してい
ない場合は、ビデオデータに代えてダミーデータを割り
当てられたGOBに格納するようにする。また、ダミー
データを受信した端末ではこれを無視するようにする。
Incidentally, H. If the encoding by the video codec 201 is not completed when the 261 frame is received, the dummy data is stored in the assigned GOB instead of the video data. The terminal that has received the dummy data ignores the dummy data.

【0084】以下、図3、4、5に示した多地点テレビ
会議システムのオーディオ出力を実現する手段について
説明する。いま、4端末A、B、C、Dが、図1に示す
ようにループ状に接続されているものとする。
The means for realizing the audio output of the multipoint video conference system shown in FIGS. Now, it is assumed that four terminals A, B, C, and D are connected in a loop as shown in FIG.

【0085】オーディオデータは、図6に示したH.2
21フレームの領域603に格納される。
The audio data corresponds to the H.264 data shown in FIG. 2
It is stored in an area 603 of 21 frames.

【0086】さて、H.221フレームの領域603に
格納されるオーディオデータは、多地点テレビ会議に参
加している全ての端末のオーディオをミックスしたデー
タである。各端末は、ループ状の通信路を周回するオー
ディオデータを受信し、受信したオーディオデータから
先に自端末が発信したオーディオデータをキャンセルし
て出力すると共に、受信したオーディオデータから先に
自端末が発信したオーディオデータをキャンセルしたオ
ーディオデータに、新たに発信するオーディオデータを
ミックスしてループ上における次の端末に送信する。
By the way, H. The audio data stored in the area 603 of the 221 frame is data obtained by mixing the audios of all the terminals participating in the multipoint video conference. Each terminal receives audio data that circulates around the loop communication path, cancels and outputs audio data transmitted by the terminal from the received audio data, and outputs the terminal from the received audio data. The newly transmitted audio data is mixed with the canceled audio data and transmitted to the next terminal on the loop.

【0087】このような、自端末が発信したオーディオ
データのキャンセルと、新たに発信するオーディオデー
タのミックスを実現するのがオーディオ処理部212で
ある。
The audio processing unit 212 realizes such cancellation of the audio data transmitted from the own terminal and mixing of the newly transmitted audio data.

【0088】以下、オーディオ処理部212の詳細につ
いて説明する。
The details of the audio processing section 212 will be described below.

【0089】図12に、オーディオ処理部212の内部
構成を示す。
FIG. 12 shows the internal configuration of the audio processing unit 212.

【0090】図示するように、オーディオ処理部212
は、自端末が発信したオーディオデータのキャンセルを
行なうエコーキャンセル部1200と、新たに発信する
オーディオデータのミックスを行なうミキサー部121
0を有している。
As shown, the audio processing unit 212
Are an echo canceling unit 1200 for canceling audio data transmitted by the terminal itself, and a mixer unit 121 for mixing audio data newly transmitted.
It has 0.

【0091】エコーキャンセル部1200は、音声ルー
プ遅延制御1201、オーディオ可変遅延1202、オ
ーディオ減算1203、出力制御1204、μ/A変換
1205、リニア変換1206、オーディオレベル検出
1207よりなる。また、ミキサー部1210は、リニ
ア変換1211、オディオ加算1212、μ/A変換1
213、オーディオ平均レベル識別1214を有してい
る。
The echo canceling unit 1200 comprises an audio loop delay control 1201, an audio variable delay 1202, an audio subtraction 1203, an output control 1204, a μ / A conversion 1205, a linear conversion 1206, and an audio level detection 1207. The mixer unit 1210 includes a linear converter 1211, an audio adder 1212, and a μ / A converter 112.
213, audio average level identification 1214.

【0092】エコーキャンセル部1200において、音
声ループ遅延制御は、システム制御部240より、オ
ィオデータが発信されてからループ上を周回して戻っ
てくるまでの遅延時間の通知を受け、この遅延時間をオ
ーディオ可変遅延1202に設定する。遅延時間は、M
UX/DMUX260において、発信した特定のH.
21フレームがループ上を周回して戻ってくるまでの時
間を測定してシステム制御部240に通知する。
[0092] In the echo cancellation unit 1200, the audio loop delay control, from the system control unit 240, Wow
Receiving a delay time notification from de Iodeta is originated to come back to circulate on a loop, set the delay time in the audio variable delay 1202. The delay time is M
In the UX / DMUX 260, the specific H.264 transmitted is transmitted. 2
The time required for 21 frames to go around the loop and return is measured and reported to the system control unit 240.

【0093】リニア変換1211は、オーディオコーデ
ック211がμ/A則で符号化したオーディオデータ
を、リニアデータに戻し、オーディオ可変遅延1202
に送る。オーディオ可変遅延1202は、リニア変換1
211から受け取ったオーディオデータを設定された時
間遅延させて、オーディオ加算1212と、オーディオ
減算1203に送る。
The linear conversion 1211 converts the audio data coded by the audio codec 211 according to the μ / A rule into linear data,
Send to The audio variable delay 1202 is
The audio data received from 211 is delayed for a set time and sent to audio addition 1212 and audio subtraction 1203.

【0094】一方、MUX/DMUX260は、受信し
たH.221フレームからオーディオデータを抽出し、
リニア変換1206に送る。リニア変換1206はMU
X/DMUX260から受け取ったμ/A則で符号化し
たオーディオデータを、リニアデータに戻し、オーディ
オ減算1203に送る。
On the other hand, the MUX / DMUX 260 Extract audio data from 221 frames,
Send to linear conversion 1206. Linear conversion 1206 is MU
The audio data coded according to the μ / A rule received from the X / DMUX 260 is converted back to linear data and sent to the audio subtraction 1203.

【0095】オーディオ減算1203は、リニア変換1
206よりのオーディオデータからオーディオ可変遅延
1202よりのオーディオデータを減算する。これで、
受信したオーディオデータよりの、先に自端末が発信し
たオーディオデータのキャンセルが実現される。
The audio subtraction 1203 performs the linear conversion 1
The audio data from the audio variable delay 1202 is subtracted from the audio data from 206. with this,
Than the received audio Ode over data, cancellation of audio data terminal itself previously originated is realized.

【0096】このようにして、受信したオーディオデデ
ータより自端末が先に発信したオーディオデータをキャ
ンセルしたオーディオデータは、出力制御1204を介
して、μ/A変換1205に送られ、μ/A則で符号化
されてオーディオコーデック211に送られる。オーデ
ィオコーデックは受け取ったオーディオデータを復号化
してオーディオ入出力装置210に出力する。
In this manner, the audio data in which the audio data transmitted by the own terminal before the received audio data is canceled is sent to the μ / A converter 1205 via the output control 1204, and the μ / A rule is applied. And transmitted to the audio codec 211. The audio codec decodes the received audio data and outputs it to the audio input / output device 210.

【0097】また、受信したオーディオデータより自端
末が先に発信したオーディオデータをキャンセルしたオ
ーディオデータは、出力制御1204を介して、オーデ
ィオ加算1212に送られる。オーディオ加算1212
は、出力制御1204より受け取ったオーディオデータ
とリニア変換1211から受け取ったオーディオデータ
を加算する。これで、新たに発信するオーディオデータ
のミックスが実現されたので、このデータをμ/A変換
1213でμ/A則で符号化し、MUX/DMUX26
0に送る。MUX/DMUX260は受け取ったオーデ
ィオデータをH.221フレームに格納してループ上の
次の端末に送信する。
The audio data in which the audio data transmitted by the terminal before the received audio data is canceled is sent to the audio addition unit 1212 via the output control 1204. Audio addition 1212
Adds the audio data received from the output control 1204 and the audio data received from the linear conversion 1211. As a result, a mix of newly transmitted audio data is realized, and this data is encoded by the μ / A conversion 1213 according to the μ / A rule, and the MUX / DMUX 26
Send to 0. The MUX / DMUX 260 converts the received audio data into H.264 data. 221 frames and transmit to the next terminal on the loop.

【0098】オーディオ平均レベル識別1214は、リ
ニア変換1211から受け取ったオーディオデータのレ
ベルを算出し、会議制御220に送る。この識別された
オーディオデータのレベルは、前述した、オーディオ音
量による表示するビデオデータの自動切り換えに用いら
れる。
The audio average level discriminator 1214 calculates the level of the audio data received from the linear conversion 1211 and sends it to the conference control 220. The identified level of the audio data is used for the above-described automatic switching of the video data to be displayed based on the audio volume.

【0099】また、オーディオレベル検出1207は、
端末が議長端末となったときに作動するもので、受信し
たオーディオデータより自端末が先に発信したオーディ
オデータをキャンセルしたオーディオデータのレベルを
会議制御部220に通知する。また、出力制御1204
は、会議制御部220から指示を受けた場合に、一旦、
エコーキャンセラー部1200のオーディオデータ出力
値を0とする手段である。 なお、本実施例では、オー
ディオコーデック211として、μ/A則で符号化され
たデータをインタフェースとする既成のオーディオコー
デックを想定しているが、オーディオコーデック211
をリニアデータをインタフェースとするものとした場
合、μ/A変換1211と、μ/A変換1205は不要
である。
The audio level detection 1207 is
Terminal intended to operate when a chairman terminal, and notifies the level of cancellation audio data of audio data to which the own terminal from the audio Ode over data received is sent forward to <br/> conference control unit 220 . Output control 1204
When receiving an instruction from the conference control unit 220, once
This is a means for setting the audio data output value of the echo canceller unit 1200 to 0. In the present embodiment, an existing audio codec that uses data encoded according to the μ / A rule as an interface is assumed as the audio codec 211.
Is a linear data interface, the μ / A conversion 1211 and the μ / A conversion 1205 are unnecessary.

【0100】ここで、オーディオ平均レベル識別121
4の詳細を説明する。
Here, audio average level identification 121
4 will be described in detail.

【0101】図13にオーディオ平均レベル識別121
4の内部構成を示す。
FIG. 13 shows an audio average level identification 121.
4 shows the internal configuration.

【0102】図示するように、オーディオ平均レベル識
別1214は、オーディオ加算1301、書き込み制御
1302、メモリ1303、カウンタ1304、カウン
タ値比較1305、リセット制御1306、識別制御1
307、オーディオレベル識別1308を有している。
As shown in the figure, the audio average level identification 1214 includes audio addition 1301, write control 1302, memory 1303, counter 1304, counter value comparison 1305, reset control 1306, identification control 1
307, and audio level identification 1308.

【0103】μ/A変換1211よりオーディオデータ
を受け取ると、オーディオ加算1301は、メモリ13
03より、前回までのオーディオデータの加算値を読み
だしこれとμ/A変換1211より受け取ったオーデ
ィオデータを加算し、書き込み制御を介しメモリ130
3に加算後のオーディオデータを書き込む。メモリ13
03への書き込みの回数はカウンタ1304で計数され
る。
When audio data is received from the μ / A converter 1211, the audio addition 1301
03, the added value of the audio data up to the previous time is read out , and the read value is added to the audio data received from the μ / A converter 1211.
Then, the audio data after the addition is written in 3. Memory 13
03 is counted by the counter 1304.

【0104】メモリへの書き込み回数が一定回数以上と
なると、識別制御1307はオーディオレベル識別13
08とリセット制御1306に通知する。通知を受ける
と、オーディオレベル識別1308はメモリ1303よ
りそれまでのオーディオデータの加算値を読みだし、会
議制御部220に通知する。
When the number of times of writing to the memory becomes a certain number or more, the identification control 1307 sets the audio level identification 13
08 and the reset control 1306 are notified. Upon receiving the notification, the audio level identification 1308 reads the added value of the audio data up to that point from the memory 1303 and notifies the conference control unit 220.

【0105】一方、通知受けたリセット制御1306
は、メモリ1303の内容と、カウンタの計数値をリセ
ットする。
[0105] On the other hand, reset control has received the notification 1306
Resets the contents of the memory 1303 and the count value of the counter.

【0106】以上、ビデオデータとオーディオデータに
関する多地点テレビ会議システムの詳細について説明し
た。
The details of the multipoint video conference system relating to video data and audio data have been described above.

【0107】以下、多地点テレビ会議を開催、運営する
のに必要な制御に関する、多地点テレビ会議システムの
詳細について説明する。
The details of the multipoint video conference system related to the control required to hold and operate the multipoint video conference will be described below.

【0108】本実施例においては、先に図1に示したル
ープ状に端末を接続した多地点テレビ会議システムの構
成、多地点テレビ会議から端末の脱退に伴う多地点テレ
ビ会議システム構成の変更、各端末に表示出力するビデ
オデータの指定等を、議長端末と他の端末間で制御情報
を交換することにより実現する。
In the present embodiment, the configuration of the multipoint video conference system in which the terminals are connected in a loop as shown in FIG. 1, the change of the configuration of the multipoint video conference system accompanying the withdrawal of the terminal from the multipoint video conference, Designation of video data to be displayed and output to each terminal is realized by exchanging control information between the chair terminal and other terminals.

【0109】そこで、まず、この制御情報の送信フレー
ムについて説明する。
[0109] First, the transmission frame of the control information will be described.

【0110】本実施例では、制御情報を先に図6に示し
たH.221フレームのサブチャネル#8(符号60
2)上にCCITT勧告H.221に規定されているM
LPデータの領域を確保し、この領域上にある複数のチ
ャネルを、各々異なる端末に割り当てる。そして、各端
末は割り当てられたチャネルを用いて制御情報を送信す
る。
In this embodiment, the control information is stored in H.264 shown in FIG. 221 frame sub-channel # 8 (reference numeral 60)
2) Above, CCITT Recommendation H. M specified in H.221
An area for LP data is secured, and a plurality of channels on this area are allocated to different terminals. Then, each terminal transmits control information using the assigned channel.

【0111】図14に、MLPデータ領域上のチャネル
を示す。
FIG. 14 shows channels in the MLP data area.

【0112】MLPデータ領域は、6.4Kb/sまた
は4Kb/sの大きさで、BAS(図6符号601)上
のコマンドによって確保可能である。
The MLP data area has a size of 6.4 Kb / s or 4 Kb / s, and can be secured by a command on the BAS (601 in FIG. 6).

【0113】図14aに示したのは、MLPデータ領域
を6.4Kb/sの大きさで確保した場合である。この
場合、図示するように、MLPデータ領域上に8ビット
毎に共通チャネルとNo1〜7の8本のチャネルが構成
される。そこで、共通チャネルを議長端末が用いるチャ
ネルとし、他のチャネルを、共通チャネル上の制御情報
によって、他の端末に割り当てる。
FIG. 14A shows a case where the MLP data area is secured at a size of 6.4 Kb / s. In this case, as shown in the figure, a common channel and eight channels Nos. 1 to 7 are formed every 8 bits on the MLP data area. Therefore, the common channel is used as the channel used by the chair terminal, and another channel is allocated to another terminal according to control information on the common channel.

【0114】図14bに示したのが MLPデータ領域
を4Kb/sの大きさで確保した場合である。この場
合、図示するように、MLPデータ領域上に8ビット毎
に共通チャネルとNo1〜3の4本のチャネルが構成さ
れる。そこで、共通チャネルを議長端末が用いるチャネ
ルとし、他のチャネルを、共通チャネル上の制御情報に
よって、他の端末に割り当てる。
FIG. 14B shows a case where the MLP data area is secured at a size of 4 Kb / s. In this case, as shown in the figure, a common channel and four channels No. 1 to No. 3 are configured every 8 bits on the MLP data area. Therefore, the common channel is used as the channel used by the chair terminal, and another channel is allocated to another terminal according to control information on the common channel.

【0115】なお、制御情報の送信に、MLPデータ領
域を用いる代わりに、BAS領域を用いるようにしても
よい。
[0115] Instead of using the MLP data area, the BAS area may be used for transmitting control information.

【0116】すなわち、図6に示したH.221フレー
ムのBAS領域601のコマンドによって、BAS領域
をサブチャネル#8(符号602)上まで拡張し、拡張
した領域を各端末の制御情報の送信用に用いてもよい。
That is, the H.264 shown in FIG. The BAS area may be extended up to sub-channel # 8 (reference numeral 602) by a command of the BAS area 601 of the 221 frame, and the extended area may be used for transmitting control information of each terminal.

【0117】各チャネルによって送信される制御情報
は、コマンドとデータである。
The control information transmitted by each channel is a command and data.

【0118】このコマンドとデータは、図15aに示す
ように、同一H.221フレーム上のチャネルに格納し
て送信してもよいし、図15bに示すように、連続する
H.221フレーム上のチャネルに分割して格納し送信
するようにしてもよい。
The command and the data are identical to each other as shown in FIG. 221 frame and may be transmitted. Alternatively, as shown in FIG. 221 frames may be divided into channels and stored and transmitted.

【0119】さて、各端末は、受信したH.221フレ
ームのMLPデータ領域もしくはBAS領域を解析し、
自端末に割り当てられた領域に格納されている先に自端
末が発信した制御情報は抜取り、受信したH.221フ
レームのMLPデータ領域もしくはBAS領域の自端末
に割り当てられた領域以外の領域の制御情報はそのま
ま、ループ上次の端末に中継する。
Each terminal receives the received H.264. Analyze the MLP data area or BAS area of 221 frames,
The control information transmitted by the own terminal to the destination stored in the area allocated to the own terminal is extracted and the received H.264 information is transmitted. The control information of the MLP data area of the 221 frame or the area other than the area allocated to the own terminal in the BAS area is relayed to the next terminal on the loop as it is.

【0120】また、新たに発信すべき制御情報があれば
自端末に割り当てられた領域に格納し、受信したH.2
21フレームのMLPデータ領域もしくはBAS領域の
自端末に割り当てられた領域以外の領域の制御情報と共
に、ループ上、次の端末に中継する。
[0120] In addition, stored in the newly originating control information to be has been assigned to its own terminal if the area, the received H. 2
The information is relayed to the next terminal on the loop together with the control information of the 21-frame MLP data area or the area other than the area allocated to the own terminal in the BAS area.

【0121】次に、議長端末と他の端末間で交換する制
御情報を用いた、多地点テレビ会議の開催、運営の詳細
について説明する。
Next, details of holding and operating a multipoint video conference using control information exchanged between the chair terminal and other terminals will be described.

【0122】制御情報を用いた多地点テレビ会議システ
ムの制御は、各端末のシステム制御部240と会議制御
部220が主に行なう。
The control of the multipoint video conference system using the control information is mainly performed by the system control unit 240 and the conference control unit 220 of each terminal.

【0123】まず、議長端末のシステム制御部240と
会議制御部220の詳細について説明する。
First, details of the system controller 240 and the conference controller 220 of the chair terminal will be described.

【0124】図16に、議長端末となった端末固有の多
地点テレビ会議の制御処理を示す。すなわち、本実施例
において各端末は議長端末として動作する機能を備えて
いる。
FIG. 16 shows the control processing of the multipoint video conference unique to the terminal serving as the chair terminal. That is, in this embodiment, each terminal has a function of operating as a chair terminal.

【0125】まず、図1に示したループ状のテレビ会議
システムによるテレビ会議を開始する場合について説明
する。
First, a case where a video conference is started by the loop video conference system shown in FIG. 1 will be described.

【0126】この場合、システム制御部240は、図示
せざるキーボードより会議に参加する端末B、C、Dの
指定を受けると、エンド網制御部250を制御し、端末
Bとの間に呼を確立する。次に、発呼終話処理1613
により、呼を確立した端末Bに対して、端末Cへの接続
を指示するコマンドをパケット合成送出制御処理162
7に渡す。パケット合成送出制御処理1627は受けと
ったコマンドを前記共通チャネルに格納したMLPデー
タまたはBASデータを作成し、MUXインタフェース
処理1629を施し、MUX/DMUX260に渡す。
MUX/DMUX260は、受け取ったMLPデータま
たはBASデータを格納したH.221フレームを作成
し、網インタフェース270を介して、端末Bに送る。
In this case, upon receiving designations of terminals B, C, and D participating in the conference from a keyboard (not shown), system control section 240 controls end network control section 250 and places a call with terminal B. Establish. Next, call termination processing 1613
A command for instructing the terminal B that has established the call to connect to the terminal C is sent to the packet combining transmission control process 162.
Pass to 7. The packet synthesis / transmission control processing 1627 creates MLP data or BAS data in which the received command is stored in the common channel, performs MUX interface processing 1629, and transfers the data to the MUX / DMUX 260.
MUX / DMUX 260 stores the received MLP data or BAS data in H.264. A 221 frame is created and sent to the terminal B via the network interface 270.

【0127】そして端末Cと端末Bが接続されたら、端
末Cに対して、端末Dへの接続を指示するコマンドを、
端末Bを介して送る。そして端末Dと端末Cが接続され
たら、端末Dに対して、端末Aへの接続を指示するコマ
ンドを、端末B、Cを介して送る。端末Aと端末Dが接
続されたらループ状の構成が完成する。
When the terminals C and B are connected, a command for instructing the terminal C to connect to the terminal D is given by:
Send via terminal B. Then, when the terminal D and the terminal C are connected, a command for instructing the connection to the terminal A is sent to the terminal D via the terminals B and C. When the terminals A and D are connected, the loop configuration is completed.

【0128】このように、端末への接続を指示するコマ
ンドによって、順次、テレビ会議に参加する端末を接続
し、ループを作成する。
As described above, the terminal which participates in the video conference is sequentially connected by the command instructing the connection to the terminal, and a loop is created.

【0129】次に、多地点テレビ会議におけるオーディ
オ制御について説明する。
Next, audio control in a multipoint video conference will be described.

【0130】会議制御部220は、オーディオ処理部2
12のオーディオレベル検出1207(図12参照)か
ら通知されたレベルが一定期間、無音レベルか否か、す
なわち、一定期間、無音と判定される所定のレベル以下
か否かを判別する1621。そして、一定期間無音レベ
ルであると判別した場合、オーディオ処理部212の出
力制御1204に、オーディオデータを一旦”0”とす
るように指示し、エコーキャンセラーのオーディオ出力
を、一旦OFFする1620。
The conference control unit 220 includes the audio processing unit 2
It is determined 1621 whether or not the level notified from the audio level detection 1207 (see FIG. 12) is a silence level for a certain period, that is, is equal to or lower than a predetermined level determined to be silence for a certain period. If it is determined that the sound level is the silence level for a certain period, the output control unit 1204 of the audio processing unit 212 is instructed to temporarily set the audio data to “0”, and the audio output of the echo canceller is temporarily turned off 1620.

【0131】このように、オーディオデータレベルをリ
セットすることにより、オーディオ処理部212のオー
ディオ減算1203やオーディオ加算1212において
生じる演算誤差の、オーディオデータへの蓄積を抑制す
る。なお、演算誤差の蓄積は、オーディオデータを出力
した場合に雑音として表れる。
As described above, by resetting the audio data level, accumulation of an arithmetic error generated in the audio subtraction 1203 and the audio addition 1212 of the audio processing unit 212 in the audio data is suppressed. Note that the accumulation of the calculation error appears as noise when audio data is output.

【0132】次に、各端末に表示するビデオデータの切
り換え制御について説明する。
Next, switching control of video data displayed on each terminal will be described.

【0133】本実施例では、ビデオデータの切り換え
は、各端末のオーディオデータレベルに基づいて自動的
に行なうか、各端末からの切り換え要求に基づいて切り
換えるかを選択可能としている。この選択を行なうの
が、自動手動切り換えSW1625である。
In the present embodiment, it is possible to select whether to switch video data automatically based on the audio data level of each terminal or to switch based on a switching request from each terminal. This selection is made by the automatic manual switching SW 1625.

【0134】まず、各端末のオーディオデータレベルに
基づいて自動的にビデオデータの切り換えを行なう場合
について説明する。
First, a case where video data is automatically switched based on the audio data level of each terminal will be described.

【0135】MUX/DMUX260は、受信したH.
221フレーム中のMLPデータまたはBASデータ
を、DMUXインタフェース処理1630を介しパケッ
ト解読送出制御処理1628に渡す、パケット解読送出
制御処理1628は受けとったMLPデータまたはBA
Sデータを解読し、各端末より送られたオーデイオ平均
レベルのデータをメモリ書き込み制御1622に渡す。
メモリ書き込み制御1622はこれを各端末毎にメモリ
1623に書き込み、比較処理1624でレベルの大小
を比較し、いずれの端末のオーディオデータレベルが最
大かを、ビデオパス切り換え指示処理1626に通知す
る。ビデオパス切り換え指示処理は、表示するビデオデ
ータを、オーディオデータレベルが最大であった端末の
ビデオデータとするコマンドをパケット合成送出制御処
理1627に渡す。パケット合成送出制御処理1627
は、このコマンドを前記共通チャネルに格納したMLP
データまたはBASデータを作成し、MUXインタフェ
ース処理1629を施し、MUX/DMUX260に渡
す。MUX/DMUX260は、受け取ったMLPデー
タまたはBASデータを格納したH.221フレームを
作成し、網インタフェース270を介して、ループ上の
各端末に送る。
The MUX / DMUX 260 receives the received H.264.
The MLP data or BAS data in the H.221 frame is passed to the packet decryption transmission control process 1628 via the DMUX interface process 1630. The packet decryption transmission control process 1628 receives the received MLP data or BAS data.
It decodes the S data and passes the data of the audio average level sent from each terminal to the memory write control 1622.
The memory write control 1622 writes this in the memory 1623 for each terminal, compares the level in the comparison processing 1624, and notifies the video path switching instruction processing 1626 which terminal has the maximum audio data level. In the video path switching instruction process, a command for setting the video data to be displayed to the video data of the terminal having the highest audio data level is passed to the packet synthesis transmission control process 1627. Packet synthesis transmission control processing 1627
Is the MLP storing this command in the common channel.
Data or BAS data is created, subjected to MUX interface processing 1629, and passed to the MUX / DMUX 260. MUX / DMUX 260 stores the received MLP data or BAS data in H.264. A 221 frame is created and sent to each terminal on the loop via the network interface 270.

【0136】次に、各端末からの切り換え要求に基づい
て、各端末に表示出力するビデオデータを切り換える場
合について説明する。
Next, a case will be described in which video data to be displayed and output to each terminal is switched based on a switching request from each terminal.

【0137】MUX/DMUX260は、受信したH.
221フレーム中のMLPデータまたはBASデータ
を、DMUXインタフェース処理1630を介しパケッ
ト解読送出制御処理1628に渡す、パケット解読送出
制御処理1628は受けとったMLPデータまたはBA
Sデータを解読し、切り換え要求コマンドが存在すれ
ば、このコマンドを切り換え要求処理1611に渡す。
切り換え要求処理1611は、切り換え要求を示すコマ
ンド受け取った場合、もしくは、キーボードより切り換
え要求が指示された場合、切り換え要求の内容を文字重
畳処理に渡し、図17に示すように切り換え要求の内容
をビデオ入出力機器299の表示出力画面に重畳して出
力する。
The MUX / DMUX 260 receives the received H.264.
MLP data or BAS data in 221 frames
Through the DMUX interface processing 1630.
Decryption and transmission to pass to decryption and transmission control processing 1628
The control processing 1628 receives the MLP data or BA
Decodes S data and has a switch request commandPass
In this case, this command is passed to the switching request processing 1611.
The switching request processing 1611 includes a frame indicating a switching request.
Or switch from keyboard
When a request is issued, the content of the
Handover to the tatami mat process, as shown in FIG.
Appears on the display output screen of the video input / output device 299.
Power.

【0138】そして、要求入力処理1610は、切り換
え要求が表示を要求するビデオデータを発信している端
末を、ビデオパス切り換え指示処理1626に通知す
る。ビデオパス切り換え指示処理は、表示するビデオデ
ータを、通知された端末のビデオデータとするコマンド
をパケット合成送出制御処理1627に渡す。パケット
合成送出制御処理1627は、このコマンドを前記共通
チャネルに格納したMLPデータまたはBASデータを
作成し、MUXインタフェース処理1629を施し、M
UX/DMUX260に渡す。また、MUX/DMUX
260は、受け取ったMLPデータまたはBASデータ
を格納したH.221フレームを作成し、網インタフェ
ース270を介して、ループ上の各端末に送る。
Then, the request input processing 1610 notifies the video path switching instruction processing 1626 of the terminal transmitting the video data whose switching request requests display. In the video path switching instruction processing, a command for setting the video data to be displayed to the video data of the notified terminal is passed to the packet synthesis transmission control processing 1627. The packet synthesis / transmission control processing 1627 creates MLP data or BAS data in which the command is stored in the common channel, performs MUX interface processing 1629, and
Pass to UX / DMUX 260. Also, MUX / DMUX
H. 260 stores the received MLP data or BAS data. A 221 frame is created and sent to each terminal on the loop via the network interface 270.

【0139】次に、図1に示したループ状のテレビ会議
システムによるテレビ会議から、いずれかの端末が退席
する場合、または、新たな端末がテレビ会議に参加する
場合ついて説明する。
Next, a case will be described in which any terminal leaves or a new terminal participates in the video conference by the video conference in the loop video conference system shown in FIG.

【0140】MUX/DMUX260は、受信したH.
221フレーム中のMLPデータまたはBASデータ
を、DMUXインタフェース処理1630を介しパケッ
ト解読送出制御処理1628に渡す、パケット解読送出
制御処理1628は受けとったMLPデータまたはBA
Sデータを解読し、退席要求コマンドが存在すれば、こ
のコマンドを途中退席、途中参加処理1614に渡す。
途中退席、途中参加処理1614、退席要求コマンド受
け取った場合、もしくは、キーボードより退席要求もし
くは途中参加要求が指示された場合、要求の内容を文字
重畳処理1601に渡し、図18に示すように切り換え
要求の内容をビデオ入出力機器299の表示出力画面に
重畳して出力する1602。
The MUX / DMUX 260 receives the received H.264.
The MLP data or BAS data in the H.221 frame is passed to the packet decryption transmission control process 1628 via the DMUX interface process 1630. The packet decryption transmission control process 1628 receives the received MLP data or BAS data.
The S data is decoded, and if there is an exit request command, this command is passed to the midway exit / intermediate participation process 1614.
When receiving a command to exit from the room or join in the middle 1614, a request to exit from the room, or when a request to exit or join in the middle is instructed from the keyboard, the contents of the request are passed to the character superimposition process 1601, and a switching request is made as shown in FIG. 1602 is superimposed on the display output screen of the video input / output device 299 and output.

【0141】そして、要求入力処理1621は、要求の
内容を発呼終話制御処理1613に通知する。発呼終話
制御処理1613は、要求の内容に応じて、終話コマン
ドと発呼コマンド生成し、パケット合成送出制御処理1
627に渡す。終話コマンドは退席する端末にループ上
隣あう2端末に退席する端末との接続を切断するよう指
示、もしくは、参加する端末に近設した位置にある、ル
ープ上で接続する2端末間の接続を切断するよう指示す
るコマンドである。また、発呼コマンドは、退席した端
末に接続していた端末間を接続するよう指示、もしく
は、参加する端末を含んでループを構成するよう指示す
るコマンドである。具体的には、図1の端末Cが退席を
要求する場合は、端末Cと端末D間の接続の切断を終話
コマンドで指示し、端末Cと端末B間の接続の切断を終
話コマンドで指示し、発呼コマンドで端末Bに端末Dと
の接続を指示する。また、図1の端末Bと端末C間に端
末Eを参加させる場合には、端末Bと端末C間の接続の
切断を終話コマンドで指示し、発呼コマンドで端末Bに
端末Eとの接続を指示し、端末Bに端末Eが接続した
ら、発呼コマンドで端末Eに端末Cとの接続を指示す
る。
Then, the request input processing 1621 notifies the call termination control processing 1613 of the contents of the request. The call termination control process 1613 generates a termination command and a call command according to the contents of the request,
627. The end-call command instructs the exiting terminal to disconnect the two terminals adjacent to the loop from the exiting terminal, or a connection between two terminals connected on the loop at a position close to the participating terminal. Is a command for instructing to disconnect. The call command is a command for instructing connection between terminals that have been connected to a terminal that has exited or for forming a loop including terminals that participate. Specifically, when the terminal C in FIG. 1 requests the leaving, the disconnection command between the terminal C and the terminal D is instructed by the end command, and the disconnection between the terminal C and the terminal B is indicated by the end command. The terminal B is instructed to connect to the terminal D by a call command. When the terminal E joins between the terminal B and the terminal C in FIG. 1, disconnection of the connection between the terminal B and the terminal C is instructed by a call end command, and the terminal B communicates with the terminal E by a call command. When a connection is instructed and the terminal E is connected to the terminal B, the terminal E is instructed to connect to the terminal C by a call command.

【0142】パケット合成送出制御処理1627は、発
呼終話制御処理1613より受け取ったコマンドを前記
共通チャネルに格納したMLPデータまたはBASデー
タを作成し、MUXインタフェース処理1629を施
し、MUX/DMUX260に渡す。また、MUX/D
MUX260は、受け取ったMLPデータまたはBAS
データを格納したH.221フレームを作成し、網イン
タフェース270を介して、ループ上の各端末に送る。
The packet combining / transmission control processing 1627 creates MLP data or BAS data in which the command received from the call termination control processing 1613 is stored in the common channel, performs MUX interface processing 1629, and passes it to the MUX / DMUX 260. . Also, MUX / D
The MUX 260 receives the received MLP data or BAS
H. which stored data. A 221 frame is created and sent to each terminal on the loop via the network interface 270.

【0143】次に、議長端末以外の端末の多地点テレビ
会議の制御処理を説明する。
Next, control processing of a multipoint video conference by a terminal other than the chair terminal will be described.

【0144】図19に、議長端末以外の端末の多地点テ
レビ会議の制御処理を示す。
FIG. 19 shows a control process of a multipoint video conference of a terminal other than the chair terminal.

【0145】まず、議長端末より他の端末との接続もし
くは接続の切断を指示された場合について説明する。
First, the case where the chair terminal instructs connection or disconnection with another terminal will be described.

【0146】MUX/DMUX260は、受け取った
H.221フレーム中のMLPデータまたはBASデー
タを、DMUXインタフェース処理1909を介し図示
せざるパケット解読送出制御処理に渡す、パケット解読
送出制御処理は受けとったMLPデータまたはBASデ
ータを解読し、共通チャネル(図14参照)に発呼コマ
ンドもしくは終話コマンドが存在すれば、このコマンド
をシステム制御部240に渡す。システム制御部240
は、エンド網制御部250を制御し、コマンドで指示さ
れた端末と接続、もしくは、接続を切断する。
The MUX / DMUX 260 receives the received H.264. The MLP data or the BAS data in the H.221 frame is passed to a packet decoding / transmission control process (not shown) via a DMUX interface process 1909. The packet decoding / transmission control process decodes the received MLP data or BAS data, and outputs a common channel (FIG. 14). If there is an outgoing call command or an end-of-call command, the command is passed to the system control unit 240. System control unit 240
Controls the end network control unit 250 to connect to or disconnect from the terminal specified by the command.

【0147】次に、議長端末より、表示するビデオデー
タの切り換えを指示された場合について説明する。
Next, a case where the chair terminal instructs to switch the video data to be displayed will be described.

【0148】MUX/DMUX260は、受け取った
H.221フレーム中のMLPデータまたはBASデー
タを、DMUXインタフェース処理1909を介し図示
せざるパケット解読送出制御処理に渡す、パケット解読
送出制御処理は受けとったMLPデータまたはBASデ
ータを解読し、共通チャネルに表示するビデオデータの
切り換えを指示するコマンドが存在すれば、このコマン
ドを会話制御部240に渡す。
The MUX / DMUX 260 receives the received H.264. The MLP data or the BAS data in the 221 frame is transferred to a packet decoding / transmission control process (not shown) via a DMUX interface process 1909. The packet decoding / transmission control process decodes the received MLP data or BAS data and displays the data on a common channel. If there is a command for switching video data, the command is passed to the conversation control unit 240.

【0149】会議制御システム制御部240の会議主制
御部処理1907は、通知されたコマンドに応じて、
H.261フレームに自端末のビデオデータを格納して
送信するかを決定し、自端末のビデオデータを格納して
送信する場合には自端末が送出するビデオ情報のサイズ
やビデオデータを格納するGOBを決定する。そして、
決定した内容をビデオコーデック201とビデオパス制
御部202に通知する。ビデオコーデック201とビデ
オパス制御部202は、前述したように、この通知に基
づいて動作する。
The conference controller control unit processing 1907 of the conference control system control unit 240 responds to the notified command by
H. It is determined whether the video data of the own terminal is stored and transmitted in the 261 frame. When the video data of the own terminal is stored and transmitted, the size of the video information transmitted by the own terminal and the GOB storing the video data are determined. decide. And
The determined contents are notified to the video codec 201 and the video path control unit 202. The video codec 201 and the video path control unit 202 operate based on this notification as described above.

【0150】次に、議長端末に、オーディオ平均レベル
を送信する処理について説明する。
Next, the process of transmitting the average audio level to the chair terminal will be described.

【0151】会議制御部240の会議主制御処理190
7は、オーディオ処理部212のオーディオ平均レベル
識別1214から、前述したようにオーディオ平均レベ
ルの通知を受けると、このデータを、図示せざるパケッ
ト合成送出制御処理に渡す。パケット合成送出制御処理
は、このデータを自端末に割り当てられたチャネルに格
納したMLPデータまたはBASデータを作成し、MU
Xインタフェース処理1908を施し、MUX/DMU
X260に渡す。また、MUX/DMUX260は、受
け取ったMLPデータまたはBASデータを格納した
H.221フレームを作成し、網インタフェース270
を介して、ループ上、議長端末に送る。
Conference controller control processing 190 of conference controller 240
7 receives the notification of the audio average level from the audio average level identification 1214 of the audio processing unit 212 as described above, and passes this data to a packet synthesis transmission control process (not shown). The packet combining and sending control process creates MLP data or BAS data in which this data is stored in a channel assigned to the terminal itself,
X interface processing 1908 is performed, and MUX / DMU
Hand over to X260. Further, the MUX / DMUX 260 stores the received MLP data or BAS data in the H.264. 221 frame is created and the network interface 270 is created.
Via the loop to the chair terminal.

【0152】次に、ビデオ切り換え要求や途中退席要求
やテレマィック端末データの送信要求を、議長端末に
送信する処理について説明する。
[0152] Next, the video change request and the transmission request of intermediate leaving request or telematics Te Ikku terminal data, the processing to be transmitted to the chairperson terminal will be described.

【0153】図示せざるキーボード等より、これらの要
求が入力されると、システム制御部240の入力取り込
み処理は、要求を取り込み主制御1906に渡す。主制
御1906は、渡された要求に応じたコマンドを生成
し、会議主制御処理1907に渡す。会議主制御処理1
907は、このコマンドを、図示せざるパケット合成送
出制御処理に渡す。パケット合成送出制御処理は、この
コマンドを自端末に割り当てられたチャネルに格納した
MLPデータまたはBASデータを作成し、MUXイン
タフェース処理1908を施し、MUX/DMUX26
0に渡す。また、MUX/DMUX260は、受け取っ
たMLPデータまたはBASデータを格納したH.22
1フレームを作成し、網インタフェース270を介し
て、ループ上、議長端末に送る。
When these requests are input from a keyboard or the like (not shown), the input capture processing of the system control unit 240 captures the requests and passes them to the main control 1906. The main control 1906 generates a command according to the passed request and passes it to the conference master control processing 1907. Conference master control processing 1
907 passes this command to a packet synthesis transmission control process (not shown). The packet combining and sending control process creates MLP data or BAS data in which this command is stored in the channel allocated to the terminal itself, performs MUX interface processing 1908, and performs MUX / DMUX 26
Pass to 0. Further, the MUX / DMUX 260 stores the received MLP data or BAS data in the H.264. 22
One frame is created and sent to the chair terminal on the loop via the network interface 270.

【0154】なお、文字重畳1905は、主制御190
6の制御下で、議長端末から受け取ったコマンドやデー
タ等を、重畳してビデオ入出力機器の画面に表示する。
The character superimposition 1905 is performed by the main control 190.
Under the control of 6, the command and data received from the chair terminal are superimposed and displayed on the screen of the video input / output device.

【0155】ところで、以上の実施例において、H.2
61フレームに4端末が発信したビデオデータを格納す
る(図7)手段を示した。
By the way, in the above embodiment, H. 2
The means for storing video data transmitted by four terminals in 61 frames (FIG. 7) has been shown.

【0156】各端末のビデオコーデック201は、受信
したH.261フレームに格納されているビデオデータ
を復号化し、ビデオ入出力機器200に表示出力する。
The video codec 201 of each terminal transmits the received H.264 code. The video data stored in the 261 frame is decoded and output to the video input / output device 200 for display.

【0157】しかし、H.261フレームに4端末が発
信したビデオデータが格納されている場合、各端末の発
信したビデオデータは相互に独立であるので、ビデオコ
ーデック201は各端末の発信したビデオデータ毎に独
立に取り扱うことができる。
However, H. When the video data transmitted from four terminals is stored in the 261 frame, the video data transmitted from each terminal is mutually independent. Therefore, the video codec 201 can handle the video data transmitted from each terminal independently. it can.

【0158】そこで、本実施例では、ビデオコーデック
201は、それぞれ各端末の発信したビデオデータの復
号化が終了した時点で、復号化が終了したビデオデータ
を表示出力する。
Therefore, in this embodiment, the video codec 201 displays and outputs the decoded video data when the decoding of the video data transmitted from each terminal is completed.

【0159】図20に、ビデオコーデックのビデオコー
ダ周辺の構成を示す。
FIG. 20 shows a configuration around a video coder of a video codec.

【0160】図中、2005がデコーダ、2001が復
号化メモリ、200と2007がダブルバッファ構成
の表示メモリ、2008は受信メモリである、200は
ビデオ入出力機器である。ダブルバッファ構成の表示メ
モリ2000と2007は、復号化データの書き込み用
として動作するときは、他方がビデオ入出力機器200
へのデータの表示読みだし用として動作する。
[0160] In the figure, 2005 is a decoder, 2001 is decoded memory, 200 0 and the display memory 2007 double buffer configuration, 2008 is the receive memory, 200 is a video input and output devices. When the display memories 2000 and 2007 having the double buffer configuration operate for writing the decoded data, the display memories 2000 and 2007 use the video input / output device 200 for the other.
It works for reading and displaying data to

【0161】デコーダ2005は、受信メモリ2008
より受信したビデオデータを読みだし、復号化メモリ2
005に格納されている前フレームの復号化データを参
照して復号化する。復号化したデータは次フレームの復
号化の参照用として復号化メモリ2005に書き込み、
また、現在復号化データの書き込み用として動作してい
る表示メモリ2000に書き込む。1つの端末から発信
された1/4画像領域分のビデオデータの復号化が終了
したら、表示メモリ2000と2007を切り換え、表
示メモリ2000を表示読みだし用に、表示メモリ20
07を復号化データの書き込み用に用いる。
The decoder 2005 includes a receiving memory 2008
Read out the received video data from the
The decoding is performed with reference to the decoded data of the previous frame stored in 005. The decrypted data is written to the decryption memory 2005 as a reference for decrypting the next frame,
Further, the data is written to the display memory 2000 which is currently operating for writing the decrypted data. When the decoding of the video data for the 1/4 image area transmitted from one terminal is completed, the display memory 2000 and 2007 are switched, and the display memory 2000 is read out from the display memory 20 for reading out the display.
07 is used for writing the decrypted data.

【0162】ところで、表示メモリと復号化メモリは1
つのメモリを共用するこができる。
By the way, the display memory and the decoding memory are 1
One of memory can and child shared.

【0163】図21に、表示メモリと復号化メモリは1
つのメモリを共用した場合の構成を示す。
In FIG. 21, the display memory and the decoding memory are 1
The configuration when two memories are shared is shown.

【0164】図中、2105がデコーダ、2101と2
102が復号化メモリと表示メモリ、として共用するダ
ブルバッファ構成のメモリ、200がビデオ入出力機
器、2008は受信メモリである。ダブルバッファ構成
のメモリ2101、2102は、一方が参照データ読み
だし用の復号化メモリと表示読みだし用の表示メモリと
して動作するとき、他方のメモリは復号化データの書き
込み用の復号化メモリおよび表示メモリとして動作す
る。
In the figure, 2105 is a decoder, 2101 and 2105
Reference numeral 102 denotes a memory having a double buffer configuration commonly used as a decoding memory and a display memory, 200 denotes a video input / output device, and 2008 denotes a reception memory. When one of the memories 2101 and 2102 of the double buffer configuration operates as a decoding memory for reading reference data and a display memory for display reading, the other memory serves as a decoding memory for writing decoded data and a display memory. Operate as memory.

【0165】デコーダ2105は、受信メモリ2008
より受信したビデオデータを読みだし、参照データ読み
だし用の復号化メモリとして動作しているメモリ210
0から読みだした前フレームの復号化データを参照して
復号化する。また、このメモリ210からの参照用の
読みだしと並行して、メモリ210の復号化データは
表示用として読みだされビデオ入出力機器200に送ら
れる。デコーダ2105が復号化したデータは次フレー
ムの復号化の参照用として復号化データの書き込み用の
復号化メモリとして動作しているメモリ2101に書き
込まれる。1つの端末から発信された1/4画像領域分
のビデオデータの復号化が終了したら、参照データ読み
だし用の復号化メモリとして動作しているメモリ210
から今回復号化が終了した1/4領域以外の領域の復
号化データをメモリ2101に転送し、メモリ210
と2101の役割を切り換える。
The decoder 2105 has a receiving memory 2008
Memory 210 which reads out the received video data and operates as a decoding memory for reading out reference data.
The decoding is performed with reference to the decoded data of the previous frame read from 0. In parallel with the read for reference from the memory 210 2, decoded data of the memory 210 2 are sent to the video output device 200 is read out for display. The data decoded by the decoder 2105 is written to a memory 2101 operating as a decoding memory for writing the decoded data for reference of decoding the next frame. When the decoding of the video data of the 1/4 image area transmitted from one terminal is completed, the memory 210 operating as the decoding memory for reading the reference data
Decoded data in a region other than the current 1/4 region decoding has been completed from 2 transferred to the memory 2101, the memory 210 2
And 2101 are switched.

【0166】以下、同様に1つの端末から発信された1
/4画像領域分のビデオデータの復号化の終了の度にメ
モリ2101に転送し、メモリ2100と2101の役
割を切り換える。
[0166] Hereinafter, similarly, 1 is transmitted from one terminal.
The video data is transferred to the memory 2101 every time decoding of video data for the 画像 image area is completed, and the roles of the memories 2100 and 2101 are switched.

【0167】なお、以上の実施例では、図1に示したよ
うに各端末間を1本のBチャネルで接続し、ループ状の
多地点テレビ会議システムを構成した。
In the above embodiment, as shown in FIG. 1, each terminal is connected by one B channel to form a loop multipoint video conference system.

【0168】しかし、1本のBチャネルは異なる送信方
向の2伝送路であるので、各端末間を1本のBチャネル
でループ状に接続すると、実際は2つのループ状通信路
が構成される。以上の説明では、この2つのループ状通
信路のうちの1つのループ状通信路のみを用いる場合に
ついて説明した。しかし、この2つのループ状通信路を
同時に用いることにより端末間の通信容量を増加するこ
とができる。すなわち、たとえば、ビデオデータを2つ
のループ状通信路のうちの一方のH.221フレームで
送信することとし、オーディオデータを他方のH.22
1フレームで送信する等の振り分けが可能となる。
However, since one B channel is two transmission paths in different transmission directions, if each terminal is connected in a loop by one B channel, two loop communication paths are actually formed. In the above description, a case has been described in which only one of the two loop communication paths is used. However, by simultaneously using these two loop communication paths, the communication capacity between terminals can be increased. That is, for example, video data is transferred to one of two loop communication paths, H.264. 221 frames, and the audio data is transmitted by the other H.221 frame. 22
Distribution such as transmission in one frame becomes possible.

【0169】また、この場合、CCITT、H221
定める付加チャネルを用いた図22に示すH.221
フレームを利用することにより、H.221フレームを
拡張することもできる。すなわち、2つのループ状通信
路のうちの一方をH.221にいう第1チャネルとし、
他方をH.221にいう付加チャネルとして使用するよ
うにする。
[0169] In addition, in this case, CCITT, H. 221
H. illustrated in Figure 22 using the additional channel stipulated in 221
By utilizing the frame, H.264 is used. 221 frames can also be extended. That is, one of the two loop communication paths is set to H.264. 221 as a first channel,
The other is H. 221 is used as an additional channel.

【0170】また、以上の実施例においては、図1に示
したように各端末間を1本のBチャネルで接続し、ルー
プ状の多地点テレビ会議システムを構成した。しかし、
前述したように、1本のBチャネルは異なる送信方向の
2伝送路であるので、図23に示すように各端末を順に
1本のBチャネルで接続した構成においても、両端の端
末がH.221フレームを折り返して送信し、両端以外
の端末が、いずれか1送信方向については受信したH
221フレームを透過的に次の端末に送信することによ
りループ状の通信路を構成することができる。そして、
このようにしてループ状の通信路を構成した場合でも、
本実施例は同様に適用することができる。
In the above embodiment, each terminal is connected by one B channel as shown in FIG. 1 to form a loop-shaped multipoint video conference system. But,
As described above, one B channel is two transmission paths in different transmission directions. Therefore, even in a configuration in which terminals are sequentially connected by one B channel as shown in FIG. 221 frame transmitted by folding back a terminal other than both ends, the received for any one transmission direction H.
By transmitting the 221 frame transparently to the next terminal, a loop communication path can be formed. And
Even if a loop communication path is configured in this way,
This embodiment can be similarly applied.

【0171】また、以上の実施例においては、図1に示
すデジタル通信網としてCCITT、Iシリーズ勧告で
規定されているISDNを想定し、各端末は、ISDN
と2B+Dの基本インタフェースで接続されているもの
と想定した。
In the above embodiment, the digital communication network shown in FIG. 1 is assumed to be CCITT, ISDN defined by the I series recommendation, and each terminal
And 2B + D basic interface.

【0172】しかし、本実施例は、ISDNと2B+D
の基本インタフェースのみならず、一次群速度インタフ
ェースによって端末がISDNが接続されている場合に
も同様に適用することができる。また、この場合におい
て、一次群速度インタフェース中の複数のBチャネルを
用いる場合は、前記付加チャネルを用いたH.221フ
レームを使用することができる。
However, in this embodiment, ISDN and 2B + D
In addition to the basic interface described above, the present invention can be similarly applied to a case where a terminal is connected to an ISDN by a primary rate interface. Further, in this case, when a plurality of B channels in the primary rate interface are used, H.264 using the additional channel is used. 221 frames can be used.

【0173】[0173]

【発明の効果】以上のように、本発明によれば、MCU
を必要とせずに、多地点テレビ会議に参加する端末のみ
で多地点テレビ会議を実現できる多地点テレビ会議シス
テムをを構成するテレビ会議端末を提供することができ
る。
As described above, according to the present invention, the MCU
And a video conference terminal that constitutes a multipoint videoconference system that can realize a multipoint videoconference with only terminals participating in the multipoint videoconference can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例に係る多地点テレビ会議シス
テムの構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a multipoint video conference system according to an embodiment of the present invention.

【図2】本発明の一実施例に係る多地点テレビ電話・会
議端末の構成を示すブロック図である。
FIG. 2 is a block diagram showing a configuration of a multipoint videophone / conference terminal according to one embodiment of the present invention.

【図3】本発明の一実施例に係る多地点テレビ会議シス
テムの動作を示す説明図である。
FIG. 3 is an explanatory diagram showing an operation of the multipoint video conference system according to one embodiment of the present invention.

【図4】本発明の一実施例に係る多地点テレビ会議シス
テムの動作を示す説明図である。
FIG. 4 is an explanatory diagram showing an operation of the multipoint video conference system according to one embodiment of the present invention.

【図5】本発明の一実施例に係る多地点テレビ会議シス
テムの動作を示す説明図である。
FIG. 5 is an explanatory diagram showing an operation of the multipoint video conference system according to one embodiment of the present invention.

【図6】CCITT、H.221勧告に定めるフレーム
構成を示す説明図である。
FIG. 6: CCITT, H .; 221 is an explanatory diagram illustrating a frame configuration defined in Recommendation 221. FIG.

【図7】CCITT、H.261勧告に定めるフレーム
の本発明の一実施例に係る使用例を示す説明図である。
FIG. 7: CCITT, H .; 261 is an explanatory diagram illustrating an example of use of a frame defined in Recommendation 261 according to an embodiment of the present invention.

【図8】CCITT、H.261勧告に定めるGOBと
ビデオデータの本発明の一実施例に係る関係を示す説明
図である。
FIG. 8: CCITT, H .; 261 is an explanatory diagram showing the relationship between GOB and video data defined in Recommendation H.261 according to an embodiment of the present invention. FIG.

【図9】本発明の一実施例に係るビデオパス制御部の第
1の構成例を示すブロック図である。
FIG. 9 is a block diagram illustrating a first configuration example of a video path control unit according to one embodiment of the present invention.

【図10】本発明の一実施例に係るビデオSWクロック
切り換え制御の構成を示すブロック図である。
FIG. 10 is a block diagram showing a configuration of video SW clock switching control according to one embodiment of the present invention.

【図11】本発明の一実施例に係るオーディオ処理部の
構成を示すブロック図である。
FIG. 11 is a block diagram illustrating a configuration of an audio processing unit according to an embodiment of the present invention.

【図12】本発明の一実施例に係るオーディオ平均レベ
ル識別の示すブロック図である。
FIG. 12 is a block diagram illustrating audio average level identification according to an embodiment of the present invention.

【図13】本発明の一実施例に係るビデオパス制御部の
第2の構成例を示すブロック図である。
FIG. 13 is a block diagram showing a second configuration example of the video path control unit according to one embodiment of the present invention.

【図14】本発明の一実施例に係る制御情報の送信方式
を説明するための説明図である。
FIG. 14 is an explanatory diagram illustrating a control information transmission method according to an embodiment of the present invention.

【図15】本発明の一実施例に係る制御情報の送信方式
を説明するための説明図である。
FIG. 15 is an explanatory diagram illustrating a control information transmission method according to an embodiment of the present invention.

【図16】本発明の一実施例に係る議長端末の制御系の
構成を示すブロック図である。
FIG. 16 is a block diagram showing a configuration of a control system of a chair terminal according to an embodiment of the present invention.

【図17】本発明の一実施例に係る議長端末における制
御情報の表示例を示す説明図である。
FIG. 17 is an explanatory diagram showing a display example of control information in the chair terminal according to one embodiment of the present invention.

【図18】本発明の一実施例に係る議長端末における制
御情報の表示例を示す説明図である。
FIG. 18 is an explanatory diagram showing a display example of control information on the chair terminal according to one embodiment of the present invention.

【図19】本発明の一実施例に係る端末の制御系の構成
を示すブロック図である。
FIG. 19 is a block diagram illustrating a configuration of a control system of a terminal according to an embodiment of the present invention.

【図20】本発明の一実施例に係るビデオデコーダ周辺
の第1の構成例を示すブロック図である。
FIG. 20 is a block diagram showing a first configuration example around a video decoder according to an embodiment of the present invention.

【図21】本発明の一実施例に係るビデオデコーダ周辺
の第2の構成例を示すブロック図である。
FIG. 21 is a block diagram showing a second configuration example around a video decoder according to one embodiment of the present invention.

【図22】CCITT、H.221勧告に定める付加チ
ャネルを用いたフレーム構成を示す説明図である。
FIG. 22. CCITT, H .; 221 is an explanatory diagram illustrating a frame configuration using an additional channel defined in the Recommendation 221. FIG.

【図23】本発明の一実施例に係る多地点テレビ会議シ
ステムの第2の構成例を示すブロック図である。
FIG. 23 is a block diagram showing a second configuration example of the multipoint video conference system according to one embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1、2、3、4 端末 5 デジタル通信網 200 ビデオ入出力機器 201 ビデオコーデック 202 ビデオパス制御部 210 オーデイオ入出力機器 211 オーディオコーデック 212 オーディオ処理部 220 会議制御部 230 テレマティック装置 240 システム制御部 250 エンド・網信号制御部 260 MUX/DMUX 270 網インタフェース部 1, 2, 3, 4 terminal 5 digital communication network 200 video input / output device 201 video codec 202 video path control unit 210 audio input / output device 211 audio codec 212 audio processing unit 220 conference control unit 230 telematic device 240 system control unit 250 End / network signal control unit 260 MUX / DMUX 270 network interface unit

フロントページの続き (56)参考文献 特開 平1−293058(JP,A) 特開 平3−1692(JP,A) 特開 昭63−115482(JP,A) 特開 昭61−30188(JP,A) 特開 昭62−42688(JP,A) 特開 平3−268552(JP,A) 特開 平3−172057(JP,A) 特開 平2−39763(JP,A) 特開 昭60−43954(JP,A) 大久保栄、羽鳥好律,ISDNを利用 したテレビ会議・テレビ電話方式の標準 化動向,情報処理,日本,1990年 7月 15日,Vol.31,No.7,p.921 −929 (58)調査した分野(Int.Cl.7,DB名) H04N 7/14 - 7/15 JICSTファイル(JOIS)Continuation of the front page (56) References JP-A-1-293058 (JP, A) JP-A-3-1692 (JP, A) JP-A-63-115482 (JP, A) JP-A-61-30188 (JP, A) JP-A-62-42688 (JP, A) JP-A-3-268552 (JP, A) JP-A-3-172057 (JP, A) JP-A-2-39763 (JP, A) 60-43954 (JP, A) Sakae Okubo, Yoshinori Hatori, Trends in standardization of videoconferencing and videophone systems using ISDN, Information processing, Japan, July 15, 1990, Vol. 31, No. 7, p. 921 -929 (58) Fields surveyed (Int. Cl. 7 , DB name) H04N 7/ 14-7/15 JICST file (JOIS)

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】通信フレームを予め定められた方向に巡回
させるべくデジタル通信回線によりループ状に接続され
た多地点間のテレビ会議通信を行なう多地点テレビ会議
システムにおいて、前記多地点のそれぞれに配置される
テレビ会議端末であって、 上流側の前記デジタル通信回線より前記通信フレームを
受信すると共に、下流側の前記デジタル通信回線へ前記
通信フレームを送信する回線インターフェース手段と、 画像データを取り込む画像データ入力手段と、 音響データを取り込む音響データ入力手段と、 前記回線インターフェース手段を介して上流側の前記デ
ジタル通信回線より受信した前記通信フレームに格納さ
れている画像データを出力する画像データ出力手段と、 前記音響データ入力手段により取り込まれた音響データ
のレベルを算出するレベル算出手段と、 前記回線インターフェースを介して上流側の前記デジタ
ル通信回線より受信した前記通信フレームに格納されて
いる、前記多地点のそれぞれに配置されるテレビ会議端
末の中から1つ選ばれる議長端末のコマンドが、自端末
をビデオ発信元端末に指定する旨を示しているか否かを
調べる会議制御手段と、 前記レベル算出手段で算出したレベルを、前記回線イン
ターフェース手段を介して上流側の前記デジタル通信回
線より受信した前記通信フレームに格納し、さらに、前
記通信フレームに対する前記会議制御手段での調査によ
り自端末がビデオ発信元端末に指定されていることが判
明した場合には、前記通信フレームに格納されている画
像データを、前記画像データ入力手段により取り込まれ
た画像データに更新して、当該通信フレームを前記回線
インターフェース手段を介して下流側の前記デジタル通
信回線へ送信する多重化手段と、を有し、 前記会議制御手段は、 自端末が前記議長端末である場合に、前記回線インター
フェース手段を介して上流側の前記デジタル通信回線よ
り受信した前記通信フレームに格納されている 前記複数
のテレビ会議端末各々のレベルに基づいて、前記ビデオ
発信元端末を決定し、前記多重化手段に、前記決定した
ビデオ発信元端末を指定するコマンドを前記通信フレー
ムに格納させることを特徴とするテレビ会議端末。
1. A communication frame is circulated in a predetermined direction.
Connected in a loop by digital communication lines
Multipoint Video Conference with Multipoint Video Conference Communication
In the system, it is arranged at each of the multi-points
A video conference terminal, wherein the communication frame is transmitted from the digital communication line on the upstream side.
While receiving, the digital communication line on the downstream side
Line interface means for transmitting a communication frame, image data input means for capturing image data, sound data input means for reading sound data, and the data on the upstream side via the line interface means.
Stored in the communication frame received from the digital communication line.
Image data output means for outputting image data, and sound data captured by the sound data input means.
Level calculating means for calculating the level of the digital signal, and the digital signal on the upstream side via the line interface.
Stored in the communication frame received from the communication line.
Teleconferencing end located at each of the multipoints
The command of the chair terminal selected from the end is
Indicates that the video source terminal is designated as
The conference control means to be examined and the level calculated by the level calculation means are
The digital communication circuit on the upstream side through the interface means.
Stored in the communication frame received from the
Investigation by the conference control means for the communication frame
The terminal is specified as the video source terminal.
If specified, the image stored in the communication frame
Image data is captured by the image data input means.
The communication frame is updated to the
The digital communication on the downstream side through an interface means.
Multiplexing means for transmitting to the communication line, wherein the conference control means, when the own terminal is the chair terminal, the line interface
From the digital communication line on the upstream side via the interface means.
Wherein the plurality stored in the communication frame received Ri
Said video based on the level of each video conference terminal
Determine the source terminal, and in the multiplexing means,
The command that specifies the video source terminal
A video conference terminal that is stored in a system.
【請求項2】請求項1記載のテレビ会議端末であって、 前記会議制御手段は、 自端末が前記議長端末である場合に、前記回線インター
フェース手段を介して上流側の前記デジタル通信回線よ
り受信した前記通信フレームに格納されている前記複数
のテレビ会議端末各々のレベルの大きい順に、前記ビデ
オ発信元端末を少なくとも2つ決定することを特徴とす
るテレビ会議端末。
2. The video conference terminal according to claim 1, wherein said conference control means, when said own terminal is said chair terminal, said line interface.
From the digital communication line on the upstream side via the interface means.
The plurality of communication frames stored in the received communication frame.
The video conferencing terminals in
(E) determining at least two source terminals;
Video conference terminal.
【請求項3】請求項1または2記載のテレビ会議端末で
あって、 ビデオ入出力機器をさらに有し、 前記画像データ入力手段は、 前記ビデオ入出力機器から入力されたビデオ信号を符号
化して前記多重化手段へ送出し、 前記画像データ出力手段は、 前記回線インターフェース手段を介して上流側の前記デ
ジタル通信回線より受信した前記通信フレームに格納さ
れている画像データを復号化して前記ビデオ入出力機器
に送信することを特徴とするテレビ会議端末。
3. The video conference terminal according to claim 1, wherein
And further comprising a video input / output device, wherein the image data input means encodes a video signal input from the video input / output device.
Turned into and sent to the multiplexing means, the image data output means, wherein the upstream side through the line interface means de
Stored in the communication frame received from the digital communication line.
Video input / output device
A video conference terminal.
【請求項4】請求項3記載のテレビ会議端末であって、 前記画像データ入力手段は、 CCITT勧告H.261に規定された符号化方式に従
ってビデオ信号を符号化し、 前記画像データ出力手段は CCITT勧告H.261に
規定された符号化方式に従ってビデオ信号を復号化する
ことを特徴とするテレビ会議端末。
4. A video conference terminal according to claim 3, wherein the image data input means, CCITT Recommendation H. 261 according to the encoding method specified in
The video data is encoded by the CCITT Recommendation H.264. 261
Decodes a video signal according to a specified coding scheme
A video conference terminal, characterized in that:
【請求項5】請求項4記載のテレビ会議端末であって、 前記通信フレームは、 CCITT勧告H.261に規定された画像フレームを
格納しており、 前記画像データ出力手段は、 前記回線インターフェース手段を介して上流側の前記デ
ジタル通信回線より受信した前記通信フレーム中の前記
画像フレームに格納されている画像データを復号化して
出力し、 前記多重化手段は、 前記回線インターフェース手段を介して上流側の前記デ
ジタル通信回線より受信した前記通信フレームに格納さ
れている前記議長端末のコマンドが、自端末をビデオ発
信元端末とする旨を示している場合、前記通信フレーム
中の前記画像フレームに格納されている画像データを、
前記画像入力手段により取り込まれた画像データに更新
することを特徴とするテレビ会議端末。
5. The video conference terminal according to claim 4, wherein said communication frame is defined in CCITT Recommendation H.5. 261
And the image data output means stores the data on the upstream side through the line interface means.
In the communication frame received from the digital communication line.
Decoding the image data stored in the image frame
The multiplexing means outputs the data on the upstream side via the line interface means.
Stored in the communication frame received from the digital communication line.
The command of the chair terminal is
If it indicates that it is a source terminal, the communication frame
The image data stored in the image frame in
Update to image data captured by the image input means
A video conference terminal.
JP17402591A 1991-07-15 1991-07-15 Video conference terminal Expired - Fee Related JP3308562B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP17402591A JP3308562B2 (en) 1991-07-15 1991-07-15 Video conference terminal
EP92111982A EP0523626B1 (en) 1991-07-15 1992-07-14 Multipoint teleconference system employing communication channels set in ring configuration
DE69214217T DE69214217T2 (en) 1991-07-15 1992-07-14 Multipoint teleconferencing system using communication channels in a ring configuration
AU19641/92A AU645210B2 (en) 1991-07-15 1992-07-14 Multipoint teleconference system employing communication channels set in ring configuration
CA002073893A CA2073893C (en) 1991-07-15 1992-07-15 Multipoint teleconference system employing communication channels set in ring configuration
US07/913,401 US5365265A (en) 1991-07-15 1992-07-15 Multipoint teleconference system employing communication channels set in ring configuration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17402591A JP3308562B2 (en) 1991-07-15 1991-07-15 Video conference terminal

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP20081698A Division JP3308906B2 (en) 1991-07-15 1998-07-15 Control information transmission method and video conference communication setting method in video conference communication

Publications (2)

Publication Number Publication Date
JPH0522321A JPH0522321A (en) 1993-01-29
JP3308562B2 true JP3308562B2 (en) 2002-07-29

Family

ID=15971322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17402591A Expired - Fee Related JP3308562B2 (en) 1991-07-15 1991-07-15 Video conference terminal

Country Status (6)

Country Link
US (1) US5365265A (en)
EP (1) EP0523626B1 (en)
JP (1) JP3308562B2 (en)
AU (1) AU645210B2 (en)
CA (1) CA2073893C (en)
DE (1) DE69214217T2 (en)

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6847611B1 (en) 1990-12-10 2005-01-25 At&T Corp. Traffic management for frame relay switched data service
EP0500091B1 (en) * 1991-02-20 1998-07-15 Hitachi, Ltd. Television telephone
US5587735A (en) * 1991-07-24 1996-12-24 Hitachi, Ltd. Video telephone
DE69222479T2 (en) 1991-07-15 1998-04-09 Hitachi Ltd Teleconferencing terminal equipment
JP3308563B2 (en) * 1991-07-15 2002-07-29 株式会社日立製作所 Multipoint video conference system
EP0523618B1 (en) 1991-07-15 1997-10-08 Hitachi, Ltd. Picture codec and teleconference terminal equipment
JPH05145917A (en) * 1991-11-19 1993-06-11 Aiphone Co Ltd Isdn video telephone conference system
US5798785A (en) 1992-12-09 1998-08-25 Discovery Communications, Inc. Terminal for suggesting programs offered on a television program delivery system
US9286294B2 (en) 1992-12-09 2016-03-15 Comcast Ip Holdings I, Llc Video and digital multimedia aggregator content suggestion engine
US6463585B1 (en) 1992-12-09 2002-10-08 Discovery Communications, Inc. Targeted advertisement using television delivery systems
US5600364A (en) 1992-12-09 1997-02-04 Discovery Communications, Inc. Network controller for cable television delivery systems
EP0856993B1 (en) 1992-12-09 2002-07-31 Discovery Communications, Inc. Set top terminal for cable television delivery systems
US6201536B1 (en) 1992-12-09 2001-03-13 Discovery Communications, Inc. Network manager for cable television system headends
US8073695B1 (en) 1992-12-09 2011-12-06 Adrea, LLC Electronic book with voice emulation features
US6181335B1 (en) 1992-12-09 2001-01-30 Discovery Communications, Inc. Card for a set top terminal
US7835989B1 (en) 1992-12-09 2010-11-16 Discovery Communications, Inc. Electronic book alternative delivery systems
US7849393B1 (en) 1992-12-09 2010-12-07 Discovery Communications, Inc. Electronic book connection to world watch live
US7509270B1 (en) 1992-12-09 2009-03-24 Discovery Communications, Inc. Electronic Book having electronic commerce features
US7168084B1 (en) 1992-12-09 2007-01-23 Sedna Patent Services, Llc Method and apparatus for targeting virtual objects
US5659350A (en) 1992-12-09 1997-08-19 Discovery Communications, Inc. Operations center for a television program packaging and delivery system
JP3472594B2 (en) * 1993-04-28 2003-12-02 株式会社日立製作所 Television dialogue system and central office
TW318315B (en) * 1993-05-03 1997-10-21 At & T Corp
JP3410209B2 (en) * 1993-05-27 2003-05-26 株式会社リコー Communication system, communication system and communication device
US5434850A (en) 1993-06-17 1995-07-18 Skydata Corporation Frame relay protocol-based multiplex switching scheme for satellite
US6771617B1 (en) 1993-06-17 2004-08-03 Gilat Satellite Networks, Ltd. Frame relay protocol-based multiplex switching scheme for satellite mesh network
JP3628729B2 (en) * 1993-09-28 2005-03-16 エヌシーアール インターナショナル インコーポレイテッド Display method of video image on computer display and display method of multiple windows
US7185054B1 (en) 1993-10-01 2007-02-27 Collaboration Properties, Inc. Participant display and selection in video conference calls
US5689641A (en) 1993-10-01 1997-11-18 Vicor, Inc. Multimedia collaboration system arrangement for routing compressed AV signal through a participant site without decompressing the AV signal
US6594688B2 (en) 1993-10-01 2003-07-15 Collaboration Properties, Inc. Dedicated echo canceler for a workstation
US9053640B1 (en) 1993-12-02 2015-06-09 Adrea, LLC Interactive electronic book
US7865567B1 (en) 1993-12-02 2011-01-04 Discovery Patent Holdings, Llc Virtual on-demand electronic book
US8095949B1 (en) 1993-12-02 2012-01-10 Adrea, LLC Electronic book with restricted access features
US7861166B1 (en) 1993-12-02 2010-12-28 Discovery Patent Holding, Llc Resizing document pages to fit available hardware screens
JP3507112B2 (en) * 1993-12-10 2004-03-15 キヤノン株式会社 Image reading device
US5446491A (en) * 1993-12-21 1995-08-29 Hitachi, Ltd. Multi-point video conference system wherein each terminal comprises a shared frame memory to store information from other terminals
GB2288706A (en) * 1994-04-15 1995-10-25 Mediacom Technologies Pte Limi A communication method and network
US5453780A (en) * 1994-04-28 1995-09-26 Bell Communications Research, Inc. Continous presence video signal combiner
US5608450A (en) * 1994-09-07 1997-03-04 Intel Corporation Video conferencing system with fast packet loss recovery
JPH0888632A (en) * 1994-09-20 1996-04-02 Canon Inc Inter-multi-point communication system and inter-multi-point communication method
US5821986A (en) * 1994-11-03 1998-10-13 Picturetel Corporation Method and apparatus for visual communications in a scalable network environment
JP3460345B2 (en) * 1994-12-19 2003-10-27 ソニー株式会社 Video camera system
KR960025575A (en) * 1994-12-30 1996-07-20 김주용 Variable bit rate audio information transmission apparatus and method
KR0163723B1 (en) * 1995-03-20 1999-01-15 김광호 Apparatus of controlling a video conferencing of a video conferencing system using isdn
DE19526484A1 (en) * 1995-07-20 1997-01-23 Sel Alcatel Ag Process, communication system and conference unit for carrying out conferences
JPH09191350A (en) * 1996-01-10 1997-07-22 Canon Inc Multimedia communication equipment
DE19610010A1 (en) * 1996-03-14 1997-09-18 Sel Alcatel Ag Device and service for the transmission of video image data and device for the transmission of request signals
US6037970A (en) * 1996-04-05 2000-03-14 Sony Corporation Videoconference system and method therefor
US6898620B1 (en) 1996-06-07 2005-05-24 Collaboration Properties, Inc. Multiplexing video and control signals onto UTP
US6490247B1 (en) 1996-06-26 2002-12-03 Gateway, Inc Ring-ordered dynamically reconfigurable network using an existing communications system
JPH1075310A (en) * 1996-08-29 1998-03-17 Nec Corp Multi-point video conference system
US6545700B1 (en) * 1997-06-25 2003-04-08 David A. Monroe Virtual video teleconferencing system
US6081524A (en) 1997-07-03 2000-06-27 At&T Corp. Frame relay switched data service
TW351789B (en) * 1997-10-28 1999-02-01 Inventec Corp Multiple point network system and its trouble shooting
US9009773B1 (en) 1998-06-30 2015-04-14 Cox Communications, Inc. Method and apparatus for providing broadcast data services
JP4021998B2 (en) * 1998-08-07 2007-12-12 松下電器産業株式会社 Data transmission control system and data transmission control method
US6330022B1 (en) 1998-11-05 2001-12-11 Lucent Technologies Inc. Digital processing apparatus and method to support video conferencing in variable contexts
JP2001077924A (en) 1999-09-01 2001-03-23 Fujitsu Ltd Multi-point communication system and method therefor
TW561451B (en) * 2001-07-27 2003-11-11 At Chip Corp Audio mixing method and its device
US7793326B2 (en) 2001-08-03 2010-09-07 Comcast Ip Holdings I, Llc Video and digital multimedia aggregator
US7908628B2 (en) 2001-08-03 2011-03-15 Comcast Ip Holdings I, Llc Video and digital multimedia aggregator content coding and formatting
US6966035B1 (en) 2001-09-19 2005-11-15 Hewlett-Packard Development Company, L.P. Frame for communicating expressive information for meetings
JP3638146B2 (en) 2002-10-22 2005-04-13 パイオニア株式会社 Video conference system, terminal used therefor, connection control method, and connection control program
US20050021620A1 (en) * 2003-05-30 2005-01-27 Todd Simon Web data conferencing system and method with full motion interactive video
JP4365747B2 (en) * 2004-08-09 2009-11-18 パナソニック株式会社 IP telephone system, IP telephone apparatus and calling method
US7545435B2 (en) * 2004-10-15 2009-06-09 Lifesize Communications, Inc. Automatic backlight compensation and exposure control
US8149739B2 (en) * 2004-10-15 2012-04-03 Lifesize Communications, Inc. Background call validation
US20060106929A1 (en) * 2004-10-15 2006-05-18 Kenoyer Michael L Network conference communications
JP4522332B2 (en) * 2005-07-01 2010-08-11 日本電信電話株式会社 Audiovisual distribution system, method and program
AU2008202703B2 (en) * 2007-06-20 2012-03-08 Mcomms Design Pty Ltd Apparatus and method for providing multimedia content
US20080316295A1 (en) * 2007-06-22 2008-12-25 King Keith C Virtual decoders
US8139100B2 (en) * 2007-07-13 2012-03-20 Lifesize Communications, Inc. Virtual multiway scaler compensation
US9661267B2 (en) * 2007-09-20 2017-05-23 Lifesize, Inc. Videoconferencing system discovery
US8514265B2 (en) * 2008-10-02 2013-08-20 Lifesize Communications, Inc. Systems and methods for selecting videoconferencing endpoints for display in a composite video image
US8643695B2 (en) * 2009-03-04 2014-02-04 Lifesize Communications, Inc. Videoconferencing endpoint extension
US8456510B2 (en) * 2009-03-04 2013-06-04 Lifesize Communications, Inc. Virtual distributed multipoint control unit
US8305421B2 (en) * 2009-06-29 2012-11-06 Lifesize Communications, Inc. Automatic determination of a configuration for a conference
US8350891B2 (en) * 2009-11-16 2013-01-08 Lifesize Communications, Inc. Determining a videoconference layout based on numbers of participants

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE349709C (en) * 1920-01-20 1922-03-07 Ernst Dirschoweit Insert for centrifugal drums
US4289932A (en) * 1979-10-15 1981-09-15 Reed Roger R Conferencing communications system
US4574374A (en) * 1983-10-25 1986-03-04 At&T Bell Laboratories Multilocation video conference terminal including rapid video switching
US4531024A (en) * 1983-10-25 1985-07-23 At&T Bell Laboratories Multilocation video conference terminal including video switching contention control
DE3566208D1 (en) * 1984-02-29 1988-12-15 Hertz Inst Heinrich Video conference system
US4847829A (en) * 1985-04-08 1989-07-11 Datapoint Corporation Video conferencing network
US4710917A (en) * 1985-04-08 1987-12-01 Datapoint Corporation Video conferencing network
JP2702945B2 (en) * 1987-11-18 1998-01-26 株式会社日立製作所 ISDN loop network system
JPH01241959A (en) * 1988-03-23 1989-09-26 Fujitsu Ltd Communication system between multi-point
DE3823219C1 (en) * 1988-07-08 1989-05-18 Telenorma Telefonbau Und Normalzeit Gmbh, 6000 Frankfurt, De
JPH0227857A (en) * 1988-07-18 1990-01-30 Hitachi Ltd Video conference method, video conference terminal equipment, notifying method and data terminal equipment
JP2856751B2 (en) * 1989-01-24 1999-02-10 株式会社東芝 Communication method and communication device
US5003532A (en) * 1989-06-02 1991-03-26 Fujitsu Limited Multi-point conference system
JPH0385837A (en) * 1989-08-29 1991-04-11 Nec Corp Multi-point video conference equipment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大久保栄、羽鳥好律,ISDNを利用したテレビ会議・テレビ電話方式の標準化動向,情報処理,日本,1990年 7月15日,Vol.31,No.7,p.921−929

Also Published As

Publication number Publication date
EP0523626B1 (en) 1996-10-02
EP0523626A1 (en) 1993-01-20
AU645210B2 (en) 1994-01-06
CA2073893A1 (en) 1993-01-16
CA2073893C (en) 1996-10-08
US5365265A (en) 1994-11-15
DE69214217T2 (en) 1997-05-15
AU1964192A (en) 1993-01-21
JPH0522321A (en) 1993-01-29
DE69214217D1 (en) 1996-11-07

Similar Documents

Publication Publication Date Title
JP3308562B2 (en) Video conference terminal
JP3308563B2 (en) Multipoint video conference system
US6288740B1 (en) Method and apparatus for continuous presence conferencing with voice-activated quadrant selection
EP1683356B1 (en) Distributed real-time media composer
JP3308905B2 (en) Video conference terminal
JP3308906B2 (en) Control information transmission method and video conference communication setting method in video conference communication
JP2839295B2 (en) Screen Update Method for Multipoint Video Conference System
JP3110037B2 (en) Image transmission system
JPH01241959A (en) Communication system between multi-point
JP3819097B2 (en) Video conference control device
JP2823571B2 (en) Distributed multipoint teleconferencing equipment
JPH01233869A (en) Picture communication system
JPH0965313A (en) Remote conference system
WO1997018663A1 (en) Video conference system
JPH05328344A (en) Video exchanging/distributing system
JPH0522720A (en) Picture codec and av meeting terminal
JPH05153583A (en) Video communication system among multi-points
JP2705966B2 (en) Video conference communication method
JPH07298229A (en) Communication method, communication system and terminal equipment
JPH1066070A (en) Video conference system taking multi-point communication into account
KR100565185B1 (en) Video conferencing system
JPH0346486A (en) Still picture display system for television conference between multiple locations
JPH09294166A (en) Video conference equipment and multi-point video conference system using the same
JPH03268552A (en) Loop type multipoint television conference system
JPH06237459A (en) Video conference system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080517

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees