WO2010137166A1 - 遅延検出装置、遅延検出方法 - Google Patents

遅延検出装置、遅延検出方法 Download PDF

Info

Publication number
WO2010137166A1
WO2010137166A1 PCT/JP2009/059883 JP2009059883W WO2010137166A1 WO 2010137166 A1 WO2010137166 A1 WO 2010137166A1 JP 2009059883 W JP2009059883 W JP 2009059883W WO 2010137166 A1 WO2010137166 A1 WO 2010137166A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
video
output
audio
sensor
Prior art date
Application number
PCT/JP2009/059883
Other languages
English (en)
French (fr)
Inventor
悟士 神田
Original Assignee
Necディスプレイソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necディスプレイソリューションズ株式会社 filed Critical Necディスプレイソリューションズ株式会社
Priority to JP2011515821A priority Critical patent/JP5305488B2/ja
Priority to PCT/JP2009/059883 priority patent/WO2010137166A1/ja
Publication of WO2010137166A1 publication Critical patent/WO2010137166A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client

Definitions

  • the present invention relates to a delay detection apparatus and a delay detection method for detecting a difference in reproduction timing between a video signal and an audio signal.
  • Patent Document 1 discloses correcting the delay, but does not specifically disclose how to grasp the delay time. In this case, there is no way to grasp the accurate delay time in the output of each device (panel for displaying video and speaker for audio output). In addition, there is a problem that it is difficult to perform synchronization management of video / audio signals for inspection. As described above, the means for recognizing the difference between video and audio in the above-described image display apparatus largely depends on human senses, and depending on the person who performs this adjustment, there is a difference in the recognition result of the deviation. There was a problem.
  • the present invention has been made in consideration of the above circumstances, and an object of the present invention is to provide a delay detection device and a delay detection method capable of grasping the delay time of the video and audio signals.
  • the present invention receives an input of a video signal, separates a part of the video signal and outputs it as a first signal, and outputs the remaining separated video signal as a second signal.
  • a signal branching / distributing unit that outputs the first signal output from the signal branching / distributing unit by a display device, and an output unit that outputs the second signal output from the signal branching / distributing unit by an audio output device; Based on a video sensor that detects video displayed by the display device, a sound sensor that detects audio output from the audio output device, a detection result of the video sensor, and a detection result of the sound sensor
  • a delay detection unit that detects a difference in reproduction timing between a signal obtained by the video sensor and a signal obtained by the sound sensor.
  • a part of a video signal is branched to generate a video signal and an audio signal, which are supplied to an image display device having an audio output function, and after being subjected to video processing and audio processing in the image display device Since the output is measured by a sensor, the delay time of video / audio can be grasped.
  • FIG. 1 is a schematic block diagram showing a configuration of a multi-installation monitor system using a delay detection device.
  • the signal branching / distributing means 10 receives an input of a video signal output from the PC 50, separates a part of this video signal, outputs it as a first signal (for example, a video signal), and separates it. The remaining video signal is output as a second signal (for example, an audio signal).
  • the video signal output from the PC 50 includes three types of color signals (red, green, blue) and two types of synchronization signals (horizontal signal, vertical signal), and these signals are synchronized. Yes.
  • the term “synchronization” here means that the reproduction timings of the video to be reproduced and the audio match.
  • the signal branching / distributing unit 10 separates a blue signal from among a red signal, a green signal, and a blue signal included in the video signal and supplies the separated signal as an audio signal to the audio processing unit 23 of the image display device 20.
  • Red signal, Green signal, Horizontal signal, Vertical signal are branched into video signals and supplied to the video processing unit 21 of the image display device 20.
  • synchronizing one of the color signals and outputting it as an audio signal synchronization between the video signal and the audio signal supplied to the image display device 20 is ensured.
  • the image display device 20 displays the first signal (video signal) output from the signal branching / distribution unit 10 as video, and outputs the second signal (audio signal) as audio.
  • the image display device 20 includes a video processing unit 21, a display device 22, an audio processing unit 23, and an audio device 24.
  • the video processing unit 21 performs signal processing on the video signal output from the signal branching / distribution unit 10 and displays the video signal on the display device 22.
  • the display device 22 is a liquid crystal panel, for example, and displays an image on a screen.
  • the audio processing unit 23 performs signal processing on the audio signal output from the signal branching / distribution unit 10, and outputs audio by the audio device 24.
  • the audio device 24 is a speaker, for example, and outputs an audio signal as audio.
  • the video sensor 30 detects the light of the video output by the display device 22 of the image display device 20.
  • the video sensor 30 is, for example, a photodiode.
  • the sound sensor 40 is, for example, a microphone, and detects sound output from the sound device 24 of the image display apparatus 20.
  • the measuring device 50 is controlled by the PC 60 and has a function of acquiring the measurement results of the video sensor 30 and the sound sensor 40 and outputting them to the PC 60 in real time.
  • the measuring device 50 is, for example, an oscilloscope, and digitizes the detection results obtained by the video sensor 30 and the sound sensor 40 by performing AD conversion.
  • the PC 60 is installed with an application 70 for controlling the measuring instrument 20, data analysis, and changing a video signal.
  • the application 70 detects a difference in reproduction timing between the signal obtained by the video sensor 30 and the signal obtained by the sound sensor 40 based on the detection result of the video sensor 30 and the detection result of the sound sensor 40 (delay detection). Equivalent to part).
  • the application 70 changes the video signal supplied to the signal branching / distributing means from the first color (for example, white) to the second color (for example, black), and the video generated in accordance with the change in the color.
  • a difference in reproduction timing between the signal obtained by the sensor 30 and the signal obtained by the sound sensor 40 is detected.
  • the PC 60 executes the application 70, generates a test video signal, and outputs it to the signal branching / distributing unit 10.
  • the PC 60 changes the video signal from white to black and from black to white and outputs the video signal.
  • the signal branching / distribution means 10 separates the blue signal from the video signal, supplies it to the image display device 20 as an audio signal, and supplies the other signals to the image display device 20 as video signals. At this time, the synchronization of the input signals (video signal and audio signal) input to the image display device 20 is ensured.
  • the image display device 20 outputs a video signal by the display device 22 and outputs a blue signal input as an audio signal by the audio device 24.
  • the video sensor 30 detects the light of the video output by the display device 22.
  • the sound sensor 40 detects sound output by the sound device 24.
  • the measuring device 20 AD converts the detection results obtained from the video sensor 30 and the sound sensor 40 to generate numerical data, and outputs the numerical data to the PC 60.
  • the PC 60 detects the timing at which the numerical data of the video signal and the audio signal obtained from the measuring instrument 20 changes by changing the video signal from white to black and from black to white, and the timing of the change is detected. By obtaining the difference, the delay time is detected by calculating the delay time of the video and audio signals.
  • an acceleration sensor may be used instead of the voice sensor 40.
  • the acceleration sensor By installing the acceleration sensor in the housing of the image display device 20 around the sound device, it is possible to measure a change in sound output without being affected by environmental sound.
  • the video signal controlled by the PC 60 is used as the video and audio input signal of the image display device 20, thereby omitting synchronization management of the input signal, and each device output of the image display device 20 is detected by the sensor
  • the change in video and audio is quantified by measuring at, and the delay time (temporal deviation) is calculated by the application 70 of the PC 60 to obtain an accurate delay time and provide information representing the delay time. Is possible.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Television Receiver Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

 映像信号の入力を受け付け、この映像信号の一部を分離して第1の信号として出力するとともに、分離した残りの映像信号を第2の信号として出力する信号分岐分配部(10)と、信号分岐分配部(10)から出力される第1の信号を表示装置(22)によって表示させ、信号分岐分配部(10)から出力される第2の信号を音声出力装置(24)によって出力する出力部(20)と、表示装置(22)によって表示される映像を検出する映像センサー(30)と、音声出力装置(24)から出力される音声を検出する音センサー(40)と、映像センサー(30)の検出結果と、音センサー(40)の検出結果とに基づいて、映像センサー(30)によって得られる信号と音センサー(40)によって得られる信号との再生タイミングの差を検出する遅延検出部(60)と、を有する。

Description

遅延検出装置、遅延検出方法
 本発明は、映像信号と音声信号との再生タイミングの差を検出する遅延検出装置、遅延検出方法に関する。
 画像表示装置内の映像や音声の処理が複雑化したことにより、映像出力と音声出力とに時間的ずれが生じるようになって来ている。一般的には、情報量の関係から、時間的に音声が映像よりも先に出力される。映像と音声との間に遅延が生じると、再生された映像と音声とに違和感が生じる。
 例えば、このような映像と音声との遅延を補正するには、ピアノ演奏等のシーンが撮影された映像を用いて、その撮像された信号を入力して映像と音声のずれを感覚的に捉えて、人手によってフィードバックを行い、映像と音声との遅延について補正を行っていた。
 一方、この補正を行なうためにリップシンク機能(Lip Synchronization)が使われている。このようなリップシンク機能については、例えば、以下に示す特許文献1に記載されている。ここでは、装置の機能別に映像と音声の遅延時間を何らからの方法で予め把握しておき、機能のON/OFFによって映像と音声それぞれの遅延時間を決定し、その差分時間だけ遅延処理を行なうものである。
特開2008-301087号公報
 しかしながら、上述した特許文献1においては、遅延を補正することについて開示されているが、遅延時間を如何にして把握するかについては、具体的には開示されていない。そうすると、やはり、各デバイス(映像を表示するパネルと音声出力用のスピーカ)の出力における正確な遅延時間を把握する術がない。また、検査用の映像・音声信号の同期管理をすることが困難であるという問題が生じる。このように、上述の画像表示装置における映像と音声のずれ認識の手段は、人間の感覚に頼るところが大きく、その時々において、この調整を行う人によっては、ずれの認識結果に差が生じてしまうという問題があった。
 本発明は、上記の事情を考慮してなされたものであり、その目的は、映像と音声との信号の遅延時間を把握することができる遅延検出装置、遅延検出方法を提供することにある。
 上記課題を解決するため、本発明は、映像信号の入力を受け付け、この映像信号の一部を分離して第1の信号として出力するとともに、分離した残りの映像信号を第2の信号として出力する信号分岐分配部と、前記信号分岐分配部から出力される第1の信号を表示装置によって表示させ、前記信号分岐分配部から出力される第2の信号を音声出力装置によって出力する出力部と、前記表示装置によって表示される映像を検出する映像センサーと、前記音声出力装置から出力される音声を検出する音センサーと、前記映像センサーの検出結果と、前記音センサーの検出結果とに基づいて、前記映像センサーによって得られる信号と前記音センサーによって得られる信号との再生タイミングの差を検出する遅延検出部と、を有する。
 本発明によれば、映像信号の一部を分岐して映像信号と音声信号とを生成して音声出力機能を備えた画像表示装置に供給し、画像表示装置において映像処理、音声処理された後の出力を、センサーにて測定するようにしたので、映像・音声の遅延時間を把握することができる。
マルチ設置モニターシステムの構成を表す概略ブロック図である。
 以下、本発明について図面を用いて説明する。図1は、遅延検出装置を用いたマルチ設置モニターシステムの構成を表す概略ブロック図である。
 この図において、信号分岐・分配手段10は、PC50から出力される映像信号の入力を受け付け、この映像信号の一部を分離して第1の信号(例えば、映像信号)として出力するとともに、分離した残りの映像信号を第2の信号(例えば、音声信号)として出力する。
 ここで、PC50から出力される映像信号は、3種の色信号(赤、緑、青)と2種の同期信号(水平信号、垂直信号)が含まれており、それぞれの信号は同期している。ここでいう同期とは、再生する対象の映像と音声との再生タイミングが一致していることを表す。
 信号分岐・分配部10は、例えば、映像信号に含まれる赤色信号、緑色信号、青色信号のうち、青色信号を分離して音声信号として画像表示装置20の音声処理部23に供給し、その他信号(赤色信号、緑色信号、水平信号、垂直信号)を映像信号に分岐して画像表示装置20の映像処理部21に供給する。ここでは、色信号のいずれかを分離して音声信号として出力することにより、画像表示装置20に供給される映像信号と音声信号との同期を確保している。
 画像表示装置20は、信号分岐・分配部10から出力される第1の信号(映像信号)を映像として表示し、第2の信号(音声信号)を音声として出力する。
 この画像表示装置20は、映像処理部21と、表示デバイス22と、音声処理部23と、音声デバイス24とを含んで構成される。映像処理部21は、信号分岐・分配部10から出力される映像信号を信号処理し、表示デバイス22によって表示する。表示デバイス22は、例えば、液晶パネルであり、映像を画面上に表示する。
 音声処理部23は、信号分岐・分配部10から出力される音声信号を信号処理し、音声デバイス24によって、音声を出力する。音声デバイス24は、例えばスピーカであり、音声信号を音声として出力する。
 映像センサー30は、画像表示装置20の表示デバイス22によって出力される映像の光を検出する。この映像センサー30は、例えば、フォトダイオードである。
 音センサー40は、例えば、マイクロフォンであり、画像表示装置20の音声デバイス24から出力される音声を検出する。
 測定器50は、PC60によって制御され、映像センサー30と音センサー40の測定結果を取得して、PC60にリアルタイムに出力する機能を有している。この測定器50は、例えば、オシロスコープであり、映像センサー30、音センサー40によって得られた検出結果をAD変換を行って数値化する。
 PC60は、測定器20の制御とデータ解析、映像信号を変化させるためのアプリケーション70がインストールされている。アプリケーション70は、映像センサー30の検出結果と、音センサー40の検出結果とに基づいて、映像センサー30によって得られる信号と音センサー40によって得られる信号との再生タイミングの差を検出する(遅延検出部に相当)。
 ここでは、アプリケーション70は、信号分岐分配手段に供給する映像信号を、第1の色(例えば、白)から第2の色(例えば、黒)に変化させ、この色の変化に応じて生じる映像センサー30によって得られる信号と音センサー40によって得られる信号との再生タイミングの差を検出する。
 次に本発明の実施例の動作について図1を用いて説明する。
 PC60は、アプリケーション70を実行し、テスト用の映像信号を生成し、信号分岐・分配部10に出力する。ここでは、PC60は、映像信号を白から黒、黒から白へと変化させて映像信号を出力する。信号分岐・分配手段10は、映像信号のうち、青色信号を分離して、画像表示装置20に音声信号として供給し、その他の信号を映像信号として画像表示装置20に供給する。この時点においては、画像表示装置20に入力される入力信号(映像信号と音声信号)の同期が確保されている。
 次に、画像表示装置20は、映像信号を表示デバイス22によって映像を出力するとともに、音声信号として入力された青色信号を音声デバイス24によって音声を出力する。
 映像信号、音声信号が出力されると、映像センサー30は、表示デバイス22によって出力される映像の光を検出する。音センサー40は、音声デバイス24によって出力される音声を検出する。
 測定器20は、映像センサー30、音センサー40から得られる検出結果をそれぞれAD変換して数値データを生成し、PC60に出力する。
 PC60は、映像信号を白から黒、黒から白へと変化させることによって、測定器20から得られる映像信号および音声信号の数値データがどのタイミングで変化するかを検出し、その変化のタイミングの差を求めることで、映像及び音声信号の遅延時間を算出することにより、遅延時間を検出する。
 なお、上述した実施形態において、音声センサー40に換えて、加速度センサーを用いるように構成してもよい。加速度センサーを音声デバイス周辺の画像表示装置20の筐体に設置することで、環境音に影響されることなく音声出力の変化を測定することができる。
 以上説明したように、上述の実施形態によれば、映像および音声出力の変化をセンサーを用いて数値化しているので、遅延時間を定量的に把握することができ、その精度も正確であることからフレーム単位での遅延時間補正や検査を行なうことも可能となる。
 また、PC60の映像信号を分岐して画像表示装置20の入力信号としているので、入力信号の同期管理が不要となることである。
 また、上述した実施形態によれば、PC60が制御する映像信号を画像表示装置20の映像と音声の入力信号とすることで入力信号の同期管理を省き、画像表示装置20の各デバイス出力をセンサーにて測定することで映像と音声の変化を数値化し、その遅延時間(時間的ずれ)をPC60のアプリケーション70によって演算することで正確な遅延時間を得て、遅延時間を表す情報を提供することが可能となる。
10 信号分岐・分配部
20 画像表示装置
21 映像処理部
22 表示デバイス
23 音声処理部
24 音声デバイス
30 映像センサー
40 音センサー
50 測定器
60 PC
70 アプリケーション

Claims (3)

  1.  映像信号の入力を受け付け、この映像信号の一部を分離して第1の信号として出力するとともに、分離した残りの映像信号を第2の信号として出力する信号分岐分配部と、
     前記信号分岐分配部から出力される第1の信号を表示装置によって表示させ、前記信号分岐分配部から出力される第2の信号を音声出力装置によって出力する出力部と、
     前記表示装置によって表示される映像を検出する映像センサーと、
     前記音声出力装置から出力される音声を検出する音センサーと、
     前記映像センサーの検出結果と、前記音センサーの検出結果とに基づいて、前記映像センサーによって得られる信号と前記音センサーによって得られる信号との再生タイミングの差を検出する遅延検出部と、
     を有することを特徴とする遅延検出装置。
  2.  前記遅延検出部は、信号分岐分配手段に供給する映像信号を、第1の色から第2の色に変化させ、この色の変化に応じて生じる前記映像センサーによって得られる信号と前記音センサーによって得られる信号との再生タイミングの差を検出する
     ことを特徴とする請求項1記載の遅延検出装置。
  3.   映像信号の入力を受け付け、この映像信号の一部を分離して第1の信号として出力するとともに、分離した残りの映像信号を第2の信号として出力し、
     前記出力される第1の信号を表示装置によって表示させ、前記信号分岐分配手段から出力される第2の信号を音声出力装置によって出力し、
     前記表示される映像を検出し、
     前記出力される音声を検出し、
     前記映像の検出結果と、前記音声の検出結果とに基づいて、前記映像の検出結果と前記音声の検出結果との再生タイミングの差を検出する
     ことを特徴とする遅延検出方法。
PCT/JP2009/059883 2009-05-29 2009-05-29 遅延検出装置、遅延検出方法 WO2010137166A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011515821A JP5305488B2 (ja) 2009-05-29 2009-05-29 遅延検出装置、遅延検出方法
PCT/JP2009/059883 WO2010137166A1 (ja) 2009-05-29 2009-05-29 遅延検出装置、遅延検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/059883 WO2010137166A1 (ja) 2009-05-29 2009-05-29 遅延検出装置、遅延検出方法

Publications (1)

Publication Number Publication Date
WO2010137166A1 true WO2010137166A1 (ja) 2010-12-02

Family

ID=43222307

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/059883 WO2010137166A1 (ja) 2009-05-29 2009-05-29 遅延検出装置、遅延検出方法

Country Status (2)

Country Link
JP (1) JP5305488B2 (ja)
WO (1) WO2010137166A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016001967A1 (ja) * 2014-06-30 2016-01-07 Necディスプレイソリューションズ株式会社 表示装置、表示方法、及び表示プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10784024B2 (en) 2017-08-30 2020-09-22 Ultra Conductive Copper Company, Inc. Wire-drawing method and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007221421A (ja) * 2006-02-16 2007-08-30 Onkyo Corp 映像音声再生システムおよびこれを構成するavセンターならびにモニター
JP2008148084A (ja) * 2006-12-12 2008-06-26 Funai Electric Co Ltd リップシンク測定方法およびリップシンク測定用回路

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3727736B2 (ja) * 1996-11-08 2005-12-14 日本放送協会 映像と音声の時間差検知用の映像信号・音声信号発生装置
JP3548502B2 (ja) * 2000-05-15 2004-07-28 株式会社シグマシステムエンジニアリング 回線時間差測定装置及び回線時間差測定装置用信号発生器
JP4336879B2 (ja) * 2003-09-24 2009-09-30 日本電気株式会社 映像音声遅延確認回路及びそれに用いる映像音声遅延確認方法
JP2006186990A (ja) * 2004-12-03 2006-07-13 Shinano Kenshi Co Ltd リップシンク測定方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007221421A (ja) * 2006-02-16 2007-08-30 Onkyo Corp 映像音声再生システムおよびこれを構成するavセンターならびにモニター
JP2008148084A (ja) * 2006-12-12 2008-06-26 Funai Electric Co Ltd リップシンク測定方法およびリップシンク測定用回路

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016001967A1 (ja) * 2014-06-30 2016-01-07 Necディスプレイソリューションズ株式会社 表示装置、表示方法、及び表示プログラム
JPWO2016001967A1 (ja) * 2014-06-30 2017-05-25 Necディスプレイソリューションズ株式会社 表示装置、表示方法、及び表示プログラム

Also Published As

Publication number Publication date
JPWO2010137166A1 (ja) 2012-11-12
JP5305488B2 (ja) 2013-10-02

Similar Documents

Publication Publication Date Title
US7970222B2 (en) Determining a delay
CN108307190A (zh) 用于测试显示器的方法、装置和计算机程序产品
BR112013021658A2 (pt) aparelho para prover realimentação durante um procedimento de correção de visão, e, método para prover realimentação para um procedimento de correção de visão
JP2003339056A5 (ja)
JP2008524904A (ja) 遅延されたビデオとオーディオの同期
EP3425896A1 (en) Signal processing device, signal processing method, and camera system
WO2009057409A1 (ja) 内視鏡装置
WO2017200300A3 (ko) 소음원 가시화 데이터 누적 표시방법 및 음향 카메라 시스템
WO2009045068A3 (en) Image display apparatus and method of compensating for white balance
US20110013085A1 (en) Method and Apparatus for Measuring Audio-Video Time skew and End-to-End Delay
US20190037188A1 (en) Unevenness correction system, unevenness correction apparatus and panel drive circuit
JP5305488B2 (ja) 遅延検出装置、遅延検出方法
JP6429291B2 (ja) 表示装置、表示方法、及び表示プログラム
JP2011169842A (ja) フリッカー測定方法およびその装置
US20190394421A1 (en) Method for synchronising a first audio signal and a second audio signal
JP2006180212A (ja) 計測データ・画像データ記録装置およびこれを用いた遠隔監視システム
JP5082137B2 (ja) 投射型画像表示装置、画像表示システム、および色むら補正方法
WO2020044644A1 (ja) 映像信号出力装置、制御方法、及び、プログラム
JP7058946B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP5076938B2 (ja) 色測定方法および色測定装置
JPH11127379A (ja) 撮像装置
JP2007329603A (ja) リップシンク検査装置
JPH10108222A (ja) 画像処理装置の検査方法
JP2007312192A (ja) リップシンク評価装置、及びリップシンク調整装置
KR100459186B1 (ko) 영상표시기기의 입력모드 인식장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09845233

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011515821

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09845233

Country of ref document: EP

Kind code of ref document: A1