JP2015146532A - Imaging apparatus, control method of the same, system, and program - Google Patents

Imaging apparatus, control method of the same, system, and program Download PDF

Info

Publication number
JP2015146532A
JP2015146532A JP2014018829A JP2014018829A JP2015146532A JP 2015146532 A JP2015146532 A JP 2015146532A JP 2014018829 A JP2014018829 A JP 2014018829A JP 2014018829 A JP2014018829 A JP 2014018829A JP 2015146532 A JP2015146532 A JP 2015146532A
Authority
JP
Japan
Prior art keywords
moving image
communication device
imaging
time
delay time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014018829A
Other languages
Japanese (ja)
Other versions
JP6254862B2 (en
Inventor
麻由 横井
Mayu Yokoi
麻由 横井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014018829A priority Critical patent/JP6254862B2/en
Publication of JP2015146532A publication Critical patent/JP2015146532A/en
Application granted granted Critical
Publication of JP6254862B2 publication Critical patent/JP6254862B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique of accurately calculating a communication delay time which occurs in streaming.SOLUTION: An imaging apparatus capable of communicating with a communication apparatus comprises: transmission means which generates a moving image for calculating a delay time occurring in communication with the communication apparatus and transmits it to the communication apparatus; detection means which detects a pattern included in the moving image displayed by the communication apparatus; and calculation means which calculates a delay time from the difference between a time when generation of the moving image was started and a time until the pattern is detected.

Description

本発明はネットワークを介した二つの機器間におけるデータ伝送に関するものである。   The present invention relates to data transmission between two devices via a network.

従来より、ストリーミングの技術として、従来ファイル転送などに用いられていたHTTP(Hypertext Transfer Protocol)/TCP(Transmission Control Protocol)プロトコルを利用して、ストリーミングデータの転送を行う方法がある。この方法でストリーミングを行うと、ネットワーク状況により輻輳遅延が発生する。これに対して、データを送信した時刻と、通信相手からデータ受け取り通知を受信した時刻の差分から遅延時間を算出する技術がある(特許文献1)。   Conventionally, as a streaming technique, there is a method of transferring streaming data by using an HTTP (Hypertext Transfer Protocol) / TCP (Transmission Control Protocol) protocol which has been conventionally used for file transfer and the like. When streaming is performed by this method, a congestion delay occurs depending on the network condition. On the other hand, there is a technique for calculating the delay time from the difference between the time when the data is transmitted and the time when the data reception notification is received from the communication partner (Patent Document 1).

特開2006−101009号公報JP 2006-101209 A

しかしながら、上記特許文献1では、自装置から通信相手にデータを送信する際にかかる時間と、通信相手がデータの受け取り通知を自装置に送信する際にかかる時間の通信往復時間が合算され、自装置がデータを圧縮し送信してから通信相手が再生するまでの正確な時間を算出できない。   However, in Patent Document 1, the time required for transmitting data from the own device to the communication partner and the communication round-trip time of the time required for the communication partner to transmit data reception notification to the own device are added together. It is impossible to calculate an accurate time from when the device compresses and transmits data until the communication partner reproduces the data.

本発明は、上記課題に鑑みてなされ、その目的は、ストリーミングを行う際に発生する通信の遅延時間を正確に算出する技術を実現することである。   The present invention has been made in view of the above problems, and an object thereof is to realize a technique for accurately calculating a communication delay time that occurs when streaming is performed.

上記課題を解決し、目的を達成するため、本発明の撮像装置は、通信装置と通信可能な撮像装置であって、前記通信装置と通信するときの遅延時間を算出するための動画を生成し前記通信装置に送信する送信手段と、前記通信装置に表示された前記動画に含まれているパターンを検出する検出手段と、前記動画の生成を開始した時刻と、前記パターンが検出されるまでの時刻との差分から遅延時間を算出する算出手段と、を有する。   In order to solve the above problems and achieve the object, an imaging apparatus of the present invention is an imaging apparatus capable of communicating with a communication apparatus, and generates a moving image for calculating a delay time when communicating with the communication apparatus. Transmission means for transmitting to the communication device, detection means for detecting a pattern included in the moving image displayed on the communication device, a time when generation of the moving image is started, and until the pattern is detected Calculating means for calculating a delay time from a difference from time.

本発明によれば、ストリーミングを行う際に発生する通信の遅延時間を正確に算出することが可能となる。   According to the present invention, it is possible to accurately calculate a communication delay time that occurs when streaming is performed.

本発明に係る実施形態の撮像装置の構成を例示するブロック図。1 is a block diagram illustrating a configuration of an imaging apparatus according to an embodiment of the present invention. 本発明に係る実施形態の通信装置の構成を例示するブロック図。The block diagram which illustrates the composition of the communication apparatus of the embodiment concerning the present invention. 本実施形態のシステムによるライブストリーミング動作を説明する図。The figure explaining the live streaming operation | movement by the system of this embodiment. 本実施形態の撮像装置の動作を示すフローチャート。6 is a flowchart showing the operation of the imaging apparatus according to the present embodiment. 本実施形態のシステム構成を説明する図。The figure explaining the system configuration | structure of this embodiment.

以下に、添付図面を参照して本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   EMBODIMENT OF THE INVENTION Below, the form for implementing this invention with reference to an accompanying drawing is demonstrated in detail. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

以下、本発明を、サーバとしての撮像装置1000と、クライアントとしての通信装置2000とを通信可能に接続したシステムを例に説明する。この例では、撮像装置1000で撮影された映像をリアルタイムに順次送信することで、通信装置2000でライブストリーミングにより映像が視聴可能となる。なお、ライブストリーミングの詳細については後述する。本実施形態では、撮像装置1000をデジタルビデオカメラ、通信装置2000をスマートフォンなどの通信端末に適用した例を説明するが、本発明は、これに限られない。例えば、本発明は、撮像装置として、カメラ付き携帯電話や携帯型のメディアプレーヤ、いわゆるタブレット端末など、通信装置として、パーソナルコンピュータなどの情報処理装置や携帯電話、タブレットデバイス端末、テレビなどにも適用できる。   Hereinafter, the present invention will be described by taking as an example a system in which an imaging device 1000 as a server and a communication device 2000 as a client are communicably connected. In this example, the images captured by the imaging apparatus 1000 are sequentially transmitted in real time, so that the communication apparatus 2000 can view the images by live streaming. Details of live streaming will be described later. In this embodiment, an example in which the imaging apparatus 1000 is applied to a digital video camera and the communication apparatus 2000 is applied to a communication terminal such as a smartphone will be described. However, the present invention is not limited to this. For example, the present invention is applied to an information processing device such as a personal computer, a mobile phone, a tablet device terminal, a television, and the like as a communication device, such as a camera-equipped mobile phone or a portable media player, a so-called tablet terminal. it can.

<撮像装置の構成>図1を参照して、本発明に係る実施形態の撮像装置の構成及び機能の概略について説明する。   <Arrangement of Imaging Apparatus> With reference to FIG. 1, the outline of the arrangement and functions of an imaging apparatus according to an embodiment of the present invention will be described.

図1に示す撮像装置(以下、カメラ)1000において、内部バス1010に対してCPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003、入力処理部1004、出力処理部1006、通信制御部1008、記録媒体制御部1011、カメラ信号処理部1015、符号・復号処理部1016が接続される。内部バス1010に接続される各部は、内部バス1010を介して互いにデータのやりとりを行える。   In the imaging apparatus (hereinafter referred to as camera) 1000 shown in FIG. 1, a CPU (Central Processing Unit) 1001, a ROM (Read Only Memory) 1002, a RAM (Random Access Memory) 1003, an input processing unit 1004, an output with respect to an internal bus 1010. A processing unit 1006, a communication control unit 1008, a recording medium control unit 1011, a camera signal processing unit 1015, and an encoding / decoding processing unit 1016 are connected. Each unit connected to the internal bus 1010 can exchange data with each other via the internal bus 1010.

ROM1002は、CPU1001が動作するための各種プログラムや設定データが格納される。また、フラッシュメモリなども含まれる。RAM1003は、CPU1001が動作時に必要とするプログラムや変数、作業用の一時データなどが適宜記憶される。   The ROM 1002 stores various programs and setting data for the CPU 1001 to operate. A flash memory is also included. The RAM 1003 appropriately stores programs and variables necessary for the operation of the CPU 1001, temporary work data, and the like.

CPU1001は、ROM1002または記録媒体1012に格納されているプログラムに従い、RAM1003をワークメモリとして用いて、このカメラ1000の各部を制御する。   The CPU 1001 controls each part of the camera 1000 using the RAM 1003 as a work memory according to a program stored in the ROM 1002 or the recording medium 1012.

光学系1013は、フォーカス、絞り機構などを含む撮影レンズであり、被写体の光学像を形成する。撮像素子1014は、CCDやCMOS素子等で構成され、ここではA/D変換器を含み、光学像をアナログ電気信号に変換した後、デジタル信号に変換する。   The optical system 1013 is a photographing lens including a focus, a diaphragm mechanism, and the like, and forms an optical image of a subject. The imaging element 1014 is configured by a CCD, a CMOS element, or the like, and here includes an A / D converter, which converts an optical image into an analog electric signal and then converts it into a digital signal.

カメラ信号処理部1015は、CPU1001の制御に基づき、撮像素子1014で変換されたデジタル信号に対し、所定の画素補間・縮小といったリサイズ処理や色変換、各種補正処理等を行う。   Based on the control of the CPU 1001, the camera signal processing unit 1015 performs resize processing such as predetermined pixel interpolation / reduction, color conversion, various correction processing, and the like on the digital signal converted by the image sensor 1014.

符号・復号処理部1016は、CPU1001の制御に基づき、カメラ信号処理部1015で処理されたデジタル信号を所定のビットレート、フォーマット形式で圧縮符号化、または映像圧縮符号化データの復号を行う。   Based on the control of the CPU 1001, the encoding / decoding processing unit 1016 performs compression encoding on the digital signal processed by the camera signal processing unit 1015 at a predetermined bit rate and format, or decoding video compression encoded data.

なお、音声については特に図示していないが、音声付き映像を配信する場合には、マイクロホン、音声のアナログ信号をデジタル化するA/D変換器、デジタルデータを符号化する構成を持つことになる。当然、映像記録時には映像と共に音声も同時に収録され、符号・復号処理部1016で映像と音声を多重化することで、音声付映像データを生成することになる。   The audio is not particularly shown, but when distributing video with audio, it has a microphone, an A / D converter that digitizes an analog audio signal, and a configuration that encodes digital data. . Naturally, at the time of video recording, audio and video are simultaneously recorded, and the video / audio is multiplexed by the encoding / decoding processing unit 1016 to generate video data with audio.

入力処理部1004は、操作部1005でのユーザ操作を受け付け、操作に応じた制御信号を生成し、CPU1001に供給する。例えば、操作部1005は、ユーザ操作を受け付ける入力デバイスとして、キーボードといった文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイスなどを有する。また、赤外線リモコンなどの遠隔操作可能なものも含む。なお、タッチパネルは、例えば平面的に構成された入力部に対して接触された位置に応じた座標情報が出力されるようにした入力デバイスである。これにより、カメラ1000に対し、ユーザ操作に応じた動作を行わせることができる。   The input processing unit 1004 receives a user operation on the operation unit 1005, generates a control signal corresponding to the operation, and supplies the control signal to the CPU 1001. For example, the operation unit 1005 includes character information input devices such as a keyboard and pointing devices such as a mouse and a touch panel as input devices that receive user operations. In addition, remote control devices such as an infrared remote controller are also included. The touch panel is an input device that outputs coordinate information according to a position touched with respect to, for example, a planar input unit. Thereby, it is possible to cause the camera 1000 to perform an operation according to the user operation.

出力処理部1006は、CPU1001がプログラムに従い生成したGUI(Graphical User Interface)などの表示データに基づき、表示部1007に対して表示させるための表示信号を出力する。   The output processing unit 1006 outputs a display signal to be displayed on the display unit 1007 based on display data such as GUI (Graphical User Interface) generated by the CPU 1001 according to the program.

なお、操作部1005としてタッチパネルを用いる場合、操作部1005と表示部1007とを一体的に構成することができる。例えば、タッチパネルを光の透過率が表示部1007の表示を妨げないように構成し、表示部1007の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部1007上の表示座標とを対応付ける。これにより、あたかもユーザが表示部1007上に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。   Note that when a touch panel is used as the operation unit 1005, the operation unit 1005 and the display unit 1007 can be configured integrally. For example, the touch panel is configured so that light transmittance does not hinder display on the display portion 1007 and is attached to the upper layer of the display surface of the display portion 1007. Then, the input coordinates on the touch panel are associated with the display coordinates on the display unit 1007. Thereby, it is possible to configure a GUI as if the user can directly operate the screen displayed on the display unit 1007.

記録媒体制御部1011は、HDDや不揮発性の半導体メモリなどの記録媒体1012が接続され、CPU1001の制御に基づき、接続された記録媒体1012からのデータの読み出しや、当該記録媒体1012に対するデータの書き込みを行う。なお、記録媒体制御部1011が接続可能な記録媒体1012は、不図示のソケットなどを介して、例えばメモリカードなどの着脱可能な不揮発性の半導体メモリを接続するものとしても良い。   The recording medium control unit 1011 is connected to a recording medium 1012 such as an HDD or a non-volatile semiconductor memory, and reads data from the connected recording medium 1012 and writes data to the recording medium 1012 based on the control of the CPU 1001. I do. The recording medium 1012 to which the recording medium control unit 1011 can be connected may be a detachable nonvolatile semiconductor memory such as a memory card via a socket (not shown).

記録媒体1012は、撮影した映像データのほか、CPU1001の制御に必要な情報も記録することが可能である。   The recording medium 1012 can record information necessary for the control of the CPU 1001 in addition to the captured video data.

通信制御部1008は、CPU1001の制御に基づき、コネクタ(有線)/アンテナ(無線)1009を介して、通信装置2000その他の外部装置との通信を行う。通信方法としては、無線のIEEE802.11やBluetooth(登録商標)、有線のIEEE802.3などを用いることが可能である。   The communication control unit 1008 communicates with the communication device 2000 and other external devices via a connector (wired) / antenna (wireless) 1009 based on the control of the CPU 1001. As a communication method, wireless IEEE802.11, Bluetooth (registered trademark), wired IEEE802.3, or the like can be used.

上述したカメラ1000では中央1点AFや顔AFなどのオートフォーカス技術を用いた撮影が可能である。中央1点AFとは撮影画面内の中央位置1点に対してAFを行うことである。顔AFとは顔検出機能によって検出された撮影画面内の顔に対してAFを行うことである。   The above-described camera 1000 can shoot using an autofocus technique such as central one-point AF or face AF. Central one-point AF is to perform AF on one central position in the shooting screen. Face AF is to perform AF on the face in the shooting screen detected by the face detection function.

ここで、顔検出機能について説明する。   Here, the face detection function will be described.

CPU1001は顔検出対象の画像データを符号・復号処理部1016に送る。符号・復号処理部1016は、CPU1001の制御に従い、当該画像データに水平方向バンドパスフィルタを作用させる。また、符号・復号処理部1016は、CPU1001の制御に従い、処理された画像データに垂直方向バンドパスフィルタを作用させる。これら水平及び垂直方向のバンドパスフィルタにより、画像データよりエッジ成分が検出される。その後、CPU1001は、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳の候補群を抽出する。そして、CPU1001は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを、目の対と判断し、目の対があるもののみ目の候補群として絞り込む。そして、CPU1001は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。CPU1001は、顔の検出結果に応じて上記顔情報を出力し、処理を終了する。このとき、顔の数などの特徴量を記録媒体1012に記録する。   The CPU 1001 sends the face detection target image data to the encoding / decoding processing unit 1016. The encoding / decoding processing unit 1016 applies a horizontal bandpass filter to the image data according to the control of the CPU 1001. The encoding / decoding processing unit 1016 applies a vertical bandpass filter to the processed image data according to the control of the CPU 1001. By these horizontal and vertical band pass filters, edge components are detected from the image data. After that, the CPU 1001 performs pattern matching on the detected edge component, and extracts a candidate group of eyes, nose, mouth, and ears. The CPU 1001 determines that an eye pair that satisfies a preset condition (for example, distance between two eyes, inclination, etc.) from the extracted eye candidate group is an eye pair, and there is an eye pair. Narrow down as the only candidate group. Then, the CPU 1001 associates the narrowed-down eye candidate group with other parts (nose, mouth, ears) that form the corresponding face, and passes the preset non-face condition filter, thereby identifying the face. To detect. The CPU 1001 outputs the face information according to the face detection result, and ends the process. At this time, feature quantities such as the number of faces are recorded on the recording medium 1012.

以上のようにライブビュー表示あるいは再生表示される画像データを解析して、画像データの特徴量を抽出して被写体情報を検出することが可能である。本実施形態では被写体の特徴情報として顔情報を例に挙げたが、これ以外に赤目判定や目の検出、目つむり検出、笑顔検出などの様々な情報がある。   As described above, it is possible to analyze the image data displayed or reproduced and display the live view, extract the feature amount of the image data, and detect the subject information. In this embodiment, face information is taken as an example of subject characteristic information, but there are various other information such as red-eye determination, eye detection, eye-brow detection, and smile detection.

なお、顔AFと同時に顔AE、顔FE、顔WBを行うことができる。顔AEとは検出された顔の明るさに合わせて、画面全体の露出を最適化することである。顔FEとは検出された顔を中心にフラッシュの調光をすることである。顔WBとは、検出された顔の色に合わせて画面全体のホワイトバランスを最適化することである。   Note that the face AE, the face FE, and the face WB can be performed simultaneously with the face AF. The face AE is to optimize the exposure of the entire screen according to the brightness of the detected face. The face FE is to perform flash dimming around the detected face. The face WB is to optimize the white balance of the entire screen according to the detected face color.

なお、ハードウェアの構成は図1に示すものに限定されず、例えば1つのハードウェアが表示制御、通信制御、記録制御、画像処理制御などを行い、カメラ1000の各手段として機能してもよい。また、複数のハードウェアが協働して1つの手段として機能してもよい。   The hardware configuration is not limited to that shown in FIG. 1. For example, one piece of hardware may perform display control, communication control, recording control, image processing control, and the like and function as each unit of the camera 1000. . A plurality of hardware may function as one means in cooperation.

<通信装置の構成>次に、図2を参照して、本発明に係る実施形態の通信装置の構成及び機能の概略について説明する。   <Configuration of Communication Device> Next, the configuration and functions of the communication device according to the embodiment of the present invention will be outlined with reference to FIG.

図2に示す通信装置(以下、端末)2000において、多くの部分はカメラ1000と同様となるため、カメラ1000と説明が重複するCPU2001〜記録媒体2012までの説明は省略する。符号・復号処理部2013は、CPU2001の制御に基づき、映像圧縮符号化データの復号、および必要に応じて復号したデータの再符号化を行う。   In the communication apparatus (hereinafter referred to as a terminal) 2000 shown in FIG. The encoding / decoding processing unit 2013 performs decoding of the video compression encoded data and re-encoding of the decoded data as necessary based on the control of the CPU 2001.

<システム構成>次に、図5を参照して、本実施形態のシステム構成について説明する。   <System Configuration> Next, the system configuration of this embodiment will be described with reference to FIG.

カメラ1000は端末2000との通信を開始すると、予めカメラ1000の記録媒体1012に記録されている遅延時間算出用動画3005を圧縮符号化し、端末2000に送信する。端末2000はカメラ1000から受信した遅延時間算出用動画3005を再生する。カメラ1000は端末2000の表示部2007に表示された映像を撮像し、顔検出を行う。   When the camera 1000 starts communication with the terminal 2000, the camera 1000 compresses and encodes the delay time calculation moving image 3005 recorded in advance on the recording medium 1012 of the camera 1000, and transmits it to the terminal 2000. The terminal 2000 reproduces the delay time calculation moving image 3005 received from the camera 1000. The camera 1000 captures an image displayed on the display unit 2007 of the terminal 2000 and performs face detection.

遅延時間算出用動画3005は、カメラ1000と端末2000が通信を行う際に発生する輻輳遅延の時間を算出するための動画である。また、遅延時間算出用動画3005には、フレームごとに四隅にカメラ1000により検出が容易なパターン3005aが含まれている。また、遅延時間算出用動画3005には、一定時間ごとに顔が表示されるようにカメラ1000により検出が容易な顔3005bが含まれており、好ましくは顔の位置または個数がフレームごとに異なっている。このように、顔が連続して同じ位置に出現しないようにすることで、前回検出された顔との誤検出を防ぐことができる。   The delay time calculation moving image 3005 is a moving image for calculating the time of congestion delay that occurs when the camera 1000 and the terminal 2000 communicate with each other. The delay time calculation moving image 3005 includes patterns 3005a that can be easily detected by the camera 1000 at the four corners of each frame. Further, the delay time calculation moving image 3005 includes a face 3005b that can be easily detected by the camera 1000 so that the face is displayed at regular intervals, and preferably the position or number of faces differs from frame to frame. Yes. In this way, by preventing faces from appearing continuously at the same position, erroneous detection with the previously detected face can be prevented.

カメラ1000は、遅延時間算出用動画3005の圧縮符号化を開始した時刻と、端末2000が受信し、表示部2007に表示された映像をカメラ1000で撮像し、パターンが検出されるまでの時刻との差分から遅延時間を算出する。また、遅延時間算出用動画3005の各フレームの四隅に別の顔もしくは別のパターンを配置することで、カメラ1000はフレームの四隅の位置を把握することができ、フレームの四隅に対するパターンの相対的な位置を把握することができる。   The camera 1000 starts the compression encoding of the delay time calculation moving image 3005, and the time until the terminal 2000 receives and displays the image displayed on the display unit 2007 by the camera 1000 and the pattern is detected. The delay time is calculated from the difference. In addition, by arranging different faces or different patterns at the four corners of each frame of the delay time calculation moving image 3005, the camera 1000 can grasp the positions of the four corners of the frame, and the pattern relative to the four corners of the frame. The correct position.

<ライブストリーミング動作の説明>次に、図1ないし図3を参照して、本実施形態のシステムによるライブストリーミング動作について説明する。   <Description of Live Streaming Operation> Next, the live streaming operation by the system of this embodiment will be described with reference to FIGS.

図3において、ユーザがカメラ1000において、操作部1005からライブストリーミングモードを実行すると、カメラ1000は、CPU1001の制御により、通信制御部1008を通信可能状態とする。   In FIG. 3, when the user executes the live streaming mode from the operation unit 1005 in the camera 1000, the camera 1000 sets the communication control unit 1008 in a communicable state under the control of the CPU 1001.

さらにユーザは端末2000において、操作部2005を操作して通信接続処理およびライブストリーミングに必要なアプリケーションの起動を行う。これに応じて、端末2000のCPU2001は、ROM2002または記録媒体2012に格納された当該プログラムに従い、通信制御部2008を制御し、カメラ1000との通信を開始し、接続処理を行う。   Further, the user operates the operation unit 2005 on the terminal 2000 to activate an application necessary for communication connection processing and live streaming. In response to this, the CPU 2001 of the terminal 2000 controls the communication control unit 2008 according to the program stored in the ROM 2002 or the recording medium 2012, starts communication with the camera 1000, and performs connection processing.

ここで、カメラ1000と端末2000は、通信プロトコルとしてHTTP(Hypertext Transfer Protocol)/TCP(Transmission Control Protocol)を使用するものとする。また、通信接続においてUPnP(Universal Plug and Play)に対応しているものとする。UPnP対応の端末2000は、機器をネットワークに接続すると、DHCP(Dynamic Host Configuration Protocol)または、AutoIPによるIP(Internet Protocol)アドレスの設定を行う。IPアドレスを取得した機器は、ネットワーク上の他の機器を相互に認識するために、「デバイスディスカバリとコントロール」によって、デバイス検索と応答デバイスの種別、サービス機能などの情報取得を行う(ステップ3001)。カメラ1000は、端末2000のデバイス検索要求に対して、機器情報と機器固有情報のプレイリスト取得先情報などを応答する(ステップ3002)。   Here, the camera 1000 and the terminal 2000 use HTTP (Hypertext Transfer Protocol) / TCP (Transmission Control Protocol) as a communication protocol. Further, it is assumed that the communication connection supports UPnP (Universal Plug and Play). When the UPnP compatible terminal 2000 connects the device to the network, the IP (Internet Protocol) address is set by DHCP (Dynamic Host Configuration Protocol) or AutoIP. In order to recognize each other device on the network, the device that has acquired the IP address acquires information such as device search, response device type, and service function by “device discovery and control” (step 3001). . In response to the device search request of the terminal 2000, the camera 1000 responds with device information, playlist acquisition destination information of device specific information, and the like (step 3002).

カメラ1000と端末2000の接続処理が完了すると、カメラ1000はライブストリーミングを開始する。ライブストリーミングを開始すると、カメラ1000のCPU1001は、記録媒体1012に記録されている遅延時間算出用動画3005を符号・復号処理部1016で圧縮符号化し、所定の周期Tごとにフレームを更新する。   When the connection process between the camera 1000 and the terminal 2000 is completed, the camera 1000 starts live streaming. When live streaming is started, the CPU 1001 of the camera 1000 compresses and encodes the delay time calculation moving image 3005 recorded on the recording medium 1012 by the encoding / decoding processing unit 1016, and updates the frame every predetermined period T.

なお、本実施形態ではT=1/30秒として、以下説明する。   In the present embodiment, T = 1/30 seconds will be described below.

CPU1001は、上記フレームの保存先と関連させたパス情報を生成する。パス情報は、端末2000がフレームを取得する際の取得先情報として使用する。端末2000は、所定の周期Tを事前に記憶しているか、カメラ1000の機器情報に含めることで機器情報取得時に得ることができているものとする。   The CPU 1001 generates path information associated with the storage destination of the frame. The path information is used as acquisition destination information when the terminal 2000 acquires a frame. It is assumed that the terminal 2000 stores a predetermined cycle T in advance or can obtain it at the time of device information acquisition by including it in the device information of the camera 1000.

端末2000は、ライブストリーミング開始後、約T(秒)後にステップ3002で取得したフレーム取得先へ、フレーム取得要求(HTTP GETメソッド)を行う(ステップ3003)。   The terminal 2000 makes a frame acquisition request (HTTP GET method) to the frame acquisition destination acquired in step 3002 after about T (seconds) after the start of live streaming (step 3003).

カメラ1000は、応答フレームとして、要求されれたフレームを送信する(ステップS3004)。   The camera 1000 transmits the requested frame as a response frame (step S3004).

端末2000は、受信したフレームを符号・復号処理部2013に渡し、復号した後、出力処理部2006を介して、表示部2007で再生表示を行う。また、ライブストリーミングアプリケーションにより、ユーザから端末記録が実行されている場合、復号したデータ、またはフレームからヘッダなどを除いたデータ部を、記録媒体2012に記録する。そして、さらに順次受信するフレームを復号し、受信済みのフレームと結合し記録していく。   The terminal 2000 passes the received frame to the encoding / decoding processing unit 2013, decodes the frame, and performs playback display on the display unit 2007 via the output processing unit 2006. In addition, when terminal recording is performed by the user by the live streaming application, the decoded data or the data portion excluding the header from the frame is recorded in the recording medium 2012. The received frames are further decoded, combined with the received frames, and recorded.

ストリーミング中、カメラ1000は、約T(秒)毎にフレーム更新を行う。   During streaming, the camera 1000 performs frame update about every T (seconds).

端末2000は、約T(秒)毎にフレーム取得要求(ステップ3003)を行う。   The terminal 2000 makes a frame acquisition request (step 3003) about every T (seconds).

なお、端末2000の要求処理(ステップ3003)には端末、またはアプリケーションの固有のIDを付加する。そして、本実施形態のカメラ1000は、最初に要求のあったIDの要求のみに対してストリーミングを行う。つまり、本実施形態のカメラ1000と端末2000は1対1接続でのみストリーミングを行うものとする。   Note that a unique ID of the terminal or application is added to the request processing of the terminal 2000 (step 3003). Then, the camera 1000 of this embodiment performs streaming only for the request for the ID requested first. That is, it is assumed that the camera 1000 and the terminal 2000 of this embodiment perform streaming only with a one-to-one connection.

なお、遅延時間算出後、カメラ1000が撮像したストリーミング映像を端末2000に送信する場合は、カメラ1000のCPU1001は、撮像素子1014からの信号出力を開始し、その出力をカメラ信号処理部1015により適切なフレームデータに処理し、符号・復号処理部1016へデータを送出する。   When the streaming video captured by the camera 1000 is transmitted to the terminal 2000 after the delay time is calculated, the CPU 1001 of the camera 1000 starts signal output from the image sensor 1014 and the output is appropriately transmitted by the camera signal processing unit 1015. The frame data is processed and sent to the encoding / decoding processing unit 1016.

符号・復号処理部1016では、受け取ったフレームデータを所定のビットレート、フォーマット形式で圧縮符号化し、RAM1003または記録媒体1012に保存する。   The encoding / decoding processing unit 1016 compresses and encodes the received frame data at a predetermined bit rate and format format, and stores it in the RAM 1003 or the recording medium 1012.

保存したデータは遅延時間算出用動画3005と同様に処理され、端末2000からのフレーム取得要求(ステップ3003)に応じて、応答フレーム(ステップ3004)として端末2000に送信する。   The stored data is processed in the same manner as the delay time calculation moving image 3005 and is transmitted to the terminal 2000 as a response frame (step 3004) in response to a frame acquisition request from the terminal 2000 (step 3003).

<カメラの動作説明>次に、図4を参照して、カメラ1000が端末2000と接続確立後、カメラ1000が実行する処理について説明する。なお、以下の処理はカメラ1000のCPU1001が各種プログラムや入力信号に基づきカメラ1000の各部を制御することで実現する。   <Explanation of Camera Operation> Next, the processing executed by the camera 1000 after the camera 1000 establishes connection with the terminal 2000 will be described with reference to FIG. The following processing is realized by the CPU 1001 of the camera 1000 controlling each unit of the camera 1000 based on various programs and input signals.

ステップS4001では、CPU1001は、ライブストリーミング開始に伴う、フレームデータ生成の開始処理を行う。CPU1001は、記録媒体1012から遅延時間算出用動画3005のデータを読み出し、符号・復号処理部1016へデータを渡す。符号・復号処理部1016では、受け取った映像データを所定のビットレート、フォーマット形式で圧縮符号化し、さらに所定の時間長T(本実施形態では1/30秒とする)で分割する処理を開始する。   In step S4001, the CPU 1001 performs frame data generation start processing that accompanies the start of live streaming. The CPU 1001 reads the data of the delay time calculation moving image 3005 from the recording medium 1012 and passes the data to the encoding / decoding processing unit 1016. The encoding / decoding processing unit 1016 starts a process of compressing and encoding the received video data with a predetermined bit rate and format, and further dividing the video data with a predetermined time length T (in this embodiment, 1/30 seconds). .

ステップS4002では、CPU1001は、符号・復号処理部1016によりフレームデータの圧縮符号化を開始する時刻を記録媒体1012に記録する。   In step S <b> 4002, the CPU 1001 records a time at which the encoding / decoding processing unit 1016 starts compression encoding of the frame data on the recording medium 1012.

ステップS4003では、CPU1001は、フレーム情報の生成を行う。ここでは、生成されたフレームデータの時間長と、当該フレームデータを特定できる保存先アドレス、またはファイル名などに関連付けたパス情報を生成する。ここで、本実施形態の説明では、フレームの時間長Tは1/30秒固定となる。   In step S4003, the CPU 1001 generates frame information. Here, path information associated with a time length of the generated frame data, a storage destination address that can identify the frame data, or a file name is generated. Here, in the description of the present embodiment, the time length T of the frame is fixed to 1/30 seconds.

ステップS4004では、CPU1001は、端末2000からのフレーム取得要求(ステップ3003)を待ち、フレーム取得要求があった場合にはステップS4005へ進む。   In step S4004, the CPU 1001 waits for a frame acquisition request (step 3003) from the terminal 2000. If there is a frame acquisition request, the process proceeds to step S4005.

ステップS4005では、フレーム取得要求(ステップ3003)に対する応答として、ステップS4001で圧縮符号化したフレームデータの送信を行う(ステップ3004)。   In step S4005, as a response to the frame acquisition request (step 3003), the frame data compressed and encoded in step S4001 is transmitted (step 3004).

ステップS4006では、CPU1001は、光学系1013により端末2000の表示部2007に表示されている映像を撮像する。このとき、端末2000の表示部2007には、カメラ1000から受信したフレームが表示されている。   In step S4006, the CPU 1001 captures an image displayed on the display unit 2007 of the terminal 2000 by the optical system 1013. At this time, the frame received from the camera 1000 is displayed on the display unit 2007 of the terminal 2000.

ステップS4007では、CPU1001は、フレームの四隅に配置されているパターンが検出されたか否かを判定し、検出された場合はステップS4008へ進み、検出されなかった場合はステップS4010へ進む。   In step S4007, the CPU 1001 determines whether or not the patterns arranged at the four corners of the frame are detected. If detected, the process proceeds to step S4008. If not detected, the process proceeds to step S4010.

ステップS4008では、CPU1001は、ステップS4006で撮像された映像中から顔が検出されたか否かを判定し、検出された場合はステップS4009へ進み、検出されなかった場合はステップS4010へ進む。なお、遅延時間算出用動画3005は、フレームごとに顔の位置または個数が異なっており、これにより顔の誤検出を防ぐことができる。   In step S4008, the CPU 1001 determines whether or not a face is detected from the video imaged in step S4006. If it is detected, the process proceeds to step S4009. If not detected, the process proceeds to step S4010. Note that the delay time calculation moving image 3005 has a different face position or number for each frame, thereby preventing erroneous face detection.

ステップS4009では、CPU1001は、ステップS4001で遅延時間算出用動画3005の圧縮符号化を開始してからステップS4008で顔が検出されるまでにかかった時間を算出する。ステップS4002で記録されたフレームの圧縮符号化開始時刻をT1とし、遅延時間算出用動画3005で顔が含まれているフレームをn枚目とし、ステップS4008で顔が検出された時刻をT2とすると、カメラ1000でフレームデータの圧縮符号化を開始してから、端末2000がフレームデータを受信し、表示部2007に表示された映像から顔が検出されるまでの時間は下記式1から算出することができる。   In step S4009, the CPU 1001 calculates the time taken from the start of compression encoding of the delay time calculation moving image 3005 in step S4001 until the face is detected in step S4008. If the compression encoding start time of the frame recorded in step S4002 is T1, the frame including the face in the delay time calculation moving image 3005 is the nth frame, and the time when the face is detected in step S4008 is T2. The time from when the camera 1000 starts compressing and encoding the frame data until the terminal 2000 receives the frame data and the face is detected from the video displayed on the display unit 2007 is calculated from Equation 1 below. Can do.

遅延時間(秒)=T2−(T1+T×n)・・・(1)
なお、ステップS4008で検出される顔の数を判定に使用する場合は、顔の個数ごとに上記式1により遅延時間を算出でき、それらの平均を算出することでより正確な遅延時間を算出することができる。
Delay time (seconds) = T2− (T1 + T × n) (1)
When the number of faces detected in step S4008 is used for determination, the delay time can be calculated by the above equation 1 for each number of faces, and a more accurate delay time can be calculated by calculating an average thereof. be able to.

ステップS4010では、処理を終了するか否かの判定を行い、終了する場合以外はステップS4004へ戻る。   In step S4010, it is determined whether or not to end the process. Otherwise, the process returns to step S4004.

本実施形態では、遅延時間算出用動画3005が圧縮前のデータであることを前提として説明した。この場合、実際に撮像されたデータを使用するのとほぼ同じ時間を費やして処理を行うことができる。なお、遅延時間算出用動画3005が圧縮後のデータであった場合は、ステップS4001での圧縮処理とステップS4002のフレーム圧縮符号化開始時刻の記録を省くことができる。また、ステップS4005においてフレーム送信開始時刻を記録することで、端末2000に表示された映像から顔が検出されるまでの通信にのみかかる時間を算出することができる。   The present embodiment has been described on the assumption that the delay time calculation moving image 3005 is data before compression. In this case, processing can be performed while spending substantially the same time as using actually captured data. If the delay time calculation moving image 3005 is compressed data, the compression processing in step S4001 and the recording of the frame compression encoding start time in step S4002 can be omitted. Also, by recording the frame transmission start time in step S4005, it is possible to calculate the time required only for communication until a face is detected from the video displayed on terminal 2000.

[他の実施形態]本発明は、以下の処理を実行することによっても実現される。即ち、上記実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。   [Other Embodiments] The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program code. It is processing to do. In this case, the program and the storage medium storing the program constitute the present invention.

Claims (9)

通信装置と通信可能な撮像装置であって、
前記通信装置と通信するときの遅延時間を算出するための動画を生成し前記通信装置に送信する送信手段と、
前記通信装置に表示された前記動画に含まれているパターンを検出する検出手段と、
前記動画の生成を開始した時刻と、前記パターンが検出されるまでの時刻との差分から遅延時間を算出する算出手段と、を有することを特徴とする撮像装置。
An imaging device capable of communicating with a communication device,
Transmitting means for generating a moving image for calculating a delay time when communicating with the communication device and transmitting the moving image to the communication device;
Detecting means for detecting a pattern included in the moving image displayed on the communication device;
An imaging apparatus comprising: a calculating unit that calculates a delay time from a difference between a time when generation of the moving image is started and a time until the pattern is detected.
前記動画が記録されている第1の記録手段と、
前記動画の生成を開始した時刻を記録している第2の記録手段と、を更に有することを特徴とする請求項1に記載の撮像装置。
First recording means in which the moving image is recorded;
The imaging apparatus according to claim 1, further comprising: a second recording unit that records a time when the generation of the moving image is started.
前記検出手段は、前記通信装置に表示された前記動画を撮像する撮像手段をさらに有することを特徴とする請求項1または2に記載の撮像装置。   The imaging device according to claim 1, wherein the detection unit further includes an imaging unit that captures the moving image displayed on the communication device. 前記動画には、所定の時間ごとに表示されるように顔の画像が含まれており、
前記検出手段は、前記撮像手段により撮像された動画から顔を検出する顔検出手段を有することを特徴とする請求項3に記載の撮像装置。
The video includes a face image to be displayed every predetermined time,
The imaging apparatus according to claim 3, wherein the detection unit includes a face detection unit that detects a face from the moving image captured by the imaging unit.
前記所定の時間ごとに表示される顔は、位置または個数が異なっていることを特徴とする請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the faces displayed at each predetermined time are different in position or number. 前記撮像手段により撮像された動画を表示する表示手段を更に有することを特徴とする請求項3ないし5のいずれか1項に記載の撮像装置。   6. The imaging apparatus according to claim 3, further comprising display means for displaying a moving image captured by the imaging means. 撮像装置と通信装置が通信可能なシステムであって、
前記通信装置は、
前記撮像装置と通信するときの遅延時間を算出するための動画を前記撮像装置に対して要求する要求手段と、
前記撮像装置から受信した前記動画を表示する表示手段と、を有し、
前記撮像装置は、
前記通信装置からの要求に応答して前記動画を生成し前記通信装置に送信する送信手段と、
前記通信装置の前記表示手段に表示された前記動画に含まれているパターンを検出する検出手段と、
前記動画の生成を開始した時刻と、前記パターンが検出されるまでの時刻との差分から遅延時間を算出する算出手段と、を有することを特徴とするシステム。
A system in which an imaging device and a communication device can communicate,
The communication device
Requesting means for requesting the imaging device for a moving image for calculating a delay time when communicating with the imaging device;
Display means for displaying the moving image received from the imaging device,
The imaging device
Transmitting means for generating the moving image in response to a request from the communication device and transmitting the generated video to the communication device;
Detecting means for detecting a pattern included in the moving image displayed on the display means of the communication device;
A system comprising: a calculation unit that calculates a delay time from a difference between a time when generation of the moving image is started and a time until the pattern is detected.
通信装置と通信可能な撮像装置の制御方法であって、
前記通信装置と通信するときの遅延時間を算出するための動画を前記通信装置に送信する送信ステップと、
前記通信装置に表示された前記動画に含まれているパターンを検出する検出ステップと、
前記動画の生成を開始した時刻と、前記パターンが検出されるまでの時刻との差分から遅延時間を算出する算出ステップと、を有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus capable of communicating with a communication apparatus,
A transmission step of transmitting a moving image for calculating a delay time when communicating with the communication device to the communication device;
A detection step of detecting a pattern included in the moving image displayed on the communication device;
A control method for an imaging apparatus, comprising: a calculation step of calculating a delay time from a difference between a time when generation of the moving image is started and a time until the pattern is detected.
コンピュータを、請求項1ないし6のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the imaging device of any one of Claim 1 thru | or 6.
JP2014018829A 2014-02-03 2014-02-03 Imaging apparatus and control method, system and program thereof Expired - Fee Related JP6254862B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014018829A JP6254862B2 (en) 2014-02-03 2014-02-03 Imaging apparatus and control method, system and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014018829A JP6254862B2 (en) 2014-02-03 2014-02-03 Imaging apparatus and control method, system and program thereof

Publications (2)

Publication Number Publication Date
JP2015146532A true JP2015146532A (en) 2015-08-13
JP6254862B2 JP6254862B2 (en) 2017-12-27

Family

ID=53890584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014018829A Expired - Fee Related JP6254862B2 (en) 2014-02-03 2014-02-03 Imaging apparatus and control method, system and program thereof

Country Status (1)

Country Link
JP (1) JP6254862B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11133939A (en) * 1997-10-29 1999-05-21 Hitachi Ltd Display device
JP2002041010A (en) * 2000-07-27 2002-02-08 Sony Corp Display controlling method, display device and its method, and information processing system
JP2009130820A (en) * 2007-11-27 2009-06-11 Canon Inc Information processing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11133939A (en) * 1997-10-29 1999-05-21 Hitachi Ltd Display device
JP2002041010A (en) * 2000-07-27 2002-02-08 Sony Corp Display controlling method, display device and its method, and information processing system
JP2009130820A (en) * 2007-11-27 2009-06-11 Canon Inc Information processing apparatus

Also Published As

Publication number Publication date
JP6254862B2 (en) 2017-12-27

Similar Documents

Publication Publication Date Title
US10594988B2 (en) Image capture apparatus, method for setting mask image, and recording medium
US20150172531A1 (en) Image capturing apparatus, communication apparatus, and control method therefor
JPWO2013132828A1 (en) Communication system and relay device
JP2015115839A5 (en)
US9445142B2 (en) Information processing apparatus and control method thereof
US9706102B1 (en) Enhanced images associated with display devices
US10185387B2 (en) Communication apparatus, communication method, and computer readable recording medium
US9369623B2 (en) Remote-control apparatus and control method thereof, image capturing apparatus and control method thereof, and system
US20170070699A1 (en) Information processing apparatus, image capturing apparatus, and control methods for the same
EP3499880A1 (en) Systems and methods for transmitting a high quality video image from a low power sensor
JP6360300B2 (en) COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP2018005091A (en) Display control program, display control method and display controller
JP6254862B2 (en) Imaging apparatus and control method, system and program thereof
US20150373073A1 (en) Image pickup apparatus, control method and recording medium
JP6719932B2 (en) Information setting device, information management device, information generating device, control method thereof, and program
US11470234B2 (en) Wireless camera and method of video streaming
US10028017B2 (en) Information processing device and method of controlling information processing device
US20200366837A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP2015023417A (en) Communication device and imaging device, control method thereof, and program
JP2019068187A (en) Information processing apparatus, control method thereof, and program
US9967408B2 (en) Information setting apparatus, information management apparatus, information generation apparatus, and method and program for controlling the same
US20170372140A1 (en) Head mounted display and transmission control method
JP2015142360A (en) Imaging apparatus and universal head device
JP6686697B2 (en) Transmission control program, transmission control method, and transmission control system
JP2018078475A (en) Control program, control method, and control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171201

R151 Written notification of patent or utility model registration

Ref document number: 6254862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees