JP2019068187A - Information processing apparatus, control method thereof, and program - Google Patents

Information processing apparatus, control method thereof, and program Download PDF

Info

Publication number
JP2019068187A
JP2019068187A JP2017190181A JP2017190181A JP2019068187A JP 2019068187 A JP2019068187 A JP 2019068187A JP 2017190181 A JP2017190181 A JP 2017190181A JP 2017190181 A JP2017190181 A JP 2017190181A JP 2019068187 A JP2019068187 A JP 2019068187A
Authority
JP
Japan
Prior art keywords
video
display
reproduction
processing apparatus
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017190181A
Other languages
Japanese (ja)
Inventor
麻由 佐藤
Mayu Sato
麻由 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017190181A priority Critical patent/JP2019068187A/en
Publication of JP2019068187A publication Critical patent/JP2019068187A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)

Abstract

To enable smooth video display appropriately reflecting the user's intention.SOLUTION: An encoding/decoding processing unit (213) reproduces a video based on video data for streaming received from an external device. A CPU (201) causes a display unit (207) to display a reproduction screen held in advance for displaying a video to be reproduced. A RAM (203) buffers the video data received from the external device in a predetermined storage area for reproduction. Then, the CPU (201) can display an operation UI for receiving the user's operation regarding the video being reproduced on the reproduction screen together with the video being reproduced and changes the buffer size of the video data in the RAM (203) according to the display of the operation UI on the reproduction screen.SELECTED DRAWING: Figure 2

Description

本発明は、ストリーミングデータを処理する情報処理装置、情報処理装置の制御方法、及びプログラムに関する。   The present invention relates to an information processing apparatus that processes streaming data, a control method of the information processing apparatus, and a program.

ストリーミングデータを一定時間ごとに分割したセグメントデータとその情報を記述したプレイリストなどを利用してストリーミングを実現する手法が知られている。また、受信したストリーミングデータを再生する受信装置としては、スマートフォンやタブレット端末などの携帯型の情報処理装置が広く普及している。それら情報処理装置の特徴として、当該装置の利用者が任意のアプリケーションソフトウェア(以下、アプリと記す)を選択して自由にインストールできる点がある。   There is known a method of realizing streaming by using segment data obtained by dividing streaming data at predetermined time intervals and a playlist in which the information is described. In addition, portable information processing apparatuses such as smartphones and tablet terminals are widely used as receiving apparatuses for reproducing received streaming data. One of the features of the information processing apparatuses is that the user of the apparatus can freely select and install arbitrary application software (hereinafter referred to as an application).

また、前述の携帯型の情報処理装置の他の特徴として、タッチパネルを備えている点がある。タッチパネルは、従来のボタンやスイッチ等と異なり、ソフトウェアに応じて、様々な操作入力方法をとることが可能である。このため、タッチパネルを応用した様々なアプリ、及び情報処理装置の使い方も提案されている。例えば、操作用のユーザインターフェイス(以下、操作UIとする。)をタッチパネルの画面上に表示し、そのタッチパネル上の操作UIを通じて他の外部装置を遠隔操作することも可能となされている。さらに、情報処理装置のアプリには、当該装置による遠隔操作を禁止して、画面上にストリーミングデータの映像のみを表示させるものも存在する。   Moreover, there exists a point provided with the touch panel as another characteristic of the above-mentioned portable information processing apparatus. Unlike a conventional button or switch, the touch panel can take various operation input methods according to software. For this reason, various applications using a touch panel and usage of an information processing apparatus have also been proposed. For example, it is also possible to display a user interface for operation (hereinafter referred to as an operation UI) on the screen of the touch panel and remotely operate another external device through the operation UI on the touch panel. Furthermore, some applications of the information processing apparatus prohibit remote control by the apparatus and display only the video of streaming data on the screen.

その他、ストリーミングに関連した技術として、例えば特許文献1には、ホストが、端末から受信したコマンドに基づいて画質と表示のどちらを優先するのかを判断し、その判断結果を基に、端末側の受信バッファサイズを制御する技術が開示されている。また、特許文献2には、受信装置がネットワークを介してカメラを遠隔操作し、その遠隔操作を基に受信バッファサイズを制御する技術が開示されている。特許文献2に記載の技術では、例えばカメラの遠隔操作中はバッファサイズを小さくすることで、操作が映像に反映するまでの遅延を低減することを可能としている。   In addition, as a technique related to streaming, for example, according to Patent Document 1, the host determines which of the image quality and the display is to be prioritized based on the command received from the terminal, and based on the determination result, Techniques for controlling receive buffer size are disclosed. Further, Patent Document 2 discloses a technique in which a receiving device remotely controls a camera via a network and controls a reception buffer size based on the remote control. In the technology described in Patent Document 2, for example, by reducing the buffer size during remote control of the camera, it is possible to reduce the delay until the operation is reflected in the image.

特願2008−288667号公報Japanese Patent Application No. 2008-288667 特開2006−74441号公報JP 2006-74441 A

ところで、例えば撮像装置による撮影映像をライブストリーミングにより送信して情報処理装置側で受信して表示する場合において、ユーザ(視聴者)は、ライブストリーミングの映像を確認しながら所望のタイミングで操作UIの操作を行うことがある。ここで、特許文献1に記載の技術の場合、例えば通信の遅延が大きいと、ユーザがライブストリーミングの映像を観ながら操作UIを通じて行った操作が、ユーザの意図通りの操作とならないケースが生ずることがある。また、特許文献1に記載の技術の場合、通信の遅延が大きいと、ユーザが画質と表示のどちらを意図した視聴を行っているのかをホスト側で判断するタイミングが遅れ、端末側の受信バッファサイズを変更するタイミングにも遅れが生ずることになる。また、特許文献2に記載の技術の場合、遠隔操作の実行中か否かでバッファサイズが変更されるため、例えば視聴目的で使用しているのかが明確ではないタイミングでバッファサイズの変化が生じてしまう虞がある。つまり、特許文献1と特許文献2の何れの技術の場合も、ユーザが映像を視聴する際の意図を必ずしも適切に反映できていないタイミングでバッファサイズが変更されることがある。このように、従来の技術の場合、ユーザの意図を必ずしも反映できていない、スムーズとは言い難い映像が表示されることがある。   By the way, for example, in the case where a video shot by the imaging device is transmitted by live streaming, received by the information processing device, and displayed, the user (viewer) can check the video of the live streaming at the desired timing while using the operation UI. May do the operation. Here, in the case of the technology described in Patent Document 1, for example, if the communication delay is large, a case may occur in which the operation performed by the user through the operation UI while watching the live streaming video does not become the operation as intended by the user. There is. Further, in the case of the technology described in Patent Document 1, when the communication delay is large, the timing at which the host side determines whether the user is viewing with the image quality or display intended is delayed, and the reception buffer on the terminal side There is also a delay in the timing of changing the size. Further, in the case of the technology described in Patent Document 2, the buffer size is changed depending on whether or not remote control is being performed, so that, for example, a change in buffer size occurs at a timing when it is not clear that it is used for viewing purpose. There is a risk of That is, in any of the techniques of Patent Document 1 and Patent Document 2, the buffer size may be changed at timing when the user can not properly reflect the intention when viewing the video. As described above, in the case of the conventional technology, an image that is difficult to say smooth may not be displayed, which may not necessarily reflect the user's intention.

そこで、本発明では、ユーザの意図を適切に反映したスムーズな映像表示を可能にすることを目的とする。   Therefore, it is an object of the present invention to enable smooth video display that appropriately reflects the user's intention.

本発明は、情報処理装置であって、外部装置から受信したストリーミングのための映像データに基づき、映像を再生する再生手段と、前記再生手段により再生される映像を表示するための、前記情報処理装置に予め保持された再生用画面を表示部に表示する表示制御手段と、前記外部装置から受信した映像データを、前記再生手段による再生のために所定の記憶領域にバッファするバッファ手段とを有し、前記表示制御手段は、再生中の映像に関するユーザの操作を受け付けるための操作部を、前記再生中の映像とともに前記再生用画面に表示可能であり、前記再生用画面への前記操作部の表示の有無に応じて、前記バッファ手段は前記映像データのバッファサイズを変更することを特徴とする。   The present invention is an information processing apparatus, and the information processing apparatus for reproducing video according to video data for streaming received from an external apparatus, and displaying the video reproduced by the reproduction module. There is display control means for displaying on the display unit a reproduction screen held in advance in the device, and buffer means for buffering the video data received from the external device in a predetermined storage area for reproduction by the reproduction means. The display control means can display an operation unit for receiving a user's operation regarding a video being reproduced on the reproduction screen together with the video being reproduced, and The buffer means changes the buffer size of the video data according to the presence or absence of display.

本発明によれば、ユーザの意図を適切に反映したスムーズな映像表示が可能となる。   According to the present invention, it is possible to perform smooth video display that appropriately reflects the user's intention.

実施形態のカメラの概略構成例を示す図である。It is a figure showing an example of outline composition of a camera of an embodiment. 実施形態の情報端末の概略構成例を示す図である。It is a figure which shows the example of a schematic structure of the information terminal of embodiment. 通信システムの通信シーケンスを示す図である。It is a figure which shows the communication sequence of a communication system. プレイリストの例を示す図である。It is a figure which shows the example of a playlist. 情報端末の受信バッファの推移の例を示す図である。It is a figure which shows the example of transition of the receiving buffer of an information terminal. 情報端末の処理フローチャートである。It is a processing flowchart of an information terminal. 情報端末を縦向き姿勢で使用した時の画面例を示す図である。It is a figure which shows the example of a screen when using an information terminal by a vertical orientation. 情報端末を横向き姿勢で使用した時の画面例を示す図である。It is a figure which shows the example of a screen when using an information terminal by a sideways attitude | position.

以下、添付図面を参照しながら本発明に係る実施形態を詳細に説明する。
本実施形態は、本発明の情報処理装置の一例である情報端末と、撮影映像をライブストリーミングデータとして送信可能な撮像装置(カメラ)と、を含む通信システムを例に挙げて説明する。図1は本実施形態のカメラ100の一構成例を示した図であり、図2は本実施形態の情報端末200の一構成例を示した図である。なお、カメラ100は、撮影機能をメイン機能として有するいわゆるデジタルスチルカメラやデジタルビデオカメラの他、カメラ機能付きの情報端末やタブレット端末であってもよい。また、カメラ機能を有するものに限定されず、例えば映像配信サーバなどを用いることも可能である。また、情報端末200は、一般的なパーソナルコンピュータの他、いわゆるスマートフォンやタブレット端末などの携帯型の情報端末、テレビジョン受像機などであってもよい。
Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.
In the present embodiment, a communication system including an information terminal, which is an example of the information processing apparatus of the present invention, and an imaging apparatus (camera) capable of transmitting captured video as live streaming data will be described as an example. FIG. 1 is a view showing a configuration example of a camera 100 of the present embodiment, and FIG. 2 is a view showing a configuration example of an information terminal 200 of the present embodiment. The camera 100 may be an information terminal with a camera function or a tablet terminal, in addition to a so-called digital still camera or digital video camera having a photographing function as a main function. Moreover, it is not limited to what has a camera function, For example, it is also possible to use a video delivery server etc. Further, the information terminal 200 may be a portable information terminal such as a so-called smartphone or a tablet terminal, a television receiver, or the like, in addition to a general personal computer.

<カメラと情報端末の構成説明>
図1のカメラ100は、光学系113、撮像素子114、操作部105、表示部107、コネクタ/アンテナ109、記録媒体112を有する。また、カメラ100は、CPU101、ROM102、RAM103、入力処理部104、出力処理部106、通信制御部108、記録媒体制御部111、カメラ信号処理部115、符号・復号処理部116を有する。これらは内部バス110により接続されており、内部バス110を介して互いにデータのやりとりを行うことができるようにされている。
<Description of configuration of camera and information terminal>
The camera 100 in FIG. 1 includes an optical system 113, an imaging device 114, an operation unit 105, a display unit 107, a connector / antenna 109, and a recording medium 112. The camera 100 further includes a CPU 101, a ROM 102, a RAM 103, an input processing unit 104, an output processing unit 106, a communication control unit 108, a recording medium control unit 111, a camera signal processing unit 115, and an encoding / decoding processing unit 116. These are connected by an internal bus 110 and can exchange data with each other via the internal bus 110.

ROM102は、リードオンリメモリであり、CPU101が動作するための各種プログラムや設定データを格納する。ROM102は必ずしもリードオンリである必要はなく、例えば読み書き可能なフラッシュメモリなどを用いてもよい。RAM103は、ランダムアクセスメモリであり、CPU101が動作時に必要とするプログラムや変数、作業用の一時データなどを適宜記憶する。CPU101は、中央処理ユニットであり、ROM102または記録媒体112に格納されているプログラムを実行し、RAM103をワークメモリとして用いて、このカメラ100の各部を制御する。   The ROM 102 is a read only memory, and stores various programs and setting data for the CPU 101 to operate. The ROM 102 does not necessarily have to be read only. For example, a readable and writable flash memory may be used. The RAM 103 is a random access memory, and appropriately stores programs and variables required by the CPU 101 at the time of operation, temporary data for work, and the like. The CPU 101 is a central processing unit, executes a program stored in the ROM 102 or the recording medium 112, and controls each unit of the camera 100 using the RAM 103 as a work memory.

光学系113は、フォーカスレンズ、ズームレンズ、絞り機構などを含む撮影レンズであり、被写体の光学像を撮像素子114上に形成する。撮像素子114は、CCDやCMOS素子等で構成され光学像を撮像してアナログ電気信号に変換する。なお、撮像素子114にはA/D変換器も含まれ、光学像を撮像したアナログ電気信号をデジタルデータに変換して出力する。   The optical system 113 is a photographing lens including a focus lens, a zoom lens, an aperture mechanism, and the like, and forms an optical image of a subject on the image sensor 114. The imaging device 114 is configured by a CCD, a CMOS device, or the like, captures an optical image, and converts it into an analog electrical signal. The image sensor 114 also includes an A / D converter, which converts an analog electrical signal obtained by capturing an optical image into digital data and outputs the digital data.

カメラ信号処理部115は、CPU101による制御に基づき、撮像素子114で変換されたデジタルデータの画像に対し、所定の画素補間・縮小といったリサイズ処理や色変換、各種補正処理等を行う。
符号・復号処理部116は、CPU101による制御に基づき、カメラ信号処理部115で処理されたデジタルデータを所定のビットレート、フォーマット形式で圧縮符号化する。また、符号・復号処理部116は、映像圧縮符号化データの復号化も行う。
The camera signal processing unit 115 performs, based on control by the CPU 101, resize processing such as predetermined pixel interpolation / reduction, color conversion, various correction processing, and the like on the digital data image converted by the imaging device 114.
The encoding / decoding processing unit 116 compresses and encodes the digital data processed by the camera signal processing unit 115 at a predetermined bit rate and format based on control by the CPU 101. Further, the encoding / decoding processing unit 116 also performs decoding of video compression encoded data.

なお、音声のための構成は図示を省略しているが、カメラ100は、マイクロホン、音声のアナログ信号をデジタル化するA/D変換器、音声のデジタルデータを符号化・復号化する構成をも備えており、音声付き映像の配信も可能となされている。このため、映像記録時には映像と共に音声も同時に収録され、符号・復号処理部116では、映像と音声を多重化することで音声付映像データを生成することになる。   Although the configuration for sound is not shown, the camera 100 may also have a microphone, an A / D converter for digitizing an analog signal of sound, and a configuration for encoding and decoding digital data of sound. It is also possible to deliver audio-added video. Therefore, at the time of video recording, audio is also recorded simultaneously with the video, and the encoding / decoding processing unit 116 generates video data with audio by multiplexing the video and audio.

入力処理部104は、操作部105を介したユーザ操作を受け付け、ユーザ操作に応じた制御信号を生成して、CPU101に供給する。例えば、操作部105は、ユーザ操作を受け付ける入力デバイスとして、キーボードのような文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイスなどを有する。また、操作部105には赤外線リモコンなどの遠隔操作可能な入力デバイスも含まれる。なお、タッチパネルは、例えば平面的に構成された入力部に対して接触された位置に応じた座標情報が出力されるようにした入力デバイスである。これにより、カメラ100は、ユーザ操作に応じた動作を行う。   The input processing unit 104 receives a user operation via the operation unit 105, generates a control signal according to the user operation, and supplies the control signal to the CPU 101. For example, the operation unit 105 includes, as an input device for receiving a user operation, a character information input device such as a keyboard, and a pointing device such as a mouse or a touch panel. The operation unit 105 also includes a remotely controllable input device such as an infrared remote control. The touch panel is, for example, an input device configured to output coordinate information according to a position touched on an input unit configured in a planar manner. Thereby, the camera 100 performs an operation according to the user operation.

出力処理部106は、CPU101がプログラムを実行して生成したGUI(グラフィカルユーザインターフェイス)などの表示データに基づき、表示部107に対してGUIの表示を行うための表示信号を出力する。
なお、操作部105としてタッチパネルが用いられる場合、操作部105と表示部107とは一体的な構成として使用されることになる。タッチパネルは光の透過率が表示部107の表示を妨げないように構成され、表示部107の表示面の上層側に配設される。そして、タッチパネルにおける入力座標と、表示部107上の表示座標とが対応付けられることで、恰もユーザが表示部107上に表示された画面を直接的に操作可能であるかのようなGUIが実現される。
The output processing unit 106 outputs a display signal for displaying a GUI to the display unit 107 based on display data such as a GUI (Graphical User Interface) generated by the CPU 101 executing a program.
When a touch panel is used as the operation unit 105, the operation unit 105 and the display unit 107 are used as an integral configuration. The touch panel is configured such that the light transmittance does not interfere with the display of the display unit 107, and is disposed on the upper layer side of the display surface of the display unit 107. Then, by associating the input coordinates on the touch panel with the display coordinates on the display unit 107, it is possible to realize a GUI that allows the user to directly operate the screen displayed on the display unit 107. Be done.

記録媒体制御部111は、HDDや不揮発性の半導体メモリなどの記録媒体112が接続され、CPU101による制御に基づき、接続された記録媒体112からのデータの読み出しや、当該記録媒体112に対するデータの書き込みを行う。なお、記録媒体制御部111が接続可能な記録媒体112は、不図示のソケットなどを介して、例えばメモリカードなどの着脱可能な不揮発性の半導体メモリを接続するものとしてもよい。記録媒体112は、撮影した映像データのほか、CPU101の制御に必要な情報も記録することが可能である。   The recording medium control unit 111 is connected to the recording medium 112 such as an HDD or nonvolatile semiconductor memory, and reads data from the connected recording medium 112 or writes data to the recording medium 112 based on control by the CPU 101. I do. Note that the recording medium 112 to which the recording medium control unit 111 can connect may connect, for example, a removable nonvolatile semiconductor memory such as a memory card via a socket (not shown) or the like. The recording medium 112 can record information necessary for control of the CPU 101 as well as captured video data.

通信制御部108は、CPU101による制御に基づき、コネクタ/アンテナ109を介して、外部装置(本実施形態では情報端末200)との通信を行う。なお、コネクタの場合は有線、アンテナの場合は無線による通信が行われる。通信方法としては、無線のIEEE802.11やBluetooth(登録商標)、有線のIEEE802.3などを用いることが可能である。   The communication control unit 108 communicates with an external device (the information terminal 200 in the present embodiment) via the connector / antenna 109 based on control by the CPU 101. In the case of a connector, wired communication is performed, and in the case of an antenna, wireless communication is performed. As a communication method, wireless IEEE 802.11, Bluetooth (registered trademark), wired IEEE 802.3, or the like can be used.

図2の情報端末200は、CPU201、ROM202、RAM203、入力処理部204、出力処理部206、通信制御部208、記録媒体制御部211、符号・復号処理部213、姿勢検出部214を有する。これらは内部バス210により接続されており、内部バス210を介して互いにデータのやりとりを行うことができるようにされている。また、情報端末200は、操作部205、表示部207、コネクタ/アンテナ209も有している。   The information terminal 200 of FIG. 2 includes a CPU 201, a ROM 202, a RAM 203, an input processing unit 204, an output processing unit 206, a communication control unit 208, a recording medium control unit 211, an encoding / decoding processing unit 213, and an attitude detection unit 214. These are connected by an internal bus 210 and can exchange data with each other via the internal bus 210. The information terminal 200 also includes an operation unit 205, a display unit 207, and a connector / antenna 209.

ROM202は、CPU201が動作するための各種プログラムや設定データを格納する。ROM202にはフラッシュメモリなども含まれる。RAM203は、CPU201が動作時に必要とするプログラムや変数、作業用の一時データなどを適宜記憶する。CPU201は、ROM202または記録媒体212に格納されているプログラムを実行し、RAM203をワークメモリとして用いて、情報端末200の各部を制御する。   The ROM 202 stores various programs and setting data for the CPU 201 to operate. The ROM 202 also includes a flash memory and the like. The RAM 203 appropriately stores programs and variables that the CPU 201 needs at the time of operation, temporary data for work, and the like. The CPU 201 executes a program stored in the ROM 202 or the recording medium 212, and controls each unit of the information terminal 200 using the RAM 203 as a work memory.

符号・復号処理部213は、コネクタ/アンテナ209を介して受信した映像圧縮符号化データや音声付映像データの復号化を行う。符号・復号処理部213は、圧縮されていない映像データや音声データの符号化や、復号化したデータの再符号化も可能である。   The encoding / decoding processing unit 213 decodes the video compression encoded data and the audio-added video data received via the connector / antenna 209. The encoding / decoding processing unit 213 is also capable of encoding uncompressed video data and audio data, and re-encoding decoded data.

入力処理部204は、操作部205を介したユーザ操作を受け付けて、そのユーザ操作に応じた制御信号を生成して、CPU201に供給する。操作部205は、前述同様の入力デバイスやポインティングデバイスを有する。情報端末200がスマートフォンやタブレット端末である場合、操作部205は、主にタッチパネルにより構成される。   The input processing unit 204 receives a user operation via the operation unit 205, generates a control signal corresponding to the user operation, and supplies the control signal to the CPU 201. The operation unit 205 includes the same input device and pointing device as described above. When the information terminal 200 is a smartphone or a tablet terminal, the operation unit 205 mainly includes a touch panel.

出力処理部206は、CPU201がプログラムを実行して生成したGUIなどの表示データに基づき、表示部207に対して再生用画面としての機能を有するGUIを表示するための表示信号を出力する。操作部205がタッチパネルである場合、操作部205と表示部207とは前述同様に一体的な構成として使用される。そして、タッチパネルにおける入力座標と、表示部207上の表示座標とが対応付けられることで、恰もユーザが表示部207上に表示された画面を直接的に操作可能であるかのようなGUIが実現される。以下、情報端末200における操作用のGUIを操作ユーザインターフェイス(操作UI)と表記する。   The output processing unit 206 outputs a display signal for displaying a GUI having a function as a reproduction screen to the display unit 207 based on display data such as a GUI generated by the CPU 201 executing a program. When the operation unit 205 is a touch panel, the operation unit 205 and the display unit 207 are used as an integral configuration as described above. Then, by associating the input coordinates on the touch panel with the display coordinates on the display unit 207, a GUI is realized as if the user can directly operate the screen displayed on the display unit 207. Be done. Hereinafter, the GUI for operation in the information terminal 200 will be referred to as an operation user interface (operation UI).

記録媒体制御部211は、HDDや不揮発性の半導体メモリなどの記録媒体212が接続され、CPU201による制御に基づき、接続された記録媒体212からのデータの読み出しや、当該記録媒体212に対するデータの書き込みを行う。記録媒体制御部211が接続可能な記録媒体212は、不図示のソケットなどを介してメモリカードなどの着脱可能な不揮発性の半導体メモリを接続するものとしてもよい。記録媒体212は、映像や音声のデータのほか、CPU201の制御に必要な情報も記録することが可能である。   The recording medium control unit 211 is connected to the recording medium 212 such as a HDD or nonvolatile semiconductor memory, and reads data from the connected recording medium 212 or writes data to the recording medium 212 based on control by the CPU 201. I do. The storage medium 212 to which the storage medium control unit 211 can connect may connect a removable non-volatile semiconductor memory such as a memory card via a socket (not shown) or the like. The recording medium 212 can record information necessary for control of the CPU 201 as well as video and audio data.

通信制御部208は、CPU201による制御に基づき、コネクタ/アンテナ209を介して、外部装置(本実施形態ではカメラ100)との通信を行う。通信方法は、前述同様の各種通信方法を用いることができる。   The communication control unit 208 communicates with an external device (the camera 100 in the present embodiment) via the connector / antenna 209 based on control by the CPU 201. As the communication method, the same various communication methods as described above can be used.

姿勢検出部214は、情報端末200の姿勢検出を行う。姿勢検出部214は、加速度センサおよび周辺回路で構成される。加速度センサは、地球の重力方向の加速度(重力加速度)を測定する。そして、姿勢検出部214は、情報端末200がいわゆる縦向き姿勢か横向き姿勢かを検出する。例えば情報端末200の外形が長方形状(画面が長方形)である場合、その長方形の長辺が地球の重力方向と略々同一方向である時、情報端末200の姿勢は縦向き姿勢であるとして検出される。一方、長辺が重力方向に対して略々直角方向である時、情報端末200の姿勢は横向き姿勢であるとして検出される。
ここまで、カメラ100及び情報端末200の構成について説明したが、各装置の構成は本実施形態で説明したものに限定されない。例えば、1つのプロセッサなどのハードウェアが入力信号やプログラムに応じて複数の手段として機能してもよい。また、複数のハードウェアが協働して動作することで1つの手段として機能してもよい。
The attitude detection unit 214 detects the attitude of the information terminal 200. The attitude detection unit 214 includes an acceleration sensor and a peripheral circuit. The acceleration sensor measures acceleration (gravitational acceleration) in the direction of gravity of the earth. Then, the attitude detection unit 214 detects whether the information terminal 200 is in the so-called vertical attitude or the horizontal attitude. For example, when the outer shape of the information terminal 200 is rectangular (the screen is a rectangle), the attitude of the information terminal 200 is detected as a vertical attitude when the long side of the rectangle is substantially the same as the gravity direction of the earth. Be done. On the other hand, when the long side is a direction substantially perpendicular to the direction of gravity, the attitude of the information terminal 200 is detected as being a sideways attitude.
So far, the configurations of the camera 100 and the information terminal 200 have been described, but the configurations of the respective devices are not limited to those described in the present embodiment. For example, hardware such as one processor may function as a plurality of means in accordance with an input signal or a program. Also, multiple hardware may operate in cooperation to function as one means.

<ストリーミング動作の説明>
前述の図1に示したカメラ100と図2に示した情報端末200とからなる通信システムにおいて、ライブストリーミングが行われる場合、カメラ100は撮影映像データを情報端末200に送信し、情報端末200は受信した映像データを画面に表示する。以下、本実施形態の通信システムにおけるライブストリーミングの動作について、図1〜図8の各図を参照しながら説明する。
<Description of streaming operation>
In the communication system including the camera 100 shown in FIG. 1 and the information terminal 200 shown in FIG. 2, when live streaming is performed, the camera 100 transmits photographed video data to the information terminal 200, and the information terminal 200 Display the received video data on the screen. Hereinafter, the operation of live streaming in the communication system of the present embodiment will be described with reference to each of FIGS. 1 to 8.

図3は本実施形態の通信システムにおけるストリーミング時の基本的な通信シーケンスの説明図である。なお、本実施形態の通信システムの場合、カメラ100と情報端末200との間の通信は、それぞれCPUによる制御の下で通信制御部がコネクタ/アンテナを介することで行われるが、以下の説明ではそれらの記載は適宜省略する。   FIG. 3 is an explanatory diagram of a basic communication sequence at the time of streaming in the communication system of the present embodiment. In the case of the communication system of the present embodiment, communication between the camera 100 and the information terminal 200 is performed by the communication control unit via the connector / antenna under control of the CPU, respectively, but in the following description, Those descriptions are suitably omitted.

本実施形態の通信システムは、カメラ100が撮影している映像を、プレイリストを用いたライブストリーミングデータとして情報端末200に送信する。ここで、プレイリストを用いたストリーミングが行われる場合、下記の(1)〜(5)に示すように、接続処理、プレイリストの作成処理及びプレイリストの送信処理、セグメントの生成処理及びセグメントの送信処理等が行われる。   The communication system of the present embodiment transmits the video shot by the camera 100 to the information terminal 200 as live streaming data using a playlist. Here, when streaming is performed using a playlist, as shown in the following (1) to (5), connection processing, playlist creation processing and playlist transmission processing, segment creation processing, and segment Transmission processing and the like are performed.

(1)ストリーミングの開始に先立ち、カメラ100と情報端末200の間では接続処理が行われる。接続処理では、IPアドレスの設定及び取得、機器間の相互認識処理、機器情報と機器固有情報のプレイリスト取得先情報の相互取得処理などが行われる。この接続処理後、ストリーミングが開始される。
(2)カメラ100は、ストリーミングデータを一定時間のセグメントに分割し、そのセグメント取得先を列挙したプレイリストを作成する。ライブストリーミングの場合には、定期的にセグメントが生成されるため、新しいセグメントが生成されると、動的に新しい内容のプレイリストに更新(削除、追記)するスライドウインドウ型プレイリストを用いる。
(3)情報端末200は、プレイリストを取得・解析し、列挙順にセグメントデータ取得先からデータ取得を行い、所定の記憶領域としての受信バッファにデータを一時的に蓄積(バッファリング)する。
(4)情報端末200は、受信バッファに蓄積したデータの再生表示、または保存を行う。
(5)カメラ100と情報端末200は、プレイリスト終了(ストリーミング終了)まで、(2)〜(4)の動作を繰り返す。
(1) Prior to the start of streaming, connection processing is performed between the camera 100 and the information terminal 200. In the connection processing, setting and acquisition of an IP address, mutual recognition processing between devices, mutual acquisition processing of playlist acquisition destination information of device information and device unique information, and the like are performed. After this connection process, streaming is started.
(2) The camera 100 divides streaming data into segments for a predetermined time, and creates a playlist in which the segment acquisition destinations are listed. In the case of live streaming, segments are generated periodically, so when a new segment is generated, a slide window type playlist is used which dynamically updates (deletes, adds) a new content playlist.
(3) The information terminal 200 acquires and analyzes the playlist, acquires data from the segment data acquisition destination in the order of enumeration, and temporarily accumulates (buffers) the data in a reception buffer as a predetermined storage area.
(4) The information terminal 200 reproduces and displays or stores the data accumulated in the reception buffer.
(5) The camera 100 and the information terminal 200 repeat the operations of (2) to (4) until the end of the playlist (the end of streaming).

図7と図8は、情報端末200において、ライブストリーミングが行われている際のアプリケーション画面例である。情報端末200は、前述したように表示部207にタッチパネルの操作部205が一体化された構成となされているとする。なお、図7は、姿勢検出部214により情報端末200が縦向き姿勢であると検出された場合の画面例である。図8は、姿勢検出部214により情報端末200が横向き姿勢であると検出された場合の画面例である。   FIG. 7 and FIG. 8 show examples of application screens when live streaming is performed in the information terminal 200. As described above, it is assumed that the information terminal 200 has a configuration in which the operation unit 205 of the touch panel is integrated with the display unit 207. FIG. 7 is an example of a screen when the attitude detection unit 214 detects that the information terminal 200 is in the vertical attitude. FIG. 8 is a screen example when the posture detection unit 214 detects that the information terminal 200 is in the sideways posture.

図7に示したような縦向き姿勢の場合、情報端末200は、表示部207の画面上に、表示エリア701と、ステータス情報と、操作UIとを表示可能である。表示エリア701は、ライブストリーミングデータに基づく映像が表示される領域である。ステータス情報はカメラ100の状態を表す情報である。図7の例の場合、情報端末200は、カメラ100のステータス情報として、光学系113のズームレンズのズーム位置情報702、記録状態を表す記録状態情報703、バッテリー残量を示すバッテリー情報704等を表示させている。操作UIには、再生中の映像に関するユーザの操作を受け付けるためのUIを含む情報端末200の操作用のUIと、カメラ100の遠隔操作用のUIとが含まれる。図7の例の場合、情報端末操作用のUIとしては、端末RECボタン707が用意されている。この端末RECボタン707がタッチ等されると、情報端末200は、ライブストリーミングにより受信した映像データを当該端末内の記録媒体212に記録する。カメラ遠隔操作用のUIとしては、光学系113のズームレンズをワイド(WIDE)方向やテレ(TELE)方向に操作するためのズーム指示ボタン705、撮影映像を記録させるカメラRECボタン706等が用意されている。情報端末200は、ズーム指示ボタン705がタッチ等された場合にはカメラ100に対しズーム位置を移動させるためのコマンドを送り、カメラRECボタン706がタッチ等された場合にはカメラ100に対し映像記録を行わせるためのコマンドを送る。このように、図7の縦向き姿勢の場合、画面上にライブストリーミングの映像が映し出される表示エリア701とともに、操作UIも表示されるため、ユーザは、この操作UIを介してカメラ100の遠隔操作を行うことができる。これら情報端末操作用及びカメラ遠隔操作用の操作UIは、情報端末200に予め用意(ROM202又は記録媒体212にプログラムとして保持)されており、情報端末200のCPU201がそのプログラムを実行することにより生成される。   In the case of the vertical posture as shown in FIG. 7, the information terminal 200 can display the display area 701, status information, and the operation UI on the screen of the display unit 207. A display area 701 is an area in which a video based on live streaming data is displayed. The status information is information representing the state of the camera 100. In the example of FIG. 7, the information terminal 200 uses the zoom position information 702 of the zoom lens of the optical system 113, the recording state information 703 indicating the recording state, the battery information 704 indicating the battery remaining amount, and the like as status information of the camera 100. It is displayed. The operation UI includes an operation UI for the information terminal 200 including a UI for receiving a user's operation regarding a video being reproduced, and a UI for remote operation of the camera 100. In the example of FIG. 7, a terminal REC button 707 is prepared as a UI for operating the information terminal. When the terminal REC button 707 is touched or the like, the information terminal 200 records video data received by live streaming in a recording medium 212 in the terminal. As a UI for camera remote control, a zoom instruction button 705 for operating the zoom lens of the optical system 113 in the wide (WIDE) direction or the tele (TELE) direction, a camera REC button 706 for recording a photographed image, and the like are provided. ing. The information terminal 200 transmits a command for moving the zoom position to the camera 100 when the zoom instruction button 705 is touched or the like, and when the camera REC button 706 is touched or the like, the information recording with the camera 100 is performed. Send a command to make it happen. As described above, in the case of the vertical orientation shown in FIG. 7, the operation UI is also displayed along with the display area 701 in which the live streaming video is displayed on the screen, and the user can remotely operate the camera 100 via this operation UI. It can be performed. These operation terminals for information terminal operation and camera remote control are prepared in advance in the information terminal 200 (held as a program in the ROM 202 or the recording medium 212), and are generated by the CPU 201 of the information terminal 200 executing the program. Be done.

図8に示した横向き姿勢の場合、情報端末200は、表示部207の画面上に、例えば表示エリア801のみを表示する。表示エリア801は、ライブストリーミングデータに基づく映像が表示される領域である。つまり、横向き姿勢の場合、情報端末200は、操作UIを画面上に表示しない。したがって、縦向き姿勢の場合、図7の場合のような操作UIによるカメラ100の遠隔操作は行えなくなる。なお、操作UIは、図8の例のように非表示とされる場合の他に、ユーザによる入力を受け付けないグレーアウト表示となされてもよい。また、図8では図示していないが、ステータス情報等については表示していてもよいし、表示しないようになされてもよい。このように、横向き姿勢の場合の情報端末200は、ライブストリーミングの映像を画面全面の広い表示エリア801に表示する一方で、画面上には操作UIを表示せず、ユーザによるカメラ100の遠隔操作等の入力を受け付けない状態となる。   In the case of the horizontal attitude shown in FIG. 8, the information terminal 200 displays, for example, only the display area 801 on the screen of the display unit 207. The display area 801 is an area where a video based on live streaming data is displayed. That is, in the case of the horizontal posture, the information terminal 200 does not display the operation UI on the screen. Therefore, in the case of the vertical orientation, the remote control of the camera 100 by the operation UI as in the case of FIG. 7 can not be performed. In addition to the case where the operation UI is not displayed as in the example of FIG. 8, the operation UI may be grayed out not accepting input by the user. Further, although not shown in FIG. 8, status information and the like may be displayed or may not be displayed. As described above, the information terminal 200 in the case of the landscape orientation displays the live streaming video on the wide display area 801 of the entire screen, but does not display the operation UI on the screen, and the user operates the camera 100 remotely. It will be in the state which does not receive the input of etc.

前述したように、本実施形態の情報端末200は、ユーザにより、当該端末が縦向き姿勢で保持されている場合には図7にように表示エリア701とともに操作UIも表示する設定となされている。一方、当該端末が横向き姿勢で保持されている場合、本実施形態の情報端末200は、図8のように操作UIを非表示として表示エリア801のみを表示する設定となされている。したがって、ユーザは、表示エリア701とともに操作UIを表示したい場合には、情報端末200を縦向き姿勢に保持し、表示エリア801のみを表示(操作UIを非表示)にしたい場合には、情報端末200を横向き姿勢に保持することになる。   As described above, the information terminal 200 of the present embodiment is set by the user to display the operation area as well as the display area 701 as shown in FIG. 7 when the terminal is held in the vertical orientation. . On the other hand, when the terminal is held in the horizontal orientation, the information terminal 200 of the present embodiment is set to display only the display area 801 with the operation UI hidden as shown in FIG. Therefore, when the user wants to display the operation UI together with the display area 701, the user holds the information terminal 200 in the vertical posture and displays only the display area 801 (does not display the operation UI), the information terminal It will hold 200 in the sideways posture.

そして、図7のように表示エリア701と共に操作UIをも表示する縦向き姿勢となされた場合、表示エリア701の映像を観ながら操作UIを介してカメラ100を遠隔操作することが、ユーザの意図の中の一つであると考えられる。つまり、情報端末200を図7のように縦向き姿勢で保持している場合、ユーザは、ライブストリーミングの映像を観つつ、カメラ100に対する遠隔操作をいつでも行える状態になっていることを望んでいる可能性が高いと考えられる。一方、図8のように表示エリア801のみ表示して操作UIを非表示にする横向き姿勢の場合、表示エリア801の映像を主に観ることが、ユーザの主要な意図であると考えてよい。つまり、情報端末200を図8のように横向き姿勢で保持している場合、ユーザは、カメラ100を遠隔操作することよりも、ライブストリーミングの映像の視聴を楽しむことを望んでいる可能性が高いと考えられる。   Then, as shown in FIG. 7, when the display area 701 and the operation UI are also displayed in the vertical orientation, the user intends to remotely operate the camera 100 via the operation UI while viewing the image of the display area 701. It is considered to be one of the That is, when the information terminal 200 is held in the vertical orientation as shown in FIG. 7, the user desires to be able to perform remote control with the camera 100 anytime while watching the live streaming video. It is considered probable. On the other hand, in the case of a horizontal orientation in which only the display area 801 is displayed and the operation UI is not displayed as shown in FIG. That is, when the information terminal 200 is held in the sideways posture as shown in FIG. 8, the user is more likely to desire to enjoy viewing of live streaming video than remote control of the camera 100. it is conceivable that.

ここで、例えば前述した特許文献1に記載の技術のように、ホスト側から端末へ操作UIを送信している場合、例えば輻輳により通信の遅延が発生すると、操作UIのレスポンスも遅延し、ユーザ操作がユーザの意図した操作とならないことがある。
このため、本実施形態では、操作UIを情報端末200に予め用意しておき、通信遅延が生じていても操作UIに影響が及ばないようにしている。さらに、本実施形態において図7の縦向き姿勢のように操作UIを表示している場合、情報端末200は、受信バッファのバッファサイズを小さくして、映像の遅延の影響を極力小さくしつつ操作UIとの親和性を高めている。つまり、受信バッファサイズを小さくすることで、カメラ100から送信された映像と情報端末200に表示されている映像との間のタイムラグを少なくし、映像を観つつユーザにより行われた操作の意図が、カメラ100側に即座に反映されるようにしている。一方、本実施形態の場合、図8の横向き姿勢のように、操作UIを非表示にした場合、受信バッファのバッファサイズを大きくして、通信遅延の影響を受け難くして、高画質の映像の視聴の継続を可能としている。つまり、受信バッファサイズを大きくすることで、情報端末200に表示される映像を途切れ難くしている。このように、本実施形態の情報端末200は、予め用意されている操作UIの表示の有無に基づき、遠隔操作と映像表示の親和性優先か又は途切れ難い映像表示を行う画質優先の、何れがユーザの意図であるのかを判定してバッファサイズを変更している。これにより、本実施形態の情報端末200では、カメラ100からのライブストリーミングの映像を表示する際に、ユーザの意図を適切に反映したスムーズな映像表示が可能となる。
Here, for example, when the operation UI is transmitted from the host side to the terminal as in the technology described in Patent Document 1 described above, for example, when a delay in communication occurs due to congestion, the response of the operation UI is also delayed, The operation may not be the operation intended by the user.
For this reason, in the present embodiment, the operation UI is prepared in advance in the information terminal 200, so that even if a communication delay occurs, the operation UI is not affected. Furthermore, in the case where the operation UI is displayed as in the vertical orientation in FIG. 7 in the present embodiment, the information terminal 200 performs the operation while reducing the buffer size of the reception buffer and minimizing the influence of video delay. Improves affinity with UI. That is, by reducing the reception buffer size, the time lag between the video transmitted from the camera 100 and the video displayed on the information terminal 200 is reduced, and the intention of the operation performed by the user while watching the video is , And immediately reflected on the camera 100 side. On the other hand, in the case of the present embodiment, when the operation UI is not displayed as in the horizontal attitude in FIG. 8, the buffer size of the reception buffer is increased to make it difficult to be affected by communication delay. It is possible to continue the viewing of That is, the video displayed on the information terminal 200 is made difficult to be interrupted by increasing the reception buffer size. As described above, the information terminal 200 according to the present embodiment prioritizes whether the affinity for the remote control and the video display is priority or the video display for which the interruption is hard to be interrupted, based on the presence or absence of the display of the operation UI prepared in advance. The buffer size is changed by determining whether it is the user's intention. Thereby, in the information terminal 200 of the present embodiment, when displaying the video of the live streaming from the camera 100, it is possible to smoothly display the video in which the intention of the user is appropriately reflected.

以下、前述の図3に示した基本的な動作を踏まえ、本実施形態の通信システムにおけるライブストリーミングの動作、情報端末200における操作UIの有無に応じた受信バッファサイズの変更制御について、詳細に説明する。
先ず、カメラ100は、操作部105を介してユーザからライブストリーミングモードの実行指示が入力されると、CPU101の制御により、通信制御部108を通信可能状態とする。
Hereinafter, based on the basic operation shown in FIG. 3 described above, the operation of live streaming in the communication system of this embodiment and the change control of the reception buffer size according to the presence or absence of the operation UI in the information terminal 200 will be described in detail. Do.
First, when an instruction to execute a live streaming mode is input from the user via the operation unit 105, the camera 100 puts the communication control unit 108 in a communicable state under the control of the CPU 101.

また、情報端末200は、操作部205を介してユーザから通信接続処理およびライブストリーミングに必要なアプリケーションソフトウェア(以下、アプリと記す)の起動指示が入力されると、CPU201によりそのアプリを起動させる。これにより、情報端末200のCPU201は、ROM202または記録媒体212に格納された当該アプリのプログラムに従い、通信制御部208を制御し、カメラ100との通信を開始して、接続処理を行う。   In addition, when an instruction to start application software (hereinafter referred to as an application) necessary for communication connection processing and live streaming is input from the user via the operation unit 205, the information terminal 200 causes the CPU 201 to start the application. Accordingly, the CPU 201 of the information terminal 200 controls the communication control unit 208 according to the program of the application stored in the ROM 202 or the recording medium 212, starts communication with the camera 100, and performs connection processing.

ここで、カメラ100と情報端末200は、通信プロトコルとしてHTTP(Hypertext Transfer Protocol)を使用するものとする。また、カメラ100と情報端末200は、通信接続においてUPnP(Universal Plug and Play)に対応しているものとする。UPnP対応の情報端末200は、機器をネットワークに接続すると、DHCP(Dynamic Host Configuration Protocol)または、AutoIPによるIP(Internet Protocol)アドレスの設定を行う。IPアドレスを取得した機器は、ネットワーク上の他の機器を相互に認識するために、「デバイスディスカバリーとコントロール」によって、デバイス検索と応答デバイスの種別、サービス機能などの情報取得を行う。このため、ステップS303において、情報端末200はカメラ100へデバイス検索要求を送り、ステップS304において、カメラ100は情報端末200からのデバイス検索要求に対して機器情報と機器固有情報のプレイリスト取得先情報などを応答する。そして、カメラ100と情報端末200の接続処理が完了すると、カメラ100はライブストリーミングを開始する。   Here, the camera 100 and the information terminal 200 use HTTP (Hypertext Transfer Protocol) as a communication protocol. The camera 100 and the information terminal 200 correspond to UPnP (Universal Plug and Play) in communication connection. When connecting the device to the network, the UPnP-compatible information terminal 200 performs setting of an IP (Internet Protocol) address by DHCP (Dynamic Host Configuration Protocol) or AutoIP. The device that has acquired the IP address performs device search and acquisition of information such as the type of responding device, service function, and the like by "device discovery and control" in order to mutually recognize other devices on the network. Therefore, in step S303, the information terminal 200 sends a device search request to the camera 100, and in step S304, the camera 100 responds to the device search request from the information terminal 200 and the playlist acquisition destination information of the device information and device unique information Etc. Then, when the connection process between the camera 100 and the information terminal 200 is completed, the camera 100 starts live streaming.

ライブストリーミングを開始した場合、カメラ100のCPU101は、撮像素子114からの信号出力を開始し、その出力をカメラ信号処理部115により適切な映像データに処理し、符号・復号処理部116へデータを送る。このとき、ズーム倍率(もしくは焦点距離)等のカメラステータスに関する情報も合わせて、符号・復号処理部116に送る。   When live streaming is started, the CPU 101 of the camera 100 starts signal output from the imaging element 114, processes the output into appropriate video data by the camera signal processing unit 115, and transmits the data to the encoding / decoding processing unit 116. send. At this time, information on camera status such as zoom magnification (or focal length) is also sent to the encoding / decoding processing unit 116.

符号・復号処理部116は、それら受け取った映像データ等を所定のビットレート、フォーマット形式で圧縮符号化し、図3に示すように、さらに所定の時間長Tsで分割し、セグメントデータ302としてRAM103または記録媒体112に保存する。なお、本実施形態では、例えば所定の時間長Ts=0.5秒として、以下の説明を行う。   The encoding / decoding processing unit 116 compresses and encodes the received video data etc. at a predetermined bit rate and format format, and further divides it by a predetermined time length Ts as shown in FIG. It is stored in the recording medium 112. In the present embodiment, for example, the following description will be made with a predetermined time length Ts = 0.5 second.

また、CPU101は、セグメントデータ保存先と関連させたパス情報を生成する。パス情報は、情報端末200がセグメントを取得する際の取得先情報として使用するものである。そして、CPU101は、プレイリスト301を作成し、パス情報と併せてセグメント情報を一時記録する。   The CPU 101 also generates path information associated with the segment data storage destination. The path information is used as acquisition destination information when the information terminal 200 acquires a segment. Then, the CPU 101 creates a play list 301, and temporarily records segment information together with path information.

ここで、プレイリスト301について詳細に説明する。図4は、本実施形態に係るプレイリスト410の一例を表す図である。プレイリスト410は、例えばExtended M3U形式のプレイリストとなされる。
カメラ100のCPU101は、プレイリスト410の最初の行411には識別子タグを記述し、次(2行目)の行412にはプレイリストバージョンを示すタグとバージョンを記述する。図4には、バージョンが"3"の例を挙げている。またCPU101は、3行目の行413にはセグメントデータ302の時間を示すタグとその時間(秒)を、整数または小数の値で記述する。本実施形態では、セグメントデータ時間長をTs=0.5(秒)としていることから、図4の例でも時間は"0.5"秒なされている。さらに、CPU101は、4行目の行414にはセグメントデータ302の取得先パス(クエリパラメータを含む)を記述する。なお、3行目の行413と4行目の行414はセグメントデータ302に関する情報として、必ず続けて記述する必要がある。このプレイリスト410は、セグメント情報(行413,414の情報)を記録した図3のプレイリスト301の内容例となる。
Here, the playlist 301 will be described in detail. FIG. 4 is a diagram illustrating an example of the playlist 410 according to the present embodiment. The playlist 410 is, for example, a playlist of the Extended M3U format.
The CPU 101 of the camera 100 describes an identifier tag in the first line 411 of the playlist 410, and describes a tag and a version indicating a playlist version in the next (second line) line 412. FIG. 4 shows an example of the version "3". In addition, the CPU 101 describes, in the third row, line 413, a tag indicating the time of the segment data 302 and its time (seconds) as an integer or a decimal value. In this embodiment, since the segment data time length is Ts = 0.5 (seconds), the time is “0.5” seconds also in the example of FIG. Furthermore, the CPU 101 describes an acquisition destination path (including a query parameter) of the segment data 302 in the fourth line, line 414. The third line, line 413, and the fourth line, line 414, must always be described continuously as information related to the segment data 302. The playlist 410 is an example of the content of the playlist 301 of FIG. 3 in which segment information (information of lines 413 and 414) is recorded.

また、情報端末200は、セグメントデータ302の時間長Tsを事前に記憶しているか、カメラ100の機器情報に含めることで機器情報取得時に得ることが出来ているものとする。
情報端末200は、ライブストリーミング開始後、ステップS305において、約Ts(秒)後に、ステップS304で取得したプレイリスト取得先へ、プレイリスト取得要求(HTTP GETメソッド)を行う。
Further, it is assumed that the information terminal 200 stores the time length Ts of the segment data 302 in advance or includes the time length Ts of the segment data 302 in the device information of the camera 100 and can obtain the device information at the time of obtaining the device information.
The information terminal 200 sends a playlist acquisition request (HTTP GET method) to the playlist acquisition destination acquired in step S304 approximately Ts (seconds) in step S305 after the start of the live streaming.

一方、カメラ100は、ステップS306において、応答プレイリストとして、セグメント情報(413,414)が一つ記述されたプレイリスト301(=410)を、情報端末200へ送信する。
また、情報端末200は、ステップS307において、受信したプレイリスト410を解析し、セグメント情報の取得先に対してセグメント取得要求(HTTP GETメソッド)を行う。
そして、カメラ100は、ステップS308において、応答セグメントとして、要求されたセグメントデータ302を送信する。
On the other hand, in step S306, the camera 100 transmits, to the information terminal 200, the playlist 301 (= 410) in which one segment information (413, 414) is described as the response playlist.
Further, in step S307, the information terminal 200 analyzes the received playlist 410, and sends a segment acquisition request (HTTP GET method) to the acquisition destination of the segment information.
Then, in step S308, the camera 100 transmits the requested segment data 302 as a response segment.

情報端末200のCPU201は、受信したセグメントデータ302をRAM203または記録媒体212に一時保存させる。すなわち、情報端末200では、輻輳時などに映像を途切れ難くするため、一定時間分のデータを蓄積(バッファリング)させる。このように、情報端末200では、RAM203または記録媒体212が受信バッファとして用いられ、受信バッファには前述のように再生表示されるまで一時的にセグメントデータ302が蓄積される。本実施形態の場合、この受信バッファにおいて一時的に蓄積可能なデータ量が、前述した受信バッファサイズに相当する。なお、受信バッファの最大バッファサイズは固定値でも変動値でもよく、ユーザが設定できるようになされていてもよい。   The CPU 201 of the information terminal 200 temporarily stores the received segment data 302 in the RAM 203 or the recording medium 212. That is, the information terminal 200 accumulates (buffers) data for a predetermined time in order to make it difficult for the image to be interrupted at the time of congestion or the like. Thus, in the information terminal 200, the RAM 203 or the recording medium 212 is used as a reception buffer, and the segment data 302 is temporarily accumulated in the reception buffer until reproduction and display as described above. In the case of the present embodiment, the amount of data that can be temporarily accumulated in the reception buffer corresponds to the above-described reception buffer size. The maximum buffer size of the reception buffer may be a fixed value or a variable value, and may be set by the user.

そして、情報端末200のCPU201は、受信バッファに一定時間分のデータが蓄積されたならば、そのデータを符号・復号処理部213に渡して復号化させる。この復号化された映像データは、出力処理部206を介して表示部207に送られて再生表示される。
また例えば、ユーザにより端末RECボタン707の操作を介した記録指示の入力があった場合、CPU201は、前述の復号化されたデータ、またはセグメントデータ302からヘッダなどを除いたデータ部を、記録媒体212に記録保存させる。この記録の際には、順次受信したセグメントデータを結合したデータが記録される。
Then, when data for a fixed time is accumulated in the reception buffer, the CPU 201 of the information terminal 200 passes the data to the encoding / decoding processing unit 213 to be decoded. The decoded video data is sent to the display unit 207 via the output processing unit 206 and reproduced and displayed.
Also, for example, when the user inputs a recording instruction through the operation of the terminal REC button 707, the CPU 201 records the above-described decrypted data, or the data portion obtained by removing the header etc. from the segment data 302, the recording medium Record and save in 212. At the time of this recording, data obtained by combining sequentially received segment data is recorded.

また、ライブストリーミング中、カメラ100のCPU101は、約Ts(秒)毎にセグメントの生成とプレイリスト301の更新を行う。そして、CPU101は、情報端末200へ送信して当該情報端末200で正常に取得されたセグメントデータ302についてはプレイリスト301から削除する。   In addition, during live streaming, the CPU 101 of the camera 100 generates a segment and updates the playlist 301 approximately every Ts (seconds). Then, the CPU 101 deletes the segment data 302 transmitted to the information terminal 200 and normally acquired by the information terminal 200 from the playlist 301.

情報端末200は、カメラ100にてプレイリスト301の更新が行われる度、その約Ts(秒)毎にステップS305でプレイリスト301を取得し、プレイリスト301に記載されたセグメント情報に基づき、当該セグメントデータ302の取得要求を行う。
なお、情報端末200のステップS305,S307における要求処理では、情報端末またはアプリケーションの固有のIDが付加される。そして本実施形態のカメラ100は、最初に要求のあったIDの情報端末からの要求のみに対してストリーミングを行う。つまり、本実施形態のカメラ100と情報端末200は1対1接続でのみストリーミングを行うものとする。
The information terminal 200 acquires the playlist 301 in step S305 every about Ts (seconds) every time the playlist 100 is updated by the camera 100, and based on the segment information described in the playlist 301, the information terminal 200 It requests acquisition of segment data 302.
In the request processing in steps S305 and S307 of the information terminal 200, a unique ID of the information terminal or the application is added. And the camera 100 of this embodiment performs streaming only to the request | requirement from the information terminal of ID which initially requested | required. That is, it is assumed that the camera 100 and the information terminal 200 of this embodiment perform streaming only in one-to-one connection.

ここで、通信状況が良好である場合、ステップS305でのプレイリスト取得からステップS308の応答セグメントまでの一連の処理が定期的に行われることになる。
しかしながら、実際には、輻輳などにより通信が定期的に行えなくなることがある。
図5は、ライブストリーミングにおいて、情報端末200の受信バッファ500のデータ蓄積状態の一例を説明する図である。図5の例では、セグメント(seq=1)からセグメント(seq=3)までの通信の後に輻輳が生じた場合を挙げている。また、図5の例の場合、受信バッファ500のバッファサイズは、例えばセグメントデータ時間長Ts×3分のデータ量(セグメントデータ三つ分)に相当するサイズであるとする。
Here, if the communication status is good, a series of processes from the playlist acquisition in step S305 to the response segment in step S308 will be performed periodically.
However, in practice, communication may not be able to be performed regularly due to congestion or the like.
FIG. 5 is a diagram for explaining an example of the data accumulation state of the reception buffer 500 of the information terminal 200 in live streaming. In the example of FIG. 5, a case where congestion occurs after communication from the segment (seq = 1) to the segment (seq = 3) is given. Further, in the case of the example of FIG. 5, the buffer size of the reception buffer 500 is assumed to be, for example, a size corresponding to a data amount of segment data time length Ts × 3 minutes (three segment data).

図5において、セグメント(seq=1)のデータを取得した時点で、情報端末200の受信バッファ500は、1Ts分に相当する記憶エリアが使用された状態510となる。なお、この時点では再生は開始されておらず、受信バッファ500からのデータ読み出しは行われていないとする。次に、セグメント(seq=2)のデータを取得すると、受信バッファ500は、2Ts分の記憶エリアが使用された状態511となる。なお、この時点でも再生は開始されていないとする。さらに、次のセグメント(seq=3)のデータを取得すると、受信バッファ500は、3Ts分の記憶エリアが使用された状態512となる。そして、情報端末200は、受信バッファ500に3Ts分に相当するセグメントデータが蓄積されると、受信バッファ500からのデータの読み出しを開始して、再生を開始する。   In FIG. 5, when the data of the segment (seq = 1) is acquired, the reception buffer 500 of the information terminal 200 enters a state 510 in which a storage area corresponding to 1 Ts is used. At this point in time, it is assumed that reproduction is not started, and data read from the reception buffer 500 is not performed. Next, when the data of the segment (seq = 2) is acquired, the reception buffer 500 is in a state 511 in which a storage area for 2Ts is used. At this point, it is assumed that the reproduction has not been started. Further, when data of the next segment (seq = 3) is acquired, the reception buffer 500 is in a state 512 in which a storage area of 3Ts is used. Then, when the segment data corresponding to 3Ts is accumulated in the reception buffer 500, the information terminal 200 starts reading data from the reception buffer 500 and starts reproduction.

通信状況が良好である場合には、再生開始後は、受信バッファ500において1Ts分のデータの書き込みと読み出しが繰り返されることで、再生がスムーズに継続される。すなわち、受信バッファ500では、セグメントデータが書き込まれた順に順次読み出され、1Ts分の記憶エリアの空きができると、次の新たなセグメントのデータを書き込むような、書き込みと読み出しが繰り返される。   If the communication state is good, after start of reproduction, reproduction and reception are continuously continued by repeating writing and reading of data of 1 Ts in the reception buffer 500. That is, in the reception buffer 500, the segment data are sequentially read in the order in which they were written, and when there is an empty storage area for 1Ts, writing and reading such as writing the data of the next new segment are repeated.

一方、輻輳等により通信速度の低下等が生ずると、カメラ100から情報端末200へのセグメントデータの送信が遅延し、受信バッファ500に新たなセグメントデータの書き込みが行われるまでの期間が長くなる。一方で、受信バッファ500からの読み出しは継続される。このため、受信バッファ500では、3Ts分の記憶エリアが使用された状態512から、2Ts分の記憶エリアが使用された状態513へ、さらに1Ts分の記憶エリアが使用された状態514のように、蓄積されているデータが徐々に減少していく。そして、情報端末200において、受信バッファ500の記憶エリアが空いた状態515になると再生が停止してしまうことになる。このため、受信バッファ500のサイズが大きいと、再生が開始されるまでにかかる時間は長くなるが、輻輳時に受信バッファ500内のデータが無くなってしまうまでの時間も長くなり、再生が停止してしまうまでの時間にある程度の余裕があることになる。すなわち、受信バッファ500のサイズが大きい場合には、輻輳等で通信速度が低下しても再生される映像が途切れ難くなる。これに対し、受信バッファ500のサイズが小さいと、再生が開始されるまでにかかる時間は短いが、例えば輻輳時には受信バッファ500内のデータが無くなってしまうまでの時間も短くなり、再生が停止してしまうまでの余裕が少なくなる。すなわち、受信バッファ500のサイズが小さい場合には、輻輳時などで通信速度が低下すると映像が途切れ易くなる。   On the other hand, when a decrease in communication speed or the like occurs due to congestion or the like, transmission of segment data from camera 100 to information terminal 200 is delayed, and a period until new segment data is written in reception buffer 500 is lengthened. On the other hand, reading from the reception buffer 500 is continued. Therefore, in the reception buffer 500, from the state 512 where the storage area for 3Ts is used to the state 513 where the storage area for 2Ts is used, as in the state 514 where the storage area for 1Ts is used, The accumulated data gradually decreases. Then, in the information terminal 200, when the storage area of the reception buffer 500 becomes free 515, the reproduction is stopped. Therefore, when the size of the reception buffer 500 is large, the time taken to start reproduction becomes long, but the time until data in the reception buffer 500 disappears at the time of congestion also becomes long, and the reproduction is stopped. There will be some margin in time until it is finished. That is, when the size of the reception buffer 500 is large, even if the communication speed is reduced due to congestion or the like, the reproduced video is unlikely to be interrupted. On the other hand, when the size of the reception buffer 500 is small, the time taken to start reproduction is short, but for example, when congestion occurs, the time until data in the reception buffer 500 disappears also becomes short, and the reproduction stops. There is less room until it That is, when the size of the reception buffer 500 is small, if the communication speed is reduced due to congestion or the like, the video is likely to be disconnected.

以下、図6を用い、ライブストリーミング時における情報端末200の処理の流れについて説明する。図6は、カメラ100との接続が確立した後、情報端末200のCPU201が表示制御などを実行する処理のフローチャートである。図6のフローチャートの処理は、ROM202に格納された本実施形態に係るプログラムをRAM203に展開してCPU201が実行することにより実現される。なお、図6のフローチャートの処理の全てがCPU201にて実行される必要はなく、処理の一部または全てがCPU201以外の一つ又は複数の回路等によって行われてもよい。   Hereinafter, the flow of processing of the information terminal 200 at the time of live streaming will be described using FIG. FIG. 6 is a flowchart of processing in which the CPU 201 of the information terminal 200 executes display control and the like after the connection with the camera 100 is established. The processing of the flowchart of FIG. 6 is realized by the CPU 201 executing the program stored in the ROM 202 according to the present embodiment loaded in the RAM 203. Note that not all of the processing of the flowchart in FIG. 6 needs to be executed by the CPU 201, and part or all of the processing may be performed by one or more circuits other than the CPU 201.

ステップS601において、CPU201は、カメラ100との接続時に図3のステップS304で受け取った機器・プレイリスト取得先情報から、プレイリスト取得先情報を取得してRAM203に保持する。
次に、ステップS602において、CPU201は、所定時間が経過したか否かの判定を行う。CPU201は、所定時間が経過したと判定した場合にはS603へ処理を進め、一方、所定時間が経過していないと判定した場合にはS606へ処理を進める。ここで、所定時間としては、カメラ100が生成する所定の時間長Tsと同等の時間にすることが望ましい。
In step S601, the CPU 201 acquires playlist acquisition destination information from the device / playlist acquisition destination information received in step S304 in FIG.
Next, in step S602, the CPU 201 determines whether a predetermined time has elapsed. If the CPU 201 determines that the predetermined time has elapsed, the process proceeds to step S603. If the CPU 201 determines that the predetermined time has not elapsed, the process proceeds to step S606. Here, it is desirable that the predetermined time be equal to a predetermined time length Ts generated by the camera 100.

ステップS603に進むと、CPU201は、ステップS601で取得したプレイリスト取得先情報を用いて、図3のステップS305のプレイリストの取得要求を行い、その後、カメラ100から受け取ったプレイリスト(P1)の解析を行う。CPU201は、プレイリストの解析にて識別タグによるプレイリスト形式とバージョンの確認を行った後、カメラ100からのセグメント情報の取得を開始する。   In step S603, the CPU 201 uses the playlist acquisition destination information acquired in step S601 to make a playlist acquisition request in step S305 in FIG. 3, and then the playlist (P1) received from the camera 100. Perform analysis. After confirming the playlist format and version by the identification tag in the analysis of the playlist, the CPU 201 starts acquiring segment information from the camera 100.

次のステップS604において、CPU201は、ステップS603で取得したプレイリストにセグメント情報が存在したか否かの判定を行う。CPU201は、セグメント情報が存在したと判定した場合にはステップS605へ処理を進め、一方、セグメント情報が存在していないと判定した場合にはステップS606へ処理を進める。   In the next step S604, the CPU 201 determines whether segment information exists in the playlist acquired in step S603. If the CPU 201 determines that the segment information exists, the process proceeds to step S605. If the CPU 201 determines that the segment information does not exist, the process proceeds to step S606.

ステップS605の処理に進むと、CPU201は、取得したセグメント情報が一つならば、そのセグメントを取得セグメントとする。また、CPU201は、取得したセグメント情報が複数ならば、その中で受信順が最も古いセグメント情報を取得セグメントとする。さらに、CPU201は、取得セグメント情報の取得先パスに対して、図3のステップS307のセグメント取得要求を行い、その後、カメラ100からセグメントを受け取る。なお、取得セグメントは、受信順で最古のセグメントに限定しなくてもよい。   In the process of step S605, if there is one acquired segment information, the CPU 201 sets that segment as an acquired segment. Also, if there are multiple pieces of acquired segment information, the CPU 201 sets the segment information with the oldest reception order among them as the acquired segment. Furthermore, the CPU 201 issues a segment acquisition request in step S307 of FIG. 3 to the acquisition destination path of acquisition segment information, and thereafter receives a segment from the camera 100. The acquisition segment may not be limited to the oldest segment in the order of reception.

そして、CPU201は、取得したセグメントデータをRAM203、または記録媒体212に一時保存し、前述したように受信バッファサイズまでデータを蓄積させる。受信バッファサイズまでセグメントデータが蓄積された場合、CPU201は、受信バッファから順次データを読み出して符号・復号処理部213に送る。符号・復号処理部213による復号化後のデータは、出力処理部206を介して表示部207に送られ、これにより再生表示(映像表示)が行われる。また、CPU201は、前述の端末RECボタン707への指示に基づく記録が実行されている場合、本処理フローとは別の処理により、復号化したデータ、またはセグメントからヘッダなどを除いたデータ部を、記録媒体212に保存させる。   Then, the CPU 201 temporarily stores the acquired segment data in the RAM 203 or the recording medium 212, and accumulates the data up to the reception buffer size as described above. When segment data is accumulated up to the reception buffer size, the CPU 201 sequentially reads data from the reception buffer and sends the data to the encoding / decoding processing unit 213. The data decoded by the coding / decoding processing unit 213 is sent to the display unit 207 via the output processing unit 206, whereby reproduction display (video display) is performed. In addition, when recording based on the instruction to the terminal REC button 707 described above is executed, the CPU 201 performs data processing in which processing is different from this processing flow, the data portion obtained by removing the header or the like from the segment or the segment , And stored on the recording medium 212.

次に、ステップS606において、CPU201は、姿勢検出部214の出力を基に情報端末200の姿勢検出を行い、姿勢が変更されたか否かの判定を行う。CPU201は、姿勢が変更されたと判定した場合にはステップS607へ処理を進め、姿勢が変更されていないと判定した場合にはステップS611へ処理を進める。   Next, in step S606, the CPU 201 performs attitude detection of the information terminal 200 based on the output of the attitude detection unit 214, and determines whether or not the attitude has been changed. If the CPU 201 determines that the attitude has been changed, the process proceeds to step S 607. If the CPU 201 determines that the attitude is not changed, the process proceeds to step S 611.

ステップS607に進むと、CPU201は、操作部205による操作が無効か否かの判定を行う。例えば図8のように、情報端末200が横向き姿勢となされている場合、ライブストリーミングの映像が表示エリア801に表示されて操作UI等が表示されない状態である場合には、操作無効となる。CPU201は、操作無効であると判定した場合にはステップS608へ処理を進め、操作無効でないと判定した場合にはステップS610へ処理を進める。   In step S 607, the CPU 201 determines whether the operation by the operation unit 205 is invalid. For example, as shown in FIG. 8, when the information terminal 200 is in the sideways attitude, when the live streaming video is displayed in the display area 801 and the operation UI and the like are not displayed, the operation becomes invalid. If the CPU 201 determines that the operation is invalid, the process proceeds to step S608. If the CPU 201 determines that the operation is not invalid, the process proceeds to step S610.

ステップS608に進むと、CPU201は、過去の一定期間に受信バッファが空になった回数が閾値以上になったか否かの判定を行う。なお、受信バッファが空になるとは、つまり輻輳などにより受信バッファ内にデータが無くなって、再生が停止することを意味する。CPU201は、ステップS608の処理に移行する直前までの過去Tb(秒、TbはTsよりも長い時間とする。)間において受信バッファが空になった回数を計測し、その計測した回数が閾値以上になったか否か判定する。そして、CPU201は、受信バッファが空になった回数が閾値以上になったと判定した場合には、通信環境が良くないと判断し、ステップS609へ処理を進める。一方、CPU201は、受信バッファが空になった回数が閾値未満であると判定した場合には、通信環境が良いと判断し、ステップS610へ処理を進める。なお、閾値は例えばn回とし、nは予め設定された値でもよいし、ユーザにより任意に設定可能な値でもよい。また、ステップS608の判定手法では回数と閾値とを比較する手法を例に挙げたが、この例に限定する必要はなく、通信環境が良いか否かを評価できるのであれば、他の方法が用いられてもよい。   In step S608, the CPU 201 determines whether the number of times the reception buffer has been emptied for a predetermined period in the past has exceeded a threshold. Note that emptying of the reception buffer means that data is lost in the reception buffer due to congestion or the like and reproduction is stopped. The CPU 201 measures the number of times the reception buffer has been emptied during the past Tb (seconds, where Tb is a time longer than Ts) immediately before shifting to the process of step S608, and the measured number of times is equal to or more than the threshold value. It is determined whether the If the CPU 201 determines that the number of times the reception buffer has been emptied is equal to or greater than the threshold value, it determines that the communication environment is not good, and advances the process to step S609. On the other hand, when the CPU 201 determines that the number of times the reception buffer has been emptied is less than the threshold, it determines that the communication environment is good, and advances the process to step S610. The threshold value is, for example, n times, and n may be a preset value or a value that can be arbitrarily set by the user. In the determination method of step S608, the method of comparing the number of times and the threshold value is taken as an example, but it is not necessary to limit to this example, and another method may be used if it can be evaluated whether the communication environment is good or not. It may be used.

ステップS609に進むと、CPU201は、受信バッファサイズを、設定可能な最大値(設定可能な最大サイズ)に設定する。ここで、前述した横向き姿勢状態のように操作UIが表示されない操作無効状態である場合、通信遅延による操作不便性を考慮する必要性は少なく、遅延よりもスムーズな再生を優先することが望ましい。このため、操作無効状態の場合には、受信バッファサイズを大きくするように決定し、これにより途切れ難いスムーズな映像再生を実現する。なお、本実施形態では、受信バッファサイズを設定可能な最大値としたが、勿論最大のサイズではない設定値でもよく、例えば所定サイズずつバッファサイズを増加させていってもよい。また、受信バッファサイズの変更を自動と手動の何れかに選択して設定できる場合には、自動設定になっている場合のみ受信バッファサイズの変更を行い、手動の場合には変更しないようにしてもよい。   In step S609, the CPU 201 sets the reception buffer size to the settable maximum value (settable maximum size). Here, in the case of the operation invalid state where the operation UI is not displayed as in the above-described horizontal posture state, it is less necessary to consider the operation inconvenience due to the communication delay, and it is desirable to give priority to smooth reproduction over delay. For this reason, in the case of the operation invalid state, it is decided to increase the reception buffer size, thereby realizing smooth video reproduction which is not easily interrupted. In the present embodiment, the reception buffer size is set to the maximum value that can be set. However, of course, the set value may not be the maximum size. For example, the buffer size may be increased by a predetermined size. Also, if the receive buffer size can be set to either automatic or manual, change the receive buffer size only when automatic setting is made, and do not change it in the manual case. It is also good.

ステップS610に進んだ場合、CPU201は、受信バッファサイズを設定済みのサイズとするように決定する。つまり、前述したステップS607で操作UIが表示される操作有効な状態であると判定してステップS610へ進んだ場合には、操作への影響も考慮し、遅延時間を軽減することが望ましい。そのため、ステップS607からステップS610へ遷移した場合,CPU201は、バッファサイズを元々設定されていた値、若しくはユーザが設定した値に戻す。これは、ユーザがカメラ100を遠隔操作する場合には、再生されている映像を観ながら操作するタイミングを計ると考えられるため、遠隔操作される可能性がある状態では常にバッファサイズは小さめにしておく方が望ましいためである。ステップS609の後、CPU201は、ステップS611へ処理を進める。   When the process proceeds to step S610, the CPU 201 determines to set the reception buffer size as the set size. That is, when it is determined in step S607 that the operation UI is in the operation valid state to be displayed and the process proceeds to step S610, it is desirable to reduce the delay time in consideration of the influence on the operation. Therefore, when the process proceeds from step S 607 to step S 610, the CPU 201 returns the buffer size to the value originally set or the value set by the user. This is because when the user remotely operates the camera 100, it is considered to measure timing while watching the video being reproduced, so the buffer size should always be smaller in the state where there is a possibility of remote operation. It is because it is desirable to put it. After step S609, the CPU 201 advances the process to step S611.

一方、ステップS608で通信環境が良いと判断してステップS610へ進んだ場合には、輻輳が発生している可能性が少なく、バッファサイズを大きくする必要がないと考えられる。このため、CPU201は、ステップS608からステップS610へ遷移した場合には、バッファサイズを元々設定されていた値、若しくはユーザが設定した値に戻す。ステップS610の後、CPU201は、ステップS611へ処理を進める。   On the other hand, if it is determined in step S608 that the communication environment is good and the process proceeds to step S610, there is little possibility that congestion has occurred, and it is considered unnecessary to increase the buffer size. Therefore, when the CPU 201 transits from step S608 to step S610, it returns the buffer size to the value originally set or the value set by the user. After step S610, the CPU 201 advances the process to step S611.

ステップS611に進むと、CPU201は、ライブストリーミングの処理を終了するか否かの判定を行う。そして、CPU201は、例えばライブストリーミングの映像が終わった場合やユーザによる終了指示等がなされた場合には図6のフローチャートの処理を終了し、それ以外の場合にはステップS602に戻って処理を続ける。   In step S611, the CPU 201 determines whether to end the live streaming process. Then, the CPU 201 ends the processing of the flowchart of FIG. 6 when, for example, the video of the live streaming is ended or the end instruction is given by the user, and otherwise returns to step S602 to continue the processing. .

以上説明したように、本実施形態の情報端末200は、姿勢に応じて映像表示の向きを変更すると共に操作UIの表示の有無(表示又は非表示)を決定しており、操作UIの表示の有無に応じて受信バッファサイズを変更している。例えば、情報端末200は、横向き姿勢時のようにライブストリーミングでアプリが操作UIを表示せず映像再生のみの状態になった場合には、受信バッファサイズを大きくすることで、よりスムーズな映像再生を可能としている。これにより、本実施形態の情報端末200では、ライブストリーミングの映像再生停止の瞬間や受信バッファ内の蓄積データが無くなった時の映像飛びが目立たなくなるという効果を期待できる。また、本実施形態の情報端末200は、縦向き姿勢時のようにライブストリーミングでアプリが操作UIを表示する状態になった場合には、受信バッファサイズを元々のサイズに戻すようになされている。これにより、本実施形態の情報端末200では、ユーザが映像を観ながら操作する場合の映像と操作の親和性が良くなるという効果を得ることができる。また、本実施形態の場合、操作UIは情報端末200に予め用意されているものであるため、輻輳等による通信遅延が操作UIに影響を与えることはない。以上のことから、本実施形態によれば、カメラ100により撮影されているライブストリーミングの映像を情報端末200に表示する場合において、ユーザの意図を適切に反映したスムーズな映像表示が可能となる。   As described above, the information terminal 200 according to the present embodiment changes the direction of the image display according to the posture and determines the presence / absence (display or non-display) of the display of the operation UI. The receive buffer size is changed according to the presence or absence. For example, in the case where the information terminal 200 is in a state of only playing video without displaying the operation UI in live streaming as in the horizontal orientation, smoother video playback can be achieved by increasing the reception buffer size. Is possible. As a result, in the information terminal 200 according to the present embodiment, it is possible to expect an effect that the image skipping becomes inconspicuous at the moment of stop of live streaming video reproduction and when the accumulated data in the reception buffer is lost. Further, the information terminal 200 according to the present embodiment is configured to restore the reception buffer size to the original size when the application is in a state of displaying the operation UI by live streaming as in the vertical orientation. . Thereby, in the information terminal 200 of the present embodiment, it is possible to obtain an effect that the affinity between the video and the operation when the user operates while watching the video is improved. Further, in the case of the present embodiment, since the operation UI is prepared in advance in the information terminal 200, communication delay due to congestion or the like does not affect the operation UI. From the above, according to the present embodiment, in the case of displaying on the information terminal 200 the live streaming video shot by the camera 100, it is possible to smoothly display the video in which the user's intention is appropriately reflected.

以上、本発明に係る好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
例えば図6に示す処理では、操作UIの表示中はバッファサイズを設定済みのサイズとし、操作UIを表示しない状態ではバッファサイズを最大とした。しかし、操作UIの表示中はバッファサイズを設定しうる最小値(これはバッファサイズ0、つまりバッファしない設定を含む)とし、操作UIを表示しない状態ではバッファサイズを設定済みのサイズとしてもよい。これは以下の理由による。すなわち、そもそもユーザがバッファを設定する意図は、ユーザが視聴において許容できる遅延を設定しているともいえる。つまり、ユーザが設定したバッファサイズは、視聴をメインとした状態(本実施形態では図8の状態)において適用する方がユーザの意図に適った表示方法とも言えるからである。いずれの方法を採用するにせよ、操作UIが表示されている状態の方が、表示されていない状態よりも遅延が少ない状態になっていることが重要である。
本発明は、上述の各実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
As mentioned above, although it explained in full detail based on the suitable embodiment concerning the present invention, the present invention is not limited to these specific embodiments, and various forms of the range which does not deviate from the gist of this invention are the present invention. included.
For example, in the process shown in FIG. 6, the buffer size is set as the set size while the operation UI is displayed, and the buffer size is maximized when the operation UI is not displayed. However, while the operation UI is being displayed, the buffer size may be set to the minimum value that can be set (this is buffer size 0, that is, including settings not to be buffered), and when the operation UI is not displayed, the buffer size may be set as the set size. This is due to the following reasons. That is, it can be said that the user's intention to set the buffer originally sets the delay that the user can tolerate in viewing. That is, it can be said that applying the buffer size set by the user in a state where viewing is the main (in the present embodiment, the state of FIG. 8) is a display method suitable for the user's intention. Whichever method is adopted, it is important that the state in which the operation UI is displayed has a smaller delay than the state in which the operation UI is not displayed.
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read the program. It can also be realized by the process to be executed. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
The above-described embodiments are merely examples of implementation for practicing the present invention, and the technical scope of the present invention should not be interpreted limitedly by these. That is, the present invention can be implemented in various forms without departing from the technical concept or the main features thereof.

100:カメラ、200:情報端末、201:CPU、214:姿勢検出部、208:通信制御部   100: camera, 200: information terminal, 201: CPU, 214: attitude detection unit, 208: communication control unit

Claims (8)

情報処理装置であって、
外部装置から受信したストリーミングのための映像データに基づき、映像を再生する再生手段と、
前記再生手段により再生される映像を表示するための、前記情報処理装置に予め保持された再生用画面を表示部に表示する表示制御手段と、
前記外部装置から受信した映像データを、前記再生手段による再生のために所定の記憶領域にバッファするバッファ手段とを有し、
前記表示制御手段は、再生中の映像に関するユーザの操作を受け付けるための操作部を、前記再生中の映像とともに前記再生用画面に表示可能であり、
前記再生用画面への前記操作部の表示の有無に応じて、前記バッファ手段は前記映像データのバッファサイズを変更することを特徴とする情報処理装置。
An information processing apparatus,
Reproduction means for reproducing video based on video data for streaming received from an external device;
A display control unit for displaying on a display unit a reproduction screen stored in advance in the information processing apparatus, for displaying a video reproduced by the reproduction unit;
Buffer means for buffering video data received from the external device in a predetermined storage area for reproduction by the reproduction means;
The display control means can display an operation unit for receiving a user's operation regarding a video being reproduced on the reproduction screen along with the video being reproduced.
An information processing apparatus, wherein the buffer means changes a buffer size of the video data in accordance with presence or absence of display of the operation unit on the reproduction screen.
前記操作部は、前記外部装置を遠隔操作するための操作部を含み、
前記遠隔操作のための操作部への操作に応じて前記外部装置を遠隔操作する遠隔操作手段をさらに有することを特徴とする請求項1に記載の情報処理装置。
The operation unit includes an operation unit for remotely operating the external device,
The information processing apparatus according to claim 1, further comprising a remote control unit that remotely operates the external device according to an operation on the operation unit for the remote control.
情報処理装置の姿勢を検出する検出手段をさらに有し、
前記表示制御手段は、前記検出された姿勢に応じて、前記映像データに基づく前記映像の表示の向きを決定するとともに、前記操作部を含む前記再生用画面を表示させるか否かを決定し、
前記バッファ手段は、前記操作部を含まない前記再生用画面が表示される場合、前記バッファサイズを、前記操作部を含む前記再生用画面が表示される場合よりも大きくすることを特徴とする請求項1または2に記載の情報処理装置。
The image processing apparatus further comprises detection means for detecting the attitude of the information processing apparatus,
The display control means determines the direction of display of the video based on the video data according to the detected attitude, and determines whether or not to display the reproduction screen including the operation unit,
When the screen for reproduction which does not include the operation unit is displayed, the buffer means makes the buffer size larger than the case where the screen for reproduction including the operation unit is displayed. The information processing apparatus according to item 1 or 2.
前記表示制御手段は、長方形の前記画面の長辺が重力方向に対して直角方向となる姿勢が前記情報処理装置の姿勢として検出された場合に、前記画面に前記操作部を表示しないことを特徴とする請求項3に記載の情報処理装置。   The display control means does not display the operation unit on the screen when a posture in which the long side of the rectangular screen is in a direction perpendicular to the gravity direction is detected as the posture of the information processing apparatus. The information processing apparatus according to claim 3, wherein 前記所定の記憶領域に前記映像データが蓄積されていない状態になった回数を計測する計測手段をさらに有し、
前記バッファ手段は、前記計測された回数が所定の閾値未満である場合には前記バッファサイズを変更しないことを特徴とする請求項1から4の何れか1項に記載の情報処理装置。
It further comprises measuring means for measuring the number of times the video data is not stored in the predetermined storage area.
The information processing apparatus according to any one of claims 1 to 4, wherein the buffer unit does not change the buffer size when the number of times of measurement is less than a predetermined threshold.
前記バッファサイズを、自動で変更するか手動で変更するかを設定する設定手段を有し、
前記バッファ手段は、前記設定手段により前記バッファサイズを手動で変更するよう設定されている場合には、前記バッファサイズを変更しないことを特徴とする請求項1から5の何れか1項に記載の情報処理装置。
It has setting means for setting whether to change the buffer size automatically or manually.
6. The buffer unit according to any one of claims 1 to 5, wherein the buffer size is not changed when the setting means is set to change the buffer size manually. Information processing device.
情報処理装置の制御方法であって、
外部装置から受信したストリーミングのための映像データに基づき、映像を再生する再生工程と、
前記再生工程により再生される映像を表示するための、前記情報処理装置に予め保持された再生用画面を表示部に表示する表示制御工程と、
前記外部装置から受信した映像データを、前記再生工程による再生のために所定の記憶領域にバッファするバッファ工程とを有し、
前記表示制御工程では、再生中の映像に関するユーザの操作を受け付けるための操作部を、前記再生中の映像とともに前記再生用画面に表示可能であり、
前記再生用画面への前記操作部の表示の有無に応じて、前記バッファ工程では前記映像データのバッファサイズを変更することを特徴とする情報処理装置の制御方法。
A control method of the information processing apparatus,
A reproduction process of reproducing video based on video data for streaming received from an external device;
A display control step of displaying on a display unit a reproduction screen stored in advance in the information processing apparatus, for displaying a video reproduced by the reproduction step;
Buffering video data received from the external device in a predetermined storage area for reproduction by the reproduction process;
In the display control step, an operation unit for receiving a user's operation regarding a video being reproduced can be displayed on the reproduction screen together with the video being reproduced,
A control method of an information processing apparatus, wherein a buffer size of the video data is changed in the buffer process in accordance with presence or absence of display of the operation unit on the reproduction screen.
コンピュータを、請求項1から6の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus in any one of Claims 1-6.
JP2017190181A 2017-09-29 2017-09-29 Information processing apparatus, control method thereof, and program Pending JP2019068187A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017190181A JP2019068187A (en) 2017-09-29 2017-09-29 Information processing apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017190181A JP2019068187A (en) 2017-09-29 2017-09-29 Information processing apparatus, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2019068187A true JP2019068187A (en) 2019-04-25

Family

ID=66340076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017190181A Pending JP2019068187A (en) 2017-09-29 2017-09-29 Information processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2019068187A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111918134A (en) * 2019-05-08 2020-11-10 南宁富桂精密工业有限公司 Method for correcting video stream flow, set top box and computer readable storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005197818A (en) * 2003-12-26 2005-07-21 Canon Sales Co Inc Mobile information terminal, image distribution server apparatus and image distribution system, and display method and program of mobile information terminal in the system, and storage medium
JP2006074441A (en) * 2004-09-02 2006-03-16 Matsushita Electric Ind Co Ltd Device and method for receiving image, and image transmitting system
JP2006211394A (en) * 2005-01-28 2006-08-10 Toshiba Corp Foldable portable terminal device
JP2008288667A (en) * 2007-05-15 2008-11-27 Nec Personal Products Co Ltd Information processing apparatus, information processing method, and information processing system
JP2011146998A (en) * 2010-01-15 2011-07-28 Hitachi Consumer Electronics Co Ltd Content receiver, and method of processing reception packet data in the same
US20140267899A1 (en) * 2013-03-13 2014-09-18 Comcast Cable Communications, Llc Methods And Systems For Intelligent Playback
JP2015023417A (en) * 2013-07-18 2015-02-02 キヤノン株式会社 Communication device and imaging device, control method thereof, and program
KR20170089363A (en) * 2016-01-26 2017-08-03 정승환 A smart phones image offer system and method based on the IP camera

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005197818A (en) * 2003-12-26 2005-07-21 Canon Sales Co Inc Mobile information terminal, image distribution server apparatus and image distribution system, and display method and program of mobile information terminal in the system, and storage medium
JP2006074441A (en) * 2004-09-02 2006-03-16 Matsushita Electric Ind Co Ltd Device and method for receiving image, and image transmitting system
JP2006211394A (en) * 2005-01-28 2006-08-10 Toshiba Corp Foldable portable terminal device
JP2008288667A (en) * 2007-05-15 2008-11-27 Nec Personal Products Co Ltd Information processing apparatus, information processing method, and information processing system
JP2011146998A (en) * 2010-01-15 2011-07-28 Hitachi Consumer Electronics Co Ltd Content receiver, and method of processing reception packet data in the same
US20140267899A1 (en) * 2013-03-13 2014-09-18 Comcast Cable Communications, Llc Methods And Systems For Intelligent Playback
JP2015023417A (en) * 2013-07-18 2015-02-02 キヤノン株式会社 Communication device and imaging device, control method thereof, and program
KR20170089363A (en) * 2016-01-26 2017-08-03 정승환 A smart phones image offer system and method based on the IP camera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111918134A (en) * 2019-05-08 2020-11-10 南宁富桂精密工业有限公司 Method for correcting video stream flow, set top box and computer readable storage medium
CN111918134B (en) * 2019-05-08 2022-06-21 南宁富联富桂精密工业有限公司 Method for correcting video stream flow, set top box and computer readable storage medium

Similar Documents

Publication Publication Date Title
JP2023129649A (en) Communication management system, communication system, communication management method and program
WO2013132828A1 (en) Communication system and relay apparatus
JP2016123137A (en) Image communication apparatus and imaging apparatus
KR20170023885A (en) Compositing and transmitting contextual information during an audio or video call
US9055204B2 (en) Image capture device with network capability and computer program
JP2012217166A (en) Image sending apparatus, image recording apparatus and image recording method
US20120120261A1 (en) Camera-enabled remote control apparatus for consumer electronic appliances
US9445142B2 (en) Information processing apparatus and control method thereof
US20170070699A1 (en) Information processing apparatus, image capturing apparatus, and control methods for the same
JP2008154073A (en) Imaging apparatus and imaging system
JP6360300B2 (en) COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP6257197B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP2019068187A (en) Information processing apparatus, control method thereof, and program
US20060114510A1 (en) Apparatus and method for image conversion
US20150373073A1 (en) Image pickup apparatus, control method and recording medium
JP6289076B2 (en) Information processing apparatus, information processing method, and program
US11470234B2 (en) Wireless camera and method of video streaming
JP2017112455A (en) Information processing unit
JP2017208672A (en) Video supply device, video acquisition device, control method and program therefor, and video supply system
JP2018152646A (en) Imaging apparatus, image display system, operation method, and program
JP6254862B2 (en) Imaging apparatus and control method, system and program thereof
JP2017046183A (en) Transmitter, receiver, and communication system
JP6993793B2 (en) Electronics, control methods and programs
JP2015142360A (en) Imaging apparatus and universal head device
JP2017022553A (en) Imaging and recording device and control method for imaging recording device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210525

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211102