JP6996758B2 - Mobile monitoring devices, control methods, and programs - Google Patents

Mobile monitoring devices, control methods, and programs Download PDF

Info

Publication number
JP6996758B2
JP6996758B2 JP2019078467A JP2019078467A JP6996758B2 JP 6996758 B2 JP6996758 B2 JP 6996758B2 JP 2019078467 A JP2019078467 A JP 2019078467A JP 2019078467 A JP2019078467 A JP 2019078467A JP 6996758 B2 JP6996758 B2 JP 6996758B2
Authority
JP
Japan
Prior art keywords
image
surveillance
predetermined
touch panel
event detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019078467A
Other languages
Japanese (ja)
Other versions
JP2019164802A (en
Inventor
健一朗 猪田
啓至 北嶋
博義 宮野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019078467A priority Critical patent/JP6996758B2/en
Publication of JP2019164802A publication Critical patent/JP2019164802A/en
Application granted granted Critical
Publication of JP6996758B2 publication Critical patent/JP6996758B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、モバイル監視装置、制御方法、及びプログラムに関する。 The present invention relates to mobile monitoring devices, control methods, and programs.

監視カメラ等によって撮像された映像(以下「監視映像」という。)を用いて監視を行う監視システムがある。例えば監視映像は、監視員によって閲覧されたり、解析装置によって解析されたりする。このような監視システムは、トラブルの発生を未然に防いだり、発生したトラブルを早期に解決したりするために用いられる。 There is a surveillance system that monitors using images captured by a surveillance camera or the like (hereinafter referred to as "surveillance images"). For example, the surveillance video is viewed by a watchman or analyzed by an analysis device. Such a monitoring system is used to prevent the occurrence of troubles and to solve the troubles that have occurred at an early stage.

監視システムにおいて、スマートフォンやタブレット等のモバイル機器が利用され始めている。例えば特許文献1は、監視カメラの映像を不特定のユーザへ公開するシステムを開示している。ユーザは、モバイル機器やパソコン等を用いてそのサーバへアクセスすることで、監視カメラの映像を閲覧することができる。 Mobile devices such as smartphones and tablets are beginning to be used in surveillance systems. For example, Patent Document 1 discloses a system for publishing an image of a surveillance camera to an unspecified user. The user can view the image of the surveillance camera by accessing the server using a mobile device, a personal computer, or the like.

また、監視システムにおいて、監視映像の一部を監視領域として設定できる技術がある。例えば特許文献2の画像処理装置では、マウス等の入力装置を用いて監視領域を設定できる。そして、この画像処理装置は、監視領域において侵入物体の検出を行う。 Further, in a surveillance system, there is a technique that can set a part of a surveillance image as a surveillance area. For example, in the image processing device of Patent Document 2, the monitoring area can be set by using an input device such as a mouse. Then, this image processing device detects an intruding object in the monitoring area.

特開2014-64241号公報Japanese Unexamined Patent Publication No. 2014-64241 特許第4976939号Patent No. 4976939 国際公開第2014/030667号International Publication No. 2014/030667

監視システムにおいて利用されるスマートフォンやタブレット等のモバイル機器では、イベント検出位置の設定(映像監視線の設定や監視領域の設定等)と、表示画面上の表示を変更する処理(表示変更処理)とが、いずれもユーザのタッチ操作によって行われうる。イベント検出位置の設定は、例えば表示画面で指をスライドさせる操作、ピンチイン・ピンチアウト操作等により映像監視線や監視領域の位置や範囲が指定されることにより行われる。表示変更処理は、同様に、表示画面で指をスライドさせる操作、ピンチイン・ピンチアウト操作等による遠隔の監視カメラのPTZ(Pan-Tilt-Zoom)機能の制御、表示画面のデジタルズーム(拡大・縮小)やスクロール等により行われる。 For mobile devices such as smartphones and tablets used in surveillance systems, event detection position settings (video surveillance line settings, surveillance area settings, etc.) and processing to change the display on the display screen (display change processing). However, both can be performed by a user's touch operation. The event detection position is set by, for example, specifying the position or range of the video monitoring line or the monitoring area by an operation of sliding a finger on the display screen, a pinch-in / pinch-out operation, or the like. Similarly, the display change process is the operation of sliding the finger on the display screen, the control of the PTZ (Pan-Tilt-Zoom) function of the remote surveillance camera by pinch-in / pinch-out operation, etc., and the digital zoom (enlargement / reduction) of the display screen. It is done by scrolling or scrolling.

このように、異なる処理が同様の操作に応じて実行されるため、監視システムにおいて利用されるモバイル機器は、ユーザにとって操作性が低い。 As described above, since different processes are executed in response to the same operation, the mobile device used in the monitoring system has low operability for the user.

本発明は、上記の課題に鑑みてなされたものである。本発明の目的は、モバイル機器の操作性を向上させる技術を提供することである。 The present invention has been made in view of the above problems. An object of the present invention is to provide a technique for improving the operability of a mobile device.

本発明のモバイル監視装置は、表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を表す情報を生成する設定する第1処理手段と、前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理手段と、前記第1操作を前記第1処理手段と前記第2処理手段のどちらか一方に処理させる制御手段と、を有する。 The mobile monitoring device of the present invention comprises a first processing means for setting the monitoring image to generate information indicating an event detection position in response to the first operation for the monitoring image displayed on the display screen, and the above-mentioned mobile monitoring device. A second processing means that performs display change processing other than setting the event detection position for the monitoring image or a window containing the monitoring image according to the first operation, and the first operation is the first processing means and the above. It has a control means for causing either one of the second processing means to process.

本発明のプログラムは、コンピュータを、本発明のモバイル監視装置として動作させるプログラムである。 The program of the present invention is a program for operating a computer as the mobile monitoring device of the present invention.

本発明の制御方法は、コンピュータによって実行させる。当該制御方法は、表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を表す情報を生成する設定する第1処理ステップと、前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理ステップと、前記第1操作を前記第1処理ステップと前記第2処理ステップのどちらか一方に処理させる制御ステップと、を有する。 The control method of the present invention is executed by a computer. The control method includes a first processing step of setting to generate information representing an event detection position for the surveillance image in response to the first operation for the surveillance image displayed on the display screen, and the first operation. A second processing step for performing display change processing other than setting the event detection position for the monitoring image or the window including the monitoring image, and the first operation being performed in the first processing step and the second processing. It has a control step to be processed by either one of the steps.

本発明によれば、モバイル機器の操作性を向上させる技術が提供される。 INDUSTRIAL APPLICABILITY According to the present invention, a technique for improving the operability of a mobile device is provided.

上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。 The above-mentioned objectives and other objectives, features and advantages are further clarified by the preferred embodiments described below and the accompanying drawings below.

実施形態1に係る情報処理装置を例示するブロック図である。It is a block diagram which illustrates the information processing apparatus which concerns on Embodiment 1. FIG. 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。It is a flowchart which illustrates the flow of the process executed by the information processing apparatus of Embodiment 1. FIG. 情報処理装置のハードウエア構成を例示するブロック図である。It is a block diagram which illustrates the hardware composition of an information processing apparatus. 監視カメラによって撮像された監視画像を例示する図である。It is a figure which illustrates the surveillance image which was taken by the surveillance camera. 監視エリアの地図を表す監視画像である。It is a surveillance image showing a map of the surveillance area. 監視画像を含むウインドウを例示する図である。It is a figure which illustrates the window which contains the surveillance image. 複数の監視画像を含むウインドウを例示する図である。It is a figure which illustrates the window which contains a plurality of surveillance images. 第1操作を例示する図である。It is a figure which illustrates the 1st operation. 第1操作によってイベント検出位置が指定される様子を例示する図である。It is a figure which illustrates how the event detection position is specified by the 1st operation. 監視画像の左下をタッチしながら映像監視線を重畳している様子を表している図である。It is a figure showing a state in which a video surveillance line is superimposed while touching the lower left of the surveillance image. 情報処理装置の姿勢を例示する図である。It is a figure which illustrates the posture of an information processing apparatus. 監視システム及び情報処理装置を例示するブロック図である。It is a block diagram exemplifying a monitoring system and an information processing apparatus. クラウド型映像記憶装置を有する監視システムを例示するブロック図である。It is a block diagram which illustrates the surveillance system which has a cloud type video storage device. インテリジェントカメラを有する監視システムを例示するブロック図である。It is a block diagram which illustrates the surveillance system which has an intelligent camera. 実施例において表示画面に表示される監視画像を例示する第1の図である。FIG. 1 is a first diagram illustrating a monitoring image displayed on a display screen in an embodiment. 実施例において表示画面に表示される監視画像を例示する第2の図である。FIG. 2 is a second diagram illustrating a monitoring image displayed on a display screen in an embodiment.

まず、本発明の実施形態の理解を容易にするために、本発明の背景を説明する。
表示画面やウインドウ(以下「表示画面等」という。)の中に、画像や画像を含むドキュメント(例えば Web ページ)等が収まらないケースがある。例えば一般的に、地図を扱うアプリケーションにおいて表示画面等に表示される画像は、一部の場所の地図のみである。また、画像の解像度が表示画面の解像度より大きい場合、その画像は、サイズを縮小しない限り、表示画面等に画像の一部しか収まらない。また、情報量が多い Web ページは、表示画面等に収まらないことも多い。特にモバイル機器では、表示画面が小さいため、表示画面等に画像の一部しか収まらないケースが多い。
First, the background of the present invention will be described in order to facilitate understanding of the embodiments of the present invention.
There are cases where images or documents containing images (for example, Web pages) do not fit in the display screen or window (hereinafter referred to as "display screen, etc."). For example, in general, an image displayed on a display screen or the like in an application that handles a map is only a map of a part of the place. Further, when the resolution of the image is larger than the resolution of the display screen, the image fits only a part of the image on the display screen or the like unless the size is reduced. In addition, Web pages with a large amount of information often do not fit on the display screen or the like. Especially in mobile devices, since the display screen is small, there are many cases where only a part of the image fits on the display screen or the like.

表示画面等に画像やドキュメントが収まらない場合、ユーザは、所定の操作を行うことで表示画面等に映る画像やドキュメントの範囲を調整する。例えば所定の操作は、スクロール操作、拡大操作、縮小操作等である。例えば地図画像の場合、ユーザは、地図画像を表示するタッチパネル上で指をスライドして地図画像をスクロールさせることで、表示画面に映る場所を変更し、所望の場所の地図を閲覧する。また例えば、ユーザは、ドキュメントをスクロールさせ、所望の文章等を閲覧する。また例えば、ユーザは、地図画像に対してピンチイン・ピンチアウト等の操作を行うことで、地図の縮尺を調整する。 When the image or document does not fit on the display screen or the like, the user adjusts the range of the image or document displayed on the display screen or the like by performing a predetermined operation. For example, the predetermined operation is a scroll operation, an enlargement operation, a reduction operation, or the like. For example, in the case of a map image, the user slides a finger on the touch panel displaying the map image to scroll the map image, thereby changing the place displayed on the display screen and browsing the map of the desired place. Further, for example, the user scrolls the document and browses a desired sentence or the like. Further, for example, the user adjusts the scale of the map by performing operations such as pinch-in and pinch-out on the map image.

このようにモバイル機器の表示画面等に画像やドキュメントが収まりきらない状況下で監視映像を用いた監視を行う場合、例えば監視員等のユーザは、監視映像や監視映像を含むドキュメントに対して上述のスクロール操作等を行う。こうすることで、ユーザは、表示画面に映る監視映像の範囲等を調整し、所望の場所の監視を行う。 When monitoring using a surveillance video in a situation where the image or document cannot fit on the display screen of the mobile device in this way, for example, a user such as a watchman may use the above-mentioned document including the surveillance video or the surveillance video. Scroll operation etc. By doing so, the user adjusts the range of the surveillance image displayed on the display screen and monitors the desired location.

また、監視映像を表示するモバイル機器のタッチパネル上で指をスライドさせる操作や、ピンチイン・ピンチアウト操作によって、当該監視映像を取得しているPTZ(Pan-Tilt-Zoom)カメラの PTZ 機能を制御することが行われる。また、デジタルズーム等が行われる。 In addition, the PTZ function of the PTZ (Pan-Tilt-Zoom) camera that is acquiring the surveillance video is controlled by sliding the finger on the touch panel of the mobile device that displays the surveillance video or by pinching in / pinching out. Is done. In addition, digital zoom and the like are performed.

一方、監視映像に対してタッチパネル上のタッチ操作により、映像監視線を引く、監視領域を設定する等、イベントの検出位置を設定しようとする場合、当該操作は直感的には指をスライドさせる操作やピンチイン・ピンチアウト操作であることが望ましい。しかしながらそれら直観的な操作は、上述の通り表示画面等に映る監視映像の範囲等を調整する操作や、PTZ 機能を制御する操作等の表示変更の操作と同様の操作であり、ユーザが監視映像に対して行う直感的な操作の意味が重複してしまうという問題がある。例えば、監視映像中に映像監視線を引こうとして指をスライドさせる操作を行うと、映像監視線が引かれることなく表示画面がスクロールしてしまう等の問題が発生しうる。 On the other hand, when trying to set the event detection position such as drawing a video surveillance line or setting a surveillance area by touch operation on the touch panel for the surveillance video, the operation is intuitively an operation of sliding the finger. And pinch-in / pinch-out operations are desirable. However, these intuitive operations are the same as the operation of adjusting the range of the surveillance image displayed on the display screen, etc., and the operation of changing the display, such as the operation of controlling the PTZ function, as described above, and the user can use the surveillance image. There is a problem that the meanings of intuitive operations performed on the device are duplicated. For example, if an operation of sliding a finger to draw a video surveillance line during a surveillance video is performed, a problem such as scrolling of the display screen without drawing the video surveillance line may occur.

なお、地図に対して領域を指定する操作を提供する装置の例として、特許文献3の発明がある。この発明では、ユーザが地図に対して範囲指定を行い、この指定範囲にシールの画像が描画される。しかしこの発明では、地図上で指をスライドさせると地図がスクロールしてしまうような状況は想定しておらず、上述のような操作の意味が重複する問題は想定していない。 The invention of Patent Document 3 is an example of a device that provides an operation for designating an area on a map. In the present invention, the user specifies a range on the map, and the image of the sticker is drawn in this designated range. However, the present invention does not assume a situation in which the map scrolls when a finger is slid on the map, and does not assume a problem in which the meanings of the above operations overlap.

以下に説明される本発明の実施形態によれば、上述の操作の意味が重複する問題が解決され、モバイル機器の操作性が向上する。なお、スマートフォンやタブレット等のモバイル機器を利用した監視装置を「モバイル監視装置」という。 According to the embodiment of the present invention described below, the problem of overlapping meanings of the above-mentioned operations is solved, and the operability of the mobile device is improved. A monitoring device using a mobile device such as a smartphone or tablet is called a "mobile monitoring device".

以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all drawings, similar components are designated by the same reference numerals, and the description thereof will be omitted as appropriate.

[実施形態1]
図1は、実施形態1に係る情報処理装置2000を例示するブロック図である。また、図1において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
[Embodiment 1]
FIG. 1 is a block diagram illustrating the information processing apparatus 2000 according to the first embodiment. Further, in FIG. 1, each block shows not a hardware unit configuration but a functional unit configuration.

情報処理装置2000は、第1処理部2020、第2処理部2040、及び制御部2060を有する。第1処理部2020は、第1操作で指定された監視画像上の位置に応じて、イベント検出位置を表す情報(以下「イベント検出位置情報」という。)を生成する。第1操作は、監視画像等を表示するモバイル機器のタッチパネル10上で、ユーザにより行われる操作である。このイベント検出位置は、情報処理装置2000を利用する監視システムにより、イベントを検出するために用いられる。イベント及びイベント検出位置の詳細については、後述する。 The information processing apparatus 2000 has a first processing unit 2020, a second processing unit 2040, and a control unit 2060. The first processing unit 2020 generates information representing an event detection position (hereinafter referred to as “event detection position information”) according to the position on the monitoring image designated in the first operation. The first operation is an operation performed by the user on the touch panel 10 of the mobile device that displays the surveillance image or the like. This event detection position is used to detect an event by a monitoring system using the information processing apparatus 2000. Details of the event and the event detection position will be described later.

第2処理部2040は、第1操作に応じて、表示画面に対する表示変更処理を行う。例えば表示変更処理は、タッチパネル10に表示される監視画像の範囲や監視画像の大きさ等を変更する処理である。具体的には、表示変更処理は、監視画像をスクロールする処理等である。表示変更処理のその他の例については、後述する。 The second processing unit 2040 performs display change processing on the display screen according to the first operation. For example, the display change process is a process of changing the range of the monitor image displayed on the touch panel 10, the size of the monitor image, and the like. Specifically, the display change process is a process of scrolling the monitored image or the like. Other examples of the display change process will be described later.

制御部2060は、第1操作を第1処理部2020と第2処理部2040のどちらか一方に処理させる。 The control unit 2060 causes either the first processing unit 2020 or the second processing unit 2040 to process the first operation.

<処理の流れ>
図2は実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。制御部2060は、所定の条件を満たすか否かを判定する(S104)。所定の条件を満たす場合、制御部2060の処理はステップS106に進む。ステップS106において、制御部2060は、第1処理部2020に第1操作を処理させる。
一方、所定の条件を満たさない場合、制御部2060の処理はステップS108に進む。ステップS108において、制御部2060は、第2処理部2040に第1操作を処理させる。
<Processing flow>
FIG. 2 is a flowchart illustrating the flow of processing executed by the information processing apparatus 2000 of the first embodiment. The control unit 2060 determines whether or not a predetermined condition is satisfied (S104). If the predetermined condition is satisfied, the process of the control unit 2060 proceeds to step S106. In step S106, the control unit 2060 causes the first processing unit 2020 to process the first operation.
On the other hand, if the predetermined condition is not satisfied, the process of the control unit 2060 proceeds to step S108. In step S108, the control unit 2060 causes the second processing unit 2040 to process the first operation.

<作用・効果>
例えば後述するように、監視画像上で指をスライドする操作は、イベント検出位置を表す線(映像監視線等)を引くための操作である場合もあるし、監視画像をスクロールするための操作(当該監視画像を取得しているPTZカメラのパン・チルト機能を制御するための操作等)である場合もある。また、監視画像上におけるピンチイン・ピンチアウト操作は、監視領域を設定する操作である場合もあるし、監視画像を拡大・縮小するための操作(当該監視画像を取得しているPTZカメラのズーム機能を制御(テレ・ワイドを変更)するための操作等)である場合もある。このように、イベント検出位置を指定するための直感的な操作と、監視画像等の表示を変更するための直感的な操作とは、同様の操作である場合が多い。
<Action / effect>
For example, as will be described later, the operation of sliding the finger on the surveillance image may be an operation for drawing a line (video surveillance line, etc.) indicating the event detection position, or an operation for scrolling the surveillance image (the operation for scrolling the surveillance image). It may be an operation for controlling the pan / tilt function of the PTZ camera that has acquired the surveillance image). In addition, the pinch-in / pinch-out operation on the surveillance image may be an operation for setting the surveillance area, or an operation for enlarging / reducing the surveillance image (zoom function of the PTZ camera that has acquired the surveillance image). It may be an operation for controlling (changing tele-wide), etc.). As described above, the intuitive operation for designating the event detection position and the intuitive operation for changing the display of the monitoring image or the like are often the same operations.

本実施形態によれば、監視画像等に対する第1操作が、第1処理部2020又は第2処理部2040のどちらかによって処理される。第1処理部2020によって処理される場合、第1操作はイベント検出位置の指定を意味する。第2処理部2040によって処理される場合、第1操作は監視画像等の表示変更を意味する。このように、本実施形態によれば、監視画像等に対する第1操作という操作が、所定の条件によってイベント検出位置の指定と監視画像等の表示変更のどちらか一方を行うための操作として処理される。よって、情報処理装置2000のユーザは、監視画像等の表示を変更するための直感的な操作と同様の操作で、イベント検出位置の指定を行える。よって、情報処理装置2000のユーザは、直感的な操作でイベント検出位置の指定を行うことができる。 According to the present embodiment, the first operation for the surveillance image or the like is processed by either the first processing unit 2020 or the second processing unit 2040. When processed by the first processing unit 2020, the first operation means the designation of the event detection position. When processed by the second processing unit 2040, the first operation means changing the display of the monitoring image or the like. As described above, according to the present embodiment, the operation of the first operation for the monitoring image or the like is processed as an operation for either specifying the event detection position or changing the display of the monitoring image or the like according to a predetermined condition. To. Therefore, the user of the information processing apparatus 2000 can specify the event detection position by the same operation as the intuitive operation for changing the display of the monitoring image or the like. Therefore, the user of the information processing apparatus 2000 can specify the event detection position by intuitive operation.

以下、本実施形態についてさらに詳細を述べる。 Hereinafter, the present embodiment will be described in more detail.

<ハードウエア構成例>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路等)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせ等)で実現されてもよい。
<Hardware configuration example>
Each function component of the information processing apparatus 2000 may be realized by hardware that realizes each function component (eg, a hard-wired electronic circuit, etc.), or a combination of hardware and software (eg, example). It may be realized by a combination of an electronic circuit and a program that controls it, etc.).

図3は、情報処理装置2000のハードウエア構成を例示するブロック図である。情報処理装置2000は、バス1020、プロセッサ1040、メモリ1060、ストレージ1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージ1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040等を互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、例えば CPU (Central Processing Unit) や GPU (Graphics Processing Unit) 等の演算処理装置である。メモリ1060は、例えば RAM (Random Access Memory) や ROM (Read Only Memory) 等のメモリである。ストレージ1080は、例えばハードディスク、SSD (Solid State Drive)、又はメモリカード等の記憶装置である。また、ストレージ1080は、RAM や ROM 等のメモリであってもよい。 FIG. 3 is a block diagram illustrating a hardware configuration of the information processing apparatus 2000. The information processing apparatus 2000 includes a bus 1020, a processor 1040, a memory 1060, a storage 1080, an input / output interface 1100, and a network interface 1120. The bus 1020 is a data transmission path for the processor 1040, the memory 1060, the storage 1080, the input / output interface 1100, and the network interface 1120 to transmit and receive data to and from each other. However, the method of connecting the processors 1040 and the like to each other is not limited to the bus connection. The processor 1040 is an arithmetic processing unit such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The memory 1060 is, for example, a memory such as RAM (Random Access Memory) or ROM (Read Only Memory). The storage 1080 is a storage device such as a hard disk, an SSD (Solid State Drive), or a memory card. Further, the storage 1080 may be a memory such as RAM or ROM.

入出力インタフェース1100は、情報処理装置2000と入出力デバイスとを接続するためのインタフェースである。入出力デバイスは、例えば監視画像の表示を行うとともに、監視画像に対する操作の入力を受け付けるタッチパネル10である。 The input / output interface 1100 is an interface for connecting the information processing device 2000 and the input / output device. The input / output device is, for example, a touch panel 10 that displays a surveillance image and accepts an operation input for the surveillance image.

ネットワークインタフェース1120は、情報処理装置2000を外部の装置と通信可能に接続するためのインタフェースである。ネットワークインタフェース1120は、有線回線と接続するためのネットワークインタフェースでもよいし、無線回線と接続するためのネットワークインタフェースでもよい。 The network interface 1120 is an interface for connecting the information processing device 2000 so as to be communicable with an external device. The network interface 1120 may be a network interface for connecting to a wired line or a network interface for connecting to a wireless line.

ストレージ1080は、情報処理装置2000の機能を実現するためのプログラムを記憶している。具体的には、第1処理部2020、第2処理部2040、及び制御部2060の機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールを実行することで、第1処理部2020、第2処理部2040、及び制御部2060の機能をそれぞれ実現する。ここでプロセッサ1040は、上記各モジュールを実行する際、これらのモジュールをメモリ1060上に読み出してから実行してもよいし、メモリ1060上に読み出さずに実行してもよい。 The storage 1080 stores a program for realizing the function of the information processing apparatus 2000. Specifically, it stores a program module that realizes the functions of the first processing unit 2020, the second processing unit 2040, and the control unit 2060. The processor 1040 realizes the functions of the first processing unit 2020, the second processing unit 2040, and the control unit 2060 by executing each of these program modules. Here, when executing each of the above modules, the processor 1040 may read these modules onto the memory 1060 and then execute the modules, or may execute the modules without reading them onto the memory 1060.

情報処理装置2000のハードウエア構成は図3に示した構成に限定されない。例えば、各プログラムモジュールはメモリ1060に格納されてもよい。この場合、情報処理装置2000は、ストレージ1080を備えていなくてもよい。 The hardware configuration of the information processing apparatus 2000 is not limited to the configuration shown in FIG. For example, each program module may be stored in memory 1060. In this case, the information processing apparatus 2000 does not have to include the storage 1080.

情報処理装置2000は、モバイル機器(スマートフォンやタブレット等)等の計算機として実装される。タッチパネル10は、例えば情報処理装置2000が実装されるモバイル機器に標準で備えられているタッチパネルである。 The information processing device 2000 is implemented as a computer of a mobile device (smartphone, tablet, etc.). The touch panel 10 is, for example, a touch panel provided as standard in a mobile device on which an information processing apparatus 2000 is mounted.

<監視画像について>
監視画像は、種々の場所(港、空港、ターミナル駅、プラットホーム、発電所、プラント、ダム等の重要施設、倉庫街、レジャー施設、スポーツ施設、スタジアム、商業施設、建物、又は都市・街頭等)の監視に用いられる画像である。具体的には、監視画像は、監視対象の場所に設けられた監視カメラによって撮像された画像である。図4は、モバイル機器のタッチパネルに表示された監視画像を例示する図である。図4において、監視カメラは建物内の廊下を撮像している。
<About surveillance images>
Surveillance images are available in various locations (ports, airports, terminal stations, platforms, power plants, plants, important facilities such as dams, warehouse districts, leisure facilities, sports facilities, stadiums, commercial facilities, buildings, or cities / streets, etc.) It is an image used for monitoring. Specifically, the surveillance image is an image captured by a surveillance camera provided at a location to be monitored. FIG. 4 is a diagram illustrating a surveillance image displayed on a touch panel of a mobile device. In FIG. 4, the surveillance camera images the corridor in the building.

なお、イベント検出位置の設定は、必ずしも監視画像上で行われる必要はなく、監視対象の場所を上空から撮像した画像(例えば人工衛星から撮像された画像)や、監視対象の場所の地図を表す画像上で行われてもよい。図5は、モバイル機器のタッチパネルに表示された監視対象の場所の地図を表す画像である。 It should be noted that the setting of the event detection position does not necessarily have to be performed on the monitored image, and represents an image obtained by capturing the monitored location from the sky (for example, an image captured by an artificial satellite) or a map of the monitored location. It may be done on the image. FIG. 5 is an image showing a map of a monitored location displayed on the touch panel of a mobile device.

また、地図画像は、単に地図を表示するだけではなく、イベント検知の対象となった人物等の追跡情報をリアルタイムで表示する、監視画像としての意味を含むものであってもよい。 Further, the map image may have a meaning as a surveillance image that not only displays a map but also displays tracking information of a person or the like targeted for event detection in real time.

第1操作が監視画像に対して行われる場合、当該監視画像は動画を構成する1つ又は複数のフレームであってもよいし、静止画像として撮像された画像(写真)であってもよい。 When the first operation is performed on the surveillance image, the surveillance image may be one or a plurality of frames constituting the moving image, or may be an image (photograph) captured as a still image.

監視画像は、リアルタイムで撮像されている画像であってもよいし、過去に撮像された画像であってもよい。 The surveillance image may be an image captured in real time or an image captured in the past.

例えば監視画像は、情報処理装置2000の内部の記憶装置(図3のストレージ1080)に記憶されている。また例えば、監視画像は、情報処理装置2000の外部に設けられている記憶装置に記憶されていてもよい。この場合、情報処理装置2000は、この外部の記憶装置から監視画像を取得する。また例えば、情報処理装置2000は、監視カメラによって撮像された監視画像を、その監視カメラから直接取得してもよい。 For example, the surveillance image is stored in the internal storage device (storage 1080 in FIG. 3) of the information processing device 2000. Further, for example, the surveillance image may be stored in a storage device provided outside the information processing device 2000. In this case, the information processing apparatus 2000 acquires the surveillance image from this external storage device. Further, for example, the information processing apparatus 2000 may directly acquire the surveillance image captured by the surveillance camera from the surveillance camera.

タッチパネル10には、監視画像が単独で表示されてもよいし、監視画像を含むウインドウが表示されてもよい。図6は、監視画像30を含むウインドウ60を例示する図である。また、ウインドウ60は、メインの監視画像30と、複数のサブの監視画像31を同時に含んでいてもよい。図7は、複数の監視画像30を含むウインドウ60を例示する図である。 The monitoring image may be displayed independently on the touch panel 10, or a window including the monitoring image may be displayed. FIG. 6 is a diagram illustrating a window 60 including a surveillance image 30. Further, the window 60 may include the main surveillance image 30 and the plurality of sub surveillance images 31 at the same time. FIG. 7 is a diagram illustrating a window 60 including a plurality of surveillance images 30.

<第1操作について>
第1操作は、例えばタッチパネル10上で指をスライドさせる操作である。このスライド操作は、一本の指で行われてもよいし、複数の指で行われてもよい。
<About the first operation>
The first operation is, for example, an operation of sliding a finger on the touch panel 10. This slide operation may be performed with one finger or may be performed with a plurality of fingers.

図8は、第1操作を例示する図である。図8(a)はタッチパネル10上で一本の指をスライドさせる操作を表す。図8(b)回転操作を表す。例えばこの回転操作は、画像を回転させるための操作である。図8(c)は、ピンチイン・ピンチアウト操作を表す。ただし、第1操作はこれらの操作に限定されない。 FIG. 8 is a diagram illustrating the first operation. FIG. 8A shows an operation of sliding one finger on the touch panel 10. FIG. 8B shows a rotation operation. For example, this rotation operation is an operation for rotating an image. FIG. 8C shows a pinch-in / pinch-out operation. However, the first operation is not limited to these operations.

<第2処理部2040が行う処理>
第2処理部2040が行う表示変更処理は様々である。例えば、表示変更処理は、一般的なモバイル機器等において、画像やウインドウに対して行われた操作に応じて、画像やウインドウの表示を変更する処理である。
<Processing performed by the second processing unit 2040>
There are various display change processes performed by the second processing unit 2040. For example, the display change process is a process of changing the display of an image or window according to an operation performed on the image or window in a general mobile device or the like.

例えば表示変更処理は、監視画像、地図画像又はそれらを含むウインドウ(「監視画像等」という。)を表示するタッチパネル10に対して指をスライドさせる操作に応じて、これらの監視画像等をスクロールする処理である。また例えば、表示変更処理は、監視画像等をつまんだ指を回転する操作に応じて、監視画像等を回転させる処理である。また例えば、表示変更処理は、監視画像等をピンチイン・ピンチアウトする操作に応じて、監視画像等を縮小・拡大する処理である。表示変更処理はこれらの例に限定されない。 For example, the display change process scrolls these surveillance images and the like in response to an operation of sliding a finger with respect to the touch panel 10 that displays a surveillance image, a map image, or a window containing them (referred to as "surveillance image and the like"). It is a process. Further, for example, the display change process is a process of rotating the monitor image or the like in response to an operation of rotating a finger holding the monitor image or the like. Further, for example, the display change process is a process of reducing or enlarging the monitor image or the like in response to an operation of pinching in or out of the monitor image or the like. The display change process is not limited to these examples.

表示変更処理は、「監視画像に対するユーザの操作によって当該監視画像を生成している PTZ カメラの PTZ 機能が制御され、その結果として監視画像の表示が変更される」という処理を含む。例えば、表示変更処理は、監視画像上で指をスライドさせる操作に応じて、当該監視画像を生成している PTZ カメラのパン・チルト機能が制御された結果として、監視画像がスクロールされる処理である。また例えば、表示変更処理は、監視画像をピンチイン・ピンチアウトする操作に応じて、当該監視画像を取得している PTZ カメラのズーム機能が制御(テレ・ワイドが変更)された結果として、監視画像が縮小・拡大される処理である。その他、表示変更処理は、デジタルズーム等のデジタル処理の結果として監視画像の表示が変更される処理を含む。 The display change process includes a process that "the PTZ function of the PTZ camera that generates the surveillance image is controlled by the user's operation on the surveillance image, and as a result, the display of the surveillance image is changed". For example, the display change process is a process in which the surveillance image is scrolled as a result of controlling the pan / tilt function of the PTZ camera that is generating the surveillance image in response to the operation of sliding the finger on the surveillance image. be. Further, for example, in the display change process, the zoom function of the PTZ camera acquiring the surveillance image is controlled (tele-wide is changed) in response to the operation of pinching in / out the surveillance image, and as a result, the surveillance image is changed. Is a process that is reduced or enlarged. In addition, the display change process includes a process of changing the display of the surveillance image as a result of digital processing such as digital zoom.

<第1処理部2020が行う処理>
第1処理部2020は、イベント検出位置情報の生成を行う。イベント検出位置情報は、例えば情報処理装置2000を利用する監視システムで用いられる。イベントは、この監視システムにおいて検出の対象とする様々な事象である。例えばイベントは、人、動物、車等の乗り物その他物体(以下、単に「物体」という。)の映像監視線の通過、監視領域における物体の所定の事象(侵入、立ち去り、出現、消失、侵入、立ち去り、出現、消失、喧嘩、滞留、うろつき、転倒、立ち上がり、座り込み、移動方向の変化、逆走、万引き、迂回、損傷、持ち去り、置き去り、落書き、群衆の形成、等)、線で定義された特定ルートの物体の移動等である。イベント検出位置は、例えば上記監視システムにおける上記映像監視線又は監視領域を示す位置として用いられる。
<Processing performed by the first processing unit 2020>
The first processing unit 2020 generates event detection position information. The event detection position information is used, for example, in a monitoring system that uses the information processing apparatus 2000. Events are various events to be detected in this monitoring system. For example, an event is the passage of a vehicle such as a person, an animal, a car or other object (hereinafter, simply referred to as an "object") through a video surveillance line, a predetermined event of an object in the surveillance area (intrusion, departure, appearance, disappearance, intrusion, etc.). Departure, appearance, disappearance, fight, stagnation, prowl, fall, stand up, sit down, change direction, reverse run, bargaining, detour, damage, take away, left behind, graffiti, crowd formation, etc.), defined by lines For example, the movement of an object on a specific route. The event detection position is used, for example, as a position indicating the video monitoring line or the monitoring area in the monitoring system.

なお、映像監視線とは、ユーザにより監視画像等に重畳された線であって、当該線を横切る(通過する)物体を検知するための線である。映像監視線は方向の属性(右から左、左から右、両方向等)を持っていてもよく、ユーザにより指定された方向の物体の通過があった場合にのみ、アラートが出されるよう設計されていてもよい。また、監視領域とは、ユーザにより設定された監視画像等の一部の領域であって、所定のイベントを検知するための領域である。 The video surveillance line is a line superimposed on the surveillance image or the like by the user, and is a line for detecting an object that crosses (passes) the line. The video surveillance line may have directional attributes (right-to-left, left-to-right, bidirectional, etc.) and is designed to alert only when an object passes in the direction specified by the user. You may be. Further, the monitoring area is a part of a monitoring image or the like set by the user, and is an area for detecting a predetermined event.

<<イベント検出位置を指定する操作の例>>
図9は、第1操作によってイベント検出位置が指定される様子を例示する図である。図9(a)は、指40で線を引く第1操作によって、線で表されるイベント検出位置50が指定される様子を表している。図9(b)は、図9(a)と同じ操作によって、四角形の領域で表されるイベント検出位置50が指定される様子を表している。なお、図9(a)や図9(b)の操作が第2処理部2040で処理される場合、例えば第2処理部2040は、監視画像や監視画像を含むウインドウをスクロールする。
<< Example of operation to specify event detection position >>
FIG. 9 is a diagram illustrating how the event detection position is designated by the first operation. FIG. 9A shows how the event detection position 50 represented by the line is designated by the first operation of drawing a line with the finger 40. FIG. 9B shows how the event detection position 50 represented by the rectangular area is designated by the same operation as in FIG. 9A. When the operations of FIGS. 9A and 9B are processed by the second processing unit 2040, for example, the second processing unit 2040 scrolls the monitoring image and the window including the monitoring image.

図9(c)は、ピンチアウト操作によって、線で表されるイベント検出位置50が指定される様子を表している。図9(d)は、図9(c)と同じ操作によって、四角形の領域で表されるイベント検出位置50が指定される様子を表している。なお、図9(c)や図9(d)の操作が第2処理部2040で処理される場合、例えば第2処理部2040は、監視画像や監視画像を含むウインドウを拡大する。また、ピンチイン操作の場合は、ピンチアウト操作の逆となり、監視画像や監視画像を含むウインドウを縮小する。 FIG. 9C shows how the event detection position 50 represented by the line is designated by the pinch-out operation. FIG. 9D shows how the event detection position 50 represented by the rectangular area is designated by the same operation as in FIG. 9C. When the operations of FIGS. 9 (c) and 9 (d) are processed by the second processing unit 2040, for example, the second processing unit 2040 enlarges the window including the monitoring image and the monitoring image. Further, in the case of the pinch-in operation, the pinch-out operation is reversed, and the monitoring image and the window including the monitoring image are reduced.

図9(e)は、回転操作によって四角形の領域で表されるイベント検出位置50が指定される様子を表している。なお、図9(e)の操作が第2処理部2040で処理される場合、例えば第2処理部2040は、監視画像や監視画像を含むウインドウを回転させる。 FIG. 9E shows how the event detection position 50 represented by the quadrangular area is designated by the rotation operation. When the operation of FIG. 9E is processed by the second processing unit 2040, for example, the second processing unit 2040 rotates the monitoring image and the window including the monitoring image.

図9(f)は、タッチ操作によって、四角形の領域で表されるイベント検出位置50が指定される様子を表している。なお、図9(f)の操作が第2処理部2040で処理される場合、例えば第2処理部2040は、監視画像や監視画像を含むウインドウに対する選択操作となる。 FIG. 9 (f) shows how the event detection position 50 represented by the quadrangular area is designated by the touch operation. When the operation of FIG. 9 (f) is processed by the second processing unit 2040, for example, the second processing unit 2040 is a selection operation for the monitoring image and the window including the monitoring image.

ただし、第1操作は図9に示す各操作に限定されない。また、各第1操作によって指定されるイベント検出位置50は、図9の例に限定されない。例えば、図9(a)等の線を引く操作によって指定されるイベント検出位置50は、線に所定の幅を与えた四角形等の領域であってもよい。また、図9(b)等の領域を引く操作によって指定されるイベント検出位置50は、四角形に限定されない。例えば図9(b)において、イベント検出位置50は、指の軌跡を直径とする円であってもよい。また、図9(f)のタッチ操作によって指定されるイベント検出位置50は、点でもよいし、四角形以外の形状の領域(円等)でもよい。 However, the first operation is not limited to each operation shown in FIG. Further, the event detection position 50 designated by each first operation is not limited to the example of FIG. For example, the event detection position 50 designated by the operation of drawing a line as shown in FIG. 9A may be an area such as a quadrangle in which a predetermined width is given to the line. Further, the event detection position 50 designated by the operation of pulling the area as shown in FIG. 9B is not limited to the quadrangle. For example, in FIG. 9B, the event detection position 50 may be a circle whose diameter is the locus of the finger. Further, the event detection position 50 designated by the touch operation in FIG. 9 (f) may be a point or a region (circle or the like) having a shape other than a quadrangle.

各々の操作でイベント検出位置がどのように設定されるかは、モバイル機器に実装される情報処理装置2000の中で予め定義されていてもよい。例えば、指40で線を引く第1操作によって、図9(a)又は図9(b)で示すいずれの設定となるか、又はピンチアウト操作によって図9(c)又は図9(d)で示すいずれの設定となるか、については、予め定義されていてもよい。 How the event detection position is set in each operation may be defined in advance in the information processing apparatus 2000 mounted on the mobile device. For example, the first operation of drawing a line with the finger 40 results in either the setting shown in FIG. 9 (a) or FIG. 9 (b), or the pinch-out operation in FIG. 9 (c) or FIG. 9 (d). Which setting is to be shown may be defined in advance.

<<イベント検出位置情報の詳細>>
線又は領域で表されるイベント検出位置のイベント検出位置情報は、イベント検出位置を表す座標の組み合わせを示す。座標の組み合わせで線又は領域を表現する方法には、様々な既知の方法がある。第1処理部2020は、これら既知の方法を利用することで、線又は領域で表されるイベント検出位置を座標の組み合わせで表す。これら既知の方法についての説明は省略する。
<< Details of event detection location information >>
The event detection position information of the event detection position represented by a line or a region indicates a combination of coordinates representing the event detection position. There are various known methods for expressing a line or region by combining coordinates. By utilizing these known methods, the first processing unit 2020 represents the event detection position represented by a line or a region by a combination of coordinates. The description of these known methods will be omitted.

イベント検出位置を表す座標は、例えば監視画像上の座標(カメラ座標)である。また例えば、この座標は、監視画像上の座標に対応する実空間上の座標でもよい。例えば実空間上の座標は、GPS(Global Positioning System)座標である。また例えば、実空間上の座標は、施設内のフロアマップ上で定義された座標でもよい。監視画像上の座標に対応する実空間上の座標と、監視画像上の座標とは、監視画像を撮像したカメラに関する各種のパラメタ(カメラの実空間上の位置、及びカメラの姿勢や画角等の他、内部パラメタ等も含む。以下「カメラパラメタ」という。)を用いて互いに変換可能である。 The coordinates representing the event detection position are, for example, the coordinates on the surveillance image (camera coordinates). Further, for example, the coordinates may be the coordinates in the real space corresponding to the coordinates on the surveillance image. For example, the coordinates in real space are GPS (Global Positioning System) coordinates. Further, for example, the coordinates in the real space may be the coordinates defined on the floor map in the facility. The coordinates on the real space corresponding to the coordinates on the surveillance image and the coordinates on the surveillance image are various parameters related to the camera that captured the surveillance image (position in the real space of the camera, posture and angle of view of the camera, etc.). In addition, internal parameters and the like are also included. They can be converted to each other using "camera parameters").

イベント検出位置の設定を監視画像上で行う場合で、イベント検出位置を実空間上の座標で表す場合、第1処理部2020は、上記カメラパラメタを情報処理装置2000の内部又は外部の記憶装置等から取得する。その後、第1処理部2020は、監視画像上の座標に対応する実空間上の座標を算出する。なお、上記カメラパラメタを用いて画像上の座標を実空間上の座標に変換する方法には、様々な既知の方法を利用できる。これら既知の方法についての説明は省略する。イベント検出位置の設定を図5で表されるような地図上やフロアマップ上で行う場合は、第1処理部2020は、直接 GPS 座標やフロアマップ座標を取得しても良い。 When the event detection position is set on the monitoring image and the event detection position is represented by the coordinates in the real space, the first processing unit 2020 stores the camera parameters in the internal or external storage device of the information processing device 2000, etc. Get from. After that, the first processing unit 2020 calculates the coordinates in the real space corresponding to the coordinates on the monitored image. Various known methods can be used as a method for converting the coordinates on the image into the coordinates on the real space using the above camera parameters. The description of these known methods will be omitted. When the event detection position is set on the map or the floor map as shown in FIG. 5, the first processing unit 2020 may directly acquire the GPS coordinates or the floor map coordinates.

なお、複数の監視カメラがそれぞれ監視画像を取得する場合、GPS 座標やフロアマップ座標は、複数の監視カメラのカメラ座標の共通座標となりうる。 When multiple surveillance cameras acquire surveillance images, GPS coordinates and floor map coordinates can be common coordinates of camera coordinates of multiple surveillance cameras.

例えば第1処理部2020は、イベント検出位置情報を、情報処理装置2000の内部又は外部の記憶装置に記憶する。また例えば、第1処理部2020は、イベント検出位置情報を利用する監視システム等へイベント検出位置情報を送信してもよい。 For example, the first processing unit 2020 stores the event detection position information in the internal or external storage device of the information processing apparatus 2000. Further, for example, the first processing unit 2020 may transmit the event detection position information to a monitoring system or the like that uses the event detection position information.

<制御部2060の詳細>
前述したように、制御部2060は第1操作を第1処理部2020と第2処理部2040のどちらかに処理させる。以下、制御部2060が第1処理部2020に第1操作を処理させる場合の情報処理装置2000の状態を「イベント位置設定モード」とも表記する。また、制御部2060が第2処理部2040に第1操作を処理させる場合の情報処理装置2000の状態を「表示変更モード」とも表記する。また、前述した PTZ カメラの制御を伴う表示変更処理を行う場合の情報処理装置2000の状態は、「表示変更モード」だけでなく、「PTZ カメラ制御モード」とも表記される。
<Details of control unit 2060>
As described above, the control unit 2060 causes either the first processing unit 2020 or the second processing unit 2040 to process the first operation. Hereinafter, the state of the information processing apparatus 2000 when the control unit 2060 causes the first processing unit 2020 to process the first operation is also referred to as an “event position setting mode”. Further, the state of the information processing apparatus 2000 when the control unit 2060 causes the second processing unit 2040 to process the first operation is also referred to as a “display change mode”. Further, the state of the information processing apparatus 2000 when the display change process accompanied by the control of the PTZ camera described above is performed is described not only as the “display change mode” but also as the “PTZ camera control mode”.

制御部2060が第1処理部2020と第2処理部2040のどちらに第1操作を処理させるかを決定する方法、すなわち、表示変更モードとイベント検出位置設定モードの切替え方法は様々である。例えば制御部2060は、ユーザによって行われる第2操作に基づいて、第1操作を第1処理部2020と第2処理部2040のどちらに処理させるかを決定する。第2操作の具体的な内容については後述する。また例えば制御部2060は、情報処理装置2000の姿勢に基づいて、第1操作を第1処理部2020と第2処理部2040のどちらに処理させるかを決定する。 There are various methods in which the control unit 2060 determines whether the first processing unit 2020 or the second processing unit 2040 processes the first operation, that is, a method of switching between the display change mode and the event detection position setting mode. For example, the control unit 2060 determines whether to process the first operation by the first processing unit 2020 or the second processing unit 2040 based on the second operation performed by the user. The specific contents of the second operation will be described later. Further, for example, the control unit 2060 determines whether to process the first operation by the first processing unit 2020 or the second processing unit 2040 based on the posture of the information processing device 2000.

<<第2操作に基づくモード切替えの例1>>
制御部2060は、ユーザによって行われる第2操作に基づいて、第1操作を、第1処理部2020と第2処理部2040のどちらか一方の通常時と異なる方に、一時的に処理させてもよい。すなわち制御部2060は、ユーザによって行われる第2操作に基づいて、一時的に表示変更モードからイベント検出位置設定モードに切り替える。又は、制御部2060は、ユーザによって行われる第2操作に基づいて、一時的にイベント検出位置設定モードから表示変更モードに切り替える。
<< Example of mode switching based on the second operation 1 >>
Based on the second operation performed by the user, the control unit 2060 temporarily causes the first operation to be processed by either the first processing unit 2020 or the second processing unit 2040, whichever is different from the normal time. May be good. That is, the control unit 2060 temporarily switches from the display change mode to the event detection position setting mode based on the second operation performed by the user. Alternatively, the control unit 2060 temporarily switches from the event detection position setting mode to the display change mode based on the second operation performed by the user.

この場合、例えば、第2操作は、第1操作の開始位置を所定時間以上押す操作であってもよい。例えば第1操作が、監視画像に対して指をスライドさせる操作であるとする。この場合、例えばユーザは、監視画像のある箇所を所定時間以上押し続けた(長押しした)後、その箇所を押した状態から指をスライドさせる操作を開始する。このとき、「監視画像のある箇所を所定時間以上押し続ける(長押しする)操作」である第2操作に基づいて、一時的に表示変更モードからイベント検出位置設定モードに切り替わる。そのため、制御部2060は、それ以降の指をスライドさせる操作を第1処理部2020に処理させる。その結果、例えば、指をスライドさせる軌跡に沿って監視画像上に映像監視線が重畳される。 In this case, for example, the second operation may be an operation of pressing the start position of the first operation for a predetermined time or longer. For example, assume that the first operation is an operation of sliding a finger with respect to the surveillance image. In this case, for example, the user keeps pressing (holding down) a certain part of the surveillance image for a predetermined time or longer, and then starts an operation of sliding the finger from the state where the part is pressed. At this time, the display change mode is temporarily switched to the event detection position setting mode based on the second operation, which is the "operation of pressing and holding (holding down) a certain part of the surveillance image for a predetermined time or longer". Therefore, the control unit 2060 causes the first processing unit 2020 to process the subsequent operation of sliding the finger. As a result, for example, the video surveillance line is superimposed on the surveillance image along the trajectory of sliding the finger.

または、例えば二本の指で監視画像のある箇所を長押しした後、ピンチアウト操作を開始した場合、制御部2060は、そのピンチアウト操作を第1処理部2020に処理させる。その結果、例えばピンチアウト操作を行った範囲に応じて監視画像上に監視領域が設定される。 Alternatively, for example, when the pinch-out operation is started after pressing and holding a certain portion of the monitoring image with two fingers, the control unit 2060 causes the first processing unit 2020 to process the pinch-out operation. As a result, for example, a monitoring area is set on the monitoring image according to the range in which the pinch-out operation is performed.

制御部2060は、「第1操作の前に開始され、当該第1操作の操作中に継続して行われる第2操作が受け付けられている間に行われる当該第1操作を第1処理部2020に処理させ、第2操作が受け付けられていない間に行われる第1操作を第2処理部2040に処理させる」という制御を行ってもよい。例えば制御部2060は、タッチパネル10の左下(又はタッチパネル10に表示されている監視画像等の左下)がタッチされている状態で指をスライドさせる操作が行われると、その操作を一時的に第1処理部2020に処理させる。つまり、タッチパネル10の左下がタッチされ、当該タッチが継続している間はイベント検出位置設定モードとなり、指をスライドさせる操作はイベント検出位置を指定する操作となる。一方、制御部2060は、タッチパネル10の左下がタッチされていない状態(通常時の状態)で指をスライドさせる操作が行われると、その操作を第2処理部2040に処理させる。つまり、通常時は表示変更モードであり、指をスライドさせる操作は、監視画像のスクロール等の表示変更処理を行うための操作となる。通常時(表示変更モード)の状態で画面左下がタッチされ、そのタッチが継続している間に指をスライドさせる操作が行われると、一時的にイベント検出位置設定モードとなり、指をスライドさせる軌跡に沿って監視画像上に映像監視線が重畳される。図10は監視画像の左下をタッチしながら映像監視線(イベント検出位置50)を重畳している様子を表している図である。 The control unit 2060 "starts the first operation before the first operation, and performs the first operation while the second operation continuously performed during the operation of the first operation is accepted, the first processing unit 2020. , And let the second processing unit 2040 process the first operation performed while the second operation is not accepted. " For example, when the control unit 2060 slides a finger while the lower left of the touch panel 10 (or the lower left of the monitoring image displayed on the touch panel 10) is touched, the control unit 2060 temporarily performs the first operation. Let the processing unit 2020 process. That is, the lower left of the touch panel 10 is touched, and while the touch continues, the event detection position setting mode is set, and the operation of sliding the finger is an operation of designating the event detection position. On the other hand, when the operation of sliding the finger is performed in the state where the lower left of the touch panel 10 is not touched (normal state), the control unit 2060 causes the second processing unit 2040 to process the operation. That is, the display change mode is normally used, and the operation of sliding the finger is an operation for performing display change processing such as scrolling of the monitoring image. If the lower left of the screen is touched in the normal state (display change mode) and the operation of sliding the finger is performed while the touch continues, the event detection position setting mode is temporarily set and the trajectory of sliding the finger. A video surveillance line is superimposed on the surveillance image along the line. FIG. 10 is a diagram showing a state in which a video monitoring line (event detection position 50) is superimposed while touching the lower left of the monitoring image.

または、例えばタッチパネル10の左下がタッチされている状態で、監視画像上においてピンチアウト操作が行われた場合、制御部2060は、そのピンチアウト操作を第1処理部2020に処理させる。その結果、例えばピンチアウト操作を行った範囲に応じて監視画像上に監視領域が設定される。 Alternatively, for example, when a pinch-out operation is performed on the monitoring image while the lower left of the touch panel 10 is touched, the control unit 2060 causes the first processing unit 2020 to process the pinch-out operation. As a result, for example, a monitoring area is set on the monitoring image according to the range in which the pinch-out operation is performed.

<<第2操作に基づくモード切替えの例2>>
制御部2060は、上述した以外のその他様々なパターンによって、ユーザにより行われる第2操作に基づいて表示変更モードとイベント検出位置設定モードとを切替えてもよい。例えば、上述した「長押しによる切替え」は、一時的な切替えではなく、長押しのたびに表示変更モードとイベント検出位置設定モードとが切り替わってもよい。
<< Example 2 of mode switching based on the second operation >>
The control unit 2060 may switch between the display change mode and the event detection position setting mode based on the second operation performed by the user according to various patterns other than those described above. For example, the above-mentioned "switching by long pressing" is not a temporary switching, and the display change mode and the event detection position setting mode may be switched each time the long press is performed.

他の切替えパターンとしては、例えば制御部2060は、第2操作を受け付ける前は、第1操作を第2処理部2040に処理させ(表示変更モード)、第2操作を受け付けた後は、第1操作を第1処理部2020に処理させてもよい(イベント検出位置設定モード)。ユーザの視点からは、第2操作を行うことで監視画像等の表示変更処理がされないようにした後、イベント検出位置を指定することとなる。例えば、ユーザは、監視画像がスクロールされないように第2操作をした後(監視画像のスクロールを止めた後)、イベント検出位置を指定する線を引く操作を行う。 As another switching pattern, for example, the control unit 2060 causes the second processing unit 2040 to process the first operation before accepting the second operation (display change mode), and after receiving the second operation, the first operation is performed. The operation may be processed by the first processing unit 2020 (event detection position setting mode). From the user's point of view, the event detection position is specified after the display change process of the monitoring image or the like is prevented by performing the second operation. For example, the user performs a second operation so that the surveillance image is not scrolled (after stopping the scrolling of the surveillance image), and then performs an operation of drawing a line for designating the event detection position.

例えば第2操作は、監視画像、地図画像又はそれらを含むウインドウを所定時間以上タッチする操作であってもよい。この第2操作は、監視画像等の画像上の任意の箇所で受け付けられてもよいし、監視画像等の所定箇所のみで受け付けられてもよい。この所定箇所は、例えば監視画像等の四隅等である。 For example, the second operation may be an operation of touching a monitoring image, a map image, or a window containing them for a predetermined time or longer. This second operation may be accepted at any place on the image such as a surveillance image, or may be accepted only at a predetermined place such as a surveillance image. These predetermined locations are, for example, four corners of a surveillance image or the like.

また例えば第2操作は、タッチパネル10を所定時間以上タッチする操作であってもよい。この第2操作は、タッチパネル10上の任意の箇所で受け付けられてもよいし、タッチパネル10上の所定箇所のみで受け付けられてもよい。この所定箇所は、例えばタッチパネル10の四隅等である。なお、「タッチパネル10をタッチする操作」は、「監視画像、地図画像又はそれらを含むウインドウをタッチする操作」と異なり、監視画像、地図画像又はそれらを含むウインドウが表示されていない箇所に対するタッチ操作も含む。 Further, for example, the second operation may be an operation of touching the touch panel 10 for a predetermined time or longer. This second operation may be accepted at any place on the touch panel 10, or may be received only at a predetermined place on the touch panel 10. The predetermined portions are, for example, the four corners of the touch panel 10. The "operation of touching the touch panel 10" is different from the "operation of touching a surveillance image, a map image, or a window containing them", and is a touch operation for a portion where the surveillance image, the map image, or the window containing them is not displayed. Also includes.

また例えば、第2操作は、上記監視画像等、又はタッチパネル10上の複数箇所を、同時又は所定の順番でタッチする操作であってもよい。例えばこの第2操作は、表示画面の四隅を左上、右上、右下、左下の順にタッチ操作等である。なお、この複数箇所は、任意の箇所でもよいし、所定の箇所でもよい。 Further, for example, the second operation may be an operation of touching the monitoring image or the like or a plurality of points on the touch panel 10 at the same time or in a predetermined order. For example, this second operation is a touch operation or the like by touching the four corners of the display screen in the order of upper left, upper right, lower right, and lower left. The plurality of places may be any place or a predetermined place.

また例えば、第2操作は所定の音声の入力であってもよい。この場合、情報処理装置2000は、マイク等から入力される音声を取得し、その音声が所定の音声であるか否かを判定する。そして、制御部2060は、所定の音声が入力された後(第2操作が行われた後)は、第1操作を第1処理部2020に処理させる。なお、ユーザが入力した音声が所定の音声であるか否かを判定する方法には、様々な既知の音声解析技術が利用できる。これら既知の技術に関する説明は省略する。 Further, for example, the second operation may be a predetermined voice input. In this case, the information processing apparatus 2000 acquires the voice input from the microphone or the like, and determines whether or not the voice is a predetermined voice. Then, the control unit 2060 causes the first processing unit 2020 to process the first operation after the predetermined voice is input (after the second operation is performed). Various known voice analysis techniques can be used as a method for determining whether or not the voice input by the user is a predetermined voice. Descriptions of these known techniques will be omitted.

また例えば、第2操作は、モバイル機器が有するハードウエアボタン(音量変更ボタンや電源ボタン)に対する操作でもよい。例えばこの操作は、ハードウエアボタンの長押しや、複数のハードウエアボタンを所定の順序で押す操作等である。なお、このハードウエアボタンは、音量変更ボタン等の一般的なハードウエアボタンだけでなく、第2操作用に設けられる専用のハードウエアボタンであってもよい。 Further, for example, the second operation may be an operation for a hardware button (volume change button or power button) of the mobile device. For example, this operation is an operation of pressing and holding a hardware button, an operation of pressing a plurality of hardware buttons in a predetermined order, and the like. The hardware button may be not only a general hardware button such as a volume change button but also a dedicated hardware button provided for the second operation.

なお、制御部2060は、第2操作が行われたことで「第1操作を第1処理部2020に処理させる状態」になった後、所定の条件を満たした場合に、「第1操作を第2処理部2040に処理させる状態」に移行するようにしてもよい。例えばこの所定の条件は、「再度第2操作が行われる」という条件である。ここで、「第1操作を第1処理部2020に処理させる状態」に制御部2060を移行させる第2操作と、「第1操作を第2処理部2040に処理させる状態」に制御部2060を移行させる第2操作は、同じ操作であってもよいし、異なる操作であってもよい。また例えば、制御部2060は、「第1操作を第1処理部2020に処理させる状態」になった後、所定の時間が経過した場合に、「第1操作を第2処理部2040に処理させる状態」に移行する。また例えば、制御部2060は、「第1操作を第1処理部2020に処理させる状態」になった後、第1操作が検出されない状態が所定の時間以上継続した場合に、「第1操作を第2処理部2040に処理させる状態」に移行する。 It should be noted that the control unit 2060 performs the "first operation" when a predetermined condition is satisfied after the "state in which the first operation is processed by the first processing unit 2020" due to the second operation being performed. It is also possible to shift to the state of being processed by the second processing unit 2040. For example, this predetermined condition is a condition that "the second operation is performed again". Here, the control unit 2060 is moved to the second operation of shifting the control unit 2060 to the "state in which the first operation is processed by the first processing unit 2020" and the control unit 2060 to "the state of causing the second processing unit 2040 to process the first operation". The second operation to be transferred may be the same operation or a different operation. Further, for example, the control unit 2060 causes the second processing unit 2040 to process the first operation when a predetermined time has elapsed after the state in which the first operation is processed by the first processing unit 2020. Move to "state". Further, for example, the control unit 2060 performs the "first operation" when the state in which the first operation is not detected continues for a predetermined time or more after the "state in which the first operation is processed by the first processing unit 2020" is entered. The state shifts to the state of being processed by the second processing unit 2040.

また、制御部2060は、上述の説明とは逆に、「第2操作を受け付ける前は、第1操作を第1処理部2020に処理させ、第2操作を受け付けた後は、第1操作を第2処理部2040に処理させる」という制御を行ってもよい。 Further, contrary to the above description, the control unit 2060 causes the first processing unit 2020 to process the first operation before accepting the second operation, and after receiving the second operation, performs the first operation. The control of "making the second processing unit 2040 process" may be performed.

<<情報処理装置2000の姿勢に基づくモード切替えの例>>
例えば制御部2060は、情報処理装置2000の姿勢が所定の第1姿勢である場合に、イベント検出位置設定モードとして第1操作を第1処理部2020に処理させる。情報処理装置2000の第1姿勢とは異なる第2姿勢(例えば第1姿勢以外の全ての姿勢)である場合に、表示変更モードとして第1操作を第2処理部2040に処理させてもよい。
<< Example of mode switching based on the posture of the information processing device 2000 >>
For example, when the posture of the information processing apparatus 2000 is the predetermined first posture, the control unit 2060 causes the first processing unit 2020 to process the first operation as the event detection position setting mode. When the second posture (for example, all postures other than the first posture) different from the first posture of the information processing apparatus 2000, the first operation may be processed by the second processing unit 2040 as the display change mode.

モバイル機器は姿勢の変更が容易のため、ユーザは、イベント検出位置を設定する操作と、監視画像等の表示を変更する処理とを、容易に使い分けることができる。 Since the posture of the mobile device can be easily changed, the user can easily use the operation of setting the event detection position and the process of changing the display of the monitoring image or the like.

一般的に、モバイル機器は、平面視における形状が、縦と横の長さが異なる形状(略長方形等)である。そこで例えば、情報処理装置2000は、情報処理装置2000の長辺を横方向にした姿勢(情報処理装置2000が横長になる姿勢)を第1姿勢として扱い、情報処理装置2000の長辺を縦方向にした姿勢(情報処理装置2000が縦長になる姿勢)を第2姿勢として扱う。つまりこの場合、ユーザは、監視画像のスクロール等を行いたい時は、情報処理装置2000が縦長になるように情報処理装置2000を保持しながら操作を行う。一方、ユーザは、イベント検出位置を設定したい時は、情報処理装置2000が横長になるように情報処理装置2000を保持しながら操作を行う。図11は、情報処理装置2000の姿勢を例示する図である。図11(a)は情報処理装置2000の長辺を縦方向にした姿勢を例示しており、図11(b)は情報処理装置2000の短辺を縦方向にした姿勢を例示している。 Generally, a mobile device has a shape in a plan view having different vertical and horizontal lengths (substantially rectangular or the like). Therefore, for example, the information processing device 2000 treats the posture in which the long side of the information processing device 2000 is horizontal (the posture in which the information processing device 2000 is horizontally long) as the first posture, and treats the long side of the information processing device 2000 in the vertical direction. The posture (the posture in which the information processing apparatus 2000 is vertically elongated) is treated as the second posture. That is, in this case, when the user wants to scroll the monitoring image or the like, he / she operates while holding the information processing apparatus 2000 so that the information processing apparatus 2000 is vertically long. On the other hand, when the user wants to set the event detection position, he / she operates while holding the information processing apparatus 2000 so that the information processing apparatus 2000 is horizontally long. FIG. 11 is a diagram illustrating the posture of the information processing apparatus 2000. FIG. 11A exemplifies the posture in which the long side of the information processing apparatus 2000 is in the vertical direction, and FIG. 11B exemplifies the posture in which the short side of the information processing apparatus 2000 is in the vertical direction.

<各種所定の値について>
上述の各説明における各種所定の値(所定の操作、所定の幅、又は所定の時間等)は、例えばその値を用いる機能構成部に予め設定される。また例えば、これら所定の値は、情報処理装置2000の内部又は外部に設けられている記憶装置に記憶される。この場合、各機能構成部は、利用する所定の値をこの記憶装置から取得する。
<About various predetermined values>
Various predetermined values (predetermined operation, predetermined width, predetermined time, etc.) in the above description are preset, for example, in the functional component using the values. Further, for example, these predetermined values are stored in a storage device provided inside or outside the information processing apparatus 2000. In this case, each functional component acquires a predetermined value to be used from this storage device.

<情報処理装置2000の利用方法の例>
例えば情報処理装置2000が実装されるモバイル機器による監視は、普段は監視する必要がないが、一時的に監視する必要が生じるような場所の監視作業で利用される。例えば、普段は和やかで監視の必要がない場所であっても、何らかの催し物(花火大会等)が行われる期間だけ監視が必要となるケースがある。また、このようなケースでは、行われる催し物の種類等によっては、監視すべき位置が異なり、また、監視すべき位置がリアルタイムで変更されることもある。そのため、イベント検出位置が固定された大規模な監視システムを常時運用するよりも、モバイル機器のタッチパネルを用いた簡易な方法でイベント検出位置を設定・変更できる簡便かつ一時的に利用可能な監視システムの方が望ましいことがある。情報処理装置2000によれば、イベント検出位置をタッチ操作等で容易に設定できる。そのため情報処理装置2000は、このようなケースに好適である。
<Example of how to use the information processing device 2000>
For example, monitoring by a mobile device on which the information processing apparatus 2000 is mounted is usually not necessary, but is used for monitoring work in a place where temporary monitoring is required. For example, even in a place that is usually peaceful and does not need to be monitored, there are cases where monitoring is required only during the period when some kind of event (fireworks display, etc.) is held. Further, in such a case, the position to be monitored may differ depending on the type of event to be performed, and the position to be monitored may be changed in real time. Therefore, rather than constantly operating a large-scale monitoring system with a fixed event detection position, a simple and temporary monitoring system that can set and change the event detection position using a simple method using the touch panel of a mobile device. May be preferable. According to the information processing apparatus 2000, the event detection position can be easily set by a touch operation or the like. Therefore, the information processing apparatus 2000 is suitable for such a case.

情報処理装置2000が実装されるモバイル機器による監視の利用方法は、上述のような一時的な監視作業に利用する方法に限定されない。例えば情報処理装置2000が実装されるモバイル監視システムは、常時運用される監視システムとして、イベント検出位置の設定等に利用されてもよい。例えば、監視員が何らかの事情で一時的に持ち場を離れる場合がある。その場合、この監視員は、情報処理装置2000を用いて、その持ち場をイベント検出位置に設定する。こうすることで、持ち場を離れた際に生じたイベントが見過ごされてしまうことを防ぐことができる。また、店舗を経営する経営者が夜間の店舗内の様子を監視したい場合等においても、モバイル機器による監視は利便性が高い。 The method of using monitoring by the mobile device on which the information processing device 2000 is mounted is not limited to the method used for temporary monitoring work as described above. For example, the mobile monitoring system in which the information processing apparatus 2000 is mounted may be used for setting an event detection position or the like as a monitoring system that is constantly operated. For example, a watchman may temporarily leave the place for some reason. In that case, the observer sets the place to the event detection position by using the information processing apparatus 2000. By doing this, it is possible to prevent the event that occurred when leaving the place from being overlooked. In addition, even when the manager who manages the store wants to monitor the inside of the store at night, monitoring by a mobile device is highly convenient.

[実施例]
以下、情報処理装置2000を利用する監視システム3000を例示する。図12は、監視システム3000及び情報処理装置2000を例示するブロック図である。なお、情報処理装置2000を利用する監視システムは、以下で説明する監視システムに限定されない。
[Example]
Hereinafter, a monitoring system 3000 using the information processing apparatus 2000 will be illustrated. FIG. 12 is a block diagram illustrating the monitoring system 3000 and the information processing apparatus 2000. The monitoring system using the information processing apparatus 2000 is not limited to the monitoring system described below.

監視システム3000は、監視カメラ3020、記憶装置3040、イベント検出装置3060、監視モニタ3080、及び警報装置3100を有する。記憶装置3040は、監視カメラ3020によって撮像された監視画像を記憶する。また、記憶装置3040は、第1処理部2020によって生成されたイベント検出位置情報も記憶する。なお、監視カメラ3020は映像を撮像するカメラである。そのため、記憶装置3040には、監視カメラ3020によって撮像された映像を構成するフレームが記憶される。 The surveillance system 3000 includes a surveillance camera 3020, a storage device 3040, an event detection device 3060, a surveillance monitor 3080, and an alarm device 3100. The storage device 3040 stores the surveillance image captured by the surveillance camera 3020. The storage device 3040 also stores the event detection position information generated by the first processing unit 2020. The surveillance camera 3020 is a camera that captures images. Therefore, the storage device 3040 stores the frames constituting the image captured by the surveillance camera 3020.

記憶装置3040及びイベント検出装置3060は、例えばクラウド型の映像記憶装置として実装されてもよい。図13は、クラウド型映像記憶装置4000を有する監視システム3000を例示するブロック図である。このクラウド型映像記憶装置4000は、ネットワークを介して、情報処理装置2000からイベント検出位置を示す情報を受け付け、その情報を記憶装置3040に記憶する。また、クラウド型映像記憶装置4000は、監視カメラ3020によって撮像された監視画像を記憶装置3040に記憶する。そして、クラウド型映像記憶装置4000のイベント検出装置3060は、記憶装置3040に記憶された監視画像に対し、記憶装置3040に記憶されたイベント検出位置を利用して、イベントの検出を行う。そして、クラウド型映像記憶装置4000は、ネットワークを介し、監視モニタ3080や警報装置3100に対して、イベント検出の結果の通知などを行う。 The storage device 3040 and the event detection device 3060 may be implemented as, for example, a cloud-type video storage device. FIG. 13 is a block diagram illustrating a monitoring system 3000 having a cloud-type video storage device 4000. The cloud-type video storage device 4000 receives information indicating an event detection position from the information processing device 2000 via a network, and stores the information in the storage device 3040. Further, the cloud-type video storage device 4000 stores the surveillance image captured by the surveillance camera 3020 in the storage device 3040. Then, the event detection device 3060 of the cloud type video storage device 4000 detects an event for the monitoring image stored in the storage device 3040 by using the event detection position stored in the storage device 3040. Then, the cloud-type video storage device 4000 notifies the monitoring monitor 3080 and the alarm device 3100 of the event detection result via the network.

クラウド型映像記憶装置4000を情報処理装置2000、監視モニタ3080、及び警報装置3100と接続する各ネットワークは、インターネットなどの WAN(Wide Area Network)であってもよいし、LAN(Local Area Network)であってもよい。 Each network connecting the cloud-type video storage device 4000 to the information processing device 2000, the monitoring monitor 3080, and the alarm device 3100 may be a WAN (Wide Area Network) such as the Internet, or may be a LAN (Local Area Network). There may be.

クラウド型映像記憶装置4000と監視カメラ3020との間は、ネットワークで接続されていてもよいし、バスなどで直接接続されていてもよい。このネットワークも、WAN と LAN のどちらでもよい。 The cloud-type video storage device 4000 and the surveillance camera 3020 may be connected by a network or may be directly connected by a bus or the like. This network can also be WAN or LAN.

また、監視カメラ3020は、記憶装置3040及びイベント検出装置3060を内部に含むインテリジェントカメラとして実装されてもよい。図14は、インテリジェントカメラ5000を有する監視システム3000を例示するブロック図である。撮像部5020は、前述した監視カメラ3020の機能を実現する機能構成部である。インテリジェントカメラ5000は、クラウド型映像記憶装置4000と同様に、情報処理装置2000、監視モニタ3080、及び警報装置3100それぞれとネットワークを介して接続される。このネットワークはいずれも、WAN でもよいし、LAN でもよい。 Further, the surveillance camera 3020 may be implemented as an intelligent camera including a storage device 3040 and an event detection device 3060 inside. FIG. 14 is a block diagram illustrating a surveillance system 3000 having an intelligent camera 5000. The image pickup unit 5020 is a functional component unit that realizes the functions of the surveillance camera 3020 described above. Similar to the cloud-type video storage device 4000, the intelligent camera 5000 is connected to the information processing device 2000, the monitoring monitor 3080, and the alarm device 3100 via a network. Both of these networks can be WANs or LANs.

本実施例において、情報処理装置2000はタブレット端末である。情報処理装置2000は、記憶装置3040から取得する監視画像をタッチパネル10に表示する。ユーザは、情報処理装置2000のタッチパネル10に対して、指やタッチペン等を用いて操作を行う。なお本実施例において、制御部2060は、第1操作の開始位置が1秒間押し続けられた後に第1操作が行われた場合に、第1操作を第1処理部2020に処理させる。つまりこの場合に、第1操作は、イベント検出位置を指定する操作となる。なお、長押しの時間は1 秒に限定されず、1.5 秒であっても、2 秒であってもよく、何秒であってもよい。 In this embodiment, the information processing apparatus 2000 is a tablet terminal. The information processing device 2000 displays the monitoring image acquired from the storage device 3040 on the touch panel 10. The user operates the touch panel 10 of the information processing apparatus 2000 by using a finger, a stylus, or the like. In this embodiment, the control unit 2060 causes the first processing unit 2020 to process the first operation when the first operation is performed after the start position of the first operation is held down for one second. That is, in this case, the first operation is an operation for designating the event detection position. The long press time is not limited to 1 second, and may be 1.5 seconds, 2 seconds, or any number of seconds.

図15及び図16は、実施例においてタッチパネル10に表示される監視画像30を例示する図である。図15(a)の監視画像30において、左側に1つのドア70-1が映っている。ユーザは、図15(a)の監視画像30には映っていない、ドア70-1の1つ手前にあるドア70-2を、イベント検出位置に指定しようとしているとする。 15 and 16 are diagrams illustrating the monitoring image 30 displayed on the touch panel 10 in the embodiment. In the surveillance image 30 of FIG. 15A, one door 70-1 is shown on the left side. It is assumed that the user is trying to designate the door 70-2, which is one in front of the door 70-1, which is not shown in the monitoring image 30 of FIG. 15A, as the event detection position.

まずユーザは、図15(a)に示すように、監視画像30に対して指40をスライドさせる操作を行い、当該監視画像30をスクロールさせる。その結果、図15(b)に示すように、ドア70-2が監視画像30上に表示される。 First, as shown in FIG. 15A, the user performs an operation of sliding the finger 40 with respect to the surveillance image 30, and scrolls the surveillance image 30. As a result, as shown in FIG. 15B, the door 70-2 is displayed on the surveillance image 30.

次にユーザは、図16(a)に示すように、監視画像30に対して映像監視線を引く操作を行う。この際、ユーザは、開始点80を1秒以上押し続けた後に指40をスライドする。すると、図16(b)に示すように、ドア70-2に対してイベント検出位置50が設定される。このイベント検出位置50を示すイベント検出位置情報は、記憶装置3040に記憶される。 Next, as shown in FIG. 16A, the user performs an operation of drawing a video surveillance line on the surveillance image 30. At this time, the user slides the finger 40 after pressing and holding the start point 80 for 1 second or longer. Then, as shown in FIG. 16B, the event detection position 50 is set for the door 70-2. The event detection position information indicating the event detection position 50 is stored in the storage device 3040.

イベント検出装置3060は、記憶装置3040に記憶されたイベント検出位置情報を取得する。そして、イベント検出装置3060は、イベント検出位置において所定のイベント(映像監視線の通過)が起こったことを検出する。本実施例の場合、例えばイベント検出装置3060は、ドア70-1及びドア70-2における人の出入り等を検出する。 The event detection device 3060 acquires the event detection position information stored in the storage device 3040. Then, the event detection device 3060 detects that a predetermined event (passage of the video monitoring line) has occurred at the event detection position. In the case of this embodiment, for example, the event detection device 3060 detects the entry and exit of a person at the door 70-1 and the door 70-2.

例えばイベント検出装置3060は、画像解析を行う計算機である。この場合、イベント検出装置3060は、記憶装置3040から監視画像を取得し、この監視画像を解析する。例えばイベント検出装置3060は、同じ監視カメラ3020によって撮像された複数の監視画像を取得し、その監視画像の中のイベント検出位置に相当する位置を解析する。そして、イベント検出装置3060は、その位置において、所定のイベントを表す変化が検出された場合に、所定のイベントが起こったことを検出する。本実施例の場合、イベント検出装置3060は、ドア70-2の付近について解析することで、ドア70-2における人の出入り等を検出する。ここで、画像内を解析して所定のイベントが起こったことを検出する技術には、既存の技術を利用することができる。 For example, the event detection device 3060 is a computer that performs image analysis. In this case, the event detection device 3060 acquires a surveillance image from the storage device 3040 and analyzes the surveillance image. For example, the event detection device 3060 acquires a plurality of surveillance images captured by the same surveillance camera 3020 and analyzes a position corresponding to the event detection position in the surveillance image. Then, the event detection device 3060 detects that a predetermined event has occurred when a change representing a predetermined event is detected at that position. In the case of this embodiment, the event detection device 3060 detects the entry and exit of a person at the door 70-2 by analyzing the vicinity of the door 70-2. Here, an existing technique can be used as a technique for analyzing the inside of an image and detecting that a predetermined event has occurred.

また例えば、イベント検出装置3060は、赤外線センサ等のセンサである。例えばこのセンサは、物体の通過等のイベントを検出する。例えばこのセンサは、監視対象の各場所に設置されている。情報処理装置2000によってイベント検出位置情報が生成されると、そのイベント検出位置情報で示されるイベント検出位置又はその付近にあるセンサが監視を開始する。例えば本実施例の場合、各ドア70の付近等に赤外線センサが設けられている。そして、図16(b)に示すイベント検出位置50が指定された場合、ドア70-2の付近にあるセンサが監視を開始する。 Further, for example, the event detection device 3060 is a sensor such as an infrared sensor. For example, this sensor detects an event such as the passage of an object. For example, this sensor is installed at each location to be monitored. When the event detection position information is generated by the information processing apparatus 2000, the sensor at or near the event detection position indicated by the event detection position information starts monitoring. For example, in the case of this embodiment, an infrared sensor is provided near each door 70 or the like. Then, when the event detection position 50 shown in FIG. 16B is specified, the sensor near the door 70-2 starts monitoring.

イベント検出装置3060によってイベントが検出されると、その旨が情報処理装置2000(タブレット端末)、監視モニタ3080及び警報装置3100に通知される。監視モニタ3080は、例えば警備員室等に設けられているモニタである。例えば監視モニタ3080は、イベントが検出された位置が写っている監視映像を強調表示する等して、イベントの発生を監視員に知らせる。よって、監視員は、イベントが発生した場所を容易に把握することができる。 When an event is detected by the event detection device 3060, the information processing device 2000 (tablet terminal), the monitoring monitor 3080, and the alarm device 3100 are notified to that effect. The monitoring monitor 3080 is, for example, a monitor provided in a security guard room or the like. For example, the monitoring monitor 3080 notifies the observer of the occurrence of the event by highlighting the monitoring image showing the position where the event is detected. Therefore, the observer can easily grasp the place where the event occurred.

警報装置3100は、例えばアラームを鳴らすことで、イベントの発生を監視員に知らせる。このアラームにより、監視員は、イベントの発生を知ることができる。 The alarm device 3100 notifies the observer of the occurrence of an event, for example, by sounding an alarm. This alarm allows the observer to know when an event has occurred.

また、監視モニタ3080は、記憶装置3040からイベント検出位置情報を取得し、そのイベント検出位置を監視映像上に表示してもよい。これにより、例えば監視員は、イベント検出位置を注視するように監視作業を行うことができる。また、監視員は、イベント検出位置におけるイベント発生の検知をイベント検出装置3060にまかせ、イベント検出位置以外の場所を注視するように監視作業を行うこともできる。 Further, the monitoring monitor 3080 may acquire event detection position information from the storage device 3040 and display the event detection position on the monitoring image. Thereby, for example, the observer can perform the monitoring work so as to pay attention to the event detection position. Further, the observer can leave the detection of the event occurrence at the event detection position to the event detection device 3060 and perform the monitoring work so as to gaze at a place other than the event detection position.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。 Although the embodiments of the present invention have been described above with reference to the drawings, these are examples of the present invention, and various configurations other than the above can be adopted.

以下、参考形態の例を付記する。
1. 表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理手段と、
前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理手段と、
第2操作に基づいて前記第1操作を前記第1処理手段と前記第2処理手段のどちらか一方に処理させる制御手段と、
を有するモバイル監視装置。
2. 前記制御手段は、前記第2操作がなされる前は、前記第1操作に応じて前記第2処理手段に処理させ、前記第2操作がなされた後は、前記第1操作に応じて前記第1処理手段に処理させる1.に記載のモバイル監視装置。
3. 前記第2操作は、前記表示画面又は前記監視画像の任意の箇所に対する所定時間以上のタッチ操作である2.に記載のモバイル監視装置。
4. 前記第2操作は、前記第1操作の開始位置を所定時間以上タッチする操作である2.に記載のモバイル監視装置。
5. 前記第2操作は、前記第1操作の前に開始され、前記第1操作の操作中に継続して行われる、前記表示画面上の任意の箇所に対するタッチ操作であり、
前記制御手段は、前記第2操作がなされている間、前記第1操作に応じて前記第1処理手段に処理させ、前記第2操作がなされなくなると、前記第1操作に応じて前記第2処理手段に処理させる1.に記載のモバイル監視装置。
6.表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理手段と、
前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理手段と、
前記第1操作を前記第1処理手段と前記第2処理手段のどちらか一方に処理させる制御手段と、を有し、
前記制御手段は、当該モバイル監視装置の姿勢が第1の姿勢である場合に、前記第1操作を前記第1処理手段に処理させ、当該モバイル監視装置の姿勢が前記第1の姿勢とは異なる第2の姿勢である場合に、前記第1操作を前記第2処理手段に処理させるモバイル監視装置。
7. 前記イベント検出位置は、通過する物体を検知するための映像監視線の位置、又は物体の所定のイベントを検知する監視領域の位置を表す1.乃至6.いずれか一つに記載のモバイル監視装置。
8. コンピュータを、1.乃至7.いずれか一つに記載のモバイル監視装置として動作させるプログラム。
9. コンピュータによって実行させる制御方法であって、
表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理ステップと、
前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理ステップと、
第2操作に基づいて前記第1操作を前記第1処理ステップと前記第2処理ステップのどちらか一方に処理させる制御ステップと、
を有する制御方法。
10. 前記制御ステップは、前記第2操作がなされる前は、前記第1操作に応じて前記第2処理ステップに処理させ、前記第2操作がなされた後は、前記第1操作に応じて前記第1処理ステップに処理させる9.に記載の制御方法。
11. 前記第2操作は、前記表示画面又は前記監視画像の任意の箇所に対する所定時間以上のタッチ操作である10.に記載の制御方法。
12. 前記第2操作は、前記第1操作の開始位置を所定時間以上タッチする操作である10.に記載の制御方法。
13. 前記第2操作は、前記第1操作の前に開始され、前記第1操作の操作中に継続して行われる、前記表示画面上の任意の箇所に対するタッチ操作であり、
前記制御ステップは、前記第2操作がなされている間、前記第1操作に応じて前記第1処理ステップに処理させ、前記第2操作がなされなくなると、前記第1操作に応じて前記第2処理ステップに処理させる9.に記載の制御方法。
14. コンピュータによって実行される制御方法であって、
表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理ステップと、
前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理ステップと、
前記第1操作を前記第1処理ステップと前記第2処理ステップのどちらか一方に処理させる制御ステップと、を有し、
前記制御ステップは、前記コンピュータの姿勢が第1の姿勢である場合に、前記第1操作を前記第1処理ステップに処理させ、前記コンピュータの姿勢が前記第1の姿勢とは異なる第2の姿勢である場合に、前記第1操作を前記第2処理ステップに処理させる制御方法。
15. 前記イベント検出位置は、通過する物体を検知するための映像監視線の位置、又は物体の所定のイベントを検知する監視領域の位置を表す9.乃至14.いずれか一つに記載の制御方法。
Hereinafter, an example of the reference form will be added.
1. 1. A first processing means for setting an event detection position for the surveillance image in response to the first operation for the surveillance image displayed on the display screen.
A second processing means for performing display change processing other than setting the event detection position for the monitoring image or the window including the monitoring image in response to the first operation.
A control means for causing either the first processing means or the second processing means to process the first operation based on the second operation.
Mobile monitoring device with.
2. 2. Before the second operation is performed, the control means causes the second processing means to process according to the first operation, and after the second operation is performed, the control means responds to the first operation. 1 Let the processing means process 1. The mobile monitoring device described in.
3. 3. The second operation is a touch operation for a predetermined time or longer on the display screen or an arbitrary part of the surveillance image. The mobile monitoring device described in.
4. The second operation is an operation of touching the start position of the first operation for a predetermined time or longer. The mobile monitoring device described in.
5. The second operation is a touch operation for any part on the display screen, which is started before the first operation and is continuously performed during the operation of the first operation.
The control means causes the first processing means to process in response to the first operation while the second operation is being performed, and when the second operation is not performed, the second operation is performed in response to the first operation. Let the processing means process 1. The mobile monitoring device described in.
6. A first processing means for setting an event detection position for the surveillance image in response to the first operation for the surveillance image displayed on the display screen.
A second processing means for performing display change processing other than setting the event detection position for the monitoring image or the window including the monitoring image in response to the first operation.
It has a control means for causing either one of the first processing means and the second processing means to process the first operation.
When the posture of the mobile monitoring device is the first posture, the control means causes the first processing means to process the first operation, and the posture of the mobile monitoring device is different from the first posture. A mobile monitoring device that causes the second processing means to process the first operation in the second posture.
7. The event detection position represents the position of a video monitoring line for detecting a passing object or the position of a monitoring area for detecting a predetermined event of an object. ~ 6. The mobile monitoring device described in any one.
8. Computer, 1. ~ 7. A program that operates as the mobile monitoring device described in any one of them.
9. It is a control method executed by a computer.
The first processing step of setting the event detection position for the surveillance image according to the first operation for the surveillance image displayed on the display screen, and
A second processing step of performing display change processing other than setting the event detection position for the monitoring image or the window including the monitoring image according to the first operation.
A control step for causing either one of the first processing step and the second processing step to process the first operation based on the second operation.
Control method having.
10. Before the second operation is performed, the control step is processed by the second processing step according to the first operation, and after the second operation is performed, the control step is performed according to the first operation. 1. Process in one processing step. The control method described in.
11. The second operation is a touch operation for a predetermined time or longer on the display screen or an arbitrary part of the surveillance image. The control method described in.
12. The second operation is an operation of touching the start position of the first operation for a predetermined time or longer. The control method described in.
13. The second operation is a touch operation for any part on the display screen, which is started before the first operation and is continuously performed during the operation of the first operation.
The control step is processed by the first processing step in response to the first operation while the second operation is being performed, and when the second operation is not performed, the second operation is performed in response to the first operation. Let the processing step process 9. The control method described in.
14. A control method performed by a computer
The first processing step of setting the event detection position for the surveillance image according to the first operation for the surveillance image displayed on the display screen, and
A second processing step of performing display change processing other than setting the event detection position for the monitoring image or the window including the monitoring image according to the first operation.
It has a control step for causing either one of the first processing step and the second processing step to process the first operation.
In the control step, when the posture of the computer is the first posture, the first operation is processed by the first processing step, and the posture of the computer is different from the first posture in the second posture. When the above is the case, a control method for causing the second processing step to process the first operation.
15. The event detection position represents the position of a video monitoring line for detecting a passing object or the position of a monitoring area for detecting a predetermined event of an object. ~ 14. The control method described in any one.

Claims (15)

監視画像を表示するタッチパネルディスプレイを有し、
前記タッチパネルディスプレイ上において所定のタッチ操作が行われた場合に、前記タッチパネルディスプレイに対するスライド操作に応じて、前記監視画像における所定のイベントを検出する領域を設定する第1の処理を実行し、
前記タッチパネルディスプレイ上において所定のタッチ操作が行われていない場合に、前記スライド操作に応じて、前記監視画像の表示範囲を変更する第2の処理を実行する、モバイル監視装置。
It has a touch panel display that displays surveillance images.
When a predetermined touch operation is performed on the touch panel display, the first process of setting a region for detecting a predetermined event in the surveillance image is executed in response to a slide operation on the touch panel display.
A mobile monitoring device that executes a second process of changing the display range of the monitoring image in response to the slide operation when a predetermined touch operation is not performed on the touch panel display.
前記所定のタッチ操作は、前記タッチパネルディスプレイの複数箇所を所定の順番でタッチする操作である、請求項1に記載のモバイル監視装置。 The mobile monitoring device according to claim 1, wherein the predetermined touch operation is an operation of touching a plurality of parts of the touch panel display in a predetermined order. 前記第1の処理において、前記スライド操作の軌道に沿って前記監視画像上に表示された線に所定の幅を与えた四角形の領域を前記所定のイベントを検出する領域として設定する、請求項1又は2に記載のモバイル監視装置。 In the first process, claim 1 is to set a quadrangular region having a predetermined width on a line displayed on the monitoring image along the trajectory of the slide operation as a region for detecting the predetermined event. Or the mobile monitoring device according to 2. 前記設定された領域における物体の通過又は前記物体の所定の事象の少なくとも一方を前記所定のイベントとして検出する、請求項1乃至3いずれか一項に記載のモバイル監視装置。 The mobile monitoring device according to any one of claims 1 to 3, wherein at least one of the passage of an object or a predetermined event of the object in the set area is detected as the predetermined event. 前記設定された領域において前記所定のイベントが検出された場合に、前記所定のイベントが検出されたことを示す情報を前記タッチパネルディスプレイに表示する、請求項4に記載のモバイル監視装置。 The mobile monitoring device according to claim 4, wherein when the predetermined event is detected in the set area, information indicating that the predetermined event is detected is displayed on the touch panel display. コンピュータにより実行される制御方法であって、
監視画像をタッチパネルディスプレイに表示し、
前記タッチパネルディスプレイ上において所定のタッチ操作が行われた場合に、前記タッチパネルディスプレイに対するスライド操作に応じて、前記監視画像における所定のイベントを検出する領域を設定する処理を実行し、
前記タッチパネルディスプレイ上において所定のタッチ操作が行われていない場合に、前記スライド操作に応じて、前記監視画像の表示範囲を変更する処理を実行する、制御方法。
A control method performed by a computer
Display the surveillance image on the touch panel display
When a predetermined touch operation is performed on the touch panel display, a process of setting a region for detecting a predetermined event in the surveillance image is executed in response to a slide operation on the touch panel display.
A control method for executing a process of changing the display range of the monitoring image in response to the slide operation when a predetermined touch operation is not performed on the touch panel display.
前記所定のタッチ操作は、前記タッチパネルディスプレイの複数箇所を所定の順番でタッチする操作である、請求項6に記載の制御方法。 The control method according to claim 6, wherein the predetermined touch operation is an operation of touching a plurality of parts of the touch panel display in a predetermined order. 前記所定のイベントを検出する領域を設定する処理において、前記スライド操作の軌道に沿って前記監視画像上に表示された線に所定の幅を与えた四角形の領域を前記所定のイベントを検出する領域として設定する、請求項6又は7に記載の制御方法。 In the process of setting the area for detecting the predetermined event, the area for detecting the predetermined event is a rectangular area having a predetermined width given to the line displayed on the monitoring image along the trajectory of the slide operation. The control method according to claim 6 or 7, which is set as. 前記設定された領域における物体の通過又は前記物体の所定の事象の少なくとも一方を前記所定のイベントとして検出する、請求項6乃至8いずれか一項に記載の制御方法。 The control method according to any one of claims 6 to 8, wherein at least one of the passage of an object or a predetermined event of the object in the set region is detected as the predetermined event. 前記設定された領域において前記所定のイベントが検出された場合に、前記所定のイベントが検出されたことを示す情報を前記タッチパネルディスプレイに表示する、請求項9に記載の制御方法。 The control method according to claim 9, wherein when the predetermined event is detected in the set area, information indicating that the predetermined event is detected is displayed on the touch panel display. コンピュータに、
監視画像をタッチパネルディスプレイに表示させ、
前記タッチパネルディスプレイ上において所定のタッチ操作が行われた場合に、前記タッチパネルディスプレイに対するスライド操作に応じて、前記監視画像における所定のイベントを検出する領域を設定する第1の処理を実行させ、
前記タッチパネルディスプレイ上において所定のタッチ操作が行われていない場合に、前記スライド操作に応じて、前記監視画像の表示範囲を変更する第2の処理を実行させる、プログラム。
On the computer
Display the surveillance image on the touch panel display
When a predetermined touch operation is performed on the touch panel display, a first process of setting a region for detecting a predetermined event in the surveillance image is executed in response to a slide operation on the touch panel display.
A program for executing a second process of changing the display range of the monitoring image in response to the slide operation when a predetermined touch operation is not performed on the touch panel display.
前記所定のタッチ操作は、前記タッチパネルディスプレイの複数箇所を所定の順番でタッチする操作である、請求項11に記載のプログラム。 The program according to claim 11, wherein the predetermined touch operation is an operation of touching a plurality of parts of the touch panel display in a predetermined order. 前記第1の処理において、前記スライド操作の軌道に沿って前記監視画像上に表示された線に所定の幅を与えた四角形の領域を前記所定のイベントを検出する領域として設定する処理を、前記コンピュータに実行させる、請求項11又は12に記載のプログラム。 In the first process, the process of setting a quadrangular region having a predetermined width on a line displayed on the surveillance image along the trajectory of the slide operation as a region for detecting the predetermined event is described. The program according to claim 11 or 12, which is to be executed by a computer. 前記設定された領域における物体の通過又は前記物体の所定の事象の少なくとも一方を前記所定のイベントとして検出する処理を、前記コンピュータに実行させる、請求項11乃至13いずれか一項に記載のプログラム。 The program according to any one of claims 11 to 13, which causes the computer to execute a process of detecting the passage of an object in the set area or at least one of a predetermined event of the object as the predetermined event. 前記設定された領域において前記所定のイベントが検出された場合に、前記所定のイベントが検出されたことを示す情報を前記タッチパネルディスプレイに表示する処理を、前記コンピュータに実行させる、請求項14に記載のプログラム。 14. The 14th aspect of the present invention, wherein when the predetermined event is detected in the set area, the computer is made to execute a process of displaying information indicating that the predetermined event is detected on the touch panel display. Program.
JP2019078467A 2019-04-17 2019-04-17 Mobile monitoring devices, control methods, and programs Active JP6996758B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019078467A JP6996758B2 (en) 2019-04-17 2019-04-17 Mobile monitoring devices, control methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019078467A JP6996758B2 (en) 2019-04-17 2019-04-17 Mobile monitoring devices, control methods, and programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017202480A Division JP6515975B2 (en) 2017-10-19 2017-10-19 MOBILE MONITORING DEVICE, MOBILE MONITORING SYSTEM, PROGRAM, AND CONTROL METHOD

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021000056A Division JP7120337B2 (en) 2021-01-04 2021-01-04 Control method, program and system

Publications (2)

Publication Number Publication Date
JP2019164802A JP2019164802A (en) 2019-09-26
JP6996758B2 true JP6996758B2 (en) 2022-01-17

Family

ID=68065676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019078467A Active JP6996758B2 (en) 2019-04-17 2019-04-17 Mobile monitoring devices, control methods, and programs

Country Status (1)

Country Link
JP (1) JP6996758B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110285846A1 (en) 2010-05-19 2011-11-24 Hon Hai Precision Industry Co., Ltd. Electronic device and method for monitoring specified area
JP2014179923A (en) 2013-03-15 2014-09-25 Canon Inc Information processing apparatus, control method and program of information processing apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003091370A (en) * 2001-09-19 2003-03-28 Nec Eng Ltd Touch panel cleaning method
JP4362728B2 (en) * 2005-09-20 2009-11-11 ソニー株式会社 Control device, surveillance camera system, and control program thereof
US8570286B2 (en) * 2010-02-12 2013-10-29 Honeywell International Inc. Gestures on a touch-sensitive display
JP5638570B2 (en) * 2012-06-22 2014-12-10 ヤフー株式会社 Image display device, image display method, and image display program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110285846A1 (en) 2010-05-19 2011-11-24 Hon Hai Precision Industry Co., Ltd. Electronic device and method for monitoring specified area
JP2014179923A (en) 2013-03-15 2014-09-25 Canon Inc Information processing apparatus, control method and program of information processing apparatus

Also Published As

Publication number Publication date
JP2019164802A (en) 2019-09-26

Similar Documents

Publication Publication Date Title
JP6229816B2 (en) Mobile monitoring device, program, and control method
US8671344B2 (en) Information display device
JP4559964B2 (en) Image processing program
JP4725526B2 (en) Information processing apparatus, imaging apparatus, information processing system, apparatus control method, and program
JP5954106B2 (en) Information processing apparatus, information processing method, program, and information processing system
KR102644782B1 (en) The Apparatus And The System For Monitoring
WO2016196988A1 (en) Quick review of captured image data
TWI578798B (en) Method of displaying surveillance video and computer program product therefor
US9906710B2 (en) Camera pan-tilt-zoom (PTZ) control apparatus
JP6254945B2 (en) Video display system, operation terminal, operation method and program
JP7120337B2 (en) Control method, program and system
JP6996758B2 (en) Mobile monitoring devices, control methods, and programs
JP6299602B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP7276576B2 (en) Camera terminal, information processing method, and program
JP6515975B2 (en) MOBILE MONITORING DEVICE, MOBILE MONITORING SYSTEM, PROGRAM, AND CONTROL METHOD
KR100787987B1 (en) Control device of a pan/tilt camera and recording medium thereof
CN114895813A (en) Information display method and device, electronic equipment and readable storage medium
KR101414583B1 (en) A remote control apparatus for ip camera using touch input of mobile terminal
JP2014171054A (en) Display device, monitor system with display device, and display control program
WO2013145448A1 (en) Operation terminal, operation method, and program
JPH11275436A (en) Camera controller
JP2020154071A (en) Display control device, display control method, program and display control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201006

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210104

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210720

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210921

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20211012

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20211116

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211209

R150 Certificate of patent or registration of utility model

Ref document number: 6996758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150