WO2024122012A1 - データ収集システム - Google Patents

データ収集システム Download PDF

Info

Publication number
WO2024122012A1
WO2024122012A1 PCT/JP2022/045221 JP2022045221W WO2024122012A1 WO 2024122012 A1 WO2024122012 A1 WO 2024122012A1 JP 2022045221 W JP2022045221 W JP 2022045221W WO 2024122012 A1 WO2024122012 A1 WO 2024122012A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor terminal
management node
terminal
information
metadata
Prior art date
Application number
PCT/JP2022/045221
Other languages
English (en)
French (fr)
Inventor
真也 玉置
友宏 谷口
亮太 椎名
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2022/045221 priority Critical patent/WO2024122012A1/ja
Publication of WO2024122012A1 publication Critical patent/WO2024122012A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/16Implementation or adaptation of Internet protocol [IP], of transmission control protocol [TCP] or of user datagram protocol [UDP]
    • H04L69/168Implementation or adaptation of Internet protocol [IP], of transmission control protocol [TCP] or of user datagram protocol [UDP] specially adapted for link layer protocols, e.g. asynchronous transfer mode [ATM], synchronous optical network [SONET] or point-to-point protocol [PPP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom

Definitions

  • This disclosure relates to sensing data collection in the Internet of Things (IoT).
  • IoT Internet of Things
  • Non-Patent Document 1 reports a method that uses LLDP (Link Layer Discovery Protocol, see Non-Patent Document 3 for example).
  • Non-Patent Document 2 data related to the sensing data
  • metadata data related to the sensing data
  • Cameras are used that wake up from a sleep state and begin capturing images when a person or other object approaches. In this way, if sensing data can be acquired when an event occurs, the power consumption of the sensor terminal can be reduced. If multiple sensor terminals related to the event start operating when an event occurs, more information related to the event can be acquired.
  • the purpose of this disclosure is to enable multiple sensor terminals to work together when an event occurs.
  • the present disclosure relates to a data collection system that collects sensing data detected by a secondary sensor terminal and a main sensor terminal, which have different detection targets, into a management node.
  • the secondary sensor terminal detects its own detection target, it transmits an event occurrence notification using an extension area of the layer 2 communication protocol.
  • the main sensor terminal executes the operation determined by instructions from the management node.
  • the management node executes the data collection method of the present disclosure. Specifically, when the management node receives an event occurrence notification that a detection target has been detected by the secondary sensor terminal using an extension area of the layer 2 communication protocol, it issues an instruction to the primary sensor terminal in response to the event occurrence notification.
  • the action specified in the instruction may be the initiation of detection in the main sensor terminal.
  • the main sensor terminal may be woken up from a sleep state when it receives the instruction.
  • the main sensor terminal may be a camera terminal that captures images.
  • the action specified in the instruction may be to add a marker to the captured video data.
  • the detection target of the secondary sensor terminal includes the approach of an object, including a person or an object.
  • the secondary sensor terminal detects that an object, including a person or an object, has approached the device itself. This detection causes the secondary sensor terminal to send an event occurrence notification.
  • This disclosure makes it possible for multiple sensor terminals to work together when an event occurs.
  • FIG. 1 is a diagram illustrating a data collection system according to the present disclosure.
  • FIG. 2 is a diagram illustrating a terminal of a data collection system according to the present disclosure.
  • FIG. 2 is a diagram illustrating a management node of a data collection system according to the present disclosure.
  • 1 is a diagram illustrating a frame transmitted from a terminal to a management node. FIG. An example of terminal arrangement is shown.
  • FIG. 1 is a diagram illustrating a data collection system according to the present disclosure.
  • FIG. 1 is a diagram illustrating a data collection system according to the present disclosure.
  • the data collection system 301 is a data collection system that performs communication from a terminal 11 to a network device 12 by utilizing an extension area of a standardized communication protocol (such as LLDP, HTIP, IEEE802.11, etc.),
  • the terminal 11 stores the sensing data detected by the sensor device in an area of the frame defined by the communication protocol, which is different from the area for storing the metadata, and transmits the data to the network device 12.
  • the network device 12 transfers the frame to the management node 13,
  • the management node 13 is characterized in that it associates the sensing data with the metadata and stores them based on information for identifying the terminal 11 that is written in the frame.
  • the data collection network 15 is a network that connects the terminals 11 that exist within a specific range to the management node 13.
  • the data collection network 15 is, for example, a local area network (LAN), a field area network (FAN), an IoT area network, etc.
  • LAN local area network
  • FAN field area network
  • IoT area network IoT area network
  • FIG. 2 is a diagram for explaining the terminal 11.
  • the terminal 11 is, for example, an IoT sensor terminal that senses an observation target and generates sensing data.
  • the terminal 11 has a sensor device 11a, a sensing data storage processing unit 11b, a device information storage processing unit 11c, a communication protocol operation unit 11d1 , metadata detection units ( 11e1 , 11e2 , 11e3 , ...), and a metadata storage processing unit 11f.
  • the sensor device 11a senses an object to be observed and acquires sensing data (main data).
  • the sensing data may be, for example, temperature, images, acceleration, sound, light, CO2, etc.
  • the device information storage processing unit 11c collects device information of the observed target (e.g., the device manufacturer name, model name, model number, etc.) and stores the information in a specified position of the frame (an area that can be used for unique purposes, such as an "extension area” or "optional area” specified by the protocol).
  • the sensing data storage processing unit 11b stores the sensing data from the sensor device 11a in a specified position of the frame (such as the payload portion defined by the protocol).
  • the sensing data storage processing unit 11b may process the sensing data before storing it in the frame, for example by converting it into a shortened code and storing it, or by splitting it into multiple frames and storing them (fragmentation), so that it conforms to the format/restrictions of the frame's unique extension area.
  • the sensing data storage processing unit 11b can arbitrarily set the timing for storing the sensing data in the frame.
  • the storage timing can be each time the sensing data is updated, or the sensing data can be stored not sequentially but after it has been accumulated for a certain period of time.
  • the sensing data storage processing unit 11b can store a record (log) of the sensing data or the results of specific calculations/statistical processing in the frame.
  • the type of sensing data stored in the frame and the storage timing may be fixed or variable.
  • the type of sensing data and the storage timing may be dynamically changed by the judgment of the terminal 11 itself or an instruction from the management node 13.
  • the frame transmission period may be fixed or variable.
  • the frame transmission period may be dynamically changed based on the judgment of the terminal 11 itself or an instruction from the management node 13.
  • the metadata detection unit 11e acquires information (metadata) other than device information.
  • Information other than device information is, for example, location information of the detection target, time information, person, object, or event information, and other information.
  • the present invention does not limit the information other than device information to these.
  • the metadata detection unit 11e has a location information detection unit 11e 1 , a time detection unit 11e 2 , a person, object, or event detection unit 11e 3 , and other detection units.
  • the location information detection unit 11e 1 is, for example, a GPS, an acceleration sensor, a gyro sensor, or an RSSI receiver for Wi-Fi signals, BLE (Bluetooth Low Energy) beacon signals, etc.
  • the location metadata detected by the location information detection unit 11e 1 is information about a location acquired from a GPS signal, a BLE beacon signal, radio wave information of wireless communication, radio wave information of non-communication (television, radio, radio clock, other noise, etc.), power information, visible light information, sound wave information, vibration information, acceleration information, or other location metadata source.
  • the time detection unit 11e2 is, for example, an information receiver from GPS or NTP (Network Time Protocol).
  • the time metadata detected by the time detection unit 11e2 is information about time acquired from a GPS signal, information from the NTP, or other time metadata sources.
  • the person, object, and event detection unit 11e 3 is a receiver that receives, for example, information from a BLE beacon (carried by a person), a smartphone carried by a person, or information from image analysis results.
  • the person, object, or event metadata detected by the person, object, and event detection unit 11e 3 is information about a person, object, or event obtained from a BLE beacon carried by a person, information from a smartphone carried by a person, information from image analysis results, or other current event metadata sources.
  • Other metadata detected by the detection unit includes information regarding the network configuration of the data collection network 15.
  • the metadata detection unit 11e may detect all of the multiple detection targets, or may detect any one of them.
  • the metadata storage processing unit 11f stores the data detected by the metadata detection unit 11e as metadata in an extension area or an option area in the frame set by the communication protocol.
  • the metadata storage processing unit 11f can store metadata in the control frame of an IEEE 804.11 wireless LAN.
  • various metadata are stored in the "Vendor Specific” area, which is an extension area of a Probe Request frame.
  • various metadata are stored in the "Vendor Specific” area, which is an extension area of a Probe Response frame.
  • the metadata storage processing unit 11f may process the metadata before storing it in the frame, for example by converting it into a shortened code and storing it, or by splitting it and storing it in multiple frames (fragmentation), so that it conforms to the format/restrictions of the frame's unique extension area.
  • the metadata storage processing unit 11f can arbitrarily set the timing for storing metadata in a frame.
  • the storage timing can be each time the metadata is updated, or the metadata can be stored not sequentially but after it has been accumulated for a certain period of time.
  • the metadata storage processing unit 11f can store a record (log) of the metadata or the results of specific calculations/statistical processing in the frame.
  • the type of metadata stored in the frame and the storage timing may be fixed or variable.
  • the type of metadata and the storage timing may be dynamically changed at the discretion of the terminal 11 itself or in response to an instruction from the management node 13.
  • the communication protocol operation unit 11d 1 transmits a frame in which sensing data and device information are stored in a predetermined area and metadata is stored in an extension area or an option area to the network device 12 using a lightweight and standardized communication protocol such as LLDP or HTIP (Home network Topology Identifying Protocol).
  • the communication protocol of the frame in which the sensing data is stored and the communication protocol of the frame in which the device information is stored may be the same or different.
  • the metadata storage processing unit 11f may store the metadata in a frame of one of the communication protocols (a frame in which the sensing data is stored or a frame in which the device information is stored) or in a frame of both communication protocols (a frame in which the sensing data is stored and a frame in which the device information is stored).
  • the terminal 11 also has a function of operating according to instructions from the management node 13, etc. Specifically, the terminal 11 has an instruction interpretation unit 11g, and when the terminal itself changes the BLE beacon signal or metadata information (information to be transmitted, radio wave intensity, transmission frequency, etc.) according to instructions from the management node 13, the terminal transmits the information to the outside.
  • the terminal 11 When transmitting information using the same protocol as communication with the network device 12, the terminal 11 operates the communication protocol operation unit 11d1.
  • the terminal 11 When transmitting information using a protocol different from that for communication with the network device 12, the terminal 11 has a communication protocol operation unit 11d2 in addition to the communication protocol operation unit 11d1, and operates the communication protocol operation unit 11d2 .
  • the terminal 11 itself is a beacon signal source for other terminals to grasp metadata.
  • the terminal 11 may be a beacon signal source for identifying location metadata, or a beacon terminal carried by a worker to identify nearby people.
  • the network device 12 is, for example, a network switch, a wireless access point, a wireless repeater, etc.
  • the network device 12 sends the frames uploaded from the lower data collection network 15 to the management node 13 as is.
  • the network device 12 may have a metadata processing unit (metadata detection unit 11e and metadata storage processing unit 11f) that the terminal 11 has. Even if the network device 12 does not have the sensor device 11a, it can add metadata such as its own unique information such as its own MAC address and a connection port to a frame sent from the terminal 11 and transfer the frame to the management node 13. If the network device 12 has a metadata processing section, it becomes possible to grasp the logical connection from the management node 13 to the terminal 11, and a more accurate logical/physical network management map can be created. In other words, even if the network device 12 is a network switch (switching hub) or a wireless repeater that does not have layer 3 or higher functions, this technology operates at layer 2, making it possible to manage and understand the connections between network devices, including the network
  • the communication protocol operation unit 13a receives frames in which sensing data and metadata are stored from the terminal 11 and the network device 12.
  • the information processing unit 12b extracts the following sensing data, device information, and metadata from the received frames, and organizes them in the information storage unit 13c based on information that identifies the individual terminal 11 (e.g., MAC address).
  • the management node 13 refers to metadata related to a location and stores the main data acquired at the same location or within a certain area in the format of [location metadata, main data]. [supplement] Further details on location metadata. Like GPS information, there are cases where the information has become direct location metadata at the time of sensing by the terminal 11.
  • FIG. 4 is a diagram explaining a frame 41 transmitted from the terminal 11 to the management node 13.
  • the network device 12 is not shown in FIG. 4.
  • the frame 41 is a layer 2 communication frame such as an Ethernet (registered trademark) frame or a Wi-Fi communication frame.
  • the frame 41 is composed of a logical identifier 41a of the communication device such as a MAC address, a source and destination identifier 41b such as an IP address, an area 41c in which sensing data such as temperature and images are stored, and an extension area 41d in which metadata is stored.
  • the identifier 41b and area 41c form a layer 3 communication packet.
  • the management node 13 for example, links the MAC address of the logical identifier 41a with the location metadata of the extension area 41d to [MAC address, location metadata], and links the MAC address of the logical identifier 41a with the installer metadata of the extension area 41d to [MAC address, installer metadata], and organizes them in the information storage unit 13c.
  • the data collection system 301 can acquire network configuration information, device information, sensing data, and metadata of terminals and devices using a communication protocol that does not require high performance.
  • (Embodiment 2) 5 shows an example of terminal arrangement.
  • the system of this embodiment includes camera terminals C1 to C8 that capture images and function as terminals 11, and human presence sensor terminals T1 to T13 that detect the approach of people.
  • the present disclosure includes terminals 11 with different sensor types.
  • the camera terminals C1 to C8 function as primary sensor terminals
  • the human presence sensor terminals T1 to T13 function as secondary sensor terminals.
  • the camera terminals C1 to C8 and the human presence sensor terminals T1 to T13 are sensor terminals with limited resources, such as battery-powered.
  • workers wear lightweight devices (small battery-powered devices such as BLE beacons, smartphones, and smartwatches) and move around the warehouse.
  • human sensor terminals T1 to T13 detect the position and status of the workers (moving, stopped), and camera terminals C1 to C8 capture images of the workers.
  • FIGS. 6 and 7 are diagrams illustrating the data collection system 302 of this embodiment.
  • the sensor terminals are a human presence sensor terminal 11T and a camera terminal 11C.
  • the sensor device 11a provided in the human presence sensor terminal 11T is any sensor capable of detecting a person, such as an infrared detection device.
  • the sensor device 11a provided in the camera terminal 11C is a camera device.
  • the higher-level management node 14 comprises a data/metadata collection unit 14a that collects various information stored in the management node 13, an information processing unit 14b that processes the various information collected by the data/metadata collection unit 14a, and an information storage unit 14c.
  • the information processing unit 14b comprises a position information calculation unit 14ba that calculates the positions of the human sensor terminal 11T and the camera terminal 11C, and an instruction unit 14bc that issues instructions to the management node 13 and the sensor terminal 11.
  • the human presence sensor terminal 11T which is a secondary sensor terminal, detects an event that is the detection target of the device itself, it wakes up from sleep. Immediately after waking up from sleep, the human presence sensor terminal 11T promptly sends an event occurrence notification. At this time, the human presence sensor terminal 11T stores the event occurrence notification in the extension area of the layer 2 communication frame.
  • the human presence sensor terminal T8 shown in FIG. 5 stores an event occurrence notification indicating that a person has been detected in the extension area of the layer 2 communication frame and transmits it to the management node 13. In this embodiment, by using a layer 2 communication frame, event occurrence notification can be sent with low latency.
  • the management node 13 When the management node 13 receives an event occurrence notification from the human sensor terminal T8, it issues an instruction to the camera terminal 11C associated with the human sensor terminal T8.
  • the camera terminals C3, C5, and C8, which have location metadata close to that of the human sensor terminal T8, can be exemplified.
  • the selection of the camera terminals C3, C5, and C8 can be performed in advance for each human sensor terminal 11T by the position information calculation unit 14ba.
  • the management node 13 acquires in advance from the instruction unit 14bc that the camera terminals 11C near the human sensor terminal T8 are the camera terminals C3, C5, and C8, and issues instructions to the camera terminals C3, C5, and C8 based on this.
  • instructions are not issued to other unrelated camera terminals 11C, and the camera terminals 11C can be put into sleep mode when not needed, thereby saving power consumption of the camera terminals 11C.
  • the camera terminal 11C When the camera terminal 11C receives an instruction from the management node 13, it wakes up from sleep mode and starts capturing images.
  • the instruction arrives with low latency, making it possible to start capturing images quickly. This makes it possible to perform detailed analysis later, improving the value of the data.
  • Camera terminal 11C transmits the video data obtained by capturing images to management node 13.
  • management node 13 in this embodiment can obtain video data from camera terminals C3, C5, and C8 shown in FIG. 5. This allows video data from multiple angles, where capturing images is started quickly, to be accumulated, thereby increasing the value of the data.
  • the timing at which the camera terminal 11C transmits the video data may be real-time, but the present disclosure is not limited to this.
  • the camera terminal 11C may transmit the captured video data to at least one of the management node 13 and the upper management node 14 upon receiving an upload instruction or streaming instruction from the upper management node 14 connected above the management node 13.
  • the camera terminal 11C corresponding to the human sensor terminal 11T may be stored in advance in the information storage unit 13c, but the present disclosure is not limited to this.
  • the human sensor terminal T8 may store the location where the human sensor terminal T8 detected a person in the extension area 41d of the layer 2 communication frame as location metadata together with an event occurrence notification.
  • the position information calculation unit 14ba selects the camera terminal 11C corresponding to the location metadata, and the instruction unit 14bc gives instructions to the corresponding camera terminal 11C.
  • the detection result from the human presence sensor terminal 11T is used as a trigger to start imaging by the camera terminal 11C.
  • This makes it possible to constantly capture images of the worker from multiple angles.
  • an event occurrence notification is sent using the extension area 41d of the layer 2 communication protocol, so that imaging can be started promptly in the camera terminals C3, C5, and C8 immediately after the event occurs. Therefore, even if the monitored subject is moving at high speed, this disclosure makes it possible to quickly start capturing image data from multiple angles immediately after the event occurs. Furthermore, because instructions are not given to unnecessary camera terminals 11C, it is possible to reduce power consumption of camera terminals 11C when and where they are not needed.
  • an example has been shown in which the instruction from the management node 13 is to start imaging, but the present disclosure is not limited to this.
  • an instruction to add a marker may be given instead of starting imaging. This makes it possible to add markers to the video data captured by the camera terminals C3, C5, and C8 shown in FIG. 5. This makes it easier to trace back a desired event from the vast amount of accumulated video data.
  • the detection result from the human presence sensor terminal 11T is used as a trigger for the camera terminal 11C to start capturing images, but it is not limited to the human presence sensor terminal 11T, and it may be detection of the proximity of an object including a person or an object, or the occurrence of one or more arbitrary events.
  • arbitrary metadata strong impact, sound, change, etc.
  • each terminal 11 can detect may be used as an arbitrary trigger in an arbitrary sensor terminal.
  • the above-mentioned terminal 11 and management node 13 can also be realized by a computer and a program, and the program can be recorded on a recording medium or provided via a network.
  • Terminal 11T Human sensor terminal 11C: Camera terminal 11a: Sensor device 11b: Sensing data storage processing unit 11c: Device information storage processing unit 11d1, 11d2: Communication protocol operation unit 11e, 11e1, 11e2, 11e3, ...: Metadata detection unit 11f: Metadata storage processing unit 11g: Instruction interpretation unit 12: Network device 12A: Access point 13: Management node 13a: Communication protocol operation unit 13b: Information processing unit 13c: Information storage unit 14: Upper management node 14a: Data/metadata collection unit 14ba: Position information calculation unit 14bc: Instruction unit 14c: Information storage unit 15: Data collection network 41: Frame 41a: Logical identifier 41b: Source/destination identifier 41c: Main data area 41d: Extension area 301-302: Data collection system

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本開示は、イベント発生時に、複数のセンサー端末を協働可能にすることを目的とする。 本開示は、検知対象の異なる副センサ端末及び主センサ端末で検出されたセンシングデータを管理ノードに収集するデータ収集システムであって、前記副センサ端末は、自装置の検知対象を検知すると、イベント発生通知をレイヤ2の通信プロトコルの拡張領域を利用して送信し、前記管理ノードは、前記副センサ端末から前記イベント発生通知を受信すると、前記イベント発生通知に応じた指示を、前記主センサ端末に送信し、前記主センサ端末は、前記管理ノードからの前記指示の受信を契機に、前記指示で定められた動作を実行することを特徴とするデータ収集システムである。

Description

データ収集システム
 本開示は、IoT(Internet of Things)におけるセンシングデータ収集に関する。
 標準規格化されており、かつ、高い性能を要求しない軽量の通信プロトコルで、端末や機器のネットワーク構成情報や機器情報を取得する。例えば、非特許文献1では、LLDP(Link Layer Discovery Protocol、例えば非特許文献3を参照。)を用いた方法が報告されている。
 IoTにおいては、数多くのセンサー端末をネットワーク接続し、それらが生成するデータ(センシングデータ)を収集する必要がある。また、IoTにおけるデータ活用においては、センサー端末が生成するセンシングデータそのものだけではなく、メタデータと呼ばれる、センシングデータに関するデータの重要性が報告されており(非特許文献2など)、センシングデータとメタデータを合わせて取得且つ流通させることで、利用者がセンシングデータを安全かつ容易に活用することが期待されている。例えば、非特許文献1に開示されるLLDPを利用すれば、経済的なシステム構成で、センシングデータに関するメーカ名や型番などのメタデータ(機器情報)を収集できる。
美原 義行、山崎 毅文、岡本 学、佐藤 敦、「ホームネットワークマップ特定プロトコルHTIPの設計と診断ツールへの適用」、情報処理学会論文誌 コンシューマ・デバイス&システム、Vol.2、 No.3、 pp.34-45、Dec. 2012. 小田 利彦、今井 紘、内藤 丈嗣、竹林 一、「センシングデータ流通市場におけるメタデータの定義・生成・活用の一方式」、2018年度人工知能学会全国大会(第32回)、June 2012. IEEE Std 802.1AB-2016, "IEEE Standard for Local and metropolitan area networks-Station and Media Access Control Connectivity Discovery" IEEE Std 802.11TM-2016 P.708(Probe Reqest)、P.712(Probe Response)
 人などの対象物の接近を契機に、スリープ状態から起動し、撮像を開始するカメラが用いられている。このように、イベント発生を契機にセンシングデータの取得が行えれば、センサー端末の消費電力を抑えることができる。イベント発生を契機に、発生したイベントに関連する複数のセンサー端末が動作を開始すれば、イベントに関連する情報をより多く取得することができる。
 そこで、本開示は、イベント発生時に、複数のセンサー端末を協働可能にすることを目的とする。
 本開示は、検知対象の異なる副センサ端末及び主センサ端末で検出されたセンシングデータを管理ノードに収集するデータ収集システムである。前記副センサ端末は、自装置の検知対象を検知すると、イベント発生通知をレイヤ2の通信プロトコルの拡張領域を利用して送信する。前記主センサ端末は、前記管理ノードからの指示で定められた動作を実行する。
 前記管理ノードは、本開示のデータ収集方法を実行する。具体的には、前記管理ノードは、前記副センサ端末において検知対象が検知された旨のイベント発生通知を、レイヤ2の通信プロトコルの拡張領域を利用して受信すると、前記イベント発生通知に応じた指示を、前記主センサ端末に行う。
 前記指示で定められた動作は、前記主センサ端末における検知の開始であってもよい。この場合、前記主センサ端末は、前記指示を受信すると、スリープ状態から起動してもよい。
 前記主センサ端末は、撮像するカメラ端末であってもよい。この場合、前記指示で定められた動作は、撮像された映像データへのマーカの付与であってもよい。
 また前記副センサ端末における検知対象は、人または物を含む物体が近接したことを含む。この場合、前記副センサ端末は、自装置付近に、人または物を含む物体が近接したことを検知する。この検知を契機に、前記副センサ端末は、イベント発生通知を送信する。
 なお、上記各発明は、可能な限り組み合わせることができる。
 本開示は、イベント発生時に、複数のセンサー端末を協働可能にすることができる。
本開示に係るデータ収集システムを説明する図である。 本開示に係るデータ収集システムの端末を説明する図である。 本開示に係るデータ収集システムの管理ノードを説明する図である。 端末から管理ノードへ送信されるフレームを説明する図である。 端末の配置例を示す。 本開示に係るデータ収集システムを説明する図である。 本開示に係るデータ収集システムを説明する図である。
 添付の図面を参照して本発明の実施形態を説明する。以下に説明する実施形態は本発明の実施例であり、本発明は、以下の実施形態に制限されるものではない。なお、本明細書及び図面において符号が同じ構成要素は、相互に同一のものを示すものとする。
(実施形態1)
 本実施形態では、データ収集システムの基本構成を説明する。
 図1は、本実施形態のデータ収集システム301を説明する図である。データ収集システム301は、端末11からネットワーク装置12への通信を標準規格化された通信プロトコル(LLDPやHTIP、IEEE802.11、等)の拡張領域を活用して行うデータ収集システムであって、
 端末11は、センサーデバイスが検出したセンシングデータを、前記通信プロトコルで規定されるフレーム内の、メタデータを格納する領域とは異なる領域に格納し、ネットワーク装置12へ送出し、
 ネットワーク装置12は、前記フレームを管理ノード13へ転送し、
 管理ノード13は、前記フレームに記載される端末11を識別する情報に基づいて、前記センシングデータと前記メタデータとを関連付けて保管する
ことを特徴とする。
 データ収集ネットワーク15は、特定の範囲に存在する端末11と管理ノード13とを接続するネットワークである。データ収集ネットワーク15は、例えば、ローカルエリアネットワーク(LAN)、フィールドエリアネットワーク(FAN)、IoTエリアネットワークなどである。同じデータ収集ネットワーク15内に、単一種類の端末11が複数存在する場合と、複数種類の端末11が存在する場合がある。
 図2は、端末11を説明する図である。
 端末11は、例えば、IoTセンサ端末であり、観測対象に関するセンシングを行い、センシングデータを生成する。端末11は、センサーデバイス11a、センシングデータ格納処理部11b、機器情報格納処理部11c、通信プロトコル動作部11d、メタデータ検出部(11e、11e、11e、・・・)、及びメタデータ格納処理部11fを有する。
 センサーデバイス11aは、観測対象に関するセンシングを行い、センシングデータ(主データ)を取得する。センシングデータは、例えば、温度、画像、加速度、音、光、CO2等である。
 機器情報格納処理部11cは、観測対象の機器情報(例えば、機器のメーカ名、機種名、型番等)を収集し、フレームの所定位置(プロトコルで規定される“拡張領域”や“オプション領域”等の独自用途で使用可能な領域)に当該情報を格納する。
 センシングデータ格納処理部11bは、センサーデバイス11aからのセンシングデータをフレームの所定位置(プロトコルで規定されるペイロード部分など)に格納する。センシングデータ格納処理部11bは、フレームの独自拡張領域の様式/制限に適合するように、センシングデータを、ある短縮コードに変換して格納したり、分割して複数フレームに分けて格納(フラグメンテーション)するなど、加工した後にフレームに格納してもよい。
 センシングデータ格納処理部11bは、センシングデータをフレームに格納する格納タイミングを任意に設定することができる。例えば、当該格納タイミングをセンシングデータ更新の都度とすることもできるし、センシングデータを逐次格納ではなく一定期間蓄積したタイミングで格納してもよい。また、センシングデータ格納処理部11bは、センシングデータを一定期間蓄積した場合、その記録(ログ)や、特定の計算/統計処理をした結果をフレームに格納してもよい。
 フレームに格納するセンシングデータの種別や格納タイミングは固定されていても変動してもよい。端末11自身の判断、管理ノード13からの指示でセンシングデータの種別や格納タイミングを動的に変更してもよい。
 また、フレームの送信周期も固定されていてもよいし変動してもよい。端末11自身の判断、管理ノード13からの指示でフレームの送信周期を動的に変更してもよい。
 メタデータ検出部11eは、機器情報以外の情報(メタデータ)を取得する。機器情報以外の情報とは、例えば、検出対象の位置情報、時刻情報、人、モノ、又は出来事情報、及びその他情報である。ただし、本発明は機器情報以外の情報をこれらに限定しない。メタデータ検出部11eは、これらの情報を取得するために、位置情報検出部11e、時刻検出部11e、人、モノ、出来事検出部11e、及びその他の検出部を有する。
 位置情報検出部11eは、例えば、GPS、加速度センサ、ジャイロセンサ、あるいはWi-Fi信号やBLE(Bluetooth Low Energy)ビーコン信号などのRSSI受信器である。そして、位置情報検出部11eが検出する場所メタデータは、GPS信号、BLEビーコン信号、無線通信の電波情報、非通信の電波情報(テレビ、ラジオ、電波時計、その他ノイズ等)、電力情報、可視光情報、音波情報、振動情報、加速度情報、その他の場所メタデータ源から取得した位置に関する情報である。
 時刻検出部11eは、例えば、GPS、NTP(Network Time Protocol)からの情報受信器である。そして、時刻検出部11eが検出する時刻メタデータは、GPS信号、NTPからの情報、その他の時刻メタデータ源から取得した時刻に関する情報である。
 人、モノ、出来事検出部11eは、例えば、BLEビーコン(人に所持させる)、人が所持しているスマートフォンからの情報や画像解析結果からの情報を受信する受信器である。人、モノ、出来事検出部11eが検出する人、モノ、又は出来事メタデータは、人に所持させたBLEビーコン、人が所持しているスマートフォンからの情報、画像解析結果からの情報、その他の時事メタデータ源から取得した人、モノ、又は出来事に関する情報である。
 その他の検出部が検出するメタデータとしては、データ収集ネットワーク15のネットワーク構成に関する情報などがある。
 なお、メタデータ検出部11eは、複数の検出対象のうち全てを検出してもよいし、任意の1つを検出してもよい。
 メタデータ格納処理部11fは、メタデータ検出部11eが検出したデータをメタデータとして通信プロトコルで設定されているフレーム内の拡張領域又はオプション領域に格納する。例えば、メタデータ格納処理部11fは、IEEE804.11無線LANの制御系フレームにメタデータを格納することができる。具体的には、Probe Request(プローブ要求)フレームの拡張領域である“Vendor Specific”領域に、各種メタデータを格納する。あるいは、Probe Response(プローブ応答)フレームの拡張領域である“Vendor Specific”領域に、各種メタデータを格納する。
 メタデータ格納処理部11fは、フレームの独自拡張領域の様式/制限に適合するように、メタデータを、ある短縮コードに変換して格納したり、分割して複数フレームに分けて格納(フラグメンテーション)するなど、加工した後にフレームに格納してもよい。
 メタデータ格納処理部11fは、メタデータをフレームに格納する格納タイミングを任意に設定することができる。例えば、当該格納タイミングをメタデータ更新の都度とすることもできるし、メタデータを逐次格納ではなく一定期間蓄積したタイミングで格納してもよい。また、メタデータ格納処理部11fは、メタデータを一定期間蓄積した場合、その記録(ログ)や、特定の計算/統計処理をした結果をフレームに格納してもよい。
 フレームに格納するメタデータの種別や格納タイミングは固定されていても変動してもよい。端末11自身の判断、管理ノード13からの指示でメタデータの種別や格納タイミングを動的に変更してもよい。
 通信プロトコル動作部11dは、所定領域にセンシングデータや機器情報が格納され、拡張領域又はオプション領域にメタデータが格納されたフレームを、例えば、LLDPもしくはHTIP(Home network Topology Identifying Protocol)のような軽量で標準規格化された通信プロトコルを用いてネットワーク装置12へ送信する。なお、センシングデータが格納されたフレームの通信プロトコルと、機器情報が格納されたフレームの通信プロトコルとは、同一であっても異なっていてもよい。後者の場合、メタデータ格納処理部11fは、メタデータをいずれか1つの通信プロトコルのフレーム(センシングデータが格納されたフレーム又は機器情報が格納されたフレーム)に格納してもよいし、両方の通信プロトコルのフレーム(センシングデータが格納されたフレーム及び機器情報が格納されたフレーム)に格納してもよい。
 さらに、端末11は、管理ノード13等からの指示に従って動作する機能も持つ。具体的には、端末11は、指示解釈部11gを有し、管理ノード13からの指示に従って、端末自身が発信するBLEビーコン信号やメタデータ情報(発信する情報、電波強度、送出頻度等)を変化させる場合、その情報を外部に情報発信する。ネットワーク装置12との通信と同じプロトコルで情報発信する場合、通信プロトコル動作部11dを動作させる。ネットワーク装置12との通信と異なるプロトコルで情報発信する場合、通信プロトコル動作部11dの他に通信プロトコル動作部11dを備え、通信プロトコル動作部11dを動作させる。
 なお、端末11自体が、他の端末がメタデータを把握する為のビーコン信号源である場合も含む。例えば、端末11は、場所メタデータを識別する為のビーコン信号源であってもよいし、近接した人を識別する為に作業者に所持させるビーコン端末であってもよい。
 ネットワーク装置12は、例えば、ネットワークスイッチ、無線アクセスポイント、無線リピータ等の装置である。ネットワーク装置12は、下位のデータ収集ネットワーク15からアップロードされたフレーム群をそのまま管理ノード13へ送出する。
 ここで、ネットワーク装置12は、端末11が有するメタデータの処理部分(メタデータ検出部11e及びメタデータ格納処理部11f)を有していてもよい。ネットワーク装置12は、センサデバイス11aを持たない場合も、端末11から送られてきたフレームに、自身のMACアドレス等の固有情報、接続ポート等のメタデータを追加で付与し、管理ノード13へ転送することができる。
 ネットワーク装置12がメタデータの処理部分を有せば、管理ノード13から端末11までの論理的なつながりを把握可能となり、より正確な論理的/物理的なネットワーク管理マップを作成することができる。
 つまり、ネットワーク装置12がレイヤ3以上の機能を持たないネットワークスイッチ(スイッチングハブ)や無線リピータ等であっても、本技術はレイヤ2で行うため、ネットワーク装置12も含めたネットワーク機器のつながりを管理/把握できるようになる。
 図3は、管理ノード13を説明する図である。管理ノード13は、通信プロトコル動作部13a、情報処理部13b及び情報格納部13cを有する。管理ノード13は、ネットワーク装置12から渡されたフレームから情報を取り出して保管し、分析に供する。特に、管理ノード13は、収集した2以上の情報の組み合わせを情報格納部13cに格納する機能を持つことが特徴である。
 通信プロトコル動作部13aは、端末11やネットワーク装置12からのセンシングデータやメタデータが格納されたフレームを受信する。情報処理部12bは、受信したフレームから以下のようなセンシングデータ、機器情報、及びメタデータを取り出し、これらを端末11の個体を識別する情報(例:MACアドレス)を基に情報格納部13cに整理する。
(1)端末の物理的な情報(筐体の特長、画像情報、貼られたラベルの情報、作業者が指をさしている対象、作業者の視線の対象、等の情報)
(2)論理ネットワーク上の端末の識別子(MACアドレス、UUID等)
(3)主データ(温度、画像、加速度、音、光、CO2等のセンシングデータ)
(4)各種メタデータ(場所、時刻、人、モノ、出来事等のデータ)
 例えば、管理ノード13は、場所に関するメタデータを参照し、同一場所あるいはある領域内で取得された主データを[場所メタデータ、主データ]という形式で保管する。
[補足]
 場所メタデータについて補足する。
 GPS情報のように、端末11でセンシングされた時点で直接的な場所メタデータとなっている場合もある。一方、BLEビーコンからの信号、可視光、あるいは音情報のように、端末11でセンシングされてメタデータとして送出される時点では場所情報かどうかは確定されておらず、管理ノード13が当該メタデータを場所メタデータとして認識/把握する場合もある。
[補足終了]
 図4は、端末11から管理ノード13へ送信されるフレーム41を説明する図である。図4では、ネットワーク装置12の記載を省略している。フレーム41は、イーサネット(登録商標)フレームやWi-Fi通信フレームのようなレイヤ2通信フレームである。フレーム41は、MACアドレス等の通信デバイスの論理識別子41a、IPアドレスのような送信元や宛先の識別子41b、温度や画像などのセンシングデータが格納される領域41c、及びメタデータが格納される拡張領域41dで構成される。このうち、識別子41bと領域41cがレイヤ3通信パケットとなる。
 管理ノード13は、例えば、論理識別子41aのMACアドレスと拡張領域41dの場所メタデータを組み合わせて[MACアドレス、場所メタデータ]、論理識別子41aのMACアドレスと拡張領域41dの設置者メタデータを組み合わせて[MACアドレス、設置者メタデータ]のように紐づけて情報格納部13cに整理する。
 このように、データ収集システム301は、高い性能を要求しない通信プロトコルで、端末や機器のネットワーク構成情報、機器情報、センシングデータ及びメタデータを取得することができる。
(実施形態2)
 図5は、端末の配置例を示す。本実施形態のシステムは、端末11として機能する、撮像するカメラ端末C1~C8と、人の接近を感知する人感センサ端末T1~T13と、を備える。このように、本開示は、センサ種類の異なる端末11を備える。本実施形態では、カメラ端末C1~C8が主センサ端末として機能し、人感センサ端末T1~T13が副センサ端末として機能する。カメラ端末C1~C8及び人感センサ端末T1~T13は、バッテリ駆動等、リソースの限られたセンサ端末である。
 例えば、オフィス、倉庫、等の作業空間では、作業者は、軽量の装置(BLEビーコン、スマホ、スマートウォッチなどバッテリ駆動の小型端末)を身に着けた上で、倉庫内で行動する。このとき、人感センサ端末T1~T13が作業者の位置・状態(移動中、停止中)を検知し、カメラ端末C1~C8が作業者を撮像する。
 図6及び図7は、本実施形態のデータ収集システム302を説明する図である。本実施形態では、センサ端末が、人感センサ端末11T及びカメラ端末11Cである例を示す。人感センサ端末11Tに備わるセンサーデバイス11aは人を検知可能な任意のセンサであり、例えば赤外線検出装置である。カメラ端末11Cに備わるセンサーデバイス11aはカメラデバイスである。
 図6及び図7では、管理ノード13の上位に上位管理ノード14が接続されている例を示す。上位管理ノード14は、管理ノード13に格納されている各種情報を収集するデータ/メタデータ収集部14aと、データ/メタデータ収集部14aの収集した各種情報の処理を実行する情報処理部14bと、情報格納部14cと、を備える。この図では、情報処理部14bが、人感センサ端末11T及びカメラ端末11Cの位置を算出する位置情報算出部14baと、管理ノード13及びセンサ端末11に指示を行う指示部14bcと、を備える例を示す。
 副センサ端末である人感センサ端末11Tは、自装置の検知対象であるイベントを検知すると、スリープから起動する。人感センサ端末11Tは、スリープから起動直後、すみやかにイベント発生通知を送出する。このとき、人感センサ端末11Tは、イベント発生通知を、レイヤ2通信フレームの拡張領域に格納する。例えば、図5に示す人感センサ端末T8は、人を検知した旨のイベント発生通知をレイヤ2通信フレームの拡張領域に格納し、管理ノード13に送信する。本実施形態は、レイヤ2通信フレームを用いることで、イベント発生通知を低遅延に行うことができる。
 管理ノード13は、人感センサ端末T8からイベント発生通知を受信すると、人感センサ端末T8に対応付けられたカメラ端末11Cに対し、指示を行う。例えば、人感センサ端末T8と場所メタデータが近い、カメラ端末C3、C5、C8が例示できる。カメラ端末C3、C5、C8の選択は、位置情報算出部14baにおいて、人感センサ端末11Tごとに予め行うことができる。管理ノード13は、人感センサ端末T8の付近のカメラ端末11Cがカメラ端末C3、C5、C8である旨を指示部14bcから予め取得し、これに基づいてカメラ端末C3、C5、C8に指示を行う。これにより、その他の無関係なカメラ端末11Cには指示は発出されず、不要時はカメラ端末11Cをスリープさせられる為、カメラ端末11Cの消費電力が節約可能になる。
 カメラ端末11Cは、管理ノード13からの指示を受信すると、スリープから起動し、撮像を開始する。本実施形態は、低遅延な指示が届くため、迅速な撮像の開始が可能になる。このため、後に詳細な分析が可能となり、データ価値が向上する。
 カメラ端末11Cは、撮像によって得られた映像データを管理ノード13に送信する。このとき、本実施形態の管理ノード13は、図5に示すカメラ端末C3、C5、C8からの映像データを取得できる。このため、迅速に撮像が開始された、マルチアングルからの映像データが蓄積できることにより、データの価値が向上する。
 ここで、カメラ端末11Cが映像データを送信するタイミングは、リアルタイムであってもよいが、本開示はこれに限定されない。例えば、カメラ端末11Cは、管理ノード13の上位に接続されている上位管理ノード14からのアップロード指示又はストリーミング指示の受信を契機に、撮りためた映像データを、管理ノード13及び上位管理ノード14の少なくともいずれかに送信してもよい。
 人感センサ端末11Tに応じたカメラ端末11Cは、情報格納部13cに予め格納されていてもよいが、本開示はこれに限定されない。例えば、人感センサ端末T8は、人感センサ端末T8が人を検知した場所を、イベント発生通知と共に、場所メタデータとして、レイヤ2通信フレームの拡張領域41dに格納してもよい。この場合、上位管理ノード14において、位置情報算出部14baが場所メタデータに応じたカメラ端末11Cを選択し、指示部14bcが該当するカメラ端末11Cに指示を行う。このような構成を採用することで、人感センサ端末11Tなどの副センサ端末が移動する場合であっても、適切な主センサ端末に指示を行うことができる。
 以上説明したように、本実施形態は、人感センサ端末11Tでの検出結果をカメラ端末11Cの撮像開始トリガとして利用する。これにより、作業者の映像をマルチアングルで常に撮像することができる。ここで、本開示では、イベント発生通知をレイヤ2の通信プロトコルの拡張領域41dを利用して送信するため、イベント発生直後に、カメラ端末C3、C5、C8において速やかに撮像を開始することができる。このため、本開示は、監視対象が高速で移動する場合であっても、多アングルからの映像データを、該イベント発生直後、速やかに撮像開始することができる。さらに、不要なカメラ端末11Cへは指示しないため、不要な時、不要な場所のカメラ端末11Cの消費電力を抑制できる。
 また、本実施形態では管理ノード13からの指示が撮像の開始である例を示したが、本開示はこれに限定されない。例えば、すでにカメラ端末11Cが撮像を開始している場合、撮像の開始に代えて、マーカ付与の指示であってもよい。これにより、図5に示すカメラ端末C3、C5、C8で撮像された映像データにマーカを追加することができる。これにより、蓄積された膨大な映像データの中から所望のイベントを遡って追跡しやすくすることができる。
 なお、本実施形態では人感センサ端末11Tでの検出結果をカメラ端末11Cの撮像開始トリガとして利用したが、人感センサ端末11Tに限らず、人または物を含む物体が近接したことを検知してもよいし、1以上の任意のイベント発生であってもよい。例えば、各端末11が検知可能な任意のメタデータ(強い衝撃、音、変化、等)を、任意のセンサ端末における任意のトリガとして利用してもよい。
(他の実施形態)
 上述した端末11及び管理ノード13は、コンピュータとプログラムによっても実現でき、プログラムを記録媒体に記録することも、ネットワークを通して提供することも可能である。
11:端末
11T:人感センサ端末
11C:カメラ端末
11a:センサーデバイス
11b:センシングデータ格納処理部
11c:機器情報格納処理部
11d1、11d2:通信プロトコル動作部
11e、11e1、11e2、11e3、・・・:メタデータ検出部
11f:メタデータ格納処理部
11g:指示解釈部
12:ネットワーク装置
12A:アクセスポイント
13:管理ノード
13a:通信プロトコル動作部
13b:情報処理部
13c:情報格納部
14:上位管理ノード
14a:データ/メタデータ収集部
14ba:位置情報算出部
14bc:指示部
14c:情報格納部
15:データ収集ネットワーク
41:フレーム
41a:論理識別子
41b:送信元/宛先識別子
41c:主データ領域
41d:拡張領域
301~302:データ収集システム

Claims (7)

  1.  検知対象の異なる副センサ端末及び主センサ端末で検出されたセンシングデータを管理ノードに収集するデータ収集システムに備わる前記管理ノードであって、
     前記管理ノードは、
     前記副センサ端末において検知対象が検知された旨のイベント発生通知を、レイヤ2の通信プロトコルの拡張領域を利用して受信すると、前記イベント発生通知に応じた指示を、前記主センサ端末に行う、
     管理ノード。
  2.  前記指示で定められた動作は、前記主センサ端末における検知の開始であることを特徴とする請求項1に記載の管理ノード。
  3.  前記主センサ端末は、検知対象を撮像するカメラ端末であり、
     前記指示で定められた動作は、撮像された映像データへのマーカの付与であることを特徴とする請求項1に記載の管理ノード。
  4.  自装置の検知対象を検知すると、イベント発生通知をレイヤ2の通信プロトコルの拡張領域を利用して送信する副センサ端末と、
     前記副センサ端末から前記イベント発生通知を受信する、請求項1から3のいずれかに記載の管理ノードと、
     前記管理ノードからの指示で定められた動作を実行する主センサ端末と、
     を備えるデータ収集システム。
  5.  前記主センサ端末は、前記管理ノードから指示を受信すると、スリープ状態から起動することを特徴とする請求項4に記載のデータ収集システム。
  6.  前記副センサ端末は、自装置付近に、人または物を含む物体が近接したことを検知することを特徴とする請求項4に記載のデータ収集システム。
  7.  検知対象の異なる副センサ端末及び主センサ端末で検出されたセンシングデータを管理ノードに収集するデータ収集システムに備わる前記管理ノードが実行する方法であって、
     前記管理ノードは、
     前記副センサ端末において検知対象が検知された旨のイベント発生通知を、レイヤ2の通信プロトコルの拡張領域を利用して受信すると、前記イベント発生通知に応じた指示を、前記主センサ端末に行うことを特徴とする方法。
PCT/JP2022/045221 2022-12-08 2022-12-08 データ収集システム WO2024122012A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/045221 WO2024122012A1 (ja) 2022-12-08 2022-12-08 データ収集システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/045221 WO2024122012A1 (ja) 2022-12-08 2022-12-08 データ収集システム

Publications (1)

Publication Number Publication Date
WO2024122012A1 true WO2024122012A1 (ja) 2024-06-13

Family

ID=91379019

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/045221 WO2024122012A1 (ja) 2022-12-08 2022-12-08 データ収集システム

Country Status (1)

Country Link
WO (1) WO2024122012A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012242991A (ja) * 2011-05-18 2012-12-10 Nissan Motor Co Ltd 移動体監視装置及び移動体の監視方法
JP2014216663A (ja) * 2013-04-22 2014-11-17 三菱電機ビルテクノサービス株式会社 映像データ送信装置及び映像データ管理システム
JP2017076938A (ja) * 2015-10-16 2017-04-20 キヤノン株式会社 情報処理装置
JP2019050452A (ja) * 2017-09-07 2019-03-28 キヤノン株式会社 制御装置、制御方法、プログラム、及び監視システム
WO2019176519A1 (ja) * 2018-03-12 2019-09-19 ソニー株式会社 サーバ装置、基地局、および端末装置、並びに通信システム
WO2021166261A1 (ja) * 2020-02-21 2021-08-26 日本電信電話株式会社 データ収集システム及びデータ収集方法
WO2022149250A1 (ja) * 2021-01-08 2022-07-14 日本電信電話株式会社 データ収集装置、センサ端末、メタデータ収集システム、メタデータ収集方法、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012242991A (ja) * 2011-05-18 2012-12-10 Nissan Motor Co Ltd 移動体監視装置及び移動体の監視方法
JP2014216663A (ja) * 2013-04-22 2014-11-17 三菱電機ビルテクノサービス株式会社 映像データ送信装置及び映像データ管理システム
JP2017076938A (ja) * 2015-10-16 2017-04-20 キヤノン株式会社 情報処理装置
JP2019050452A (ja) * 2017-09-07 2019-03-28 キヤノン株式会社 制御装置、制御方法、プログラム、及び監視システム
WO2019176519A1 (ja) * 2018-03-12 2019-09-19 ソニー株式会社 サーバ装置、基地局、および端末装置、並びに通信システム
WO2021166261A1 (ja) * 2020-02-21 2021-08-26 日本電信電話株式会社 データ収集システム及びデータ収集方法
WO2022149250A1 (ja) * 2021-01-08 2022-07-14 日本電信電話株式会社 データ収集装置、センサ端末、メタデータ収集システム、メタデータ収集方法、及びプログラム

Similar Documents

Publication Publication Date Title
Vattapparamban et al. Indoor occupancy tracking in smart buildings using passive sniffing of probe requests
US8134942B2 (en) Communication protocol for low-power network applications and a network of sensors using the same
US10952041B2 (en) Control device and method for processing a service using a plurality of sensor devices in a distributed manner while suppressing a communication load
JP2017514335A (ja) 複数のネットワーク・インターフェースのための多重rf無線支持を有するネットワーク・レンジ・エクステンダ
CN107316431A (zh) 一种基于云端的智能家居安防***
US10349353B2 (en) Automatic uploading method and portable information capturing device capable of automatic uploading
CN104936273A (zh) 一种Mesh自组织无线传感网同步休眠及低功耗通讯方法
US20120239297A1 (en) Value acquiring method, sensor control apparatus, sensor control method, sensor control medium, and acquisition interval control medium
JP2008538669A (ja) センサネットワークのタスクを実行する方法及び装置
JP2015095872A5 (ja)
JP2013187703A (ja) 通信装置、通信装置の制御方法、プログラム
WO2024122012A1 (ja) データ収集システム
JP6614782B2 (ja) 通信装置、制御方法、及びプログラム
US20150063219A1 (en) Connection establishment
WO2024122011A1 (ja) データ収集システム
WO2021166261A1 (ja) データ収集システム及びデータ収集方法
WO2024122017A1 (ja) データ収集システム
Ling et al. Design of a remote data monitoring system based on sensor network
US11350339B1 (en) Transmitting announcement messages between network devices and building network connectivity graphs
CN112714454B (zh) 一种无线传感器网络的监控方法及相关设备
CN107846340B (zh) 一种基于lora星型组网的物联网应用***
WO2024122016A1 (ja) データ収集システム
WO2024084641A1 (ja) 位置検出サーバ及び位置変動把握方法
WO2024122024A1 (ja) 管理ノード、通信端末、及びデータ収集方法
JP2019068139A (ja) 管理装置、情報処理システム、制御方法、及び、プログラム