WO2021014601A1 - 同期制御装置 - Google Patents

同期制御装置 Download PDF

Info

Publication number
WO2021014601A1
WO2021014601A1 PCT/JP2019/028955 JP2019028955W WO2021014601A1 WO 2021014601 A1 WO2021014601 A1 WO 2021014601A1 JP 2019028955 W JP2019028955 W JP 2019028955W WO 2021014601 A1 WO2021014601 A1 WO 2021014601A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
input
output signal
output
sensor
Prior art date
Application number
PCT/JP2019/028955
Other languages
English (en)
French (fr)
Inventor
聖司 松村
直樹 西條
牧夫 柏野
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US17/629,251 priority Critical patent/US20220255718A1/en
Priority to JP2021534476A priority patent/JP7268736B2/ja
Priority to PCT/JP2019/028955 priority patent/WO2021014601A1/ja
Publication of WO2021014601A1 publication Critical patent/WO2021014601A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L7/00Arrangements for synchronising receiver with transmitter
    • H04L7/0016Arrangements for synchronising receiver with transmitter correction of synchronization errors
    • H04L7/0033Correction by delay
    • H04L7/0041Delay of data signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom

Definitions

  • the present invention relates to a technique for synchronizing data observed by a plurality of sensors.
  • each sensor has a function of synchronizing the clock with another sensor, the data to be observed may be synchronized using the function. For example, if the master sensor sends a clock pulse to the synchronous device, the synchronous device sends this clock pulse to another sensor, and the other sensor synchronizes the clock with the master sensor based on this clock pulse. Good (see, for example, Non-Patent Documents 1, 2, etc.).
  • the present invention has been made in view of these points, even when a plurality of sensors do not have clocks synchronized with each other or do not have a function of synchronizing clocks with other sensors. ,
  • the purpose is to synchronize the data observed by different sensors without adding a function for synchronization to the sensor.
  • an input unit to which a trigger signal is input and a specific sensing target of the first sensor at a first time point corresponding to the input time point of the trigger signal to the input unit are presented.
  • a synchronous control device including a second output unit that outputs a second output signal instructing the start of sensing to the second sensor is provided.
  • the first output signal for presenting the specific sensing target of the first sensor at the first time point corresponding to the input time of the trigger signal is output to the first device presenting the specific sensing target of the first sensor. Therefore, the first sensor senses the specific sensing target presented at the time corresponding to the first time point. Further, since the second output signal instructing the start of sensing by the second sensor is output to the second sensor at the second time point corresponding to the input time point, the second sensor at the second time point corresponding to the input time point. Sensing is started from the corresponding time. The first and second time points correspond to the input time points of the trigger signal. Therefore, the data obtained by the first sensor and the data obtained by the second sensor can be synchronized.
  • FIG. 1 is a block diagram illustrating the functional configuration of the sensing system of the first and second embodiments.
  • FIG. 2 is a block diagram illustrating the functional configuration of the synchronous control device of the first and second embodiments.
  • FIG. 3 is a conceptual diagram illustrating the appearance of the synchronous control device of the first and second embodiments.
  • FIG. 4A is a conceptual diagram illustrating the configuration of the front panel of the synchronous control device of the first and second embodiments, and
  • FIG. 4B is a conceptual diagram illustrating the configuration of the rear panel.
  • FIG. 5 is a diagram illustrating an output signal setting screen.
  • FIG. 6 is a diagram illustrating an output signal setting screen.
  • FIG. 7 is a diagram illustrating an output signal setting screen.
  • FIG. 8A and 8B are diagrams for exemplifying the operation at the time of setting the output signal.
  • FIG. 9 is a diagram for exemplifying an output signal.
  • FIG. 10 is a block diagram illustrating the functional configuration of the sensing system of the third embodiment.
  • FIG. 11 is a block diagram illustrating the functional configuration of the synchronous control device of the third embodiment.
  • FIG. 12 is a conceptual diagram illustrating the appearance of the synchronous control device according to the third embodiment.
  • the sensing system 1 of the present embodiment includes a synchronization control device 11, a setting terminal device 12, a trigger signal input device 13-1, 13-2, and a sensing target presentation device 15-1, ..., 15. -M, and sensors 161-1, ..., 161-M, 162-1, ..., 162-N.
  • N and M are integers of 1 or more.
  • the synchronization control device 11 is a device that performs processing for synchronizing data observed (sensing) by a plurality of sensors 161-1, ..., 161-M, 162-1, ..., 162-N.
  • the setting terminal device 12 is a device for setting the synchronization control device 11.
  • the setting terminal device 12 is, for example, a general-purpose or dedicated computer including a processor (hardware processor) such as a CPU (central processing unit) and a memory such as a RAM (random-access memory) and a ROM (read-only memory). Is a device configured by executing a predetermined program. Examples of the setting terminal device 12 are a personal computer, a tablet terminal device, a smartphone terminal device, and the like.
  • the trigger signal input devices 13-1 and 13-2 are devices that receive triggers.
  • the trigger signal input device 13-1 performs wireless communication with the synchronous control device 11, and the trigger signal input device 13-2 performs wired communication with the synchronous control device 11.
  • the sensors 161-1, ..., 161-M, 162-1, ..., 162-N are devices for sensing physical phenomena. Sensors 161-1, ..., 161-M continuously sense physical phenomena. Examples of sensors 161-1, ..., 161-M are a camera that captures and records images, a recording device that collects and records sound with a microphone, and a living body that measures and records biological signals such as pulses and electrocardiograms. Signal measuring devices, seismographs that measure and record seismic waves, etc.
  • the sensors 1621, ..., 162-N are sensors that start sensing when an output signal instructing the start of sensing is input.
  • Examples of sensors 1621, ..., 162-N are acceleration sensors, gyro sensors, speed sensors and the like.
  • the above-mentioned examples of sensors 161-1, ..., 161-M and sensors 162-1, ..., 162-N are merely examples, and are laser type distance sensors, motion sensors, strain sensors, pressure sensors, and the like. Other sensors and recording devices may be used.
  • the sensing target presentation device 15-m (m ⁇ ⁇ 1, ..., M ⁇ ) is a device that presents a specific sensing target of the sensor 161-m.
  • the specific sensing target of the sensor 161-m is the sensing target of the sensor 161-m and is identifiable from the other sensing targets of the sensor 161-m.
  • the sensing target presentation device 15-m is an LED light that emits light, a display that generates and displays an image, and the like.
  • the sensing target presentation device 15-m is a speaker or the like that outputs sound.
  • the sensing target presentation device 15-m is a signal generator or the like that outputs a signal such as a pulse signal.
  • the synchronous control device 11 of the present embodiment includes a control unit 111, a communication unit 112, an input unit 113-1 and an input unit 113-2, and output units 114-1 to 114-1.
  • the control unit 111 is an electronic circuit that performs various processes.
  • the control unit 111 is a device configured by, for example, executing a predetermined program by a general-purpose or dedicated computer including a processor such as a CPU and a memory such as RAM and ROM.
  • This computer may have one processor and memory, or may have a plurality of processors and memory.
  • This program may be installed in a computer or may be recorded in a ROM or the like in advance.
  • a part or all of the processing units may be configured by using an electronic circuit that realizes a processing function independently, instead of an electronic circuit (circuitry) that realizes a function configuration by reading a program like a CPU. ..
  • the electronic circuit constituting one device may include a plurality of CPUs.
  • An example of the control unit 111 is a microcomputer.
  • the communication unit 112 is a device that communicates with an external device by wire or wirelessly, and is, for example, a device that communicates with an external computer via a serial bus (for example, USB).
  • the input unit 113-1 is a device that receives an input of a trigger signal transmitted by wireless communication (for example, infrared rays, Bluetooth (registered trademark), etc.).
  • the input unit 113-2 is a device that receives an input of a trigger signal sent by wired communication (for example, a serial bus such as USB).
  • the output unit 114-1 outputs an output signal for presenting a specific sensing target of the sensor 161-m to the sensing target presenting device 15-m that presents the specific sensing target of the sensor 161-m.
  • the output units 114-2 and 3 receive an output signal instructing the start of sensing in any of the sensors 1621, ..., 162-N, respectively, and any sensor 162-1 instructing the start of the sensing. , ..., Output to 162-N. Only one of the output units 114-2 and 3 may output the output signal, or both of the output units 114-2 and 3 may output the output signal.
  • the synchronous control device 11 includes the above-mentioned control unit 111, communication unit 112, input unit 113-1, input unit 113-2, and output unit 114-1 to It is a device in which 3 is housed in a housing.
  • the front panel 110-1 of the synchronization control device 11 is provided with an input unit 113-2.
  • the input unit 113-2 illustrated in FIG. 4A has a connector to which the trigger signal input device 13-2 can be connected by wire.
  • the back panel 110-2 of the synchronization control device 11 is provided with a communication unit 112 and output units 114-1, 114-2, 113-3.
  • FIG. 4A the front panel 110-1 of the synchronization control device 11 is provided with an input unit 113-2.
  • the input unit 113-2 illustrated in FIG. 4A has a connector to which the trigger signal input device 13-2 can be connected by wire.
  • the back panel 110-2 of the synchronization control device 11 is provided with a communication unit 112 and output units 114-1, 114-2, 113-3.
  • the output unit 114-1 has 8 output terminals for 4 channels (2 on each channel), and the output unit 114-2 has 6 output terminals for 6 channels (1 on each channel). Each has (CH1 to CH6)) output terminals, and the output unit 114-3 has two output terminals for two channels (one for each channel (CH7, CH8)).
  • the output terminal of the output unit 114-1 is an LED output terminal
  • the output terminal of the output unit 114-2 is a pulse voltage output terminal
  • the output terminal of the output unit 114-3 is an open collector of a transistor. It is an output terminal.
  • these are examples and do not limit the present invention.
  • the output signal setting process of this embodiment is performed using the setting terminal device 12. 5 to 7 show a screen displayed on the interface unit (graphical interface unit) of the setting terminal device 12 during this setting process.
  • the interface unit accepts input operations (for example, click operation, drag operation, etc.) for setting the waveform and / or time point of the output signal.
  • the input operation to the interface unit may be performed by a mouse operation or a touch operation.
  • the setting process of the present embodiment will be described with reference to FIGS. 5 to 7.
  • the screen 121 of FIG. 5 is displayed on the interface unit of the setting terminal device 12.
  • the screen 121 has an output signal waveform display unit 1211, a display CH setting unit 1212, a waveform pattern setting unit 1213, a waveform control unit 1214, a waveform display scale setting unit 1215, and a time grid interval setting unit 1216.
  • the output signal waveform display unit 1211 is a portion that displays the information of the set output signal, and is a channel display unit 1211a that displays the channel of the output signal, a pulse voltage display unit 1211b that displays the pulse voltage of the output signal, and an output signal. It has a waveform display unit 1211c for displaying the waveform pattern of.
  • the horizontal axis of the waveform display unit 1211c is the time axis, and the vertical axis represents the pulse voltage.
  • the waveform pattern setting unit 1213 is clicked when opening the output signal file stored in the external storage device such as the hard disk of the setting terminal device 12 button 1213a, and is clicked when saving the set output waveform in the file.
  • the waveform control unit 1214 has a button 1214a that is clicked when the set output signal is output to the synchronization control device 11, and a button 1214b that is clicked when the output of the output signal to the synchronization control device 11 is stopped. ..
  • the waveform display scale setting unit 1215 sets the unit of the waveform pattern scale of the output signal displayed on the input unit 1215a and the waveform display unit 1211c for inputting the scale of the waveform pattern of the output signal displayed on the waveform display unit 1211c. It has an input unit 1215b for inputting, and a button 1215c that is clicked when setting with the values input to the input unit 1215a and the input unit 1215b.
  • the time grid interval setting unit 1216 is an input unit 1216a for inputting a grid value of the waveform pattern of the output signal displayed on the waveform display unit 1211c, and a grid value of the waveform pattern of the output signal displayed on the waveform display unit 1211c. It has an input unit 1216b for inputting a unit, and a button 1216c that is clicked when setting with the values input to the input unit 1216a and the input unit 1216b.
  • buttons 122-5 for selecting the channel to be set, buttons 122-4 clicked when setting with the contents selected by buttons 122-1, 122-2a, 122-2b, 122-3, and It has buttons 122-5 that are clicked when canceling these selected contents.
  • the user first presses the button on the screen 122 of FIG. 6 to select a channel for setting the output signal, and further outputs when setting the output signal output from the output unit 114-2. Select the pulse voltage of the signal.
  • the channel for which the output signal is set is selected by clicking the buttons 122-1, 122-2a, and 122-3 of the corresponding channel.
  • the selection of the pulse voltage of the output signal is based on the pulse voltage list displayed as a tab by clicking the button 122-2b (that is, the pulse voltage list, for example, 5.0V, 3.3V, 1.0V as an element. This is done by selecting the desired pulse voltage from the including list).
  • the user clicks button 122-4 To set the output signal for the selected channel and pulse voltage.
  • buttons 122-5 are clicked.
  • the channel and pulse voltage selections are cleared.
  • buttons 122-1, 122-2a, 122-2b, and 122-3 in FIG. 6 When any of the buttons 122-1, 122-2a, 122-2b, and 122-3 in FIG. 6 is clicked (pressed), the buttons 122-1, 122-2a, 122-2b, 122- in FIG. 6
  • the transition to the screen 121 of FIG. 5 in which only the channel selected from 3 is displayed is temporarily performed.
  • the screen 123 for setting the output signal of the selected channel is displayed (FIG. 7), and the channel is displayed. You will be able to set individual waveforms. As illustrated in FIG.
  • the screen 123 has a channel display unit 1230 for displaying a channel for setting an output signal (CH1 in this example), a waveform setting unit 1231 for setting a waveform pattern and a time point of the output signal, and the like.
  • Button 1232 clicked when deleting a rectangular waveform (partial waveform) included in the waveform pattern of the output signal
  • button 1233 clicked when adding a rectangular waveform constituting the waveform pattern
  • Waveform display scale setting unit 1235 used for setting the scale of
  • time grid interval setting unit 1236 used for setting the time grid of waveform setting unit 1231
  • button 1237 clicked when setting with the set contents
  • It has a button 1238 that is clicked when canceling these selected contents.
  • the waveform display scale setting unit 1235 sets the unit of the scale of the waveform pattern of the output signal displayed on the input unit 1235a and the waveform setting unit 1231 for inputting the scale of the waveform pattern of the output signal displayed on the waveform setting unit 1231. It has an input unit 1235b for inputting, and a button 1235c that is clicked when setting with the values input to the input unit 1235a and the input unit 1235b.
  • the time grid interval setting unit 1236 is an input unit 1236a for inputting a grid value of the waveform pattern of the output signal displayed on the waveform setting unit 1231, and a grid value of the waveform pattern of the output signal displayed on the waveform setting unit 1231. It has an input unit 1236b for inputting a unit, and a button 1236c that is clicked when setting with values input to the input unit 1236a and the input unit 1236b.
  • the waveform pattern of the output signal includes one or more rectangular waveforms (partial waveforms).
  • the user drags the button 1233 to place the rectangular waveform figure at a position representing a desired time point in the waveform setting unit 1231.
  • a rectangular waveform is added at a desired time point of the waveform pattern displayed on the arranged waveform setting unit 1231.
  • a rectangular waveform 1231a or a rectangular waveform 1231b as illustrated in FIG. 7 is added to the waveform pattern.
  • the initial value of the width of the rectangular waveform to be added is predetermined.
  • the amplitude (pulse voltage) of the rectangular waveform added to the waveform pattern is predetermined.
  • the amplitude of the rectangular waveform added to the waveform pattern represents the pulse voltage set using the button 122-2b of FIG.
  • the time point of the rectangular waveform can be moved.
  • the user can move the time point of the rectangular waveform by clicking, activating, and then dragging the rectangular waveform whose time point is to be moved.
  • the user can change the width of the rectangular waveform by dragging a part of the rectangular waveform included in the waveform pattern displayed on the waveform setting unit 1231.
  • the rise time t 3 when changing the width of the rectangular waveform 1231b of fall time t 4, the one of the user position when t 3 or time t 4 of a rectangular waveform 1231b
  • the width of the rectangular waveform 1231b is changed by dragging. For example, when the position of the time point t 4 of the rectangular waveform 1231b is dragged in the A direction to the time point t 5 , the falling time point of the rectangular waveform 1231b is changed to the time point t 5 without changing the rising point t 3 of the rectangular waveform 1231b.
  • the width of 1231b can be changed.
  • this operation of changing the width of the rectangular waveform only the rising portion or the falling portion of the rectangular waveform can be moved, and the other portions do not move, so that the width of the rectangular waveform can be easily deformed.
  • an appropriate operation can be performed.
  • the user can set the scale of the waveform pattern displayed on the waveform setting unit 1231 by using the waveform display scale setting unit 1235. That is, the user inputs a scale value to the input unit 1235a of the waveform display scale setting unit 1235, inputs the unit of the scale value input to the input unit 1235a to the input unit 1235b, and clicks the button 1235c.
  • the scale of the waveform pattern displayed on the waveform setting unit 1231 can be set to the scale input to the input unit 1235a and the input unit 1235b.
  • the user can use the time grid interval setting unit 1236 to set the grid interval (adjustment range at the time of the partial waveform) of the rectangular waveform displayed on the waveform setting unit 1231. That is, the arrangement position of the rectangular waveform displayed on the waveform setting unit 1231, the movement interval, and the change interval of the width of the rectangular waveform can be set. That is, the waveform pattern of the output signal to be set includes a plurality of rectangular waveforms (partial waveforms), and the interface unit for setting the time grid interval setting for receiving the input of the grid interval (adjustment width at the time of the partial waveform).
  • a waveform setting unit that displays a waveform pattern including a plurality of rectangular waveforms and accepts a drag operation by mouse input or touch input for adjusting the time point of a part of the partial waveforms included in the plurality of rectangular waveforms by the adjustment width. It has 1231 and.
  • the pulse voltage and waveform pattern of the output signal of each channel are set.
  • the pulse voltage and waveform pattern of the set output signals are displayed on the pulse voltage display unit 1211b and the waveform display unit 1211c at the positions of the respective channels displayed on the channel display units 1211a corresponding to them.
  • the waveform patterns of the output signals set in each channel are displayed side by side with the time points aligned.
  • the user can set the scale of the waveform pattern of the output signal to be displayed on the waveform display unit 1211c by the waveform display scale setting unit 1215.
  • the user inputs the scale value of the waveform pattern to the input unit 1215a, inputs the unit of the scale value to the input unit 1215b, and clicks the button 1215c.
  • the waveform pattern of the output signal is displayed on the waveform display unit 1211c on the scale set by the waveform display scale setting unit 1215.
  • the user can set the time grid interval of the waveform pattern of the output signal to be displayed on the waveform display unit 1211c by the time grid interval setting unit 1216.
  • the user inputs the grid value of the waveform pattern to the input unit 1216a, inputs the unit to the input unit 1216b, and clicks the button 1216c.
  • the waveform pattern of the output signal is arranged on the waveform display unit 1211c at the time grid interval set by the time grid interval setting unit 1216.
  • the user clicks the button 1213c When reading the pulse voltage and waveform pattern of the set output signal of each channel from the main body memory, the user clicks the button 1213c.
  • the pulse voltage and waveform pattern of the output signal of each channel opened or read are displayed in the pulse voltage display unit 1211b and the waveform display unit at the position of each channel displayed on the channel display unit 1211a corresponding to them. Each is displayed on 1211c.
  • the waveform pattern of the output signal of each channel displayed on the output signal waveform display unit 1211 is transmitted to the synchronization control device 11.
  • the waveform pattern of the transmitted output signal of each channel is received by the communication unit 112 of the synchronization control device 11, and is stored in the memory (storage unit) of the control unit 111.
  • the synchronization control process by the synchronization control device 11 in which the waveform pattern of the output signal of each channel is set as described above will be described.
  • the output signals w-1, ..., W-M output from the output unit 114-1 and the output signals ws-1, ..., Ws-N output from the output units 114-2 or 114-3 are It is assumed that it is set and stored in the control unit 111.
  • the output signal wm is a signal output to the sensing target presentation device 15-m
  • the output signal wsn (where n ⁇ 1, ..., N) is a signal output to the sensor 162-n. is there.
  • the sensor 161-m continuously senses the surrounding sensing target, and the sensing target presented by the sensing target presenting device 15-m is also in a state where it can be sensed.
  • the sensor 161-m is a camera, and the surrounding image is continuously photographed and recorded, the sensing target presentation device 15-m is an LED light, and the LED light presented from the LED light is also a camera. It is assumed that it is possible to shoot and record with the sensor 161-m.
  • the sensing target presenting device 15-m when the sensing target presenting device 15-m does not emit the LED light, the sensor 161-m continuously captures and records the surrounding image not including the LED light, but the sensing target presenting device 15 When ⁇ m emits LED light, the sensor 161-m continuously captures and records the surrounding image including the LED light. Further, the sensors 1621, ..., 162-N do not perform sensing in the initial state, and only the sensor 162-n to which the output signal ws-n (however, n ⁇ 1, ..., N) is input senses. To start.
  • the user gives a trigger to the trigger signal input device 13-1 or the trigger signal input device 13-2 (Fig. 1). For example, the user presses down the mechanical input button of the trigger signal input devices 13-1 and 13-2, or clicks the button displayed on the touch panel of the trigger signal input devices 13-1 and 13-2. By doing so, a trigger is given to the trigger signal input device 13-1 or the trigger signal input device 13-2.
  • the trigger signal input device 13-1 wirelessly transmits a trigger signal indicating that fact, and this trigger signal is the input unit 113 of the synchronous control device 11 (FIG. 2). Entered in -1.
  • the trigger signal input device 13-2 transmits a trigger signal to that effect by wire, and this trigger signal is input to the input unit 113-2 of the synchronization control device 11. Will be done.
  • the trigger signal input to the trigger signal input device 13-1 or the input unit 113-2 is sent to the control unit 111.
  • the control unit 111 receives an output signal w-1, ..., Stored in the memory (storage unit) of the control unit 111 when the trigger signal is sent (when the trigger signal is input to the input unit).
  • WM first output signal
  • WM second output signal
  • It is sent to the output unit 114-2 or 114-3. Whether to send each output signal ws-n to the output unit 114-2 or to the output unit 114-3 depends on the sensor 162-n to which each output signal ws-n is output.
  • the output signal ws-n is sent to the output unit 114-2.
  • the output signal ws-n is sent to the output unit 114-3.
  • the output unit 114-1 (first output unit) to which the output signals w-1, ..., W-M are sent from the control unit 111 senses the output signal worm (first output signal) 15- Output to m (first device).
  • the output signal wm is sensing by the sensor 161-m (first sensor) at a time point corresponding to the time point of input of the trigger signal to the input unit 113-1 or the input unit 113-2 (first time point). It is a signal for presenting an object (for example, LED light).
  • the output signal wm illustrated in FIG. 9 is a rectangular pulse that rises at the time point t 5-m (first time point) corresponding to the input time point t 0 of the trigger signal and falls at the time point t 6-m .
  • the sensing target presenting device 15-m to which the output signal wm is input presents a specific sensing target of the sensor 161-m (first sensor) at the time point t 5-m (first time point) (for example, LED). (Light is emitted), and the presentation of this sensing object continues until the time point t6 -m .
  • the sensor 161-m continuously senses the surrounding sensing target, and when the sensing target presenting device 15-m presents a specific sensing target, the sensing target presenting device 15-m is used.
  • the sensing target including the presented sensing target is sensed and recorded.
  • the senor 161-m when the sensor 161-m is a camera and the sensing target presentation device 15-m is an LED light, the sensor 161-m continuously captures the surrounding image, and the sensing target presentation device 15-m is When the LED light is presented, an image containing the LED light (an image in which the LED light is reflected) is photographed and recorded between t 5-m and t 6-m , and an image not containing the LED light is recorded at other times. Take a picture and record it.
  • the output unit 114-2 or 114-3 (second output unit) to which each output signal ws-n is sent from the control unit 111 transmits each output signal ws-n (second output signal) to each sensor 162-n (second output unit). Output to the second sensor).
  • Each output signal ws-n is each sensor 162-n (second sensor different from the first sensor) at a time point (second time point) corresponding to the time point of input of the trigger signal to the input unit 113-1 or the input unit 113-2. ) Is a signal instructing the start of sensing.
  • each sensor 162-n to which each output signal ws-n is input starts sensing at a time point t 1-n corresponding to a time point t 0 when the trigger signal is input.
  • the duration of sensing depends on the type of sensor. In the case of the sensor 162-1 illustrated in FIG. 9, sensing is started at the time point t 1-1 of a rectangular pulse that rises at the time point t 1-1 and falls at the time point t 2-1 and rises at the time point t 3-1 .
  • sensor 162-N rises at time t 1-N, it begins sensing at t 1-N of the falling rectangular pulse at time t 2-N.
  • the end of the sensing of the sensor 162-N may be the time when the sensing is finished, or the time when a predetermined time has elapsed from the start of the sensing (for example, the time point t2 -N ). However, it may be at the time when other conditions are satisfied.
  • Each sensor 162-n records the data obtained by sensing.
  • the output unit 114-1 has a sensor 161-m (first time point) at a time point t 5-m (first time point) corresponding to a time point t 0 when the trigger signal is input to the input units 113-1 and 113-2.
  • the output signal wm (first output signal) for presenting a specific sensing target of the sensor) is the sensing target presenting device 15-m (first device) for presenting the specific sensing target of the sensor 161-m.
  • the sensing target presentation device 15-m presents a specific sensing target of the sensor 161-m at a time point t 5-m (first time point) corresponding to an input time point t 0 .
  • the sensor 161-m continuously performs sensing, but when the sensing target presenting device 15-m presents the specific sensing target, the presented specific sensing target is also sensed. As a result, in the sensing result of the sensor 161-m, the specific sensing target presented at the time point t 5-m (first time point) corresponding to the input time point t 0 is also recorded.
  • the output units 114-2 and 114-3 are sensors 162-n (second time point) at the time point t 1-n (second time point) corresponding to the time point t 0 when the trigger signal is input to the input units 113-1 and 113-2.
  • the output signal ws-n (second output signal) instructing the start of sensing by the second sensor) is output to the sensor 162-n (second sensor). Therefore, in the sensor 162-n (second sensor), sensing is started from a time corresponding to the time point t 1-n (second time point) corresponding to the input time point t 0 .
  • the time point t 5-m (first time point) and the time point t 1-n (second time point) correspond to the input time point t 0 of the trigger signal. Therefore, it is possible to synchronize the data obtained by sensing with the sensor 161-m and the data obtained by sensing with the sensor 162-n. That is, the data obtained by sensing with the sensor 161-m includes a specific sensing target (for example, LED light) presented at the time point t 5-m (first time point) corresponding to the input time point t 0. There is. Therefore, if a specific sensing target can be detected from the data, the time point t 5-m can be specified, and then the input time point t 0 in the data can be specified.
  • a specific sensing target for example, LED light
  • the start time point of the data obtained by sensing with the sensor 162-n is the time point corresponding to the time point t 1-n (second time point) corresponding to the input time point t 0 . Therefore, the input time point t 0 can be specified from the start time point of the data.
  • the output signals w-1, ..., WM, and the output signals ws-1, ..., Ws-N are set in advance by the preset terminal device 12 before the synchronization control processing of the synchronization control device 11. It is set and stored in the control unit 111 of the synchronous control device 11. As a result, the output signals w-1, ..., WM, and the output signals ws-1, ..., Ws from the synchronization control device 11 have almost no delay with respect to the time when the trigger information is input to the synchronization control device 11. -N can be output, and the above-mentioned synchronization control process can be performed accurately.
  • N and M are integers of 1 or more, but N may be 0 and M may be 2 or more.
  • a trigger signal is input to the input units 113-1 and 113-2, and the output unit 114-1 (first output unit) is set to t 0 when the trigger signal is input to the input units 113-1 and 113-2.
  • the output signal w-1 (first output signal) for presenting the sensing target of the sensor 161-1 (first sensor) at the corresponding t 5-1 (first time point) is the sensor 161-1 (first sensor).
  • the output unit 114-1 (second output unit) outputs the trigger signal to the input units 113-1 and 113-2.
  • t 5-2 corresponding to the input time t 0 the output signal w-2 (second output signal) for presenting a sensing target (second time point) at sensor 161-2 (second sensor)
  • the sensor 161- 2 (second sensor) may output to the sensing target presenting device 15-2 (second device) that presents the sensing target.
  • the sensing system 1 may not include the sensor 162-n, and the synchronization control device 11 may not include the output units 114-2 and 114-3.
  • M may be 0 and N may be 2 or more.
  • the sensing system 1 may not include the sensing target presentation device 15-m, and the synchronization control device 11 may not include the output unit 114-1.
  • the sensing system 2 of the present embodiment includes a synchronous control device 21, a setting terminal device 12, a trigger signal input device 13-1, 13-2, and a sensing target presentation device 15-1, ..., 15. -M, and sensors 161-1, ..., 161-M, 162-1, ..., 162-N.
  • N and M are integers of 1 or more.
  • the synchronous control device 21 of the present embodiment includes a control unit 111, a communication unit 112, an input unit 113-1, an input unit 113-2, output units 114-1 to 3, and a non-volatile memory ( For example, it has an EEPROM (etc.) 214 and a setting status display unit 216.
  • the processing in the setting terminal device 12 of the second embodiment is the same as that of the first embodiment.
  • the waveform pattern of the output signal of each channel set by the setting terminal device 12 is transmitted to the synchronization control device 21, received by the communication unit 112, and sent to the non-volatile memory 214 (storage unit) via the control unit 111. It is stored.
  • the setting status display unit 216 displays the storage status of the output signal in the non-volatile memory 214. For example, when the setting status display unit 216 has an LED light and the output signal is stored in the non-volatile memory 214, the LED light of the setting status display unit 216 is turned on and the output signal is stored in the non-volatile memory 214. The LED light may be turned off when it is not turned on.
  • N may be 0 and M may be 2 or more, or M may be 0 and N may be 2 or more.
  • the output signal is set by the setting terminal device provided outside the synchronous control devices 11 and 21, but the output signal may be set by the synchronous control device. That is, the synchronous control device may have an input interface unit that accepts inputs for setting the waveform patterns and / or time points of the first output signal and the second output signal.
  • the differences from the first and second embodiments will be mainly described, and the matters common to the first and second embodiments will be simplified by using the same reference numbers.
  • the sensing system 3 of the present embodiment includes a synchronization control device 31, trigger signal input devices 13-1, 13-2, sensing target presentation devices 15-1, ..., 15-M, and a sensor. It has 161-1, ..., 161-M, 162-1, ..., 162-N. N and M are integers of 1 or more.
  • the synchronous control device 31 of the present embodiment includes a control unit 111, an input interface unit 312, an input unit 113-1, an input unit 113-2, and output units 114-1 to 11. Further, as in the second embodiment, the synchronization control device 31 may further include the non-volatile memory 214 and the setting status display unit 216.
  • the input interface unit 312 is an interface integrated with the synchronization control device 31. The input operation to the input interface unit 312 may be performed by a mouse operation or a touch operation.
  • the output signal is set by the setting terminal device 12 outside the synchronization control device, but in the third embodiment, the output signal is set by the input interface unit 312.
  • the content of the setting process is the same as that of the first and second embodiments except that the setting terminal device 12 is replaced with the input interface unit 312.
  • the set output signal is stored in the control unit 111.
  • the set output signal may be stored in the non-volatile memory 214. Others are as described in the first and second embodiments.
  • N may be 0 and M may be 2 or more, or M may be 0 and N may be 2 or more.
  • the processing content of the function that the above-mentioned control unit 111 should have may be described by a program. Then, by executing this program on the computer, the processing function of the control unit 111 is realized on the computer.
  • the program describing the processing content can be recorded on a computer-readable recording medium.
  • An example of a computer-readable recording medium is a non-transitory recording medium. Examples of such recording media are magnetic recording devices, optical disks, opto-magnetic recording media, semiconductor memories, and the like.
  • this program is carried out, for example, by selling, transferring, renting, etc., a portable recording medium such as a DVD or CD-ROM on which the program is recorded.
  • the program may be stored in the storage device of the server computer, and the program may be distributed by transferring the program from the server computer to another computer via a network.
  • a computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. Then, when the process is executed, the computer reads the program stored in its own storage device and executes the process according to the read program. Further, as another execution form of this program, a computer may read the program directly from a portable recording medium and execute processing according to the program, and further, the program is transferred from the server computer to this computer. It is also possible to execute the process according to the received program one by one each time. In addition, the above processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition without transferring the program from the server computer to this computer. May be.
  • the program in this embodiment includes information used for processing by a computer and equivalent to the program (data that is not a direct command to the computer but has a property of defining the processing of the computer, etc.).
  • the present device is configured by executing a predetermined program on the computer, but at least a part of these processing contents may be realized by hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

同期制御装置がトリガ信号を入力とし、トリガ信号の入力時点に対応する第1時点で第1センサの特定のセンシング対象を呈示するための第1出力信号を、第1センサの特定のセンシング対象を呈示する第1装置に出力し、トリガ信号の入力時点に対応する第2時点で第1センサと異なる第2センサでのセンシングの開始を指示する第2出力信号を、第2センサに出力する。

Description

同期制御装置
 本発明は、複数のセンサで観測するデータを同期させるための技術に関する。
 互いに独立した複数のセンサで観測するデータを同期させる必要がある場合がある。例えば、特定の運動を行う人間の映像をカメラで撮影しつつ、加速度センサでその人間の特定の部位の加速度を観測する場合に、撮影された映像の時刻と観測する加速度の時刻とを同期させる必要がある場合がある。
 ここで、これら複数のセンサが互いに同期されたクロックを持っているのであれば、これらのセンサで観測するデータを同期させることは容易である。或いは、各センサが他のセンサとクロックを同期させる機能を備えている場合にはその機能を用いて観測するデータを同期させてもよい。例えば、マスタとなるセンサがクロックパルスを同期装置に送信し、同期装置がこのクロックパルスを他のセンサに送り、他のセンサがこのクロックパルスに基づいてクロックをマスタとなるセンサに同期させてもよい(例えば、非特許文献1,2等参照)。
スポーツセンシング,「同期パルス発生装置・取扱説明書 SS-WSD013-OA」 art. science, pedar-x system manual v.24, p. 100, "8 PEDAR X SYNC BOXES AND SOFTWARE", August 2014.
 しかし、複数のセンサが互いに同期されたクロックを持っていない場合や、他のセンサとクロックを同期させる機能を備えていない場合もある。このような場合、センサに同期のための機能を追加することなく、互いに異なるセンサで観測するデータを同期させることは容易ではない。
 本発明はこのような点に鑑みてなされたものであり、複数のセンサが互いに同期されたクロックを持っていない場合や、他のセンサとクロックを同期させる機能を備えていない場合であっても、センサに同期のための機能を追加することなく、互いに異なるセンサで観測するデータを同期させることを目的とする。
 以上の課題を解決するために、トリガ信号が入力される入力部と、前記入力部への前記トリガ信号の入力時点に対応する第1時点で第1センサの特定のセンシング対象を呈示するための第1出力信号を、前記第1センサの特定のセンシング対象を呈示する第1装置に出力する第1出力部と、前記入力時点に対応する第2時点で前記第1センサと異なる第2センサでのセンシングの開始を指示する第2出力信号を、前記第2センサに出力する第2出力部と、を有する同期制御装置が提供される。
 ここで、トリガ信号の入力時点に対応する第1時点で第1センサの特定のセンシング対象を呈示するための第1出力信号を、第1センサの特定のセンシング対象を呈示する第1装置に出力するため、第1センサでは第1時点に応じた時点で呈示された当該特定のセンシング対象がセンシングされる。また、当該入力時点に対応する第2時点で第2センサでのセンシングの開始を指示する第2出力信号を第2センサに出力するため、第2センサでは当該入力時点に対応する第2時点に応じた時点からセンシングが開始される。第1時点および第2時点はトリガ信号の入力時点に対応するものである。従って、第1センサで得られたデータと第2センサで得られたデータとを同期させることができる。
 以上のように、複数のセンサが互いに同期されたクロックを持っていない場合や、他のセンサとクロックを同期させる機能を備えていない場合であっても、センサに同期のための機能を追加することなく、互いに異なるセンサで観測するデータを同期させることができる。
図1は、第1,2実施形態のセンシングシステムの機能構成を例示したブロック図である。 図2は、第1,2実施形態の同期制御装置の機能構成を例示したブロック図である。 図3は、第1,2実施形態の同期制御装置の外観を例示した概念図である。 図4Aは、第1,2実施形態の同期制御装置の正面パネルの構成を例示した概念図であり、図4Bは背面パネルの構成を例示した概念図である。 図5は、出力信号の設定画面を例示した図である。 図6は、出力信号の設定画面を例示した図である。 図7は、出力信号の設定画面を例示した図である。 図8Aおよび図8Bは、出力信号の設定時の操作を例示するための図である。 図9は、出力信号を例示するための図である。 図10は、第3実施形態のセンシングシステムの機能構成を例示したブロック図である。 図11は、第3実施形態の同期制御装置の機能構成を例示したブロック図である。 図12は、第3実施形態の同期制御装置の外観を例示した概念図である。
 以下、図面を参照して本発明の実施の形態を説明する。
 [第1実施形態]
 本発明の第1実施形態を説明する。
 <構成>
 図1に例示するように、本実施形態のセンシングシステム1は、同期制御装置11、設定端末装置12、トリガ信号入力装置13-1,13-2、センシング対象呈示装置15-1,…,15-M、およびセンサ161-1,…,161-M,162-1,…,162-Nを有する。N,Mは1以上の整数である。
 同期制御装置11は、複数のセンサ161-1,…,161-M,162-1,…,162-Nで観測(センシング)するデータを同期させるための処理を行う装置である。設定端末装置12は、同期制御装置11の設定を行うための装置である。設定端末装置12は、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)やRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される装置である。設定端末装置12の例はパーソナルコンピュータ、タブレット端末装置、スマートフォン端末装置などである。トリガ信号入力装置13-1,13-2は、トリガを受け付ける装置である。トリガ信号入力装置13-1は同期制御装置11と無線通信を行い、トリガ信号入力装置13-2は同期制御装置11と有線通信を行う。センサ161-1,…,161-M,162-1,…,162-Nは、物理現象をセンシングするための装置である。センサ161-1,…,161-Mは、物理現象を継続的にセンシングするものである。センサ161-1,…,161-Mの例は、映像を撮影して録画するカメラ、マイクロホンで音を集音して録音する録音装置、脈拍や心電図などの生体信号を計測して記録する生体信号測定装置、地震波を計測して記録する地震計などである。センサ162-1,…,162-Nは、センシングの開始を指示する出力信号の入力を契機とし、センシングを開始するセンサである。センサ162-1,…,162-Nの例は、加速度センサ、ジャイロセンサ、速度センサなどである。なお、上述したセンサ161-1,…,161-Mやセンサ162-1,…,162-Nの例は、単なる例示にすぎず、レーザー型距離センサ、人感センサ、ひずみセンサ、圧力センサなどのその他のセンサ類や記録機器であってもよい。センシング対象呈示装置15-mは(m∈{1,…,M})、センサ161-mの特定のセンシング対象を呈示する装置である。センサ161-mの特定のセンシング対象は、センサ161-mのセンシング対象であって、センサ161-mのその他のセンシング対象から識別可能なものである。例えば、センサ161-mがカメラである場合、センシング対象呈示装置15-mは、発光するLEDライト、映像を生成して表示するディスプレイなどである。例えば、センサ161-mが録音装置である場合、センシング対象呈示装置15-mは、音を出力するスピーカなどである。例えば、センサ161-mが生体信号測定装置や地震計である場合、センシング対象呈示装置15-mは、パルス信号などの信号を出力する信号発生装置などである。
 図2に例示するように、本実施形態の同期制御装置11は、制御部111、通信部112、入力部113-1、入力部113-2、および出力部114-1~3を有する。制御部111は、各種処理を行う電子回路である。制御部111は、例えば、CPU等のプロセッサやRAM,ROM等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される装置である。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、単独で処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。また、1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。制御部111の例はマイクロコンピュータである。
 通信部112は外部の装置と有線または無線で通信を行う装置であり、例えば、外部のコンピュータとシリアルバス(例えばUSB)を通じた通信を行う装置である。入力部113-1は、無線通信(例えば、赤外線、Bluetooth(登録商標)など)で送られたトリガ信号の入力を受け付ける装置である。入力部113-2は、有線通信(例えば、USBなどのシリアルバス)で送られたトリガ信号の入力を受け付ける装置である。出力部114-1は、センサ161-mの特定のセンシング対象を呈示するための出力信号を、センサ161-mの特定のセンシング対象を呈示するセンシング対象呈示装置15-mに出力する。出力部114-2,3は、それぞれ、何れかのセンサ162-1,…,162-Nでのセンシングの開始を指示する出力信号を、当該センシングの開始を指示する何れかのセンサ162-1,…,162-Nに出力する。出力部114-2,3の一方のみが出力信号を出力してもよいし、出力部114-2,3の両方が出力信号を出力してもよい。
 図3、図4A、および図4Bに例示するように、同期制御装置11は、上述した制御部111、通信部112、入力部113-1、入力部113-2、および出力部114-1~3を筐体に収めた装置である。図4Aに例示するように、同期制御装置11の前面パネル110-1には、入力部113-2が設けられている。図4Aに例示する入力部113-2は、トリガ信号入力装置13-2を有線で接続可能なコネクタを有する。図4Bに例示するように、同期制御装置11の背面パネル110-2には、通信部112、および出力部114-1,114-2,113-3が設けられている。図4Bの例では、出力部114-1は4ch分の8個(各チャンネルで上下2個ずつ)の出力端子を有し、出力部114-2は6ch分の6個(各チャンネルで1個ずつ(CH1~CH6))の出力端子を有し、出力部114-3は2ch分の2個(各チャンネルで1個ずつ(CH7,CH8))の出力端子を有する。図4Bの例では、出力部114-1の出力端子はLED出力端子であり、出力部114-2の出力端子はパルス電圧出力端子であり、出力部114-3の出力端子はトランジスタのオープンコレクタ出力端子である。ただし、これらは一例であって本発明を限定するものではない。
 <出力信号の設定処理>
 次に、同期制御装置11から出力される出力信号の設定処理(出力信号の波形パターンの設定処理)について説明する。本形態の出力信号の設定処理は、設定端末装置12を用いて行われる。図5から図7に、この設定処理の際に設定端末装置12のインタフェース部(グラフィカル・インタフェース部)に表示される画面を表す。インタフェース部は、出力信号の波形および/または時点を設定するための入力操作(例えば、クリック操作やドラッグ操作等)を受け付ける。インタフェース部への入力操作は、マウス操作によって行われてもよいし、タッチ操作によって行われてもよい。以下、図5から図7を用いて本実施形態の設定処理を説明する。
 設定処理を開始すると、設定端末装置12のインタフェース部には図5の画面121が表示される。図5に例示するように、画面121は、出力信号波形表示部1211、表示CH設定部1212、波形パターン設定部1213、波形制御部1214、波形表示スケール設定部1215、および時間グリッド間隔設定部1216を有する。出力信号波形表示部1211は、設定された出力信号の情報を表示する部分であり、出力信号のチャンネルを表すチャンネル表示部1211a、出力信号のパルス電圧を表示するパルス電圧表示部1211b、および出力信号の波形パターンを表示する波形表示部1211cを有する。波形表示部1211cの横軸は時間軸であり、縦軸がパルス電圧を表す。波形パターン設定部1213は、設定端末装置12のハードディスク等の外部記憶装置に格納された出力信号のファイルを開く際にクリックされるボタン1213a、設定した出力波形をファイルに保存する際にクリックされるボタン1213b、設定した出力信号を設定端末装置12の主記憶装置(本体メモリ)に書き込む際にクリックされるボタン1213d、および当該主記憶装置に格納された出力信号を読み出す際にクリックされるボタン1213cを有する。波形制御部1214は、設定した出力信号を同期制御装置11に対して出力する際にクリックされるボタン1214a、および同期制御装置11に対する出力信号の出力を停止する際にクリックされるボタン1214bを有する。波形表示スケール設定部1215は、波形表示部1211cに表示される出力信号の波形パターンのスケールを入力するための入力部1215a、波形表示部1211cに表示される出力信号の波形パターンのスケールの単位を入力するための入力部1215b、および入力部1215aおよび入力部1215bに入力した値で設定を行う場合にクリックされるボタン1215cを有する。時間グリッド間隔設定部1216は、波形表示部1211cに表示される出力信号の波形パターンのグリッド値を入力するための入力部1216a、波形表示部1211cに表示される出力信号の波形パターンのグリッド値の単位を入力するための入力部1216b、および入力部1216aおよび入力部1216bに入力した値で設定を行う場合にクリックされるボタン1216cを有する。
 出力波形を設定する場合、利用者はまず表示CH設定部1212をクリックする。表示CH設定部1212がクリックされると図6の画面122が表示される。図6に例示するように、画面122は、出力部114-1から出力される出力信号の設定を行うチャンネルを選択するためのボタン122-1、出力部114-2から出力される出力信号の設定を行うチャンネルを選択するためのボタン122-2a、出力部114-2から出力される出力信号のパルス電圧を選択するためのボタン122-2b、出力部114-3から出力される出力信号の設定を行うチャンネルを選択するためのボタン122-3、ボタン122-1、122-2a、122-2b、122-3によって選択された内容で設定を行う場合にクリックされるボタン122-4、およびこれらの選択された内容をキャンセルする際にクリックされるボタン122-5を有する。
 利用者は、まず、図6の画面122が有するボタンを押すことで、出力信号の設定を行うチャンネルの選択、および出力部114-2から出力される出力信号の設定を行う場合にはさらに出力信号のパルス電圧の選択を行う。出力信号の設定を行うチャンネルの選択は、該当するチャンネルのボタン122-1、122-2a,122-3をクリックすることで行う。また出力信号のパルス電圧の選択は、ボタン122-2bをクリックすることでタブ表示されるパルス電圧リスト(すなわち、パルス電圧のリスト、例えば、5.0V,3.3V,1.0Vを要素として含むリスト)から所望のパルス電圧を選択することで行う。選択したチャンネルおよびパルス電圧の出力信号の設定を行う場合には、利用者はボタン122-4をクリックする。一方、チャンネルやパルス電圧の選択内容をキャンセルする場合にはボタン122-5をクリックする。ボタン122-5がクリックされた場合、チャンネルやパルス電圧の選択内容がクリアされる。例えば、出力部114-2のCH1から出力される出力信号の設定を行い、そのパルス電圧が5.0Vである場合、利用者はボタン122-2aの「CH1」をクリックし、さらにそれに対応するボタン122-2bをクリックすることでパルス電圧リストをタブ表示させ、そこから「5.0V」を選択する。その後、利用者はボタン122-4をクリックする。
 図6のボタン122-1、122-2a,122-2b,122-3の何れかがクリックされる(押される)と、図6のボタン122-1、122-2a,122-2b,122-3の中から選択されたチャネルのみが表示された状態の図5の画面121に一旦遷移する。その後、図5の画面121のうち出力信号設定を行うチャンネルを表すチャンネル表示部1211aがクリックされることで、選択したチャンネルの出力信号を設定するための画面123が表示され(図7)、チャネル個々の波形を設定できるようなります。図7に例示するように、画面123は、出力信号の設定を行うチャンネル(この例ではCH1)を表示するチャンネル表示部1230、出力信号の波形パターンおよび時点を設定するための波形設定部1231、出力信号の波形パターンに含まれる矩形波形(部分波形)を削除する際にクリックされるボタン1232、波形パターンを構成する矩形波形を追加する場合にクリックされるボタン1233、波形設定部1231の波形パターンのスケールの設定に用いられる波形表示スケール設定部1235、波形設定部1231の時間グリッドの設定に用いられる時間グリッド間隔設定部1236、設定された内容で設定を行う場合にクリックされるボタン1237、およびこれらの選択された内容をキャンセルする際にクリックされるボタン1238を有する。波形表示スケール設定部1235は、波形設定部1231に表示される出力信号の波形パターンのスケールを入力するための入力部1235a、波形設定部1231に表示される出力信号の波形パターンのスケールの単位を入力するための入力部1235b、および入力部1235aおよび入力部1235bに入力した値で設定を行う場合にクリックされるボタン1235cを有する。時間グリッド間隔設定部1236は、波形設定部1231に表示される出力信号の波形パターンのグリッド値を入力するための入力部1236a、波形設定部1231に表示される出力信号の波形パターンのグリッド値の単位を入力するための入力部1236b、および入力部1236aおよび入力部1236bに入力した値で設定を行う場合にクリックされるボタン1236cを有する。
 図7に例示するように、出力信号の波形パターンは1個または複数の矩形波形(部分波形)を含む。波形パターンに矩形波形を追加する場合、利用者はボタン1233をドラッグして、矩形波形の図形を波形設定部1231の所望の時点を表す位置に配置する。これにより、配置された波形設定部1231に表示された波形パターンの所望の時点に矩形波形が追加される。例えば、図7に例示するような矩形波形1231aや矩形波形1231bなどが波形パターンに追加される。追加される矩形波形の幅の初期値は予め定められている。出力部114-1,3から出力される出力信号が設定される場合、波形パターンに追加される矩形波形の振幅(パルス電圧)は予め定められている。出力部114-2から出力される出力信号が設定される場合、波形パターンに追加される矩形波形の振幅は図6のボタン122-2bを用いて設定されたパルス電圧を表す。
 波形設定部1231に表示された出力信号の波形パターンから所望の矩形波形を削除する場合、削除しようとする矩形波形をクリックしてアクティブにしてからボタン1232をクリックする。これにより、選択された矩形波形が削除される。
 波形設定部1231に表示された波形パターンに含まれた矩形波形をドラッグすることでその矩形波形の時点を移動させることができる。例えば、利用者は時点を移動させようとする矩形波形をクリックしてアクティブにしてからドラッグすることで、その矩形波形の時点を移動させることができる。
 また、利用者は波形設定部1231に表示された波形パターンに含まれた矩形波形の一部をドラッグすることで、その矩形波形の幅を変化させることができる。例えば、図8Aに例示するように、立ち上がり時点t、立ち下がり時点tの矩形波形1231bの幅を変化させる場合、利用者は矩形波形1231bの時点tまたは時点tの位置の一方をドラッグすることで矩形波形1231bの幅を変化させる。例えば、矩形波形1231bの時点tの位置をA方向に時点tまでドラッグすると、矩形波形1231bの立ち上がり時点tを変更することなく、その立下り時点を時点tまで変更し、矩形波形1231bの幅を変更することができる。この矩形波形の幅を変更する操作では、矩形波形の立ち上がり部分または立下り部分のみを移動でき、他の部分は移動しないため容易に矩形波形の幅を変形できる。特に、インタフェース部への操作がタッチ操作であって、タッチ操作を行う指の大きさに対して矩形波形の幅が狭い場合であっても、適切な操作を行うことができる。
 利用者は波形表示スケール設定部1235を用いて、波形設定部1231に表示される波形パターンのスケールを設定することができる。すなわち、利用者は、波形表示スケール設定部1235の入力部1235aにスケール値を入力し、入力部1235bに入力部1235aに入力されたスケール値の単位を入力し、ボタン1235cをクリックすることで、波形設定部1231に表示される波形パターンのスケールを、入力部1235aおよび入力部1235bに入力されたスケールに設定できる。
 また、利用者は時間グリッド間隔設定部1236を用い、波形設定部1231に表示される矩形波形のグリッド間隔(部分波形の時点の調整幅)を設定できる。すなわち、波形設定部1231に表示される矩形波形の配置位置、移動間隔、矩形波形の幅の変更間隔を設定できる。すなわち、設定される出力信号の波形パターンは、複数の矩形波形(部分波形)を含み、その設定を行うインタフェース部は、グリッド間隔(部分波形の時点の調整幅)の入力を受け付ける時間グリッド間隔設定部1236と、複数の矩形波形を含む波形パターンを表示し、複数の矩形波形が含む一部の部分波形の時点を調整幅ずつ調整するためのマウス入力またはタッチ入力によるドラッグ操作を受け付ける波形設定部1231と、を有する。
 波形設定部1231、波形表示スケール設定部1235、および時間グリッド間隔設定部1236に入力された内容で設定を行う場合、利用者はボタン1237をクリックする。これによって、設定内容が反映された画面121(図5)が表示される。一方、波形設定部1231、波形表示スケール設定部1235、および時間グリッド間隔設定部1236に入力された内容をキャンセルする場合、利用者はボタン1238をクリックする。これによって波形設定部1231、波形表示スケール設定部1235、および時間グリッド間隔設定部1236に入力された内容がクリアされる。
 以上の処理が繰り返されることで、各チャンネルの出力信号のパルス電圧および波形パターンが設定される。設定された出力信号のパルス電圧および波形パターンは、それらに対応するチャンネル表示部1211aに表示された各チェンネルの位置のパルス電圧表示部1211bおよび波形表示部1211cにそれぞれ表示される。各チェンネルに設定された出力信号の波形パターンは、時点が揃えられた状態で並べて表示される。
 利用者は、波形表示スケール設定部1215によって、波形表示部1211cに表示する出力信号の波形パターンのスケールを設定できる。この場合、利用者は入力部1215aに波形パターンのスケール値を入力し、入力部1215bにそのスケール値の単位を入力し、ボタン1215cをクリックする。これにより、波形表示スケール設定部1215によって設定されたスケールで、波形表示部1211cに出力信号の波形パターンが表示される。
 利用者は、時間グリッド間隔設定部1216によって、波形表示部1211cに表示する出力信号の波形パターンの時間グリッド間隔を設定できる。この場合、利用者は入力部1216aに波形パターンのグリッド値を入力し、入力部1216bにその単位を入力し、ボタン1216cをクリックする。これにより、時間グリッド間隔設定部1216によって設定された時間グリッド間隔で、波形表示部1211cに出力信号の波形パターンが配置される。
 設定された各チャンネルの出力信号のパルス電圧および波形パターンをファイルに保存する場合、利用者はボタン1213bをクリックする。設定された各チャンネルの出力信号のパルス電圧および波形パターンを本体メモリに書き込む場合、利用者はボタン1213dをクリックする。ファイルに格納された各チャンネルの出力信号のパルス電圧および波形パターンを開く場合、利用者はボタン1213aをクリックする。また、設定された各チャンネルの出力信号のパルス電圧および波形パターンを本体メモリから読み出す場合、利用者はボタン1213cをクリックする。これらによって、開かれたまたは読み出された各チャンネルの出力信号のパルス電圧および波形パターンは、それらに対応するチャンネル表示部1211aに表示された各チェンネルの位置のパルス電圧表示部1211bおよび波形表示部1211cにそれぞれ表示される。
 出力信号波形表示部1211に表示された各チャンネルの出力信号の波形パターンを出力する場合、利用者はボタン1214aをクリックする。これによって出力信号波形表示部1211に表示された各チャンネルの出力信号の波形パターンが同期制御装置11に送信される。送信された各チャンネルの出力信号の波形パターンは、同期制御装置11の通信部112で受信され、制御部111のメモリ(記憶部)に格納される。各チャンネルの出力信号の波形パターンの出力を停止する場合、利用者はボタン1214bをクリックする。
 <同期制御処理>
 次に、上述のように各チャンネルの出力信号の波形パターンが設定された同期制御装置11による同期制御処理を説明する。以下では、出力部114-1から出力される出力信号w-1,…,w-M、および出力部114-2または114-3から出力される出力信号ws-1,…,ws-Nが設定され、制御部111に格納されているとする。ただし、出力信号w-mはセンシング対象呈示装置15-mに出力される信号であり、出力信号ws-n(ただし、n∈1,…,N)はセンサ162-nに出力される信号である。
 以下では前提として、センサ161-mが周囲のセンシング対象を継続的にセンシングしており、センシング対象呈示装置15-mで呈示されたセンシング対象もセンシング可能な状態であるとする。例えば、センサ161-mがカメラであり、周囲の映像を継続的に撮影して録画しており、センシング対象呈示装置15-mがLEDライトであり、そこから呈示されたLED光もカメラであるセンサ161-mで撮影して録画可能であるとする。この例の場合、センシング対象呈示装置15-mがLED光を発していない場合、センサ161-mはLED光を含まない周囲の映像を継続的に撮影して録画するが、センシング対象呈示装置15-mがLED光を発している場合、センサ161-mはLED光を含む周囲の映像を継続的に撮影して録画する。また、センサ162-1,…,162-Nは初期状態ではセンシングを行っておらず、出力信号ws-n(ただし、n∈1,…,N)が入力されたセンサ162-nのみがセンシングを開始する。
 利用者は、トリガ信号入力装置13-1またはトリガ信号入力装置13-2(図1)に対してトリガを与える。例えば、利用者は、トリガ信号入力装置13-1,13-2が持つ機械的な入力ボタンを押し下げるか、トリガ信号入力装置13-1,13-2が持つタッチパネルに表示されたボタンをクリックすること等で、トリガ信号入力装置13-1またはトリガ信号入力装置13-2に対してトリガを与える。トリガ信号入力装置13-1にトリガが与えられた場合、トリガ信号入力装置13-1はその旨を示すトリガ信号を無線送信し、このトリガ信号が同期制御装置11(図2)の入力部113-1に入力される。トリガ信号入力装置13-2にトリガが与えられた場合、トリガ信号入力装置13-2はその旨を示すトリガ信号を有線送信し、このトリガ信号が同期制御装置11の入力部113-2に入力される。
 トリガ信号入力装置13-1または入力部113-2に入力されたトリガ信号は制御部111に送られる。制御部111は、トリガ信号が送られたことを契機に(入力部へのトリガ信号の入力を契機に)、制御部111のメモリ(記憶部)に格納された出力信号w-1,…,w-M(第1出力信号)を出力部114-1(第1出力部)に送り、当該メモリに格納された出力信号ws-1,…,ws-N(第2出力信号)のそれぞれを出力部114-2または114-3に送る。各出力信号ws-nを出力部114-2に送るか出力部114-3に送るかは、各出力信号ws-nが出力されるセンサ162-nに依存する。すなわち、センサ162-nの入力規格が出力部114-2の入力規格に合致するときには、当該出力信号ws-nは出力部114-2に送られる。一方、センサ162-nの入力規格が出力部114-3の入力規格に合致するときには、当該出力信号ws-nは出力部114-3に送られる。
 制御部111から出力信号w-1,…,w-Mが送られた出力部114-1(第1出力部)は、出力信号w-m(第1出力信号)をセンシング対象呈示装置15-m(第1装置)に出力する。ここで、出力信号w-mは、入力部113-1または入力部113-2へのトリガ信号の入力時点に対応する時点(第1時点)で、センサ161-m(第1センサ)のセンシング対象(例えば、LED光)を呈示するための信号である。図9に例示する出力信号w-mは、トリガ信号の入力時点tに対応する時点t5-m(第1時点)で立ち上がり、時点t6-mで立ち下がる矩形パルスである。出力信号w-mが入力されたセンシング対象呈示装置15-mは、時点t5-m(第1時点)でセンサ161-m(第1センサ)の特定のセンシング対象を呈示し(例えば、LED光を発光し)、このセンシング対象の呈示は時点t6-mまで継続する。前述のように、センサ161-mは周囲のセンシング対象を継続的にセンシングしており、センシング対象呈示装置15-mが特定のセンシング対象を呈示した場合には、センシング対象呈示装置15-mが呈示したセンシング対象を含むセンシング対象をセンシングして記録する。例えば、センサ161-mがカメラであり、センシング対象呈示装置15-mがLEDライトである場合、センサ161-mは周囲の映像を継続的に撮影しており、センシング対象呈示装置15-mがLED光を呈示した時点t5-mからt6-mの間ではLED光を含む映像(LED光が映り込んだ映像)を撮影して記録し、それ以外の時点ではLED光を含まない映像を撮影して記録する。
 制御部111から各出力信号ws-nが送られた出力部114-2または114-3(第2出力部)は、各出力信号ws-n(第2出力信号)を各センサ162-n(第2センサ)に出力する。各出力信号ws-nは、入力部113-1または入力部113-2へのトリガ信号の入力時点に対応する時点(第2時点)で各センサ162-n(第1センサと異なる第2センサ)でのセンシングの開始を指示する信号である。図9に例示する各出力信号ws-nは、トリガ信号の入力時点tに対応する時点t1-n(第2時点)で立ち上がり、時点t2-nで立ち下がる矩形パルスを含む。各出力信号ws-nが入力された各センサ162-nは、トリガ信号の入力時点tに対応する時点t1-nでセンシングを開始する。センシングの継続時間はセンサの種別に依存する。図9に例示するセンサ162-1の場合、時点t1-1で立ち上がり、時点t2-1で立ち下がる矩形パルスの時点t1-1でセンシングを開始し、時点t3-1で立ち上がり、時点t4-1で立ち下がる次の矩形パルスの時点t3-1でセンシングを終了する。センサ162-Nの場合、時点t1-Nで立ち上がり、時点t2-Nで立ち下がる矩形パルスの時点t1-Nでセンシングを開始する。このセンサ162-Nのセンシングの終了は、センシングが終了した時点であってもよいし、センシングが開始されてから所定の時間が経過した時点(例えば、時点t2-N)であってもよいし、その他の条件を満たした時点であってもよい。各センサ162-nはセンシングして得られたデータを記録する。
 <本実施形態の特徴>
 本実施形態では、出力部114-1が、入力部113-1,113-2へのトリガ信号の入力時点tに対応する時点t5-m(第1時点)でセンサ161-m(第1センサ)の特定のセンシング対象を呈示するための出力信号w-m(第1出力信号)を、センサ161-mの特定のセンシング対象を呈示するセンシング対象呈示装置15-m(第1装置)に出力する。センシング対象呈示装置15-mは、入力時点tに対応する時点t5-m(第1時点)でセンサ161-mの特定のセンシング対象を呈示する。センサ161-mは継続的にセンシングを行っているが、センシング対象呈示装置15-mが当該特定のセンシング対象を呈示すると、その呈示された特定のセンシング対象も併せてセンシングする。これにより、センサ161-mのセンシング結果には、入力時点tに対応する時点t5-m(第1時点)で呈示された特定のセンシング対象も記録される。
 また、出力部114-2,114-3が、入力部113-1,113-2へのトリガ信号の入力時点tに対応する時点t1-n(第2時点)でセンサ162-n(第2センサ)でのセンシングの開始を指示する出力信号ws-n(第2出力信号)をセンサ162-n(第2センサ)に出力する。そのため、センサ162-n(第2センサ)では入力時点tに対応する時点t1-n(第2時点)に応じた時点からセンシングが開始される。
 ここで、時点t5-m(第1時点)および時点t1-n(第2時点)は、トリガ信号の入力時点tに対応するものである。従って、センサ161-mでセンシングして得られたデータと、センサ162-nでセンシングして得られたデータとを同期させることができる。すなわち、センサ161-mでセンシングして得られたデータは、入力時点tに対応する時点t5-m(第1時点)で呈示された特定のセンシング対象(例えば、LED光)を含んでいる。従って、当該データから特定のセンシング対象を検出できれば、時点t5-mを特定でき、それから当該データにおける入力時点tを特定できる。また、センサ162-nでセンシングして得られたデータの開始時点は入力時点tに対応する時点t1-n(第2時点)に応じた時点である。従って、当該データの開始時点から入力時点tを特定できる。
 また、本実施形態では、同期制御装置11の同期制御処理の前に、予め設定端末装置12で出力信号w-1,…,w-M、および出力信号ws-1,…,ws-Nを設定し、当該同期制御装置11の制御部111に格納しておく。これにより、当該同期制御装置11にトリガ情報の入力された時点に対してほとんど遅延なく、同期制御装置11から出力信号w-1,…,w-M、および出力信号ws-1,…,ws-Nを出力することができ、上述した同期制御処理を精度よく行うことができる。
 [第1実施形態の変形例]
 第1実施形態では、N,Mがともに1以上の整数であったが、Nが0でMが2以上であってもよい。例えば、入力部113-1,113-2にトリガ信号が入力され、出力部114-1(第1出力部)が、入力部113-1,113-2へのトリガ信号の入力時点tに対応するt5-1(第1時点)でセンサ161-1(第1センサ)のセンシング対象を呈示するための出力信号w-1(第1出力信号)を、センサ161-1(第1センサ)のセンシング対象を呈示するセンシング対象呈示装置15-1(第1装置)に出力し、出力部114-1(第2出力部)が、入力部113-1,113-2へのトリガ信号の入力時点tに対応するt5-2(第2時点)でセンサ161-2(第2センサ)のセンシング対象を呈示するための出力信号w-2(第2出力信号)を、センサ161-2(第2センサ)のセンシング対象を呈示するセンシング対象呈示装置15-2(第2装置)に出力してもよい。Nが0の場合、センシングシステム1がセンサ162-nを含まなくてもよいし、同期制御装置11が出力部114-2,114-3を含まなくてもよい。
 またMが0でNが2以上であってもよい。この場合、センシングシステム1がセンシング対象呈示装置15-mを含まず、同期制御装置11が出力部114-1を含まなくてもよい。
 [第2実施形態]
 第2実施形態を説明する。第2実施形態は第1実施形態の変形例である。以下では、第1実施形態との相違点を中心に説明し、第1実施形態と共通する事項については同じ参照番号を用いて説明を簡略化する。
 <構成>
 図1に例示するように、本実施形態のセンシングシステム2は、同期制御装置21、設定端末装置12、トリガ信号入力装置13-1,13-2、センシング対象呈示装置15-1,…,15-M、およびセンサ161-1,…,161-M,162-1,…,162-Nを有する。N,Mは1以上の整数である。図2に例示するように、本実施形態の同期制御装置21は、制御部111、通信部112、入力部113-1、入力部113-2、出力部114-1~3、不揮発性メモリ(例えばEEPROM等)214、および設定状況表示部216を有する。
 <出力信号の設定処理>
 第2実施形態の設定端末装置12での処理は第1実施形態と同じである。ただし、設定端末装置12で設定された各チャンネルの出力信号の波形パターンが同期制御装置21に送信され、通信部112で受信され、制御部111を経由して不揮発性メモリ214(記憶部)に格納される。設定状況表示部216は、不揮発性メモリ214への出力信号の格納状況を表示する。例えば、設定状況表示部216がLEDライトを有し、不揮発性メモリ214に出力信号が格納されているときに、設定状況表示部216のLEDライトが点灯し、不揮発性メモリ214に出力信号が格納されていないときLEDライトが消灯してもよい。
 <同期制御処理>
 同期制御装置21の不揮発性メモリ214に各チャンネルの出力信号が格納されている場合、制御部111は不揮発性メモリ214から各チャンネルの出力信号を読み出し、自らのメモリに格納する。それ以降の処理は第1実施形態と同じである。
 <本実施形態の特徴>
 本実施形態では、設定端末装置12で設定された各チャンネルの出力信号の波形パターンを同期制御装置21の不揮発性メモリ214(記憶部)に格納しておくため、同期制御装置21の電源がOFFになったとしても、再び電源をONにすれば、同期制御装置21が設定端末装置12と通信を行うことなく、同期制御処理を行うことができる。
 [第2実施形態の変形例]
 第2実施形態において、Nが0でMが2以上であってもよいし、Mが0でNが2以上であってもよい。
 [第3実施形態]
 第1および2実施形態では、同期制御装置11,21の外部に設けられた設定端末装置で出力信号が設定されたが、同期制御装置で出力信号が設定可能であってもよい。すなわち、同期制御装置が第1出力信号および第2出力信号の波形パターンおよび/または時点を設定するための入力を受け付ける入力インタフェース部を有してもよい。以下では、第1,2実施形態との相違点を中心に説明し、第1,2実施形態と共通する事項については同じ参照番号を用いて説明を簡略化する。
 <構成>
 図10に例示するように、本実施形態のセンシングシステム3は、同期制御装置31、トリガ信号入力装置13-1,13-2、センシング対象呈示装置15-1,…,15-M、およびセンサ161-1,…,161-M,162-1,…,162-Nを有する。N,Mは1以上の整数である。図11に例示するように、本実施形態の同期制御装置31は、制御部111、入力インタフェース部312、入力部113-1、入力部113-2、出力部114-1~3を有する。さらに第2実施形態と同様に、同期制御装置31がさらに不揮発性メモリ214、および設定状況表示部216を有していてもよい。図12に例示するように、入力インタフェース部312は、同期制御装置31に一体化されたインタフェースである。入力インタフェース部312への入力操作は、マウス操作によって行われてもよいし、タッチ操作によって行われてもよい。
 <出力信号の設定処理>
 第1,2実施形態では、同期制御装置の外部の設定端末装置12で出力信号が設定されたが、第3実施形態では入力インタフェース部312で出力信号が設定される。設定処理の内容は、設定端末装置12が入力インタフェース部312に置換される以外、第1,2実施形態と同じである。設定された出力信号は制御部111に格納される。同期制御装置31が不揮発性メモリ214を有する場合には、設定された出力信号が不揮発性メモリ214に格納されてもよい。その他は、第1、2実施形態で説明した通りである。
 <同期制御処理>
 第1、2実施形態で説明した処理を同一である。
 [第3実施形態の変形例]
 第3実施形態において、Nが0でMが2以上であってもよいし、Mが0でNが2以上であってもよい。
 [その他の変形例等]
 なお、本発明は上述の実施の形態に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
 また、上述の制御部111が有すべき機能の処理内容がプログラムによって記述されてもよい。そして、このプログラムをコンピュータで実行することにより、上記制御部111の処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。
 また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
 このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
 また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
 11~31 同期制御装置
 113-1,113-2 入力部
 114-1~114-3 出力部
 111 制御部

Claims (5)

  1.  トリガ信号が入力される入力部と、
     前記入力部への前記トリガ信号の入力時点に対応する第1時点で第1センサの特定のセンシング対象を呈示するための第1出力信号を、前記第1センサの特定のセンシング対象を呈示する第1装置に出力する第1出力部と、
     前記入力時点に対応する第2時点で前記第1センサと異なる第2センサでのセンシングの開始を指示する第2出力信号を、前記第2センサに出力する第2出力部と、
    を有する同期制御装置。
  2.  トリガ信号が入力される入力部と、
     前記入力部への前記トリガ信号の入力時点に対応する第1時点で第1センサの特定のセンシング対象を呈示するための第1出力信号を、前記第1センサの特定のセンシング対象を呈示する第1装置に出力する第1出力部と、
     前記入力時点に対応する第2時点で前記第1センサと異なる第2センサの特定のセンシング対象を呈示するための第2出力信号を、前記第2センサの特定のセンシング対象を呈示する第2装置に出力する第2出力部と、
    を有する同期制御装置。
  3.  請求項1または2の同期制御装置であって、
     前記第1出力信号および前記第2出力信号を予め格納する記憶部と、
     前記入力部への前記トリガ信号の入力を契機に、前記記憶部に格納された前記第1出力信号を前記第1出力部に送り、前記記憶部に格納された前記第2出力信号を前記第2出力部に送る制御部と、を有し、
     前記第1出力部は、前記制御部から送られた前記第1出力信号を出力し、
     前記第2出力部は、前記制御部から送られた前記第2出力信号を出力する、同期制御装置。
  4.  請求項1から3の何れかの同期制御装置であって、
     前記第1出力信号および前記第2出力信号の波形パターンおよび/または時点を設定するための入力を受け付ける入力インタフェース部をさらに有する同期制御装置。
  5.  請求項4の同期制御装置であって、
     前記第1出力信号および前記第2出力信号の少なくとも一方の波形パターンは、複数の部分波形を含み、
     前記インタフェース部は、
     前記部分波形の時点の調整幅の入力操作を受け付ける時間グリッド間隔設定部と、
     前記複数の部分波形を含む波形パターンを表示し、前記複数の部分波形が含む一部の部分波形の時点を前記調整幅ずつ調整するためのタッチ入力によるドラッグ操作を受け付ける波形設定部と、
    を有する同期制御装置。
PCT/JP2019/028955 2019-07-24 2019-07-24 同期制御装置 WO2021014601A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/629,251 US20220255718A1 (en) 2019-07-24 2019-07-24 Synchronous control apparatus
JP2021534476A JP7268736B2 (ja) 2019-07-24 2019-07-24 同期制御装置
PCT/JP2019/028955 WO2021014601A1 (ja) 2019-07-24 2019-07-24 同期制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/028955 WO2021014601A1 (ja) 2019-07-24 2019-07-24 同期制御装置

Publications (1)

Publication Number Publication Date
WO2021014601A1 true WO2021014601A1 (ja) 2021-01-28

Family

ID=74193581

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/028955 WO2021014601A1 (ja) 2019-07-24 2019-07-24 同期制御装置

Country Status (3)

Country Link
US (1) US20220255718A1 (ja)
JP (1) JP7268736B2 (ja)
WO (1) WO2021014601A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015025741A (ja) * 2013-07-26 2015-02-05 Jfeスチール株式会社 鋼板端面の欠陥検出方法及び欠陥検出装置
JP2016100685A (ja) * 2014-11-19 2016-05-30 カシオ計算機株式会社 撮像装置、撮像制御方法及びプログラム
JP2017035241A (ja) * 2015-08-07 2017-02-16 オージー技研株式会社 筋力増強システム
US20180199892A1 (en) * 2017-01-16 2018-07-19 General Electric Company System and method for predicting an excitation pattern of a deep brain stimulation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008017933B4 (de) 2008-04-08 2012-04-26 Baumer Optronic Gmbh Verfahren und Vorrichtung zur Synchronisation von Kamerasystemen
JP2018092460A (ja) * 2016-12-06 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 センサデバイス、センシングシステム、および、センサデバイスの制御方法
CN110800273B (zh) * 2017-04-24 2024-02-13 卡内基梅隆大学 虚拟传感器***
JP6939664B2 (ja) * 2018-03-14 2021-09-22 オムロン株式会社 センサ管理装置、センサ情報同期方法、制御プログラム、及び記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015025741A (ja) * 2013-07-26 2015-02-05 Jfeスチール株式会社 鋼板端面の欠陥検出方法及び欠陥検出装置
JP2016100685A (ja) * 2014-11-19 2016-05-30 カシオ計算機株式会社 撮像装置、撮像制御方法及びプログラム
JP2017035241A (ja) * 2015-08-07 2017-02-16 オージー技研株式会社 筋力増強システム
US20180199892A1 (en) * 2017-01-16 2018-07-19 General Electric Company System and method for predicting an excitation pattern of a deep brain stimulation

Also Published As

Publication number Publication date
JPWO2021014601A1 (ja) 2021-01-28
US20220255718A1 (en) 2022-08-11
JP7268736B2 (ja) 2023-05-08

Similar Documents

Publication Publication Date Title
US11099637B2 (en) Dynamic adjustment of user interface
US10019074B2 (en) Touchless input
KR102225802B1 (ko) 반응형 영상 생성방법 및 생성프로그램
EP3120217B1 (en) Display device and method for controlling the same
US20120102438A1 (en) Display system and method of displaying based on device interactions
CN102811780B (zh) 游戏***、游戏***的控制方法
JP2015166890A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN103294337A (zh) 电子装置及控制方法
WO2012147959A1 (ja) 入力装置、入力方法及び記録媒体
Warburton et al. Measuring motion-to-photon latency for sensorimotor experiments with virtual reality systems
JP7034808B2 (ja) 情報処理方法、情報処理装置及び情報処理システム
CN103294371A (zh) 电子设备、控制该电子设备的方法
US11537196B2 (en) Drift cancelation for portable object detection and tracking
US9552345B2 (en) Gestural annotations
CN104007920A (zh) 在电子测试装备上选择波形的方法
US9880728B2 (en) Methods and systems for controlling a virtual interactive surface and interactive display systems
CN104881225A (zh) 一种调节条的控制方法和装置
CN112181579A (zh) 图形用户界面原型提供方法以及装置
WO2021014601A1 (ja) 同期制御装置
JP5226676B2 (ja) データ記録再生装置
JP2020067752A (ja) プログラマブルロジックコントローラシステム、プログラム作成支援装置およびコンピュータプログラム
TWI518559B (zh) 次畫面累計方法以及用以維持光學導航感測器在所有畫面更新率的回報錯誤一致的裝置
JP2017080199A (ja) 情報処理装置、情報処理方法、プログラム
JP2015022489A (ja) 情報処理装置及びプログラム
JP2016071866A (ja) 情報処理装置、その制御方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19938421

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021534476

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19938421

Country of ref document: EP

Kind code of ref document: A1