WO2019130696A1 - 情報処理装置、情報処理方法および情報処理システム - Google Patents

情報処理装置、情報処理方法および情報処理システム Download PDF

Info

Publication number
WO2019130696A1
WO2019130696A1 PCT/JP2018/035490 JP2018035490W WO2019130696A1 WO 2019130696 A1 WO2019130696 A1 WO 2019130696A1 JP 2018035490 W JP2018035490 W JP 2018035490W WO 2019130696 A1 WO2019130696 A1 WO 2019130696A1
Authority
WO
WIPO (PCT)
Prior art keywords
input device
information
light emission
information processing
processing apparatus
Prior art date
Application number
PCT/JP2018/035490
Other languages
English (en)
French (fr)
Inventor
健太郎 井田
佑理 日下部
拓也 池田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/956,161 priority Critical patent/US11402932B2/en
Priority to CN201880082579.7A priority patent/CN111512275B/zh
Priority to EP18897540.3A priority patent/EP3734422B1/en
Priority to CA3085906A priority patent/CA3085906A1/en
Priority to JP2019562759A priority patent/JP7230829B2/ja
Priority to KR1020207016481A priority patent/KR102511791B1/ko
Publication of WO2019130696A1 publication Critical patent/WO2019130696A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0382Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and an information processing system.
  • IR LED infrared Light Emitting Diode
  • a light emission control unit configured to output a first light emission instruction to the first input device when the first identification information is received from the first input device;
  • a process of associating the first light emitting position information with the first identification information when the first light emitting position information indicating the position where light is emitted by the first light emitting unit of the first input device is acquired An information processing apparatus is provided, comprising:
  • control when the first identification information is received from the first input device, control is performed such that a first light emission instruction is output to the first input device;
  • the first light emitting position information indicating the position where light is emitted by the first light emitting unit of the first input device is acquired, the first light emitting position information is associated with the first identification information. And an information processing method is provided.
  • the information processing system includes an input device and an information processing device
  • the input device includes a control unit that controls transmission of identification information
  • the control unit is configured to issue a light emission instruction from the input device. Is controlled to emit light, and the information processing apparatus is controlled to output the light emission instruction when the identification information is received, and the light emission unit
  • An information processing system comprising: a processing unit that links the light emitting position information with the identification information when light emitting position information indicating a light emitting position is acquired.
  • FIG. 7 is a diagram showing a process flow of identifying a pen according to an embodiment of the present disclosure.
  • FIG. 6 shows an example of a visible light image and an infrared light image of a screen written by a pen, respectively.
  • 1 is a schematic configuration diagram of an information processing system according to an embodiment of the present disclosure. It is a figure which shows the function structural example of an input device. It is a figure showing an example of functional composition of an information processing system concerning an embodiment of this indication. It is a state transition figure at the time of pairing operation by the information processing system concerning an embodiment of this indication. It is a figure which shows the example of the queue managed by the communication management part. It is a figure which shows the image of the cue
  • a plurality of components having substantially the same functional configuration may be distinguished by attaching different numerals after the same reference numerals. However, when it is not necessary to distinguish each of a plurality of components having substantially the same functional configuration, only the same reference numerals will be given.
  • a plurality of components having the same or similar functional configuration may be distinguished by attaching different alphabets after the same symbol. However, in the case where it is not necessary to distinguish each of the plurality having the same or similar functional configuration, only the same symbol is attached.
  • a communication function for example, by Bluetooth (registered trademark)
  • Bluetooth registered trademark
  • BT Bluetooth (registered trademark)
  • BT Bluetooth (registered trademark)
  • FIG. 1 is a diagram showing a process flow of identifying a pen according to an embodiment of the present disclosure.
  • first and second pens time T0
  • Identification information is stored in each of the two pens.
  • BT ID is used as an example of the identification information.
  • the BT ID of the first pen is “AAA”
  • the BT ID of the second pen is “BBB”.
  • the pen tip of the first pen When the writing is started by the first pen (time T1), the pen tip of the first pen is switched on, and the communication function (by BT, for example) causes the information from the first pen to the system (BT ID "AAA”) Is sent).
  • the system obtains the BT ID “AAA” of the first pen from the information sent from the first pen, and the request to turn on the IR LED by communication using the BT ID “AAA” is the first Send to the pen.
  • the first pen receives the request to turn on the IR LED, the IR LED is turned on and the IR emitting at the pen tip of the first pen is detected in the camera image (time T2). .
  • the system links the detected bright spot (light emitting position) by the IR LED with the information (including the BT ID “AAA”) received from the first pen in communication, and stores it as the information of the first pen . From now on, the system will be selected from the bright spot by the IR LED detected by the camera, the information received from the first pen (BT ID "AAA", ie including the identification of the hardware of the first pen), and the system It becomes possible to link and handle the functions of the pen managed in the application (the color, thickness, blur, etc. of the locus).
  • FIG. 2 shows an example of a visible light image and an infrared light image of a screen written by a pen, respectively.
  • the visible light image G10 is an image captured by a visible light camera, and the visible light image G10 is used by the screen Sc, the user U10 and the user U10 for writing on the screen Sc.
  • the input device 200 is shown.
  • the infrared light image g10 is an image captured by the infrared light camera, and the infrared light image g10 has a bright spot p10 of the IR emitted by the input device 200.
  • the environment can be understood only by the image through the camera.
  • the information processing apparatus identifies a pen emitting IR light by capturing the bright spot p10 from the infrared light image g10.
  • FIG. 3 is a schematic configuration diagram of the information processing system 1 according to the embodiment of the present disclosure.
  • the information processing system 1 includes an information processing apparatus 100, an input device 200, a camera 300, and a projector 410 as an example of an output device.
  • the camera 300 and the projector 410 are installed on the floor surface, but the positions where the camera 300 and the projector 410 are installed are not limited (may be installed above the floor surface) ).
  • FIG. 4 is a diagram showing an example of a functional configuration of the input device 200. As shown in FIG. As shown in FIG. 4, in the embodiment of the present disclosure, it is mainly assumed that a pen (pen-type input device) is used as an example of the input device 200. However, the input device 200 according to the embodiment of the present disclosure is not limited to a pen (pen-type input device).
  • the input device 200 includes an IR LED 210 as an example of a light emitting unit used for handwriting detection, a pen tip switch 220 as an example of a detecting unit for detecting an input state, and the overall operation of the input device 200. And a communication module 240 as an example of a communication unit for communicating with the information processing apparatus 100.
  • FIG. 5 is a diagram illustrating an example of a functional configuration of the information processing system 1 according to the embodiment of the present disclosure.
  • the information processing system 1 includes an information processing apparatus 100, an input device 200, a camera 300, and an output device 400.
  • the camera 300 has a function of detecting the light emitting position (IR bright spot) of the input device 200 (pen) by the IR LED.
  • the camera 300 includes an infrared camera.
  • the IR bright spot detected by the camera 300 is linked to the BT ID of the input device 200 (pen).
  • the IR bright spots detected by the camera 300 can also be used as the locus (handwriting) of the input device 200 (pen).
  • the information processing apparatus 100 includes an I / F unit 110.
  • the I / F unit 110 can function as a communication module that communicates with the input device 200.
  • the communication module turns on / off the penpoint switch when linking the IR bright spot detected by the camera 300 with the BT ID of the input device 200 (pen) (hereinafter, also simply referred to as “pairing”). Off Receive notification, send IR LED On / Off notification, etc.
  • the communication module performs wireless communication with the input device 200 by BT.
  • the communication module may perform wired communication with the input device 200.
  • the information processing apparatus 100 further includes an ID management unit 121, a communication management unit 122, a light emission recognition unit 123, a coordinate conversion unit 124, and a control unit 130.
  • the ID management unit 121, the communication management unit 122, the light emission recognition unit 123, the coordinate conversion unit 124, and the control unit 130 may be configured by a processing device such as a CPU (Central Processing Unit).
  • a processing device such as a CPU (Central Processing Unit).
  • the control unit is configured by a processing unit such as a CPU, the processing unit may be configured by an electronic circuit.
  • the ID management unit 121 manages the unique ID (BT ID) of the input device 200 (pen) acquired from the input device 200 by the communication control unit 132 via the I / F unit 110. That is, the ID management unit 121 manages the unique ID (BT ID) of the input device 200 (pen) recognized up to now.
  • the communication management unit 122 transmits the communication device information of each input device 200 (pen) (for example, the BT ID of the first pen is “AAA”, the BT ID of the second pen is “BBB”, etc.) to manage.
  • the light emission recognition unit 123 recognizes the bright spot of the IR LED from the image (for example, an infrared light image) captured by the camera 300.
  • the coordinate conversion unit 124 converts the bright spot recognized by the light emission recognition unit 123 from the camera coordinate system to the screen coordinate system.
  • the storage unit 140 stores information in which the BT ID of each input device 200 (pen) and the bright point of IR (information indicating the light emitting position of the IR LED) are linked.
  • the control unit 130 includes a light emission control unit 131, a communication control unit 132, and a processing unit 133.
  • the light emission control unit 131 controls the light emission of the IR LED (transmission control of the on / off notification of the IR LED) when associating the bright spot of IR detected by the camera 300 with the BT ID of the input device 200 (pen). I do.
  • the communication control unit 132 controls the reception of the on / off notification of the pen tip switch when linking the bright spot of the IR detected by the camera 300 with the BT ID of the input device 200 (pen).
  • the processing unit 133 associates the IR bright spot detected by the camera 300 with the BT ID of the input device 200 (pen), and stores the string in the storage unit 140.
  • the input device 200 is a device used for input by the user. As described above, in the embodiment of the present disclosure, it is mainly assumed that a pen-shaped device having an LED 210 (IR LED) mounted at its tip is used. For example, the input device 200 has a mechanism in which the pen tip switch 220 is turned on and the LED 210 emits light when the user presses the screen. The light emission position (bright spot) by the LED 210 is detected by the camera 300 and sent to the information processing apparatus 100.
  • IR LED IR LED
  • the output device 400 has a function of outputting an image (for example, a trajectory of the input device 200).
  • the projector 410 having the projector 410 as an output device 400 and capable of projecting an image on a screen input by the user is used.
  • the output device 400 is not limited to the projector 410, and the TV 420 may be used, the tablet 430 may be used, the smartphone 440 may be used, and a PC (Personal Computer) 450 is used. It may be used.
  • FIG. 6 is a state transition diagram at the time of pairing operation by the information processing system 1 according to the embodiment of the present disclosure.
  • the power of the information processing system 1 is turned on in the initial state where the power of the information processing system 1 is turned off (state S0)
  • the information processing device 100 and the input device 200 ( BT connection with the pen is turned on.
  • the IR LED remains off
  • the BT ID hereinafter also referred to as “pen ID” of the input device 200 remains indefinite (state S1).
  • the CPU 230 Controls the BT event (notification of the pen tip switch including the pen ID) to be transmitted to the information processing apparatus 100 via the communication module 240 (state S2).
  • the information processing apparatus 100 when a BT Event (including a pen ID) is received by the I / F unit 110, the light emission control unit 131 outputs a light emission instruction to the input device 200 (pen). Control.
  • the CPU 230 In the input device 200 (pen), when a light emission instruction is input via the communication module 240, the CPU 230 causes the IR LED 210 to emit light. As a result, although the IR LED is turned on, the pen ID of the input device 200 remains indefinite (state S3).
  • the light emission recognition unit 123 attempts to acquire light emission position information indicating a position where light is emitted by the IR LED 210 of the input device 200 (pen). For example, it is attempted to obtain light emission position information from an image captured by the camera 300.
  • the processing unit 133 associates the light emitting position information with the pen ID.
  • the processing unit 133 does not associate the light emission position information with the pen ID.
  • the processing unit 133 associates the light emission position information with the pen ID when the light emission position information is acquired within the first time from the output of the light emission instruction (IR Detect).
  • the on state of the IR LED is continued, and the pen ID of the input device 200 is determined ("1" in the example shown in FIG. 6) (state S4).
  • the light emitting position information and the pen ID are linked, the light emitting position information (the locus of the pen) recognized sequentially is linked to the pen ID, and the projector 410 projects an image (handwriting) on the light emitting position. As a result, drawing is performed (state S7).
  • the processing unit 133 causes the light emission stop instruction to be output to the input device 200 (pen) when the time when the light emission position information is not acquired continues after the acquisition of the light emission position information for more than the fourth time. Control.
  • the input device 200 (pen) when the light emission stop instruction is input through the communication module 240, the CPU 230 stops the light emission by the IR LED 210. This causes a state transition from state S7 to state S5.
  • the processing unit 133 does not associate the light emitting position information with the pen ID when the light emitting position information is not acquired within the first time from the output of the light emission instruction (Time out). Thereby, the on state of the IR LED is continued, and the indetermination of the pen ID of the input device 200 is continued (state S5). Then, when the light emission position information is not acquired, the light emission control unit 131 controls the light emission stop instruction to be output to the input device 200 (pen). In the input device 200 (pen), when the light emission stop instruction is input through the communication module 240, the CPU 230 stops the light emission by the IR LED 210. As a result, the IR LED is turned off, and the pen ID of the input device 200 remains indeterminate (state S6, state S1).
  • a plurality of input devices 200 there may be a plurality of input devices 200 (pens).
  • a plurality of BT Events On notification of the pen point switch including the pen ID
  • a plurality of BT Events On notification of the pen tip switch
  • a plurality of BT Events are queued by the communication management unit 122 and sequentially processed.
  • the light emission control unit 131 performs the second identification from the second input device different from the first input device within a second time after the first identification information is received from the first input device.
  • the second light emission instruction is issued to the second input device after the second time has elapsed since the first identification information is received. Control to be output.
  • the second time has elapsed since the reception of the first identification information, the time when the first light emission position information is acquired and the first time from the output of the first light emission instruction Of the time elapsed, it may be earlier.
  • the processing unit 133 indicates the position at which light is emitted by the second light emitting unit of the second input device (the IR LED 210 of the second input device) within a third time from the output of the second light emission instruction.
  • the second light emitting position information is acquired, the second light emitting position information and the second identification information (pen ID of the second input device) are linked.
  • the third time may be the same as the first time described above, or may be different from the first time.
  • FIG. 7 is a diagram showing an example of queues managed by the communication management unit 122.
  • BT Event On notification of pen point switch
  • BT Event Off notification of pen point switch
  • the processing for such an event is “done”.
  • the processing for this event is “in process”.
  • FIG. 8 is a diagram showing an image of a queue that is sequentially executed. Referring to FIG. 8, the process of the pen ID “AAA” corresponding to the first queue is performed first, and then the process of the pen ID “BBB” corresponding to the second queue is performed. Further, referring to FIG. 7, the processing for the third and subsequent queues is "standby".
  • the light emitting unit is not limited to such an example.
  • the light emitting unit may be a visible light LED.
  • the visible light LED may be a single color LED (red, blue, etc.) or a full color LED.
  • the detection unit is not limited to such an example.
  • the detection unit may include a pressure sensor, an electromagnetic induction sensor, or a capacitance sensor.
  • a pressure sensor is used as the detection unit, not only the handwriting by the pen but also the pen pressure by the pen may be acquired.
  • the ID (pen ID) of the input device 200 is communicated by Bluetooth (registered trademark) has been mainly described.
  • the ID (pen ID) of the input device 200 may be communicated by another communication method.
  • the ID (pen ID) of the input device 200 may be communicated using Wi-Fi (registered trademark), Zigbee (registered trademark), infrared communication, or ultrasonic communication.
  • a camera is used as an imaging device.
  • an apparatus other than a camera may be used as an imaging device.
  • a two-dimensional PSD Position Sensitive Device
  • a two-dimensional PSD Position Sensitive Device
  • extension functions applicable to the present technology.
  • the input device 200 (pen) receives the status information of the input device 200 (pen) managed by the information processing apparatus 100 to the input device 200 (pen) side. It is possible to present state information of the pen) to the user.
  • the light emission control unit 131 of the information processing apparatus 100 controls so that the presentation according to the status information of the input device 200 (pen) is executed by the presentation unit (not shown) of the input device 200 (pen). It may function as a presentation control unit.
  • the presentation unit (not shown) of the input device 200 (pen) is an LED for status presentation different from the IR LED 210, but the presentation unit (not shown) of the input device 200 (pen) is for status presentation
  • the speaker is not limited to the LED.
  • the state information is not particularly limited, but may be information indicating a pairing state.
  • the state information is before output of the light emission instruction (that is, indefinite state (S1)), after output of the light emission instruction and before acquisition of the light emission position information (that is, during detection of bright spots (S3))
  • the BT ID may be linked (that is, at least one of the pairing complete state (S4)).
  • the state information may include the case where the time when the light emission position information is not acquired continues beyond the second time (that is, the lost state of the input device (S6)).
  • presentation according to the state information may be performed in any way.
  • the presentation according to the state information may be executed by the blinking pattern of the LED for state presentation.
  • the presentation according to the status information may be performed by the color of the LED for status presentation.
  • FIG. 9 is a diagram showing an example of presentation of the pairing state.
  • FIG. 9 shows the detection of the bright spot (S3), the pairing completion state (S4), the lost state (S6) of the input device, and the indefinite state (S1). Further, the upper end of FIG. 9 shows the case where the blinking pattern of the LED for state presentation is changed according to the pairing state. On the other hand, at the lower end of FIG. 9, the case is shown where the color of the LED for state presentation is changed according to the pairing state. The blinking pattern and the color may be used alone or in combination.
  • the user may be able to select information (for example, the color, thickness, blur, and the like of a handwriting) as an application for drawing using the input device 200 (pen).
  • information for example, the color, thickness, blur, and the like of a handwriting
  • the processing unit 133 may associate the light emitting position information, the BT ID, and the information on the handwriting of the input device 200 (pen).
  • the state information may be information on handwriting, and the presentation according to the state information may be performed by the blinking pattern of the LED for state presentation, or performed by the color of the LED for state presentation It is also good.
  • FIG. 10 and FIG. 11 are diagrams showing an example of presentation of information regarding handwriting.
  • FIGS. 10 and 11 show a case where presentation according to information on handwriting is performed by the color of the LED for status presentation.
  • the states S11 to S14, the states S21 to S27, and the states S31 to S32 when the color selection is executed by the input device 200 (pen) on the pallet, the color information is processed by the communication function by BT.
  • the LED for state presentation can be made to emit light based on the received color information.
  • the present technology is also applicable to devices other than pens. That is, if a controller type device having both a space coordinate detection function and a communication function is available in an arbitrary space, the device can be obtained by pairing the three-dimensional coordinates of the device with an arbitrary communication connection. It can be treated as an input device like a pen.
  • FIG. 12 to 17 are diagrams showing application examples of the present technology.
  • a user U10 and a user U20 are playing a game.
  • the user U10 wears the display D10 and has a gun J10 as an example of an AR / VR controller.
  • the user U20 also wears the display D20 and has a gun J20 as an example of an AR / VR controller.
  • each of the gun J10 and the gun J20 has an IR LED and a communication function as the input device 200 (pen) described above has, and by providing a camera for detecting the IR LED in the environment, the gun J10 And the gun J20 can be identified.
  • a car M10 and a car M20 are traveling on the road.
  • each of the car M10 and the car M20 has an IR LED and a communication function as the above-described input device 200 (pen) has, and a camera for detecting the IR LED (for example, a road on which the car travels
  • the vehicle M10 and the vehicle M20 can be identified by providing the camera in the environment with an overhead camera. If a front projection projector (or an AR glass or the like) is mounted on each of the car M10 and the car M20, effects such as an attack effect and a power-up effect on the other car can be produced by the display image on the front projection projector .
  • a car M30 and a car M40 are traveling on the road.
  • a camera for detecting the IR LED for example, a road on which the car travels is provided to each of the car M30 and the car M40, as the input device 200 (pen) described above has the IR LED and the communication function.
  • the vehicle M30 and the vehicle M40 can be identified by providing the camera in the environment with an overhead camera. If a front projection projector (or AR glass or the like) is mounted on each of the car M30 and the car M40, the car image is displayed by the display image on the front projection projector, and the attack effect and the power-up effect etc. An effect can be produced.
  • the user is playing bouldering.
  • effects associated with the course background or character may cause some effects to be unavailable.
  • the information processing apparatus 100 recognizes that the hold is used by the band-type controllers B10 to B40 (the controllers paired as described above) attached to the limbs, and presents tactile feedback or the like to the user. You may do damage expression.
  • the information processing apparatus 100 identifies a plurality of users by band-type controllers B51 to B54 and B61 to B64 (controllers paired as described above) attached to each user's limbs, and places where each user climbs It may be identified as a position game.
  • band-type controllers B51 to B54 and B61 to B64 controllers paired as described above
  • the combination of the ID of both hands and both feet is registered in advance which user's ID. For example, it is assumed to prepare a GUI for selecting four points from the paired ID and registering as a user.
  • a plurality of individual groups R10 (individuals R11, R12, R13,...) Act as a group.
  • the individual may be a robot, another device such as a drone, or an organism such as a human being as shown in FIG.
  • each of the individuals constituting the population R10 with an IR LED and a communication function as the above-described input device 200 (pen) has, and providing a camera for detecting the IR LED in the environment, Individuals constituting the population R10 can be identified.
  • FIG. 18 is a block diagram showing an example of the hardware configuration of the information processing apparatus 100 according to an embodiment of the present disclosure.
  • the information processing apparatus 100 includes a central processing unit (CPU) 801, a read only memory (ROM) 803, and a random access memory (RAM) 805.
  • the information processing apparatus 100 may also include a host bus 807, a bridge 809, an external bus 811, an interface 813, a storage device 819, a drive 821, a connection port 823, and a communication device 825.
  • the information processing apparatus 100 may have a processing circuit called a digital signal processor (DSP) or an application specific integrated circuit (ASIC) instead of or in addition to the CPU 801.
  • DSP digital signal processor
  • ASIC application specific integrated circuit
  • the CPU 801 functions as an arithmetic processing unit and a control unit, and controls the overall operation or a part of the information processing apparatus 100 according to various programs recorded in the ROM 803, the RAM 805, the storage unit 819, or the removable recording medium 827.
  • the ROM 803 stores programs used by the CPU 801, calculation parameters, and the like.
  • the RAM 805 temporarily stores programs used in the execution of the CPU 801, parameters that appropriately change in the execution, and the like.
  • the CPU 801, the ROM 803, and the RAM 805 are mutually connected by a host bus 807 configured by an internal bus such as a CPU bus. Further, the host bus 807 is connected to an external bus 811 such as a peripheral component interconnect / interface (PCI) bus via a bridge 809.
  • PCI peripheral component interconnect / interface
  • the storage device 819 is a device for data storage configured as an example of a storage unit of the information processing device 100.
  • the storage device 819 includes, for example, a magnetic storage unit device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 819 stores programs executed by the CPU 801, various data, various data acquired from the outside, and the like.
  • the drive 821 is a reader / writer for a removable recording medium 827 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in or externally attached to the information processing apparatus 100.
  • the drive 821 reads the information recorded in the mounted removable recording medium 827 and outputs the information to the RAM 805.
  • the drive 821 also writes a record on the attached removable recording medium 827.
  • the connection port 823 is a port for directly connecting a device to the information processing apparatus 100.
  • the connection port 823 may be, for example, a Universal Serial Bus (USB) port, an IEEE 1394 port, a Small Computer System Interface (SCSI) port, or the like.
  • the connection port 823 may be an RS-232C port, an optical audio terminal, a high-definition multimedia interface (HDMI (registered trademark)) port, or the like.
  • HDMI registered trademark
  • the communication device 825 is, for example, a communication interface configured of a communication device or the like for connecting to the network 931.
  • the communication device 825 may be, for example, a communication card for a wired or wireless Local Area Network (LAN), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 825 may be a router for optical communication, a router for asymmetric digital subscriber line (ADSL), or a modem for various communications.
  • the communication device 825 transmits and receives signals and the like to and from the Internet or another communication device using a predetermined protocol such as TCP / IP.
  • a network 931 connected to the communication device 825 is a network connected by wire or wireless, and is, for example, the Internet, a home LAN, infrared communication, radio wave communication, satellite communication, or the like.
  • the first identification information is received from the first input device
  • the first light emission instruction is output to the first input device.
  • the first light emitting position information indicating the position where light is emitted by the first light emitting unit of the first input device, and the first light emitting position information and the first light emitting position information.
  • An information processing apparatus comprising: a processing unit that links identification information with one. According to such a configuration, a technology capable of identifying an input device while reducing costs is provided.
  • a light emission control unit configured to control a first light emission instruction to be output to the first input device when the first identification information is received from the first input device;
  • An information processing apparatus comprising: (2) When the first light emission position information is acquired within a first time from the output of the first light emission instruction, the processing unit generates the first light emission position information and the first identification information. Attach, The information processing apparatus according to (1).
  • the light emission control unit instructs the first input device to stop light emission when the first light emission position information is not acquired within the first time from the output of the first light emission instruction. Control to be output, The information processing apparatus according to (2).
  • the light emission control unit receives second identification information from a second input device different from the first input device within a second time after the first identification information is received, Control is performed such that a second light emission instruction is output to the second input device after the second time has elapsed since the reception of the first identification information.
  • the information processing apparatus according to (3).
  • the processing unit is configured to acquire second light emitting position information indicating a position where light is emitted by the second light emitting unit of the second input device within a third time from an output of the second light emission instruction.
  • the second light emitting position information is associated with the second identification information.
  • the information processing apparatus according to (4).
  • the processing unit instructs the first input device to stop light emission when the time during which the first light emission position information is not acquired continues after the acquisition of the first light emission position information for a fourth time period. Control to output The information processing apparatus according to any one of the above (1) to (5).
  • the information processing apparatus includes a presentation control unit configured to perform a presentation according to state information of the first input device by a presentation unit of the first input device.
  • the information processing apparatus according to any one of the above (1) to (6).
  • the state information may be the first light emission position information and the first identification information before the output of the first light emission instruction, after the output of the first light emission instruction, and before the acquisition of the first light emission position information.
  • the information processing apparatus according to (7). The presentation is performed by a blinking pattern of LEDs or a color of the LEDs, The information processing apparatus according to (7) or (8).
  • the information processing apparatus includes a presentation control unit configured to perform a presentation according to information on handwriting of the first input device by a presentation unit of the first input device.
  • the information processing apparatus according to any one of the above (1) to (6).
  • the processing unit links the first light emission position information with the first identification information when the first light emission position information is acquired based on a captured image.
  • the information processing apparatus according to any one of the above (1) to (10).
  • the first input device is a pen-type input device.
  • the processing unit links the first light emitting position information, the first identification information, and information on the handwriting of the first input device.
  • the first light emitting unit is an infrared light LED or a visible light LED.
  • the information processing apparatus according to any one of the above (1) to (13).
  • the first identification information is transmitted from the first input device when a predetermined operation is detected by the detection unit of the first input device.
  • the information processing apparatus according to any one of (1) to (14).
  • the detection unit includes a switch, a pressure sensor, an electromagnetic induction sensor, or a capacitance sensor.
  • the first identification information is received from the first input device using Bluetooth (registered trademark), Wi-Fi (registered trademark), Zigbee (registered trademark), infrared communication, or ultrasonic communication. , The information processing apparatus according to any one of the above (1) to (16).
  • the first light emission position information and the first identification information are Attaching and Information processing methods, including: (19) An information processing system having an input device and an information processing device, wherein The input device is A control unit that controls transmission of identification information; The control unit controls the light emitting unit to emit light when a light emission instruction is received from the input device.
  • the information processing apparatus is A light emission control unit configured to control the light emission instruction to be output when the identification information is received;
  • a processing unit that associates the light emitting position information with the identification information when light emitting position information indicating a light emitting position is acquired by the light emitting unit;
  • An information processing system comprising: (20)
  • the information processing system includes an imaging device.
  • the processing unit associates the light emitting position information with the identification information when the light emitting position information is acquired based on an image captured by the imaging device.
  • the information processing system according to (19).
  • REFERENCE SIGNS LIST 1 information processing system 100 information processing apparatus 110 I / F unit 121 ID management unit 122 communication management unit 123 light emission recognition unit 124 coordinate conversion unit 130 control unit 131 light emission control unit 132 communication control unit 133 processing unit 140 storage unit 210 LED 220 pen tip switch 230 CPU 240 communication module 300 camera 400 output device 410 projector 430 tablet 440 smartphone

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】コストを低減しつつ、入力装置を識別することが可能な技術が提供されることが望まれる。 【解決手段】第1の入力装置から第1の識別情報が受信された場合、前記第1の入力装置に対して第1の発光指示が出力されるように制御する発光制御部と、前記第1の入力装置の第1の発光部によって発光された位置を示す第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報とを紐付ける処理部と、を備える、情報処理装置が提供される。

Description

情報処理装置、情報処理方法および情報処理システム
 本開示は、情報処理装置、情報処理方法および情報処理システムに関する。
 近年、入力装置の例としてのペンによって入力を行う技術が知られている。例えば、複数のペンが使用される場合があり得る。複数のペンを見分けるための技術として、複数のペンそれぞれに設けられた軌跡検出用のIR LED(infrared Light Emitting Diode)を、異なる波長によって発光させることによって、検出されるIRの波長によって複数のペンを見分ける技術が知られている。しかし、かかる技術では、同じ波長のIRを発光する2つのペンを識別するのは困難である。
 また、必ずしもペンを識別する必要はなく、複数のペンが同時に使用されたときのみ、複数のペンそれぞれを識別するために、各ペンに対して個別に制御信号をシステム側から送信することによって、ペンに設けられたIR LEDの発光を制御する技術が開示されている(例えば、特許文献1参照)。かかる技術によれば、座標Aと座標Bとにおいて同時に光った場合、ペンAの光として2つのセンサでマッチングを取った場合に、実際には存在しない虚座標A’と虚座標B’にマッチングされてしまう問題が解決される。
特開2016-18455号公報
 しかし、かかる技術では、各々のペンに固有の機能(例えば、軌跡の色、太さ、カスレ具合など)を割り当てることができない。また、ペンを個別に識別できるペンが用いられる場合であっても、各機能に対してハードウェア的に異なるペンを用意する必要があるため、ペンを用意するために多くのコストを要してしまう。そこで、コストを低減しつつ、入力装置を識別することが可能な技術が提供されることが望まれる。
 本開示によれば、第1の入力装置から第1の識別情報が受信された場合、前記第1の入力装置に対して第1の発光指示が出力されるように制御する発光制御部と、前記第1の入力装置の第1の発光部によって発光された位置を示す第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報とを紐付ける処理部と、を備える、情報処理装置が提供される。
 本開示によれば、第1の入力装置から第1の識別情報が受信された場合、前記第1の入力装置に対して第1の発光指示が出力されるように制御することと、プロセッサにより、前記第1の入力装置の第1の発光部によって発光された位置を示す第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報とを紐付けることと、を含む、情報処理方法が提供される。
 本開示によれば、入力装置と情報処理装置とを有する情報処理システムであって、前記入力装置は、識別情報の送信を制御する制御部を備え、前記制御部は、前記入力装置から発光指示が受信された場合、発光部が発光するように制御し、前記情報処理装置は、前記識別情報が受信された場合、前記発光指示が出力されるように制御する発光制御部と、前記発光部によって発光された位置を示す発光位置情報が取得された場合、前記発光位置情報と前記識別情報とを紐付ける処理部と、を備える、情報処理システムが提供される。
 以上説明したように本開示によれば、コストを低減しつつ、入力装置を識別することが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係るシステムがペンを識別する処理の流れを示す図である。 ペンによって書き込まれるスクリーンの可視光画像および赤外光画像それぞれの例を示す図である。 本開示の実施形態に係る情報処理システムの概略構成図である。 入力装置の機能構成例を示す図である。 本開示の実施形態に係る情報処理システムの機能構成例を示す図である。 本開示の実施形態に係る情報処理システムによるペアリング動作時における状態遷移図である。 通信管理部によって管理されるキューの例を示す図である。 順次に実行されるキューのイメージを示す図である。 ペアリング状態の提示例を示す図である。 筆跡に関する情報の提示例を示す図である。 筆跡に関する情報の提示例を示す図である。 本技術の応用例を示す図である。 本技術の応用例を示す図である。 本技術の応用例を示す図である。 本技術の応用例を示す図である。 本技術の応用例を示す図である。 本技術の応用例を示す図である。 本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、同一または類似する機能構成を有する複数の構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、同一または類似する機能構成を有する複数の各々を特に区別する必要がない場合、同一符号のみを付する。
 なお、説明は以下の順序で行うものとする。
 0.概要
 1.実施形態の詳細
  1.1.システム構成例
  1.2.ペアリング動作の詳細
  1.3.各種の変形例
  1.4.効果
  1.5.拡張機能の例
  1.6.応用例
  1.7.ハードウェア構成例
 2.むすび
 <0.概要>
 昨今、各団体によって販売されているインタラクティブプロジェクタにおいて、デジタルペンによる入力がサポートされている。しかし、複数のペンが同時に使用されている状況において、各団体によるペンの識別手法は異なっている。例えば、複数のペンを個別に認識することにより、各ペンの筆跡に関する情報(例えば、鉛筆調、筆調、ブラシ調や、軌跡の太さなど)をペンの筆跡に反映したり、筆跡の色を変えたり、先生のペンでは書き込みが可能であるが、生徒のペンでは書き込みが不可能であるといったように、書き込み可能なセキュリティレベルの割り当てなどをペンのハードウェアに紐づけることができる。
 本開示の実施形態に係るペンの識別手法では、(例えば、Bluetooth(登録商標)による)通信機能(以下、Bluetooth(登録商標)を、単に「BT」と表記する場合がある。)と、ペン先検出用の赤外光LEDの点灯/消灯コントロール機能とを用いて、各ペンを逐次的に認識することにより、原理的には無限個のペンを識別することを可能とする技術を提案する。以下では、本開示の実施形態に係るペンの識別手法による主な識別手順を説明する。
 図1は、本開示の実施形態に係るシステムがペンを識別する処理の流れを示す図である。図1に示されるように、2本のペン(第1のペンおよび第2のペン)が存在する場合を想定する(時刻T0)。2本のペンそれぞれには、識別情報が記憶されている。ここでは、識別情報の例として、BT IDが利用される場合を想定する。具体的に、図1に示される例では、第1のペンのBT IDが「AAA」であり、第2のペンのBT IDが「BBB」である。
 第1のペンによって書き始められると(時刻T1)、第1のペンのペン先端のスイッチが入り、(例えば、BTによる)通信機能により、第1のペンからシステムに情報(BT ID「AAA」を含む)が送られる。システムは、第1のペンから送られてきた情報から第1のペンのBT ID「AAA」を取得し、BT ID「AAA」を用いた通信によって、IR LEDをOnにする要求を第1のペンに送る。これにより、第1のペンは、IR LEDをOnにする要求を受け取ると、IR LEDをOnにし、カメラ画像に第1のペンのペン先において発光しているIRが検出される(時刻T2)。
 システムは、検出されたIR LEDによる輝点(発光位置)と通信において第1のペンから受け取った情報(BT ID「AAA」を含む)とを紐付けて、第1のペンの情報として保存する。以降では、システムは、カメラによって検出されたIR LEDによる輝点、第1のペンから受け取る情報(BT ID「AAA」、すなわち、第1のペンのハードウェアの識別情報を含む)、および、システムのアプリケーションにおいて管理されているペンの機能(軌跡の色、太さ、カスレなど)を紐付けて扱うことが可能となる。
 図2は、ペンによって書き込まれるスクリーンの可視光画像および赤外光画像それぞれの例を示す図である。図2に示されるように、可視光画像G10は、可視光カメラによって撮像された画像であり、可視光画像G10には、スクリーンScとユーザU10とユーザU10がスクリーンScへの書き込みに利用している入力装置200とが写っている。一方、赤外光画像g10は、赤外光カメラによって撮像された画像であり、赤外光画像g10には、入力装置200によって発光されたIRの輝点p10が写っている。
 例えば、全てを統括する情報処理装置側からは、カメラを通した画像によってしか環境を理解することができない。その一例として、情報処理装置は、赤外光画像g10から輝点p10を捉えることによって、IRを発光しているペンを識別する。一方、人間の視覚によっては、どのペンが発光しているかを識別することが困難である。そこで、本開示の実施形態においては、このようなカメラによる撮像技術と通信機能とを併用することにより、構造が同じ複数のペン(原理的には無限個のペン)を個別に識別し、各々のペンに割り振られた機能をペンの筆跡に反映することを可能とする技術を提案する。
 <1.実施形態の詳細>
 [1.1.システム構成例]
 続いて、図3を参照しながら、本開示の実施形態に係る情報処理システム1の構成例について説明する。図3は、本開示の実施形態に係る情報処理システム1の概略構成図である。図3に示されるように、情報処理システム1は、情報処理装置100、入力装置200、カメラ300、および、出力装置の例としてのプロジェクタ410を備える。図3に示された例では、カメラ300およびプロジェクタ410が床面に設置されているが、カメラ300およびプロジェクタ410が設置される位置は限定されない(床面よりも上方に設置されていてもよい)。
 図4は、入力装置200の機能構成例を示す図である。図4に示されるように、本開示の実施形態においては、入力装置200の例として、ペン(ペン型の入力装置)が利用される場合を主に想定する。しかし、本開示の実施形態に係る入力装置200は、ペン(ペン型の入力装置)に限定されない。
 図4を参照すると、入力装置200は、筆跡検出に利用される発光部の例としてのIR LED210と、入力状態を検出する検出部の例としてのペン先スイッチ220と、入力装置200の全体動作を制御する制御部の例としてのCPU(Central Processing Unit;中央演算処理装置)と、情報処理装置100と通信を行う通信部の例としての通信モジュール240とを備える。
 図5は、本開示の実施形態に係る情報処理システム1の機能構成例を示す図である。図5に示したように、情報処理システム1は、情報処理装置100と、入力装置200と、カメラ300と、出力装置400とを備える。
 カメラ300は、入力装置200(ペン)のIR LEDによる発光位置(IRの輝点)を検出する機能を有する。ここでは、カメラ300は、赤外光カメラを含む場合を想定する。カメラ300によって検出されたIRの輝点は、入力装置200(ペン)のBT IDと紐付けられる。あるいは、カメラ300によって検出されたIRの輝点は、入力装置200(ペン)の軌跡(筆跡)としても利用され得る。
 情報処理装置100は、I/F部110を備える。I/F部110は、入力装置200と通信を行う通信モジュールとして機能し得る。かかる通信モジュールは、カメラ300によって検出されたIRの輝点と、入力装置200(ペン)のBT IDとの紐付け(以下、単に「ペアリング」とも言う。)に際して、ペン先スイッチのOn/Off通知の受信、IR LEDのOn/Off通知の送信などを行う。なお、本開示の実施形態においては、通信モジュールによって、入力装置200との間でBTによる無線通信が行われる場合を主に想定する。しかし、通信モジュールは、入力装置200との間で有線による通信を行ってもよい。
 また、情報処理装置100は、ID管理部121、通信管理部122、発光認識部123、座標変換部124、および、制御部130を有する。ID管理部121、通信管理部122、発光認識部123、座標変換部124、および、制御部130は、例えば、CPU(Central Processing Unit;中央演算処理装置)などといった処理装置によって構成されてよい。かかる制御部がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。
 ID管理部121は、I/F部110を介して通信制御部132によって入力装置200から取得された入力装置200(ペン)の固有ID(BT ID)を管理する。すなわち、ID管理部121は、現在までに認識された入力装置200(ペン)の固有ID(BT ID)を管理する。通信管理部122は、各入力装置200(ペン)の通信デバイス情報(例えば、第1のペンのBT IDは「AAA」であり、第2のペンのBT IDは「BBB」であるなど)を管理する。
 発光認識部123は、カメラ300によって撮像された画像(例えば、赤外光画像)からIR LEDの輝点を認識する。座標変換部124は、発光認識部123によって認識された輝点をカメラ座標系からスクリーン座標系に変換する。記憶部140は、各入力装置200(ペン)のBT IDとIRの輝点(IR LEDの発光位置を示す情報)とが紐付けられた情報を記憶する。
 制御部130は、発光制御部131、通信制御部132、および、処理部133を有する。発光制御部131は、カメラ300によって検出されたIRの輝点と、入力装置200(ペン)のBT IDとの紐付けに際して、IR LEDの発光制御(IR LEDのOn/Off通知の送信制御)を行う。通信制御部132は、カメラ300によって検出されたIRの輝点と、入力装置200(ペン)のBT IDとの紐付けに際して、ペン先スイッチのOn/Off通知の受信を制御する。処理部133は、カメラ300によって検出されたIRの輝点と、入力装置200(ペン)のBT IDとを紐付けて、記憶部140に記憶させる。
 入力装置200は、ユーザによる入力に用いられるデバイスである。上記したように、本開示の実施形態においては、先端にLED210(IR LED)が搭載されたペン型のデバイスが用いられる場合を主に想定する。例えば、入力装置200は、ユーザによってスクリーンに押し付けられると、ペン先スイッチ220がOnとなり、LED210が発光する機構を持つ。LED210による発光位置(輝点)は、カメラ300によって検出され、情報処理装置100に送られる。
 出力装置400は、映像(例えば、入力装置200の軌跡)を出力する機能を有する。本開示の実施形態においては、出力装置400として、プロジェクタ410を有し、ユーザが入力を行っているスクリーンに対して映像を投影できるプロジェクタ410が利用される場合を主に想定する。しかし、出力装置400は、プロジェクタ410に限定されず、TV420が利用されてもよいし、タブレット430が利用されてもよいし、スマートフォン440が利用されてもよいし、PC(Personal Computer)450が利用されてもよい。
 以上、本開示の実施形態に係る情報処理システム1の構成例について説明した。
 [1.2.ペアリング動作の詳細]
 続いて、本開示の実施形態に係る情報処理システム1によるペアリング動作の詳細について説明する。
 図6は、本開示の実施形態に係る情報処理システム1によるペアリング動作時における状態遷移図である。図6に示されるように、情報処理システム1の電源がoffにされている初期状態において(状態S0)、情報処理システム1の電源がonにされると、情報処理装置100と入力装置200(ペン)との間のBT コネクションがonとなる。これによって、IR LEDはoffのままであり、入力装置200のBT ID(以下、「ペンID」とも言う。)は不定のままである(状態S1)。
 入力装置200(ペン)によって書き込みが始まり、入力装置200(ペン)において、ペン先スイッチ220がonとなると(ペン先スイッチ220によって所定の操作の例としてのOn操作が検出された場合)、CPU230は、通信モジュール240を介して、BT Event(ペンIDを含むペン先スイッチのOn通知)が情報処理装置100に送信されるように制御する(状態S2)。情報処理装置100においては、I/F部110によってBT Event(ペンIDを含む)が受信された場合、発光制御部131は、入力装置200(ペン)に対して発光指示が出力されるように制御する。入力装置200(ペン)において、通信モジュール240を介して発光指示が入力されると、CPU230は、IR LED210を発光させる。これによって、IR LEDはonとなるが、入力装置200のペンIDは不定のままである(状態S3)。
 情報処理装置100において、発光認識部123は、入力装置200(ペン)のIR LED210によって発光された位置を示す発光位置情報を取得できるかを試みる。例えば、カメラ300による撮像画像から、発光位置情報を取得できるかを試みる。処理部133は、発光認識部123によって発光位置情報が取得された場合、発光位置情報とペンIDとを紐付ける。一方、処理部133は、発光認識部123によって発光位置情報が取得されない場合、発光位置情報とペンIDとの紐付けを行わない。
 ここでは、処理部133は、発光指示の出力から第1の時間内に、発光位置情報が取得された場合(IR Detect)、発光位置情報とペンIDとを紐付ける。これによって、IR LEDのonは継続され、入力装置200のペンIDは確定される(図6に示された例では「1」)(状態S4)。発光位置情報とペンIDとが紐付けられた後は、逐次的に認識される発光位置情報(ペンの軌跡)がペンIDに紐付けられ、プロジェクタ410によって発光位置に映像(筆跡)が投影されることによって、描画がなされる(状態S7)。
 しかし、処理部133は、発光位置情報の取得後に発光位置情報が取得されない時間が第4の時間を超えて継続した場合、入力装置200(ペン)に対して発光停止指示が出力されるように制御する。入力装置200(ペン)において、通信モジュール240を介して発光停止指示が入力されると、CPU230は、IR LED210による発光を停止させる。これによって、状態S7から状態S5に状態遷移される。
 一方、処理部133は、発光指示の出力から第1の時間内に、発光位置情報が取得されない場合(Time out)、発光位置情報とペンIDとの紐付けを行わない。これによって、IR LEDのonは継続され、入力装置200のペンIDの不定は継続される(状態S5)。そして、発光制御部131は、発光位置情報が取得されない場合には、入力装置200(ペン)に対して発光停止指示が出力されるように制御する。入力装置200(ペン)において、通信モジュール240を介して発光停止指示が入力されると、CPU230は、IR LED210による発光を停止させる。これによって、IR LEDはoffとなり、入力装置200のペンIDは不定のままである(状態S6、状態S1)。
 ここで、複数の入力装置200(ペン)が存在する場合があり得る。かかる場合には、情報処理装置100において、BT Event(ペンIDを含むペン先スイッチのOn通知)が複数受信される場合も想定される(状態S2)。かかる場合には、複数のBT Event(ペン先スイッチのOn通知)が通信管理部122によってキューイングされ、順次に処理される。
 例えば、第1の入力装置および第2の入力装置が存在する場合を想定する。かかる場合、発光制御部131は、第1の入力装置から第1の識別情報が受信されてから第2の時間内に、第1の入力装置とは異なる第2の入力装置から第2の識別情報(第2の入力装置のペンID)が受信された場合、第1の識別情報が受信されてから第2の時間が経過した後に、第2の入力装置に対して第2の発光指示が出力されるように制御する。ここで、第1の識別情報が受信されてから第2の時間が経過した時点は、第1の発光位置情報が取得された時点、および、第1の発光指示の出力から第1の時間が経過した時点のうち、より早い時点であってよい。
 そして、処理部133は、第2の発光指示の出力から第3の時間内に、第2の入力装置の第2の発光部(第2の入力装置のIR LED210)によって発光された位置を示す第2の発光位置情報が取得された場合、第2の発光位置情報と第2の識別情報(第2の入力装置のペンID)とを紐付ける。ここで、第3の時間は、上記した第1の時間と同じであってもよいし、第1の時間と異なっていてもよい。
 図7は、通信管理部122によって管理されるキューの例を示す図である。図7を参照すると、情報処理装置100において、BT Event(ペン先スイッチのOn通知)およびBT Event(ペン先スイッチのOff通知)がキューイングされている。ペンID「AAA」から受信されたBT Event(ペン先スイッチのOn通知)は、1番目のキューに該当するため、かかるイベントに対する処理は「済」となっている。ペンID「BBB」から受信されたBT Event(ペン先スイッチのOn通知)は、2番目のキューに該当するため、かかるイベントに対する処理は「処理中」となっている。
 図8は、順次に実行されるキューのイメージを示す図である。図8を参照すると、1番目のキューに該当するペンID「AAA」の処理が最初に実行され、その後、2番目のキューに該当するペンID「BBB」の処理が実行されている。また、図7を参照すると、3番目以降のキューに対する処理は「待機」となっている。
 [1.3.各種の変形例]
 ここでは、本技術に適用可能な各種の変形例について述べる。
 上記では、発光部の例として、赤外光LED(IR LED210)が用いられる場合を説明した。しかし、発光部は、かかる例に限定されない。例えば、発光部は、可視光LEDであってもよい。このとき、可視光LEDは、単色LED(赤色、青色など)であってもよいし、フルカラーLEDであってもよい。
 また、上記では、検出部の例としてペン先スイッチ220が用いられる場合を主に説明した。しかし、検出部は、かかる例に限定されない。例えば、検出部は、感圧センサ、電磁誘導方式のセンサ、または、静電容量方式のセンサを含んでもよい。例えば、検出部として、感圧センサが利用される場合には、ペンによる筆跡だけではなく、ペンによる筆圧も取得され得る。
 また、上記では、入力装置200のID(ペンID)が、Bluetooth(登録商標)によって通信される場合を主に説明した。しかし、入力装置200のID(ペンID)は、他の通信方式によって通信されてもよい。例えば、入力装置200のID(ペンID)は、Wi-Fi(登録商標)、Zigbee(登録商標)、赤外線通信、または、超音波通信を用いて、通信されてもよい。
 また、上記では、撮像用デバイスとしてカメラが用いられる場合を主に説明した。しかし、撮像用デバイスとしてカメラ以外の装置が用いられてもよい。例えば、撮像用デバイスとして、二次元PSD(Position Sensitive Device)などが用いられてもよい。
 [1.4.効果]
 ここでは、本技術が奏する効果について述べる。
 一般には、複数のペンそれぞれを識別するために、ペン側に識別のためのハードウェア的な仕組みを組み込む必要がある。この場合、個々のペンの実装を変える必要があるため、コストが高くなるだけでなく、ユーザ側も異なる仕様の複数のペンを購入する必要があるため、複数のユーザがペンを持ち合って利用しようとした場合にも、ペン同士で仕様が競合してしまった場合には、複数のユーザによってペンが利用され得ないといった欠点があった。
 本技術が用いられた場合には、同じ仕様のペンを利用してペンを識別することが可能であり、生産コストの低下だけでなく、複数のユーザがペンを持ち合って利用しようとする場合であっても、ペンの仕様の制約を排除することができる。また、ハードウェア的な個別の対応が必要ないため、原理的には無限本数のペンを識別することが可能である。学校において複数のユーザによって書き込みが行われる場合のように、大人数(例えば、数十人)が大きなスクリーンに書き込む場合などにも、本技術の優位性が発揮される。
 [1.5.拡張機能の例]
 ここでは、本技術に適用可能な拡張機能の例について述べる。上記したように、入力装置200と情報処理装置100との間においては、双方向通信が可能である場合を主に想定している。かかる場合には、情報処理装置100によって管理されている入力装置200(ペン)の状態情報を、入力装置200(ペン)側にフィードバックすることによって、入力装置200(ペン)は、入力装置200(ペン)の状態情報をユーザに提示することが可能である。
 より具体的に、情報処理装置100の発光制御部131は、入力装置200(ペン)の図示しない提示部によって、入力装置200(ペン)の状態情報に応じた提示が実行されるように制御する提示制御部として機能してよい。ここでは、入力装置200(ペン)の図示しない提示部は、IR LED210とは異なる状態提示用のLEDである場合を想定するが、入力装置200(ペン)の図示しない提示部は、状態提示用のLEDに限定されず、スピーカなどであってもよい。
 状態情報は、特に限定されないが、ペアリング状態を示す情報であってもよい。このとき、状態情報は、発光指示の出力前(すなわち、不定状態(S1))、発光指示の出力後かつ発光位置情報の取得前(すなわち、輝点の検出中(S3))、発光位置情報とBT IDとが紐付けられた状態(すなわち、ペアリング完了状態(S4))の少なくともいずれか一つを含んでよい。また、状態情報は、発光位置情報が取得されない時間が第2の時間を超えて継続した場合(すなわち、入力装置のロスト状態(S6))を含んでもよい。
 また、状態情報に応じた提示は、どのようになされてもよい。例えば、状態情報に応じた提示が、状態提示用のLEDによってなされる場合には、状態情報に応じた提示は、状態提示用のLEDの点滅パターンによって実行されてもよい。あるいは、状態情報に応じた提示は、状態提示用のLEDの色によって実行されてもよい。
 図9は、ペアリング状態の提示例を示す図である。図9には、ペアリング状態の例として、輝点の検出中(S3)、ペアリング完了状態(S4)、入力装置のロスト状態(S6)、不定状態(S1)が示されている。また、図9の上端には、ペアリング状態に応じて、状態提示用のLEDの点滅パターンを変更する場合が示されている。一方、図9の下端には、ペアリング状態に応じて、状態提示用のLEDの色を変更する場合が示されている。なお、点滅パターンおよび色は、単独で用いられてもよいし、組み合わされて用いられてもよい。
 また、例えば、ユーザは、入力装置200(ペン)を用いた描画のために、アプリケーションとして筆跡に関する情報(例えば、筆跡の色、太さ、カスレなど)を選択可能であってもよい。このとき、処理部133は、入力装置200(ペン)の発光位置情報が取得された場合、発光位置情報とBT IDと入力装置200(ペン)の筆跡に関する情報とを紐付けてもよい。そして、状態情報は、筆跡に関する情報であってもよく、状態情報に応じた提示は、状態提示用のLEDの点滅パターンによって実行されてもよいし、状態提示用のLEDの色によって実行されてもよい。
 図10および図11は、筆跡に関する情報の提示例を示す図である。図10および図11には、筆跡に関する情報に応じた提示が状態提示用のLEDの色によって実行される場合が示されている。状態S11~S14、状態S21~S27、状態S31~S32に示されるように、パレット上において入力装置200(ペン)によって色選択が実行されると、BTによる通信機能によって色情報が情報処理装置100から入力装置200(ペン)に送信され、入力装置200(ペン)において、色情報を受信すると、受信した色情報に基づいて、状態提示用のLEDを発光させることが可能である。
 [1.6.応用例]
 ここでは、本技術の応用例について述べる。本技術はペン以外のデバイスにも応用可能である。すなわち、任意空間において、空間座標検出機能と通信機能とを併せ持つコントローラ形式のデバイスが利用可能であれば、そのデバイスの3次元座標と任意の通信コネクションとをペアリングすることによって、そのデバイスを上記したペンと同様に入力装置として扱うことが可能である。
 図12~図17は、本技術の応用例を示す図である。図12を参照すると、ユーザU10とユーザU20とがゲームをプレイしている。ユーザU10は、ディスプレイD10を装着し、AR/VRコントローラの例として銃J10を持っている。また、ユーザU20は、ディスプレイD20を装着し、AR/VRコントローラの例として銃J20を持っている。例えば、銃J10および銃J20それぞれに、上記した入力装置200(ペン)が有するような、IR LEDと通信機能とを持たせ、IR LEDを検出するためのカメラを環境に設けることによって、銃J10および銃J20が識別可能となる。
 図13を参照すると、道路を車M10と車M20とが走行している。例えば、車M10および車M20それぞれに、上記した入力装置200(ペン)が有するような、IR LEDと通信機能とを持たせ、IR LEDを検出するためのカメラ(例えば、車が走行する道路を俯瞰的に撮像するカメラ)を環境に設けることによって、車M10および車M20が識別可能となる。車M10および車M20それぞれに、前面投影プロジェクタ(あるいはARグラスなど)が搭載されていれば、前面投影プロジェクタへの表示映像によって、他方の車に対する攻撃エフェクトやパワーアップエフェクトなどの効果が演出され得る。
 図14を参照すると、道路を車M30と車M40とが走行している。例えば、車M30および車M40それぞれに、上記した入力装置200(ペン)が有するような、IR LEDと通信機能とを持たせ、IR LEDを検出するためのカメラ(例えば、車が走行する道路を俯瞰的に撮像するカメラ)を環境に設けることによって、車M30および車M40が識別可能となる。車M30および車M40それぞれに、前面投影プロジェクタ(あるいはARグラスなど)が搭載されていれば、前面投影プロジェクタへの表示映像によって、車の映像が表示される他、攻撃エフェクトやパワーアップエフェクトなどの効果が演出され得る。
 図15を参照すると、ユーザがボルダリングをプレイしている。例えば、コース背景やキャラクタに関係したエフェクトにより、一部のホールドが利用できないエフェクトが発生されてよい。情報処理装置100は、手足に付けたバンド型コントローラB10~B40(上記のようにペアリングされたコントローラ)により、そのホールドが利用されたことを認識し、触覚フィードバックなどをユーザに提示することにより、ダメージ表現をおこなってよい。
 また、図16を参照すると、複数のユーザがボルダリングをプレイしている。情報処理装置100は、各ユーザが手足に付けたバンド型コントローラB51~B54、B61~B64(上記のようにペアリングされたコントローラ)により、複数のユーザを識別し、各ユーザが登った場所を陣取りゲームのように識別してもよい。この場合、どちらのユーザが陣を取ったのかを認識する必要があるため、両手・両足の計4点をユーザ1名の手足として認識する必要がある。このため、ペアリングができた時点で、両手・両足のIDの組み合わせがどのユーザのIDかを事前に登録する。例えば、ペアリングされたIDから4点を選択してユーザとして登録するGUIを準備することが想定される。
 図17を参照すると、複数の個体群R10(個体R11、R12、R13、・・・)が集団として行動している。個体は、図17に示されるように、ロボットであってもよいし、ドローンなどの他の機器であってもよいし、人間などの生物であってもよい。例えば、個体群R10を構成する各個体に、上記した入力装置200(ペン)が有するような、IR LEDと通信機能とを持たせ、IR LEDを検出するためのカメラを環境に設けることによって、個体群R10を構成する各個体が識別可能となる。
 [1.7.ハードウェア構成例]
 次に、図18を参照して、本開示の実施形態に係る情報処理装置100のハードウェア構成について説明する。図18は、本開示の実施形態に係る情報処理装置100のハードウェア構成例を示すブロック図である。
 図18に示すように、情報処理装置100は、CPU(Central Processing unit)801、ROM(Read Only Memory)803、およびRAM(Random Access Memory)805を含む。また、情報処理装置100は、ホストバス807、ブリッジ809、外部バス811、インターフェース813、ストレージ装置819、ドライブ821、接続ポート823、通信装置825を含んでもよい。情報処理装置100は、CPU801に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
 CPU801は、演算処理装置および制御装置として機能し、ROM803、RAM805、ストレージ装置819、またはリムーバブル記録媒体827に記録された各種プログラムに従って、情報処理装置100内の動作全般またはその一部を制御する。ROM803は、CPU801が使用するプログラムや演算パラメータなどを記憶する。RAM805は、CPU801の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU801、ROM803、およびRAM805は、CPUバスなどの内部バスにより構成されるホストバス807により相互に接続されている。さらに、ホストバス807は、ブリッジ809を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス811に接続されている。
 ストレージ装置819は、情報処理装置100の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置819は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置819は、CPU801が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
 ドライブ821は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体827のためのリーダライタであり、情報処理装置100に内蔵、あるいは外付けされる。ドライブ821は、装着されているリムーバブル記録媒体827に記録されている情報を読み出して、RAM805に出力する。また、ドライブ821は、装着されているリムーバブル記録媒体827に記録を書き込む。
 接続ポート823は、機器を情報処理装置100に直接接続するためのポートである。接続ポート823は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート823は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート823に外部接続機器829を接続することで、情報処理装置100と外部接続機器829との間で各種のデータが交換され得る。
 通信装置825は、例えば、ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置825は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置825は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置825は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置825に接続されるネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
 <2.むすび>
 以上説明したように、本開示の実施形態によれば、第1の入力装置から第1の識別情報が受信された場合、前記第1の入力装置に対して第1の発光指示が出力されるように制御する発光制御部と、前記第1の入力装置の第1の発光部によって発光された位置を示す第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報とを紐付ける処理部と、を備える、情報処理装置が提供される。かかる構成によれば、コストを低減しつつ、入力装置を識別することが可能な技術が提供される。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 第1の入力装置から第1の識別情報が受信された場合、前記第1の入力装置に対して第1の発光指示が出力されるように制御する発光制御部と、
 前記第1の入力装置の第1の発光部によって発光された位置を示す第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報とを紐付ける処理部と、
 を備える、情報処理装置。
(2)
 前記処理部は、前記第1の発光指示の出力から第1の時間内に、前記第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報とを紐付ける、
 前記(1)に記載の情報処理装置。
(3)
 前記発光制御部は、前記第1の発光指示の出力から前記第1の時間内に、前記第1の発光位置情報が取得されなかった場合、前記第1の入力装置に対して発光停止指示が出力されるように制御する、
 前記(2)に記載の情報処理装置。
(4)
 前記発光制御部は、前記第1の識別情報が受信されてから第2の時間内に、前記第1の入力装置とは異なる第2の入力装置から第2の識別情報が受信された場合、前記第1の識別情報が受信されてから前記第2の時間が経過した後に、前記第2の入力装置に対して第2の発光指示が出力されるように制御する、
 前記(3)に記載の情報処理装置。
(5)
 前記処理部は、前記第2の発光指示の出力から第3の時間内に、前記第2の入力装置の第2の発光部によって発光された位置を示す第2の発光位置情報が取得された場合、前記第2の発光位置情報と前記第2の識別情報とを紐付ける、
 前記(4)に記載の情報処理装置。
(6)
 前記処理部は、前記第1の発光位置情報の取得後に前記第1の発光位置情報が取得されない時間が第4の時間を超えて継続した場合、前記第1の入力装置に対して発光停止指示が出力されるように制御する、
 前記(1)~(5)のいずれか一項に記載の情報処理装置。
(7)
 前記情報処理装置は、前記第1の入力装置の提示部によって、前記第1の入力装置の状態情報に応じた提示が実行されるように制御する提示制御部を備える、
 前記(1)~(6)のいずれか一項に記載の情報処理装置。
(8)
 前記状態情報は、前記第1の発光指示の出力前、前記第1の発光指示の出力後かつ前記第1の発光位置情報の取得前、前記第1の発光位置情報と前記第1の識別情報とが紐付けられた状態の少なくともいずれか一つを含む、
 前記(7)に記載の情報処理装置。
(9)
 前記提示は、LEDの点滅パターンまたは前記LEDの色によって実行される、
 前記(7)または(8)に記載の情報処理装置。
(10)
 前記情報処理装置は、前記第1の入力装置の提示部によって、前記第1の入力装置の筆跡に関する情報に応じた提示が実行されるように制御する提示制御部を備える、
 前記(1)~(6)のいずれか一項に記載の情報処理装置。
(11)
 前記処理部は、撮像画像に基づいて前記第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報とを紐付ける、
 前記(1)~(10)のいずれか一項に記載の情報処理装置。
(12)
 前記第1の入力装置は、ペン型の入力装置である、
 前記(1)~(11)のいずれか一項に記載の情報処理装置。
(13)
 前記処理部は、前記第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報と前記第1の入力装置の筆跡に関する情報とを紐付ける、
 前記(1)~(12)のいずれか一項に記載の情報処理装置。
(14)
 前記第1の発光部は、赤外光LEDまたは可視光LEDである、
 前記(1)~(13)のいずれか一項に記載の情報処理装置。
(15)
 前記第1の入力装置の検出部によって、所定の操作が検出された場合に、前記第1の入力装置から前記第1の識別情報が送信される、
 前記(1)~(14)のいずれか一項に記載の情報処理装置。
(16)
 前記検出部は、スイッチ、感圧センサ、電磁誘導方式のセンサ、または、静電容量方式のセンサを含む、
 前記(15)に記載の情報処理装置。
(17)
 前記第1の識別情報は、Bluetooth(登録商標)、Wi-Fi(登録商標)、Zigbee(登録商標)、赤外線通信、または、超音波通信を用いて、前記第1の入力装置から受信される、
 前記(1)~(16)のいずれか一項に記載の情報処理装置。
(18)
 第1の入力装置から第1の識別情報が受信された場合、前記第1の入力装置に対して第1の発光指示が出力されるように制御することと、
 プロセッサにより、前記第1の入力装置の第1の発光部によって発光された位置を示す第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報とを紐付けることと、
 を含む、情報処理方法。
(19)
 入力装置と情報処理装置とを有する情報処理システムであって、
 前記入力装置は、
 識別情報の送信を制御する制御部を備え、
 前記制御部は、前記入力装置から発光指示が受信された場合、発光部が発光するように制御し、
 前記情報処理装置は、
 前記識別情報が受信された場合、前記発光指示が出力されるように制御する発光制御部と、
 前記発光部によって発光された位置を示す発光位置情報が取得された場合、前記発光位置情報と前記識別情報とを紐付ける処理部と、
 を備える、情報処理システム。
(20)
 前記情報処理システムは、撮像装置を有し、
 前記処理部は、前記撮像装置による撮像画像に基づいて前記発光位置情報が取得された場合、前記発光位置情報と前記識別情報とを紐付ける、
 前記(19)に記載の情報処理システム。
 1   情報処理システム
 100 情報処理装置
 110 I/F部
 121 ID管理部
 122 通信管理部
 123 発光認識部
 124 座標変換部
 130 制御部
 131 発光制御部
 132 通信制御部
 133 処理部
 140 記憶部
 210 LED
 220 ペン先スイッチ
 230 CPU
 240 通信モジュール
 300 カメラ
 400 出力装置
 410 プロジェクタ
 430 タブレット
 440 スマートフォン

Claims (20)

  1.  第1の入力装置から第1の識別情報が受信された場合、前記第1の入力装置に対して第1の発光指示が出力されるように制御する発光制御部と、
     前記第1の入力装置の第1の発光部によって発光された位置を示す第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報とを紐付ける処理部と、
     を備える、情報処理装置。
  2.  前記処理部は、前記第1の発光指示の出力から第1の時間内に、前記第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報とを紐付ける、
     請求項1に記載の情報処理装置。
  3.  前記発光制御部は、前記第1の発光指示の出力から前記第1の時間内に、前記第1の発光位置情報が取得されなかった場合、前記第1の入力装置に対して発光停止指示が出力されるように制御する、
     請求項2に記載の情報処理装置。
  4.  前記発光制御部は、前記第1の識別情報が受信されてから第2の時間内に、前記第1の入力装置とは異なる第2の入力装置から第2の識別情報が受信された場合、前記第1の識別情報が受信されてから前記第2の時間が経過した後に、前記第2の入力装置に対して第2の発光指示が出力されるように制御する、
     請求項3に記載の情報処理装置。
  5.  前記処理部は、前記第2の発光指示の出力から第3の時間内に、前記第2の入力装置の第2の発光部によって発光された位置を示す第2の発光位置情報が取得された場合、前記第2の発光位置情報と前記第2の識別情報とを紐付ける、
     請求項4に記載の情報処理装置。
  6.  前記処理部は、前記第1の発光位置情報の取得後に前記第1の発光位置情報が取得されない時間が第4の時間を超えて継続した場合、前記第1の入力装置に対して発光停止指示が出力されるように制御する、
     請求項1に記載の情報処理装置。
  7.  前記情報処理装置は、前記第1の入力装置の提示部によって、前記第1の入力装置の状態情報に応じた提示が実行されるように制御する提示制御部を備える、
     請求項1に記載の情報処理装置。
  8.  前記状態情報は、前記第1の発光指示の出力前、前記第1の発光指示の出力後かつ前記第1の発光位置情報の取得前、前記第1の発光位置情報と前記第1の識別情報とが紐付けられた状態の少なくともいずれか一つを含む、
     請求項7に記載の情報処理装置。
  9.  前記提示は、LEDの点滅パターンまたは前記LEDの色によって実行される、
     請求項7に記載の情報処理装置。
  10.  前記情報処理装置は、前記第1の入力装置の提示部によって、前記第1の入力装置の筆跡に関する情報に応じた提示が実行されるように制御する提示制御部を備える、
     請求項1に記載の情報処理装置。
  11.  前記処理部は、撮像画像に基づいて前記第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報とを紐付ける、
     請求項1に記載の情報処理装置。
  12.  前記第1の入力装置は、ペン型の入力装置である、
     請求項1に記載の情報処理装置。
  13.  前記処理部は、前記第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報と前記第1の入力装置の筆跡に関する情報とを紐付ける、
     請求項1に記載の情報処理装置。
  14.  前記第1の発光部は、赤外光LEDまたは可視光LEDである、
     請求項1に記載の情報処理装置。
  15.  前記第1の入力装置の検出部によって、所定の操作が検出された場合に、前記第1の入力装置から前記第1の識別情報が送信される、
     請求項1に記載の情報処理装置。
  16.  前記検出部は、スイッチ、感圧センサ、電磁誘導方式のセンサ、または、静電容量方式のセンサを含む、
     請求項15に記載の情報処理装置。
  17.  前記第1の識別情報は、Bluetooth(登録商標)、Wi-Fi(登録商標)、Zigbee(登録商標)、赤外線通信、または、超音波通信を用いて、前記第1の入力装置から受信される、
     請求項1に記載の情報処理装置。
  18.  第1の入力装置から第1の識別情報が受信された場合、前記第1の入力装置に対して第1の発光指示が出力されるように制御することと、
     プロセッサにより、前記第1の入力装置の第1の発光部によって発光された位置を示す第1の発光位置情報が取得された場合、前記第1の発光位置情報と前記第1の識別情報とを紐付けることと、
     を含む、情報処理方法。
  19.  入力装置と情報処理装置とを有する情報処理システムであって、
     前記入力装置は、
     識別情報の送信を制御する制御部を備え、
     前記制御部は、前記入力装置から発光指示が受信された場合、発光部が発光するように制御し、
     前記情報処理装置は、
     前記識別情報が受信された場合、前記発光指示が出力されるように制御する発光制御部と、
     前記発光部によって発光された位置を示す発光位置情報が取得された場合、前記発光位置情報と前記識別情報とを紐付ける処理部と、
     を備える、情報処理システム。
  20.  前記情報処理システムは、撮像装置を有し、
     前記処理部は、前記撮像装置による撮像画像に基づいて前記発光位置情報が取得された場合、前記発光位置情報と前記識別情報とを紐付ける、
     請求項19に記載の情報処理システム。
PCT/JP2018/035490 2017-12-27 2018-09-25 情報処理装置、情報処理方法および情報処理システム WO2019130696A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US16/956,161 US11402932B2 (en) 2017-12-27 2018-09-25 Information processing device, information processing method, and information processing system
CN201880082579.7A CN111512275B (zh) 2017-12-27 2018-09-25 信息处理装置、信息处理方法和信息处理***
EP18897540.3A EP3734422B1 (en) 2017-12-27 2018-09-25 Information processing device, information processing method, and information processing system
CA3085906A CA3085906A1 (en) 2017-12-27 2018-09-25 Information processing device, information processing method, and information processing system
JP2019562759A JP7230829B2 (ja) 2017-12-27 2018-09-25 情報処理装置、情報処理方法および情報処理システム
KR1020207016481A KR102511791B1 (ko) 2017-12-27 2018-09-25 정보 처리 장치, 정보 처리 방법 및 정보 처리 시스템

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017250391 2017-12-27
JP2017-250391 2017-12-27

Publications (1)

Publication Number Publication Date
WO2019130696A1 true WO2019130696A1 (ja) 2019-07-04

Family

ID=67063454

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/035490 WO2019130696A1 (ja) 2017-12-27 2018-09-25 情報処理装置、情報処理方法および情報処理システム

Country Status (7)

Country Link
US (1) US11402932B2 (ja)
EP (1) EP3734422B1 (ja)
JP (1) JP7230829B2 (ja)
KR (1) KR102511791B1 (ja)
CN (1) CN111512275B (ja)
CA (1) CA3085906A1 (ja)
WO (1) WO2019130696A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11836300B2 (en) 2020-01-09 2023-12-05 Sony Group Corporation Information processing apparatus and information processing method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023142263A (ja) * 2022-03-24 2023-10-05 富士フイルム株式会社 指示装置、画像生成装置、描画システム、通信方法、及び通信プログラム
JP2024043321A (ja) * 2022-09-16 2024-03-29 株式会社東芝 軌跡入力システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006189706A (ja) * 2005-01-07 2006-07-20 Fujinon Corp ライトペン
JP2008077168A (ja) * 2006-09-19 2008-04-03 Fuji Xerox Co Ltd 筆記情報処理システム、筆記情報生成装置およびプログラム
JP2014230034A (ja) * 2013-05-21 2014-12-08 シャープ株式会社 電子情報機器およびその操作権制限方法
JP2016018455A (ja) 2014-07-09 2016-02-01 キヤノン株式会社 座標入力装置及びその制御方法、コンピュータプログラム
JP2016066521A (ja) * 2014-09-25 2016-04-28 国立研究開発法人産業技術総合研究所 イベント用発光装置及び該装置を用いた情報処理システム
JP2017098268A (ja) * 2017-01-30 2017-06-01 株式会社東芝 同定装置
JP2018132799A (ja) * 2017-02-13 2018-08-23 Necディスプレイソリューションズ株式会社 電子黒板システム、電子ペン、表示装置及び電子ペン位置検出方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441539B (zh) * 2008-12-30 2013-06-12 华为终端有限公司 电子白板***、输入装置、处理装置及处理方法
JP2011239319A (ja) * 2010-05-13 2011-11-24 Panasonic Corp 遠隔指示送受信システム
TW201349029A (zh) * 2012-05-21 2013-12-01 Everest Display Inc 具光點辨識之互動投影系統以及控制方法
GB2508840B (en) 2012-12-12 2015-10-21 Modular Software Ltd T A Reflective Thinking Method and apparatus for tracking the movement of a plurality of pointer devices within a scene
JP2017117312A (ja) * 2015-12-25 2017-06-29 株式会社リコー 情報処理装置、情報入力システム、情報処理方法およびプログラム
KR102451687B1 (ko) * 2016-02-19 2022-10-07 삼성전자주식회사 디바이스 대 디바이스 방식을 지원하는 통신 시스템에서 위치 검출 장치 및 방법
US11258880B2 (en) * 2019-06-24 2022-02-22 Amazon Technologies, Inc. Wearable device for controlling endpoint devices

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006189706A (ja) * 2005-01-07 2006-07-20 Fujinon Corp ライトペン
JP2008077168A (ja) * 2006-09-19 2008-04-03 Fuji Xerox Co Ltd 筆記情報処理システム、筆記情報生成装置およびプログラム
JP2014230034A (ja) * 2013-05-21 2014-12-08 シャープ株式会社 電子情報機器およびその操作権制限方法
JP2016018455A (ja) 2014-07-09 2016-02-01 キヤノン株式会社 座標入力装置及びその制御方法、コンピュータプログラム
JP2016066521A (ja) * 2014-09-25 2016-04-28 国立研究開発法人産業技術総合研究所 イベント用発光装置及び該装置を用いた情報処理システム
JP2017098268A (ja) * 2017-01-30 2017-06-01 株式会社東芝 同定装置
JP2018132799A (ja) * 2017-02-13 2018-08-23 Necディスプレイソリューションズ株式会社 電子黒板システム、電子ペン、表示装置及び電子ペン位置検出方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11836300B2 (en) 2020-01-09 2023-12-05 Sony Group Corporation Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JPWO2019130696A1 (ja) 2020-12-17
EP3734422B1 (en) 2023-11-01
US20210117015A1 (en) 2021-04-22
EP3734422A1 (en) 2020-11-04
CN111512275A (zh) 2020-08-07
KR102511791B1 (ko) 2023-03-21
EP3734422A4 (en) 2021-01-27
US11402932B2 (en) 2022-08-02
KR20200100056A (ko) 2020-08-25
CA3085906A1 (en) 2019-07-04
JP7230829B2 (ja) 2023-03-01
CN111512275B (zh) 2024-05-31

Similar Documents

Publication Publication Date Title
CN107003739B (zh) 对接***
WO2019130696A1 (ja) 情報処理装置、情報処理方法および情報処理システム
JP6968154B2 (ja) 制御システムならびに制御処理方法および装置
US8380246B2 (en) Connecting mobile devices via interactive input medium
JP5826408B2 (ja) ジェスチャー・コントロールのための方法、ジェスチャー・サーバ・デバイス、およびセンサ入力デバイス
US10096165B2 (en) Technologies for virtual camera scene generation using physical object sensing
CN105850148A (zh) 视频传输和显示***
WO2014073346A1 (ja) 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体
TWI557646B (zh) 電子白板系統、電子書寫筆及電子書寫方法
JP6000929B2 (ja) 情報処理装置
CN106537280A (zh) 交互式镜子
EP3103527B1 (en) Information processing device and assignment method for input device
US11019162B2 (en) System and method for provisioning a user interface for sharing
TW201349029A (zh) 具光點辨識之互動投影系統以及控制方法
CN106462251A (zh) 显示控制设备、显示控制方法以及程序
WO2018109876A1 (ja) 表示装置、電子黒板システム及びユーザーインターフェース設定方法
US10262278B2 (en) Systems and methods for identification and interaction with electronic devices using an augmented reality device
KR102169626B1 (ko) 입력 장치의 판별 기능을 갖춘 컴퓨터 입력 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18897540

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019562759

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3085906

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018897540

Country of ref document: EP

Effective date: 20200727