WO2016174784A1 - 制御装置および表示装置 - Google Patents

制御装置および表示装置 Download PDF

Info

Publication number
WO2016174784A1
WO2016174784A1 PCT/JP2015/075258 JP2015075258W WO2016174784A1 WO 2016174784 A1 WO2016174784 A1 WO 2016174784A1 JP 2015075258 W JP2015075258 W JP 2015075258W WO 2016174784 A1 WO2016174784 A1 WO 2016174784A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
display device
display surface
display
operation data
Prior art date
Application number
PCT/JP2015/075258
Other languages
English (en)
French (fr)
Inventor
能央 高田
友和 宮澤
敏晴 楠本
丸山 一人
健太郎 植村
裕規 伊藤
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to JP2017515357A priority Critical patent/JP6461322B2/ja
Publication of WO2016174784A1 publication Critical patent/WO2016174784A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Definitions

  • a control device is a control device that controls a display device including a display surface, and is displayed on the display surface for moving the display surface.
  • An operation data generation unit that generates operation data corresponding to the video to be transmitted, and the operation data generated by the operation data generation unit is transmitted to the display device, and the operation mechanism of the display surface is operated in accordance with the operation data.
  • a data transmission unit that causes the display device to execute control for moving the display surface.
  • a display device is a display device including a display surface in order to solve the above-described problem, and according to an image displayed on the display surface for moving the display surface.
  • Operation data acquisition unit for acquiring the operation data from the control device that controls the operation of the display device, and when the video is displayed on the display surface, the operation mechanism of the display surface is operated according to the operation data.
  • an operation control unit that moves the display surface.
  • a display device responds to a display surface, a display control unit that displays an image on the display surface, and an image displayed by the display control unit. And an operation control unit that moves the display surface.
  • FIG. 1 It is a block diagram which shows the principal part structure of the display part operation
  • FIG. 1 is a block diagram showing a main configuration of the display unit operation system according to the present embodiment.
  • the display unit operation system according to the present embodiment includes a display device 1A, a communication terminal (control device) 2A, a communication terminal (control device) 2B, and a display device 1B.
  • the display device 1A and the communication terminal 2A are communicatively connected via, for example, BLE (Bluetooth (registered trademark) Low energy).
  • BLE Bluetooth (registered trademark) Low energy
  • a communication method between the display device 1A and the communication terminal 2A is not particularly limited, and short-distance wireless communication connection or wired communication connection may be performed as in the above example.
  • the communication connection between the display device 1B and the communication terminal 2B is the same as the communication connection between the display device 1A and the communication terminal 2A.
  • the display device 1 includes a control unit 10, a storage unit 11, a communication unit 12, an output unit 70, and an input unit 80.
  • the storage unit 11 stores various data used by the display device 1.
  • the communication unit 12 is used for the display device 1A to communicate with another device (here, the communication terminal 2A). For example, the communication unit 12 receives video data, audio data, operation data corresponding to the video data, and the like from the communication terminal 2 ⁇ / b> A, and transmits the received data to the operation data acquisition unit 104 of the control unit 10.
  • the communication unit 12 transmits data to the communication terminal 2 ⁇ / b> A according to instructions from the video transmission unit 102 and the operation data transmission unit 103.
  • the person detection unit 101 detects a person around the display device 1. More specifically, the person detection unit 101 detects a person within the shooting range of the shooting unit 15 by analyzing image data shot by the shooting unit 15 described later. Further, the person detection unit 101 calculates the distance from the display device 1 to the detected person by analyzing the image data. An example of the operation using the human detection unit 101 will be described later with reference to FIGS. 11 and 12.
  • the video transmission unit 102 receives the video data captured by the imaging unit 15 and transmits it to the communication terminal 2 via the communication unit 12. An example of the operation using the video transmission unit 102 will be described later with reference to FIGS.
  • the operation data transmission unit 103 transmits operation data indicating the movement of the display surface of the display device 1 to an external device, and thereby the display surface of the other display device 1 is interlocked with the movement of the display surface of the display device 1. To move.
  • the operation data may be finally received by another display device 1 and may be transmitted directly to another display device 1 or may be transmitted via another device such as the communication terminal 2. Good.
  • the operation data transmission unit 103 receives sensing data indicating the movement of the display surface of the display device 1 from the sensor unit 16 described later. Then, this data is used as operation data as it is, or converted into a data format that can be used for control of the operation mechanism 19 to generate operation data, and is connected to an external device (communication terminal 2A in this example) via the communication unit 12.
  • the display control unit 105 causes the display unit 17 to display and output the video data received from the operation data acquisition unit 104. Further, the voice control unit 106 causes the voice output unit 18 to output the voice data received from the operation data acquisition unit 104 as a voice.
  • the operation control unit 107 moves the display surface of the display unit 17 according to the video displayed by the display control unit 105. Specifically, the operation control unit 107 operates the operation mechanism 19 according to the operation data corresponding to the video received from the operation data acquisition unit 104 when the video is displayed on the display surface of the display unit 17. As a result, the display surface of the display unit 17 is moved.
  • the display device 1 includes a display unit 17, an audio output unit 18, and an operation mechanism 19 as the output unit 70.
  • the display unit 17 displays an image according to the control of the control unit 10, and the sound output unit 18 outputs sound according to the control of the control unit 10.
  • the display device 1 includes a voice input unit 13, an input operation detection unit 14, a photographing unit 15, and a sensor unit 16 as the input unit 80.
  • the voice input unit 13 receives voice input to the display device 1, converts the received voice into a signal, and outputs the signal to the control unit 10.
  • the input operation detection unit 14 detects a user input operation on the display device 1 and may be, for example, a touch panel.
  • the photographing unit 15 photographs a video (still image or moving image) outside the display device 1 and outputs video data obtained by the photographing to the control unit 10.
  • the photographing unit 15 may be a camera, for example.
  • the sensor unit 16 detects the movement of the display device 1 (the movement of the display surface) and outputs operation data indicating the detected movement to the control unit 10 and includes one or more sensors. The sensor unit 16 only needs to detect the movement of the display surface and output sensing data indicating the movement.
  • the sensor unit 16 may include an acceleration sensor and a gyro sensor.
  • the configuration of the communication terminal 2A will be described.
  • the communication terminals 2A and 2B have the same configuration, and when it is not particularly necessary to distinguish between them, both are denoted as the communication terminal 2.
  • the communication terminal 2 acquires operation data corresponding to the video displayed on the display device 1 and transmits it to the display device 1 so that the display surface of the display device 1 moves according to the video displayed.
  • the communication terminal 2 includes a control unit 20, a storage unit 21, a first communication unit 22, and a second communication unit 23.
  • the control unit 20 controls the respective units of the communication terminal 2 and includes a terminal-side operation data acquisition unit 121, a data transmission unit 122, an operation data generation unit 123, and a communication control unit 124.
  • the data transmission unit 122 transmits various data to the display device 1. Specifically, the data transmission unit 122 transmits video data to be displayed on the display device 1, audio data to be output to the display device 1, and operation data acquired by the terminal side operation data acquisition unit 121 to a second communication unit described later. 23 to the display device 1 via The operation data to be transmitted to the display device 1 may be transmitted as an operation command including a command for instructing an operation based on the data in addition to the data indicating the movement of the display surface.
  • the motion data generation unit 123 analyzes the video displayed by the display device 1 and generates motion data corresponding to the analysis result, that is, motion data corresponding to the video. Then, the generated operation data is transmitted to the terminal-side operation data acquisition unit 121. A method for generating operation data will be described later.
  • the communication control unit 124 performs control related to communication via the first communication unit 22 described later.
  • the communication control unit 124 of the communication terminal 2A performs control related to communication with the communication terminal 2B.
  • the communication control unit 124 performs video and audio relay processing during communication (so-called videophone call) in which both video and audio are exchanged in real time between the communication terminals 2A and 2B.
  • the first communication unit 22 is for the communication terminal 2 to communicate with other devices.
  • the communication terminal 2A wirelessly communicates with the communication terminal 2B via the first communication unit 22 and the communication network.
  • the communication control unit 124 controls communication via the first communication unit 22.
  • FIG. 2 is a diagram illustrating an example of the appearance of the display device 1.
  • the display device 1 shown in FIGS. 4A and 4B has a configuration in which a display unit 17 is provided in a spherical housing 3. More specifically, the housing 3 has a spherical shape with a part missing, and the display surface of the display unit 17 is located in the lacked part. In other words, a circular display surface is positioned on the cut plane portion of the casing 3 having a shape obtained by cutting a part of the sphere with a plane.
  • the display surface of the display device 1 faces an arbitrary direction. As shown to (a) and (b), it will be in the state which a display surface faces diagonally upward. Hereinafter, this state is referred to as a reference state. That is, the display device 1 is moved to the reference state by moving the display surface from the time of startup until the start of video display.
  • the vertical direction of the display unit 17 (the vertical direction of the video to be displayed) is fixed, the display surface may be moved so that the upper end of the display unit 17 is on the uppermost side.
  • the display direction of the video may be adjusted after setting the reference state.
  • the image may be displayed in a state other than the reference state, and the display surface may be moved. For example, after displaying an image, you can move the display surface horizontally, rotate the display surface while displaying the image in a horizontal state, or return the display surface to horizontal after raising the display surface. is there.
  • FIG. 3 is a diagram illustrating an example of how to move the display surface according to the video.
  • the left side of the figure shows an image
  • the right side across the arrow shows an example of the movement of the display device 1 (display surface) corresponding to the image.
  • the operation control unit 107 of the display device 1 operates the operation mechanism 19 using the operation data corresponding to the movement on the right side of FIG. As shown, the movement of the display surface in conjunction with the video is realized.
  • the display surface when a person in the video nods, the display surface may be moved to imitate the movement of the head of the person in the video. In the illustrated example, the display surface is also moved to fall forward in accordance with the movement of falling forward of the head of the nodding person. As a result, it is possible to emphasize and convey the nodding motion of the person in the video.
  • the motion control unit 107 may move the display surface according to the movement of a predetermined object in the video.
  • a predetermined object in the example of (a) in the figure, the head of the person, and in the examples of (c) and (d), the black eye part of the person is a predetermined object.
  • This predetermined object is a predetermined range in the video.
  • the present invention is not limited to these examples.
  • the entire body of a person in the video may be an object, and the display surface may be moved according to the movement. In this case, if the person in the video moves to the right, the display surface is also moved to the right. May be.
  • the predetermined object may be an animal other than a human or an object (non-living). Further, it may be a virtual object such as an animated character.
  • the display surface may be moved according to the facial expression of the person in the video.
  • the display surface when a smiley expression is obtained, the display surface is moved in a circular motion clockwise and counterclockwise as viewed from directly above.
  • the motion control unit 107 may move the display surface with a movement associated with the facial expression in advance.
  • the predetermined facial expression is not limited to smile, and the movement associated with the facial expression is not particularly limited.
  • the movement associated with the facial expression is preferably a movement that matches the facial expression image.
  • the movement to be associated is a gentle swing, and for an expression based on intense emotions such as anger, the movement to be associated is also a strong movement (the width of the rocking).
  • the object whose facial expression is to be detected may be a character such as an animation.
  • the display surface can be moved in accordance with the image, but it is preferable to move the display surface in the same pattern for images corresponding to the same emotion. For example, when it can be determined that the person is angry from the movement of the person in the video, when it can be determined that the person is angry from the facial expression, and when it can be determined that the person is angry from the utterance content, the above (f) It is preferable to move the display surface in the same pattern as the example. Thereby, it can be made to recognize that the movement of the pattern shows the feeling of anger, and the display apparatus 1 can give the feeling as if it has an emotion.
  • the predetermined emotion is not limited to anger.
  • the movement (movement pattern) associated with the emotion matches the emotion image, but there is no particular limitation on what movement is associated.
  • the emotion corresponding to the video may be specified from the scene being displayed if the video has a story.
  • the emotion of sadness is associated with a movement that makes the display face appear, a crying character is displayed, a person in the video is crying, and a sad scene is displayed.
  • the movement of the display surface may be determined in consideration of the output sound.
  • the movement pattern may be determined from the video, and the movement speed may be determined according to the tempo of the sound, the volume, and the like.
  • FIG. 4 is a diagram for explaining the operation of the display device 1 by the operation mechanism 19.
  • (A) of the figure shows an example of the structure of the operation mechanism 19.
  • the illustrated operating mechanism 19 includes a shaft 191, a motor 192, and a weight 193.
  • the axis perpendicular to the display surface is the Z axis
  • the axis parallel to the axis 191 and perpendicular to the Z axis is the Y axis
  • the axis perpendicular to the Z axis and the Y axis (the axis perpendicular to the paper surface) is the X axis. It is.
  • the shaft 191 supports the weight 193.
  • the shaft 191 is made of a linear rigid body, and a weight 193 is attached to the central portion in the longitudinal direction so as to be rotatable (pendulum motion is possible).
  • the weight 193 is attached so as to be rotatable on a ZY plane passing through the axis 191 (rotation around the X axis).
  • the shaft 191 is provided so as to pass through the center of the display device 1 (the center of the spherical housing 3). For this reason, the position used as the rotating shaft of the weight 193 attached to the center part in the longitudinal direction of the shaft 191 is located at the center of the sphere.
  • the motor 192 is connected to the rotating shaft of the weight 193, and by driving the motor 192, the weight 193 can be rotated in any direction around the X axis.
  • a rail that guides the shaft 191 is provided on the inner periphery of the housing 3, and the shaft 191 can be rotated along this rail by a motor (not shown). It is like that. More specifically, the shaft 191 can be driven in any direction around the Z axis without changing the position of the central portion of the longitudinal direction (position serving as the rotation axis of the weight 193) by driving a motor (not shown). It can be rotated.
  • the center of gravity of the display device 1 is moved and the display surface is tilted as in the illustrated example.
  • the display surface is tilted by moving the weight 193 (more precisely, the tip side portion from the rotation axis of the weight 193) to a position off the straight line passing through the rotation axis of the weight 193 and parallel to the Z axis.
  • the transition to the reference state described above can be realized by operating the operation mechanism 19 in this way.
  • the display surface can be swung back and forth as shown in (c) of the figure by swinging the weight 193 with the motor 192. Further, by rotating the shaft 191 90 degrees from the reference state and then swinging the weight 193 with the motor 192, the display surface can be swung left and right as shown in FIG. .
  • the swinging of the display surface refers to a movement of swinging the display surface. For example, the movement of reciprocating the display surface in the same or substantially the same trajectory, or the movement in the trajectory in which the center of the display surface draws a circle or an ellipse corresponds to the swing.
  • the display surface of the display device 1 can be moved in various patterns by combining the above-described X-axis rotation and Z-axis rotation. For example, by combining X-axis rotation and Z-axis rotation to move the center of gravity in a circular shape, the display surface can be rotated as shown in FIG.
  • the position of the display surface relative to the rotation axis when rotating the display surface is not particularly limited.
  • the display screen rotates about the axis (Z axis) perpendicular to the display surface. You may let them.
  • the direction of this rotation is not particularly limited, and as shown in (e) of the figure, rotational movements in different directions may be alternately repeated.
  • the data indicating the combination of the drive pattern of the motor 192 (the operation pattern of the weight 193) and the pattern for rotating the shaft 191 around the Z axis after the standard state is set as the operation data, thereby the display surface is changed. It can be moved in a desired pattern.
  • FIG. 5 is a diagram illustrating an example of use of the display device 1, and illustrates an example of operating the display device 1 using operation data of the imaging device 5.
  • a photographer wearing the photographing device 5 is photographing while skiing.
  • various sensors for example, an acceleration sensor and a gyro sensor
  • operation data indicating the movement of the photographing device 5 are externally attached or built in the photographing device 5.
  • the photographer can record the surrounding sound and record the operation (movement) of the photographing device 5 while photographing the video of the photographer's eyes.
  • the movement of the body part of the photographer holding the photographing device 5 may be recorded.
  • the movement may be recorded by attaching a sensor to the photographer's hand or arm.
  • the display surface can be moved in accordance with the movement of the photographing device 5, so that the user of the display device 1 can be given a sense of reality as if he / she became the photographing device 5.
  • the movement at a position away from the photographing apparatus 5 may be recorded.
  • the movement of the eyes of the photographer may be recorded, and in this case, the sensor may be held at a position away from the photographing device 5 (for example, the head of the photographer).
  • a camera that captures eye movement may be used instead of the acceleration sensor and the gyro sensor.
  • the display surface can be moved in accordance with the movement of the photographer's eyes, so that the user of the display device 1 can be given a sense of reality as if he / she photographed himself / herself.
  • the user watching the video on the display device 1 can feel a sense of reality as if he / she is moving (in this example, skiing).
  • the position of the display surface that is, the position where the image is displayed moves three-dimensionally due to the swinging of the display surface, it is possible to make the viewer of the image feel a three-dimensional effect.
  • the display device 1 may move the display surface in conjunction with the movement indicated by the acquired operation data, and it is not necessary to match the movement of the photographing device 5 with the movement of the display surface.
  • the display surface may be moved in the direction in which the photographing device 5 has moved, or may be moved in the direction opposite to the direction in which the photographing device 5 has moved.
  • the processing for generating the operation data from the sensing data may be performed by the photographing device 5 or the display device 1 or the communication terminal 2.
  • sensing data is acquired and converted into a data format that can be used for control of the operation mechanism 19 to obtain operation data.
  • the movement amount (tilt angle) of the center of gravity of the display device 1 can be determined from the tilt information detected by the gyro sensor, and the acceleration when moving the center of gravity of the display device 1 can be determined from the acceleration information detected by the acceleration sensor. Can be determined.
  • the terminal-side operation data acquisition unit 121 of the communication terminal 2 acquires video data and audio data from the storage unit 21 (S11).
  • the opportunity for starting the process of S11 and subsequent is not specifically limited.
  • a predetermined operation may be performed on the communication terminal 2
  • a predetermined notification may be received from the display device 1
  • video data and audio data may be stored in the storage unit 21. It may be triggered by being stored in.
  • the display device 1B transmits the video data B obtained by capturing the video of the user B to the communication terminal 2B (S51), and the communication terminal 2B transfers the received video data B to the communication terminal 2A ( S41). Further, the communication terminal 2A transfers the received video data B to the display device 1A (S32), and the display device 1A receives the video data B (S22) and outputs it (S23: display control step).
  • the users A and B can communicate with each other while viewing each other's video on the display device 1A or 1B.
  • the videophone call voice may be transmitted / received via the display devices 1A and 1B as in the case of video, or may be transmitted / received only between the communication terminals 2A and 2B.
  • the process returns to S31.
  • the motion data generation unit 123 when it is determined that motion data is to be generated (YES in S34), the motion data generation unit 123 generates motion data according to the analysis result of the video data B (S35: motion data generation step). Since operation data is acquired as a result of the process of S35, it can be said that S35 is an operation data acquisition step. Specifically, since the predetermined movement and facial expression of the object in the video each have a pattern for moving the display surface as described with reference to FIG. 3, the motion data generation unit 123 sets the predetermined pattern. Generate motion data to move the display surface. In addition, the generation of operation data when an utterance having a predetermined content is made is performed by the same process. Then, the operation data generation unit 123 transmits the operation data generated as described above to the display device 1A (S36: data transmission step).
  • the video data A is analyzed (S43) as in the case of the communication terminal 2A.
  • the data is transmitted to the display device 1B (S44 to S46).
  • the display device 1B receives the operation data (S54: operation data acquisition step)
  • the display device 1B operates the operation mechanism 19 (S55: operation control step).
  • the operation data transmission unit 103 of the display device 1A confirms that the operation data (sensing data) has been received from the sensor unit 16 (S61), the operation data is attributed to the operation of the display device 1A by the received operation data. It is determined whether or not to perform (S62). In other words, it is determined whether or not the movement of the display device 1A detected by the sensor unit 16 is a movement caused by operating the operation mechanism 19 based on the control of the communication terminal 2A. Specifically, the operation data transmission unit 103 determines that the operation is based on the received operation data if the operation data acquisition unit 104 has acquired the operation data immediately before receiving the operation data from the sensor unit 16. .
  • the process proceeds to S21 in FIG.
  • the operation data transmission unit 103 transmits the operation data received from the sensor unit 16 to the communication terminal 2A (S63), and the process is as shown in FIG. Proceed to S21.
  • the operation data acquisition unit 104 of the display device 1B receives the operation data transferred in the process of S81 (S91: operation data acquisition step), transmits the received operation data to the operation control unit 107, and operates the operation mechanism 19. Is operated (S92: operation control step). Thereafter, the processing of the display device 1B proceeds to S51 of FIG.
  • the display surface does not move on the other party even if the operation data is transmitted. . For this reason, after performing the process which confirms that the other party is using the display apparatus 1, you may transmit operation
  • An alternative process for notifying the other party of this may be performed. For example, when the display surface is moved, an image showing how the surface is moved may be transmitted and displayed, or the device used by the other party has a vibration function that causes vibration May send a command to operate the function.
  • the display device 1 can also be used as a device that displays information about software (hereinafter referred to as a communication app) used for communication via communication. For example, an image called a stamp can be posted alone or together with a message in a communication application that has recently become widespread.
  • the display device 1 can be used to display such a stamp, and the display surface can be moved according to the type of stamp displayed.
  • FIG. 10 is a flowchart illustrating an example of processing in the display device 1 when the display surface is moved according to the displayed stamp.
  • the description will focus on the display of the stamp image, but other information related to the communication app, such as the text of the posted message, may also be included in the display target.
  • you may output the audio
  • the operation data acquisition unit 104 of the display device 1 confirms the received data (S104), and determines whether the received data includes an operation data corresponding image that is an image associated with the operation data (S111). . If it is determined that no motion data-corresponding image is included (NO in S111), the process proceeds to S114.
  • the motion data acquisition unit 104 transmits the motion data-corresponding image to the display control unit 105, and the associated motion data is the motion. Transmit to the control unit 107.
  • the display control unit 105 displays an image of the received image data (S112: display control step), and the operation control unit 107 operates the operation mechanism 19 according to the received operation data (S113: operation control step).
  • S110 is an operation data acquisition step.
  • the operation data acquisition unit 104 determines whether reception of received data has ended (S114), and determines that reception has ended (YES in S114) and determines that reception has not ended. If so (NO in S114), the process returns to S110.
  • the motion data associated with the motion data corresponding image may be acquired from the outside of the display device 1, or may be acquired in advance in the storage unit 11 or the like of the display device 1. .
  • operation data corresponding to emotions (anger, sadness, joy, etc.) set in advance on the stamp is operated. It may be generated by the data generation unit 123 and transmitted to the display device 1.
  • operation data corresponding to the stamp is stored in the storage unit 11 in advance, operation data corresponding to the stamp received from the communication terminal 2 is read from the storage unit 11, and the operation mechanism 19 is operated. Also good.
  • the display surface may be moved in a motion corresponding to the stamp.
  • the operation data is associated with the stamp used in the communication application, but the image to be associated with the operation data is not limited to this example.
  • motion data may be associated with pictographs used in e-mails and the like.
  • the pictogram included in the text may be displayed, and the display screen may be moved with operation data associated with the pictogram.
  • the display device 1 can attract the attention of surrounding people by moving the display surface, and can also be used as a device for displaying advertisements because the display content can be watched. Below, the example which displays an advertisement on the display apparatus 1 is demonstrated based on FIG. 11 and FIG.
  • FIG. 11 is a diagram illustrating an example of use of the display device 1 and illustrates an example in which the display device 1 is used for displaying an advertisement.
  • the display device 1 when an advertisement is displayed on the display device 1 installed at a store or the like, it is necessary to appeal the advertisement content to a person who has passed in front of the display device 1. Therefore, when detecting a person nearby, the display device 1 performs a process of moving the display surface so that the display surface faces the detected person. Moreover, the process which moves a display surface according to the content of the advertisement to display similarly to each above-mentioned example is performed.
  • the operation data acquisition unit 104 confirms that the data (advertisement content) has been received (S100), and instructs the human detection unit 101 to start detecting people.
  • the person detecting unit 101 causes the photographing unit 15 to start photographing and analyzes the photographed image to detect a person (S101). Further, the person detection unit 101 that has detected that a person is reflected in the image calculates the distance from the display device 1 to the detected person (S102), and is the distance to the detected person closer than a predetermined distance? It is determined whether or not (S103).
  • the process returns to S100.
  • the person detection unit 101 uses the operation data indicating the direction in which the person is located (for example, the direction expressed with reference to the center of the shooting range of the shooting unit 15).
  • the acquisition unit 104 is notified.
  • the motion data acquisition unit 104 generates motion data that directs the display surface in the notified direction (for example, motion data that moves so that a person comes to the center of the shooting range of the shooting unit 15) and transmits the generated operation data to the motion control unit 107.
  • the display surface is directed toward the person (S104).
  • the operation data acquisition unit 104 determines whether or not the operation data is included in the data confirmed to be received in S100 (S105). If it is determined that the operation data is not included (NO in S105), the operation data acquisition unit 104 transmits the image included in the received data to the display control unit 105, and the audio data is output to the audio output unit 18. Send to. Thereby, image reproduction (display) by the display control unit 105 and audio reproduction (output) by the audio output unit 18 are performed (S107). Note that audio playback is not essential.
  • the motion data acquisition unit 104 transmits the motion data to the motion control unit 107 to operate the motion mechanism (S106: motion control step).
  • S106 motion control step
  • S100 is an operation data acquisition step.
  • the motion data acquisition unit 104 causes video and audio to be played back as described above (S107: display control step).
  • the operation data acquisition unit 104 determines whether or not the data reception is completed (S108), and when it is determined that the reception is completed (YES in S108), the process is terminated. On the other hand, if it is determined that the reception has not ended (NO in S108), the process returns to S100.
  • the display device 1 may move the display surface according to such posting. This will be described with reference to FIG.
  • FIG. 13 is a diagram showing an example of moving the display surface in accordance with the amount of comments posted on the video.
  • Each of the display devices 1 in FIGS. 3A to 3C displays a video, and displays a comment posted on the video superimposed on the video.
  • the display device 1 in FIG. 5A has a small amount of comments displayed, and therefore the display device 1 does not move the display surface.
  • the display device 1 shown in FIG. 5B has a large amount of comments being displayed. Therefore, the display device 1 moves the display surface.
  • the operation control unit 107 of the display device 1 may move the display surface when the amount of comments posted on the displayed video exceeds a predetermined lower limit value.
  • the standard for determining the amount of comment is not particularly limited. For example, the number of posted comments, the number of characters, the area occupied by the displayed comment on the display surface, and the like may be used as the standard (predetermined lower limit). .
  • the number of comments from a predetermined poster or the number of characters thereof may be used as a reference, or the number of predetermined words or symbols in the comment may be used as a reference.
  • the operation control unit 107 moves the display surface with a weaker movement than when the comment amount is large as shown in (b) of the figure. May be.
  • the strength of the motion can be expressed by the magnitude of the motion amplitude, the length of the motion cycle, and a combination thereof.
  • the operation data for realizing the movement of the display surface as described above can be generated as follows, for example.
  • the number of posts is determined based on the number of posts will be described, but as described above, the criterion for this determination is not limited to the number of posts.
  • the motion data generation unit 123 analyzes the video displayed by the display device 1 and determines whether a comment or the like has been posted on the video. Note that the presence or absence of posting may be determined by inquiring a server or the like that accepts postings instead of performing video analysis.
  • FIG. 14 is a diagram illustrating an example in which the display surface is moved in conjunction with a laughing video.
  • an image without laughter is displayed and the display surface of the display device 1 is not moving, but in (b) of the same figure, an image with laughter is displayed.
  • the display surface of 1 is moving.
  • the operation control unit 107 of the display device 1 may move the display surface in conjunction with the content of the displayed video.
  • the motion data generation unit 123 analyzes the sound output from the display device 1 and generates motion data corresponding to the video of laughter when it is determined that laughter is included. Whether or not a laughing voice is included can be determined by analyzing the frequency of the sound. In this case, if the frequency of the predetermined band is included in the sound, the movement corresponding to the predetermined band is performed. To move the display surface. With the configuration as described above, the display surface can be moved in a scene where laughter is occurring, that is, a scene that is rising, and the scene can be noted. Similarly, the display surface can be moved in a scene where cheers are occurring.
  • the volume tends to increase in a lively scene, so that the display surface can be moved in the lively scene.
  • many of the performers tend to smile, so analyze the facial expressions of multiple people in the video and display the display screen when the number of smiling people exceeds a predetermined number. You may move it.
  • the operation control unit 107 may move the display surface according to the content of the character string in the video. Since the character string in the video is one piece of information indicating the content of the video, the display surface can be moved by a movement corresponding to the video. For example, when a character string “cold” is displayed, the display surface may be shaken little by little to give the user a feeling that the display device 1 and the displayed image are shaking. Further, for example, when a character string “happy” is displayed, the emotion of joy may be expressed by movement by shaking it up and down.
  • the target character string is not particularly limited as long as it is included in the video.
  • a character input by the user for example, a message posted to an SNS or a message application, an e-mail, etc.
  • a telop for example, a telop
  • a caption Or a character string such as
  • the timing of moving the display surface is not limited to the timing of displaying the character string. For example, when moving according to the character string to be transmitted, such as a posted message or e-mail, the display surface is moved at the time of transmission. May be. Then, the operation data corresponding to the character string may be generated at an arbitrary timing until the display surface is moved by the movement corresponding to the character string.
  • the motion data generation unit 123 analyzes the character string in the video and determines whether or not the predetermined character string is included, or the predetermined content is described. Determine whether or not. Then, when it is determined that it is included or described, operation data corresponding to the predetermined character string or predetermined content is generated. As described above, the operation data may be generated by an external server or the like.
  • FIG. 10 is a diagram for explaining an example of selecting a stamp to be displayed and generating operation data by analyzing video and audio.
  • FIG. 15 is a diagram for explaining an example of selecting a stamp to be displayed and generating operation data by analyzing video and audio.
  • video and audio captured by the display device 1 are analyzed, and the display device 1 selects a stamp and generates operation data. That is, in this example, description will be made assuming that the display device 1 includes the operation data generation unit 123. Note that the processing described in this example can also be executed by the communication terminal 2.
  • the display device 1 captures a state in which the user speaks. Then, it is detected that the user is smiling by analyzing the captured video. In addition, by analyzing the speech, the words “joyful”, “great”, and “happy” were detected. These analyzes are performed by the operation data generation unit 123.
  • the motion data generation unit 123 selects a stamp according to the analysis result and generates motion data according to the analysis result.
  • a plurality of types of stamps (images) are prepared in advance.
  • different stamps and motion data may be selected and generated based on the video analysis result and the audio analysis result, respectively, and one stamp and motion data may be selected based on a combination of these analysis results. It may be selected and generated.
  • a stamp and motion data corresponding to the smile may be generated, and a stamp and motion data corresponding to the word of encouragement may be generated.
  • one stamp and one motion data corresponding to either or both of the smile and encouragement words may be generated.
  • the motion data corresponding to both the video analysis result and the audio analysis result is motion data combining motion data corresponding to the video analysis result and motion data corresponding to the audio analysis result. Also good. As a result, the display surface can be moved with a variety of movements.
  • the display control unit 105 of the display device 1 displays the stamp selected as described above on the display surface
  • the operation control unit 107 displays the display surface using the operation data generated as described above. move.
  • the user can enjoy the display of the stamp according to his / her feeling without any operation on the display device 1 together with the movement according to the stamp.
  • the image to be displayed is not limited to what is called a stamp, and any image can be applied.
  • FIG. 16 is a diagram illustrating another example of a mechanism for moving the display surface.
  • a casing 30 having a shape obtained by vertically cutting a cylinder (semi-column) is used, and a rectangular flat portion (corresponding to a cut surface of a cylinder) of the outer surface of the casing 30 is used.
  • the display surface of the display unit 17 is arranged at (part). In this configuration, by moving the center of gravity by the same operating mechanism as the above-described operating mechanism 19, the entire casing 30 is moved along the outer edge portion (the section having a semicircular cross section) of the casing 30 as illustrated.
  • the display surface can be swung by swinging.
  • since the outer edge of the housing is arcuate, smooth swinging is possible.
  • the display unit 17 is provided in the first housing 40, and the first housing 40 is connected to the second housing 41 via a hinge 42, thereby It can be rotated in the direction of the arrow.
  • the display surface of the display unit 17 can be moved by a rotating member such as the hinge 42.
  • the movement of the display surface can be controlled by connecting a driving unit such as a motor to the rotating member.
  • a driving unit such as a motor
  • the display device of the present invention is provided by mounting an operation mechanism for driving a hinge portion on a general laptop type personal computer. It is also possible.
  • connection unit 61 connects the display stand 60 and the display unit 17 so as to be rotatable, whereby the display surface of the display unit 17 is movable with the connection unit 61 as a fixed point. For example, it is possible to move such as tilting (d in the figure), moving left and right (e in the figure), and moving up and down (f in the figure). In this case, the movement of the display surface can be controlled by connecting a drive unit to the connection unit 61.
  • FIG. 17 is a block diagram showing an overview of a distribution system 200 according to an embodiment of the present invention.
  • members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.
  • a distribution system that distributes operation data from a server will be described.
  • a distribution system 200 shown in FIG. 17 is a system that distributes operation data to the display device 1, and includes a server (control device) 210 that distributes the operation data, the display device 1 that receives the operation data to be distributed, and a communication terminal. 2 is included. Note that the device that receives the operation data in the distribution system 200 is not limited to the display device 1 and the communication terminal 2, and any device that can communicate with the server 210 can be the operation data receiver.
  • the server 210 has a function of generating operation data, like the communication terminal 2 of the above embodiment, and can automatically generate operation data corresponding to the uploaded video and distribute it. More specifically, the server 210 includes a control unit and a communication unit (not shown), and the control unit includes a video acquisition unit, an operation data generation unit 123, an operation data acquisition unit, and an operation data transmission unit. Yes.
  • the control unit is the same as the control unit 20 of the communication terminal 2, and the communication unit is the same as the first communication unit 22 of the communication terminal 2.
  • the video acquisition unit acquires a video that is an operation data generation target, and acquires the video uploaded to the server 210 via the communication unit as described above. Then, the acquired video is transmitted to the motion data generation unit 123, whereby the motion data generation unit 123 generates motion data corresponding to the video. In addition, since the generation method of the operation data according to the video is as described in the above embodiment, the description is omitted here. Then, the operation data acquisition unit transmits the operation data generated in this way to the operation data transmission unit, and the operation data transmission unit transmits this operation data directly to the display device 1 or via another device such as the communication terminal 2. To send.
  • the communication terminal 2 may communicate with the server 210 to acquire operation data.
  • the terminal-side operation data acquisition unit (operation data acquisition unit) 121 of the communication terminal 2 transmits an image to the server 210 to acquire operation data corresponding to the image, and the data transmission unit 122 acquires the operation data.
  • the image is transmitted to the display device 1 together with the video.
  • video transmitted to the server 210 is not specifically limited,
  • the display apparatus 1 may be sufficient and content distribution servers, such as a moving image contribution site, may be sufficient.
  • the communication terminal 2 includes a photographing device, a video photographed by the photographing device may be used, or generated or acquired by application software (for example, a game) that operates on the communication terminal 2. You may use the image which was made.
  • the operation data corresponding to the video may be generated using the authoring tool in the communication terminal 2 or another device (for example, a personal computer).
  • the operation control unit 107 preferably moves the display surface at the timing indicated by the synchronization data.
  • the movement of the display device 1 may be detected by the sensor unit 16 and recorded as operation data.
  • the control unit 10 may be provided with an operation data recording unit that records the movement detected by the sensor unit 16 as operation data.
  • the user can record a desired motion as motion data, and enjoy a favorite video corresponding to the motion while moving the display surface by the motion.
  • Such recording of operation data can be performed by a device other than the display device 1 as long as the device includes a gyro sensor and an acceleration sensor.
  • the communication terminal 2 includes these sensors, the communication terminal 2 can be moved and operation data corresponding to the movement can be generated.
  • the movement of the display surface of the display device 1 on the data transmission side can be reproduced by the display device 1 (other display device) on the data reception side.
  • the display device 1 on the data transmission side functions as a control device that controls the operation of the display device 1 on the reception side.
  • a video captured by the display device 1 may be received from another display device 1, and operation data corresponding to the video may be generated to move the display surface.
  • each display device 1 may be provided with the same communication function and user interface as the communication terminal 2.
  • the generated operation data may be uploaded along with uploading the video to the video posting site.
  • operation data can also be downloaded with a video
  • the server 210 of the third embodiment may be provided on the moving image posting site side, and operation data corresponding to the uploaded video may be generated.
  • the upload destination may be a server that can distribute operation data, and is not limited to a server of a video posting site.
  • an SNS server may have the same function as the server 210, and operation data may be uploaded to the server. In this case, operation data can be acquired via SNS, and the video on SNS can be enjoyed in combination with the acquired operation data.
  • control blocks (especially the control unit 10 and the control unit 20) of the display device 1 and the communication terminal 2 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or a CPU (Central It may be realized by software using a Processing Unit.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • a transmission medium such as a communication network or a broadcast wave
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • the control device is a control device (communication terminal 2) that controls a display device (1) having a display surface, and is displayed on the display surface for moving the display surface.
  • An operation data generation unit (123) that generates operation data corresponding to the video, and the operation data generated by the operation data generation unit are transmitted to the display device, and the operation mechanism of the display surface is operated according to the operation data.
  • a data transmission unit (122) for causing the display device to execute control for moving the display surface.
  • the display device since the operation data corresponding to the video is generated and transmitted to the display device, the display device can move the display surface with a motion corresponding to the video to be displayed. Therefore, there is an effect that a visual effect can be given to the video by the movement according to the video.
  • the visual effect imparted by movement is not particularly limited as long as it is an effect caused by movement.
  • examples of the visual effect include an effect of producing a sense of reality and a stereoscopic effect in addition to the effect of noting the content of the video.
  • the motion data generation unit may generate motion data according to the movement of a predetermined object in the video.
  • the predetermined object since motion data is generated according to the movement of the object in the video, it is possible to emphasize and convey the movement of the object in the video to the person watching the video. Play.
  • the predetermined object only needs to occupy a predetermined range in the video. For example, it may be the entire body of a person in the video, or a part of the body (head, hand, black eye part of the eyeball, etc.).
  • the motion data generation unit may generate motion data according to the facial expression of a person or character in the video.
  • the motion data is generated according to the facial expression of the person or character in the video, so the person or character's facial expression in the video (or the facial expression corresponding to the facial expression) It has the effect of being able to communicate with emphasis. For example, when a person in the video is smiling, the display surface can be slowly moved to focus on the person's smile, and the person's gentle joy can be emphasized. I can tell you.
  • the control device may generate operation data according to the utterance content of a person or character in the video in any one of the aspects 1 to 3.
  • the utterance content of the person or character in the video since motion data is generated according to the utterance content of the person or character in the video, the utterance content of the person or character in the video, or the utterance content, for the person watching the video There is an effect that the emotion according to the can be emphasized and transmitted. For example, when the person in the video utters a surprise message, the surprise feeling of the person can be emphasized and conveyed by moving the display surface so as to fall back.
  • a display device (1) according to an aspect 5 of the present invention is a display device provided with a display surface, and the operation data corresponding to the video displayed on the display surface for moving the display surface is displayed on the display device.
  • the operation data acquisition unit (104) acquired from the control device (communication terminal 2) that controls the operation of the display screen and the operation mechanism of the display surface operate according to the operation data when the video is displayed on the display surface
  • an operation control unit (107) for moving the display surface is a display device provided with a display surface, and the operation data corresponding to the video displayed on the display surface for moving the display surface is displayed on the display device.
  • the motion data acquisition unit may acquire motion data according to a motion of a predetermined object in the video. According to this configuration, since motion data corresponding to the movement of the object in the video is acquired, there is an effect that it is possible to emphasize and convey the movement of the object in the video to the person watching the video. .
  • the motion data acquisition unit may acquire motion data according to the facial expression of a person or character in the video. According to this configuration, since motion data corresponding to the facial expression of the person or character in the video is acquired, the facial expression of the person or character in the video (or the emotion corresponding to the facial expression) ) Can be emphasized and transmitted.
  • the display device is the display device according to any one of the aspects 5 to 7, wherein the operation data acquisition unit acquires operation data corresponding to the utterance content of the person or character in the video. Good.
  • the operation data corresponding to the utterance content of the person or character in the video is acquired, the utterance content of the person or character in the video, or the utterance content thereof is given to the person watching the video. It has the effect of emphasizing and responding to the emotions it responds to.
  • the display device is the display device according to any one of the aspects 5 to 8, wherein the motion data acquisition unit acquires motion data indicating a motion of the image capturing device or the photographer when the video is captured. May be. According to this configuration, since the operation data indicating the movement of the photographing device or the photographer when the image is photographed is acquired, it is possible to convey a sense of reality at the time of photographing the image to the person watching the image. There is an effect.
  • the motion data acquisition unit may acquire motion data according to the content of the character string in the video. Since the character string in the video is one piece of information indicating the content of the video, the display surface can be moved in accordance with the video according to the above configuration.
  • the display device since the operation data corresponding to the video is acquired and transmitted to the display device, the display device can move the display surface with a motion corresponding to the video to be displayed. Therefore, there is an effect that a visual effect can be given to the video by the movement according to the video.
  • the operation data may be acquired from a device outside the control device, or the operation data generated by the control device may be acquired.
  • the control method of the control apparatus which concerns on 1 aspect of this invention is a control method of the control apparatus (communication terminal 2) which controls the display apparatus (1) provided with the display surface, Comprising: The above-mentioned for moving the said display surface An operation data generation step (S35, S45) for generating operation data corresponding to the video displayed on the display surface, and the operation data generated in the operation data generation step are transmitted to the display device, and the operation data is transmitted according to the operation data. A data transmission step (S36, S46) for causing the display device to execute a control for moving the display surface by operating the operation mechanism of the display surface. According to this structure, there exists an effect similar to the said aspect 1.
  • a control method for a display device is a control method for a display device (1) including a display surface, and an operation according to an image displayed on the display surface for moving the display surface
  • An operation data acquisition step (S1, S24, S54, S91, S100, S110) for acquiring data from a control device (communication terminal 2) that controls the operation of the display device, and the video is displayed on the display surface.
  • An operation control step (S3, S25, S55, S92, S106, S113) of moving the display surface by operating the operation mechanism of the display surface according to the operation data. According to this structure, there exists an effect similar to the said aspect 5.
  • the motion data generation unit may generate motion data according to posting on the video.
  • the motion data generation unit may generate motion data according to posting on the video.
  • the posting refers to being linked to some element related to the posting (for example, the number of posts, the content of the posting, the poster, the number of characters displayed based on the posting, etc.).
  • the motion data generation unit may generate motion data according to the content of the video. According to this configuration, there is an effect that the content of the video can be impressed strongly to the user by the movement of the display surface according to the content of the video.
  • the motion data generation unit may generate motion data according to the content of a captured video obtained by photographing the periphery of the display device. According to this configuration, it is possible to move the display surface with a movement corresponding to the situation around the display device. For example, the display surface can be moved so as to follow people around the display device, or the display surface can be directed in a direction where there are many people.
  • the motion data generation unit may display a video corresponding to the content of the captured video on the display surface and generate motion data corresponding to the captured video. Thereby, the user can enjoy the image
  • the display device (1) moves the display surface according to a display surface, a display control unit (105) that displays an image on the display surface, and an image displayed by the display control unit. And an operation control unit (107).
  • the display surface is moved according to the video to be displayed, there is an effect that a visual effect can be imparted to the video by movement according to the video.
  • the visual effect imparted by movement is not particularly limited as long as it is an effect caused by movement.
  • examples of the visual effect include an effect of producing a sense of reality and a stereoscopic effect in addition to the effect of noting the content of the video.
  • the predetermined object since the display surface is moved according to the movement of the object in the video, there is an effect that it is possible to emphasize and convey the movement of the object in the video to the person watching the video.
  • the predetermined object only needs to occupy a predetermined range in the video. For example, it may be the entire body of a person in the video, or a part of the body (head, hand, black eye part of the eyeball, etc.).
  • the predetermined object may be a person, another animal, or an object (non-living). Further, it may be a virtual object such as an animated character.
  • the display device may move the display surface according to the expression of a person or character in the video in the aspect 12 or 13.
  • the operation control unit may move the display surface according to the utterance content of the person or character in the video. .
  • the display surface is moved in accordance with the utterance content of the person or character in the video, so that the utterance content of the person or character in the video, or the utterance content thereof is displayed to the person watching the video. It has the effect of emphasizing and responding to the emotions it responds to. For example, when the person in the video utters a surprise message, the surprise feeling of the person can be emphasized and conveyed by moving the display surface so as to fall back.
  • the display device according to aspect 16 of the present invention is the display device according to any one of the aspects 12 to 15, wherein the operation control unit acquires operation data indicating movement of the image capturing device or the photographer when the image is captured.
  • the display surface may be moved using the operation data.
  • the display surface is moved using the operation data indicating the movement of the photographing device or the photographer when the image is photographed, a sense of presence at the time of photographing the image is given to the person watching the image. There is an effect that can be transmitted.
  • the motion data indicating the motion of the photographer's head is acquired to more accurately convey the sense of reality when the photographer is shooting. Is preferable.
  • the operation control unit may move the display surface according to the content of the character string in the video. Since the character string in the video is one piece of information indicating the content of the video, according to the above configuration, the display surface can be moved in accordance with the video.
  • the display device according to aspect 18 of the present invention is the display device according to any one of the aspects 12 to 17, wherein the operation control unit has a display surface of another display device that is directly or indirectly connected to the display device. When moved, the display surface of the display device may be moved in conjunction with the movement of the display surface of the other display device.
  • the display surface of another display device that is directly or indirectly connected to the display device when the display surface of another display device that is directly or indirectly connected to the display device is moved, the display surface is moved in conjunction with the movement, so the display surface is moved.
  • the display surface is moved in conjunction with the movement, so the display surface is moved.
  • the operation control unit may move the display surface of the display device in accordance with posting to the video.
  • the operation control unit may move the display surface of the display device in accordance with posting to the video.
  • this structure there exists an effect that a user can be made to recognize the condition of contribution by the movement of the display surface according to contribution.
  • “according to the post” refers to being linked to some element related to the post (for example, the number of posts, the content of the post, the poster, the number of characters displayed based on the post, etc.).
  • the display device is the display device according to any one of the above aspects 12 to 20, wherein the operation control unit displays the display of the display device according to the content of a captured image obtained by photographing the periphery of the display device. You may move the surface. According to this configuration, it is possible to move the display surface with a movement corresponding to the situation around the display device. For example, the display surface can be moved so as to follow people around the display device, or the display surface can be directed in a direction where there are many people.
  • the display control unit displays an image corresponding to the content of the captured image on the display surface, and the operation control unit includes the captured image.
  • the display surface of the display device may be moved by a movement corresponding to the above. Thereby, the user can enjoy the image
  • the display device in any one of the above aspects 12 to 22, is an operation for acquiring the operation data from a generation device (communication terminal 2) that generates operation data indicating the movement of the display surface.
  • a data acquisition unit (104) may be provided, and the operation control unit may move the display surface using the operation data. According to this configuration, it is possible to move the display surface with movement according to the operation data generated by the generation device. Even when the display device itself does not generate operation data, the display surface can be moved.
  • the display device includes an operation data acquisition unit (104) that acquires the operation data from a distribution server that distributes operation data indicating movement of the display surface.
  • the operation control unit may move the display surface using the operation data. According to this configuration, the display surface can be moved by accessing the distribution server. Even when the display device itself does not generate operation data, the display surface can be moved.
  • a control method is a control method executed by a display device that displays an image on a display surface, and a display control step (S4, S23, S53, S107, and S112) that displays an image on the display surface. ) And an operation control step (S3, S25, S55, S106, S113) for moving the display surface in accordance with the image displayed in the display control step. According to the control method, the same effects as those of the above aspect 12 are obtained.
  • the display device and the control device according to each aspect of the present invention may be realized by a computer.
  • the display is performed by operating the computer as each unit (software element) included in the display device or the control device.
  • a control program for a display device or a control program for a control device for realizing the device or the control device by a computer and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
  • the present invention can be used for a display device, a control device for controlling the display device, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

映像に応じた動きによって映像に視覚効果を付与することができる表示装置等を提供する。通信端末(2A)は、表示装置(1)の表示面を動かすための、上記表示面に表示される映像に応じた動作データを生成する動作データ生成部(123)と、上記動作データ生成部が生成した動作データを上記表示装置に送信して、該動作データに従って上記表示面の動作機構を動作させて該表示面を動かす制御を上記表示装置に実行させるデータ送信部(122)と、を備えている。

Description

制御装置および表示装置
 本発明は映像を表示する表示装置および該表示装置を制御する制御装置に関する。
 これまでに、画像等の表示を行う表示装置について、多種多様なものが開発されている。例えば、特許文献1には、予め決められた領域を自律的に移動して広告を行う自律移動ロボットであって、情報提供サーバに蓄えられている広告情報を読み出して出力する自律移動ロボットが開示されている。この技術によれば、予め決められた領域内において、内容が豊富な広告を行うことができる。
日本国公開特許公報「特開2003-50559号公報」(2003年2月21日公開)
 しかし、上記従来技術におけるロボットの移動は、あくまで広告を行う位置を変えるための移動であり、表示する広告に対して当該広告に応じた視覚効果をもたらすためのものではなかった。このため、上記従来技術では、広告の内容よりもロボットの方が注目を集めてしまうおそれがある。本発明は、上記の問題点に鑑みてなされたものであり、その目的は、映像に応じた動きによって映像に視覚効果を付与することができる表示装置等を提供することにある。
 上記の課題を解決するために、本発明の一態様に係る制御装置は、表示面を備えた表示装置を制御する制御装置であって、上記表示面を動かすための、上記表示面に表示される映像に応じた動作データを生成する動作データ生成部と、上記動作データ生成部が生成した動作データを上記表示装置に送信して、該動作データに従って上記表示面の動作機構を動作させて該表示面を動かす制御を上記表示装置に実行させるデータ送信部と、を備えている。
 また、本発明の一態様に係る表示装置は、上記の課題を解決するために、表示面を備えた表示装置であって、上記表示面を動かすための、上記表示面に表示する映像に応じた動作データを、上記表示装置の動作を制御する制御装置から取得する動作データ取得部と、上記表示面に上記映像が表示されているときに、上記動作データに従って上記表示面の動作機構を動作させて上記表示面を動かす動作制御部と、を備えている。
 そして、本発明の一態様に係る制御装置は、上記の課題を解決するために、表示面を備えた表示装置を制御する制御装置であって、上記表示面を動かすための、上記表示面に表示される映像に応じた動作データを取得する動作データ取得部と、上記動作データ取得部が取得した動作データを上記表示装置に送信して、該動作データに従って上記表示面の動作機構を動作させて該表示面を動かす制御を上記表示装置に実行させるデータ送信部と、を備えている。
 また、本発明の他の態様に係る表示装置は、上記の課題を解決するために、表示面と、上記表示面に映像を表示させる表示制御部と、上記表示制御部が表示させる映像に応じて上記表示面を動かす動作制御部と、を備えている。
 本発明の上記各態様によれば、映像に応じた動きによって映像に視覚効果を付与することができるという効果を奏する。
本発明の一実施形態に係る表示部動作システムの要部構成を示すブロック図である。 上記表示部動作システムに含まれる表示装置の外観の一例を示す図である。 上記表示装置における、映像に応じた表示面の動かし方の例を示す図である。 動作機構による上記表示装置の動作を説明する図である。 上記表示装置の一使用例を示す図であり、撮影装置の動作データを使用して表示装置を動作させる例を示している。 上記表示部動作システムに含まれる通信端末が映像データ、音声データ、および動作データを上記表示装置に送信し、該表示装置がこれらのデータに基づいて動作する場合の処理の一例を示すフローチャートである。 上記表示装置の一使用例を示す図であり、上記表示装置をテレビ電話のディスプレイおよび撮影装置として使用した例を示している。 テレビ電話の映像に応じて表示面を動かす場合に、上記表示装置および通信端末が実行する処理の一例を示すフローチャートである。 テレビ電話の相手方の表示面の動きに連動させて上記表示装置の表示面を動かす処理の一例を示すフローチャートである。 表示させたスタンプに応じて表示面を動かす際の上記表示装置における処理の一例を示すフローチャートである。 上記表示装置の一使用例を示す図であり、上記表示装置を広告の表示に使用した例を示している。 広告を表示させる場合に上記表示装置が実行する処理の一例を示すフローチャートである。 映像に対して投稿されたコメント量に応じて表示面を動かす例を示す図である。 笑いがおきている映像に連動して表示面を動かす例を示す図である。 映像および音声の解析により、表示するスタンプの選択、および動作データの生成を行う例を説明する図である。 表示面を動かす機構の他の例を示す図である。 本発明の一実施形態に係る配信システムの概要を示すブロック図である。
 以下、本発明の実施の形態について、図1~16を参照しながら、詳細に説明する。
 〔実施形態1〕
 以下、本発明の実施の形態について、詳細に説明する。図1は、本実施形態に係る表示部動作システムの要部構成を示すブロック図である。図1に示すように、本実施形態に係る表示部動作システムは、表示装置1A、通信端末(制御装置)2A、通信端末(制御装置)2B、および表示装置1Bを含む。
 表示装置1Aと通信端末2Aとは、例えばBLE(Bluetooth(登録商標) Low energy)等を介して通信接続される。なお、表示装置1Aと通信端末2Aとの通信方法は特に限定されず、上記の例のように近距離無線通信接続してもよいし、有線通信接続してもよい。また、表示装置1Bと通信端末2Bとの通信接続は、表示装置1Aと通信端末2Aとの通信接続と同様である。
 通信端末2Aと通信端末2Bとは、例えば携帯電話網等の通信ネットワークを介して通信接続される。通信ネットワークは、任意のネットワークを用いることができ、携帯電話網に限定されない。
 〔表示装置の構成〕
 まず、表示装置1Aの構成を説明する。なお、表示装置1Aおよび1Bは同じ構成であり、特にこれらを区別する必要がない場合には、これらを何れも表示装置1と表記する。表示装置1は、制御部10、記憶部11、通信部12、出力部70、および入力部80を備えている。
 記憶部11は、表示装置1が使用する各種データを記憶するものである。また、通信部12は、表示装置1Aが他の装置(ここでは通信端末2A)と通信を行うためのものである。例えば、通信部12は、通信端末2Aから映像データ、音声データ、および映像データに応じた動作データ等を受信し、受信したデータを制御部10の動作データ取得部104に送信する。また、通信部12は映像送信部102および動作データ送信部103の指示に従い、データを通信端末2Aに送信する。
 制御部10は、表示装置1各部を統括して制御するものであり、人検出部101、映像送信部102、動作データ送信部103、動作データ取得部104、表示制御部105、音声制御部106および動作制御部107を含む。
 人検出部101は、表示装置1の周囲の人を検出するものである。より詳細には、人検出部101は、後述する撮影部15が撮影した画像データを解析することによって、撮影部15の撮影範囲内の人を検出する。また、人検出部101は、該画像データを解析することによって、表示装置1から検出した人までの距離を算出する。なお、人検出部101を使用した動作の例については、図11および図12に基づいて後述する。
 映像送信部102は、撮影部15が撮影した映像データを受信し、通信部12を介して通信端末2に送信する。なお、映像送信部102を使用した動作の例については、図7および図8に基づいて後述する。
 動作データ送信部103は、表示装置1の表示面の動きを示す動作データを外部の装置に送信し、これにより、表示装置1の表示面の動きと連動して他の表示装置1の表示面が動くようにする。なお、動作データは、最終的に他の表示装置1に受信されればよく、他の表示装置1に直接送信してもよいし、通信端末2等の他の装置を介して送信してもよい。より詳細には、動作データ送信部103は、後述するセンサ部16から、表示装置1の表示面の動きを示すセンシングデータを受信する。そして、このデータをそのまま動作データとするか、または動作機構19の制御に用いることのできるデータ形式に変換して動作データとし、通信部12を介して外部の装置(この例では通信端末2A)に送信する。この動作データは、通信端末2Aから通信端末2Bに転送され、さらに通信端末2Bから表示装置1Bに転送され、これにより、表示装置1Bの表示面が上記動作データに従って動くことになる。なお、この処理の詳細は、図8に基づいて後述する。
 動作データ取得部104は、表示部17の表示面を動かすための動作データを取得し、取得した動作データを動作制御部107に送信する。詳細は後述するが、動作データ取得部104が取得する動作データは、表示部17に表示させる映像に応じたデータであり、これにより、表示される映像に応じて表示部17の表示面が動くことになる。また、動作データ取得部104は、映像データを受信したときには表示制御部105に送信して表示出力させ、音声データを受信したときには音声制御部106に送信して音声出力させる。
 表示制御部105は、動作データ取得部104から受信した映像データを表示部17に表示出力させる。また、音声制御部106は、動作データ取得部104から受信した音声データを音声出力部18に音声出力させる。
 動作制御部107は、表示制御部105が表示させる映像に応じて表示部17の表示面を動かす。具体的には、動作制御部107は、表示部17の表示面に映像が表示されているときに、動作データ取得部104から受信した、該映像に応じた動作データに従って動作機構19を動作させることによって、表示部17の表示面を動かす。
 また、表示装置1は、出力部70として、表示部17、音声出力部18、および動作機構19を含む。表示部17は、制御部10の制御に従って画像を表示するものであり、音声出力部18は、制御部10の制御に従って音声を出力するものである。
 動作機構19は、表示部17の表示面を動作させるものである。より詳細には、動作機構19は、表示装置の重心を移動させて、筐体3の外縁部に沿って表示装置1A全体を動かすことにより表示部17の表示面を動かす。なお、動作機構19の詳細は、図4に基づいて後述する。
 また、表示装置1は、入力部80として、音声入力部13、入力操作検知部14、撮影部15、およびセンサ部16を含む。音声入力部13は、表示装置1に対する音声入力を受け付け、受け付けた音声を信号に変換して制御部10に出力する。入力操作検知部14は、表示装置1に対するユーザの入力操作を検知するものであり、例えばタッチパネルなどであってもよい。撮影部15は、表示装置1の外部の映像(静止画像または動画像)を撮影し、撮影によって得られた映像データを制御部10に出力する。撮影部15は、例えば、カメラなどであってもよい。センサ部16は、表示装置1の動き(表示面の動き)を検出し、検出した動きを示す動作データを制御部10に出力するものであり、1または複数のセンサを含む。センサ部16は、表示面の動きを検出し、その動きを示すセンシングデータを出力するものであればよく、例えば、センサ部16には、加速度センサとジャイロセンサが含まれていてもよい。
 〔通信端末の構成〕
 次に、通信端末2Aの構成を説明する。なお、通信端末2Aおよび2Bは同じ構成であり、特にこれらを区別する必要がない場合には、これらを何れも通信端末2と表記する。通信端末2は、表示装置1が表示する映像に応じた動作データを取得し、該表示装置1に送信することにより、該表示装置1の表示面が、表示する映像に応じて動くようにする。図1に示すように、通信端末2は、制御部20、記憶部21、第1通信部22、および第2通信部23を備えている。
 制御部20は、通信端末2の各部を統括して制御するものであり、端末側動作データ取得部121、データ送信部122、動作データ生成部123、通信制御部124を含む。
 端末側動作データ取得部121は、表示装置1の表示部17の表示面を動かすための動作データを取得し、データ送信部122に出力する。詳細は後述するが、端末側動作データ取得部121が取得する動作データは、表示装置1が表示する映像に応じたデータであり、通信端末2または他の装置で生成されたデータである。
 データ送信部122は、表示装置1に各種データを送信する。具体的には、データ送信部122は、表示装置1に表示させる映像データ、表示装置1に出力させる音声データ、および端末側動作データ取得部121が取得した動作データを、後述の第2通信部23を介して表示装置1に送信する。なお、表示装置1に送信する動作データは、表示面の動きを示すデータ以外に、該データに基づいた動作を指示する命令を含む動作コマンドとして送信してもよい。
 動作データ生成部123は、表示装置1が表示する映像を解析し、解析の結果に応じた動作データ、すなわち映像に応じた動作データを生成する。そして、生成した動作データを端末側動作データ取得部121に送信する。なお、動作データの生成方法については後述する。
 通信制御部124は、後述の第1通信部22を介した通信に関する制御を行う。本実施形態では、通信端末2Aの通信制御部124は、通信端末2Bとの通信に関する制御を行う。例えば、通信制御部124は、通信端末2Aと2Bとで双方の映像および音声をリアルタイムで交換する通信(いわゆるテレビ電話による通話)の際に、映像および音声の中継処理を行う。
 記憶部21は、通信端末2が使用する各種データを記憶するものである。記憶部21には、例えば、映像データ、音声データ、および動作データ(音声データまたは映像データに応じた動作データ)等が格納されている。
 第1通信部22は、通信端末2が他の装置と通信するためのものである。本実施形態においては、通信端末2Aは、第1通信部22および通信ネットワークを介して通信端末2Bと無線通信する。上述のように、第1通信部22を介した通信は、通信制御部124が制御する。
 第2通信部23は、通信端末2が表示装置1と通信を行うためのものである。上述のように、第2通信部23を介した通信では、データ送信部122によって、映像データ、音声データ、および動作データが表示装置1に送信される。
 〔表示装置の外観〕
 次に、表示装置1の外観について図2を用いて説明する。図2は、表示装置1の外観の一例を示す図である。同図の(a)および(b)に示す表示装置1は、球状の筐体3に表示部17が設けられた構成である。より詳細には、筐体3は、一部が欠けた球状であり、この欠けた部分に表示部17の表示面が位置している。表現を変えれば、球体の一部を平面で切り取った形状の筐体3の、切り取られた平面部分に円形の表示面が位置している。
 筐体3が球状であるため、表示装置1は筐体3の外縁部に沿って容易に転がり、これにより表示面の位置が変わる。詳細は後述するが、表示装置1は、この筐体形状を利用して、表示面を動かすことができ、また表示面が所望の位置となったときに、その位置で表示面の動きを止めることもできる。
 例えば、例えば電源を切っているときなどのように、表示装置1に映像を表示させていないときには、表示装置1の表示面は任意の方向を向いているが、映像の表示時には、同図の(a)および(b)に示すように、表示面が斜め上方を向く状態となる。以下では、この状態を基準状態と呼ぶ。つまり、表示装置1は、起動時から映像の表示開始時までの間に、表示面を動かして基準状態となる。なお、表示部17の上下方向(表示する映像の上下方向)が固定である場合には、表示部17の上端が最も上側に来るように表示面を動かせばよい。また、表示部17に表示する映像の上下方向を表示制御部105により変更できる場合には、基準状態とした後で映像の表示方向を調整してもよい。無論、基準状態ではない状態で映像を表示し、表示面を動かしてもよい。例えば、映像を表示した後、表示面を水平にし、表示面が水平の状態で映像を表示しながら表示面を回転させる、表示面を起き上がらせた後に水平に戻す、などの動かし方も可能である。
 〔映像に応じた表示面の動かし方〕
 次に、映像に応じた表示面の動かし方について、図3を用いて説明する。図3は、映像に応じた表示面の動かし方の例を示す図である。同図の左側が映像を示し、矢印を挟んだ右側がその映像に応じた表示装置1(表示面)の動きの例を示している。表示装置1の動作制御部107が、同図の左側の映像が表示されているときに、同図の右側の動きに対応した動作データを用いて動作機構19を動作させることにより、同図に示すような、映像と連動した表示面の動きが実現される。
 同図の(a)に示すように、映像中の人物がうなずいた場合、映像中の人物の頭部の動きを模倣するように表示面を動かしてもよい。図示の例では、うなずいた人物の頭部の前方に倒れ込む動きに合わせて、表示面も前方に倒れ込むように動かしている。これにより、映像中の人物のうなずく動作を強調して伝えることができる。
 また、同図の(c)および(d)に示すように、映像中の人物の視線(黒目の動き)に応じて表示面を動かしてもよい。図示の例では、映像中の人物の視線が右方向に動いた場合、右を向くように表示面を動かし、映像中の人物の視線が上方向に動いた場合、上を向くように表示面を動かしている。
 これらの例のように、動作制御部107は、映像中の所定のオブジェクトの動きに応じて表示面を動かしてもよい。同図の(a)の例では、人物の頭部、(c)(d)の例では、人物の黒目部分が所定のオブジェクトということになるが、この所定のオブジェクトは、映像中の所定範囲を占めるものであればよく、これらの例に限られない。例えば、映像中の人物の体全体をオブジェクトとし、その動きに応じて表示面を動かしてもよく、この場合、映像中の人物が右方向に移動した場合、表示面も右を向くように動かしてもよい。なお、所定のオブジェクトは、人以外の動物であってもよく、物体(非生物)であってもよい。また、アニメーションのキャラクターのようにバーチャルなオブジェクトであってもよい。
 また、同図の(b)に示すように、映像中の人物の表情に応じて表示面を動かしてもよい。図示の例では、ほほえみの表情となったときに、真上から見て表示面が時計回りおよび反時計回りに円運動するように動かしている。
 この例のように、動作制御部107は、映像中の人物が所定の表情となったときに、その表情に予め対応付けられた動きで表示面を動かしてもよい。なお、所定の表情は、ほほえみに限られず、表情に対応付ける動きも特に限定されない。ただし、表情に対応付ける動きは、表情のイメージに合う動きとすることが好ましい。例えば、ほほえみのような穏やかな表情であれば、対応付ける動きも緩やかな揺動とすることが好ましく、怒りのような激しい感情に基づく表情であれば、対応付ける動きも、激しい動き(揺動の幅を大きく、速度を早くする)ことが好ましい。なお、表情を検出する対象は、アニメーション等のキャラクターであってもよい。
 また、同図の(e)に示すように、映像中の人物の発話内容に応じて表示面を動かしてもよい。図示の例では、映像中の人物が驚いた旨の発話をしたときに、表示面を後ろ側に倒れ込むように動かすことにより、該人物の驚きを強調して伝えている。なお、どのような内容の発話が行われたときに表示面を動かすか、また、発話内容に対応付ける動きは、特に限定されない。
 同図の(f)の例では、キャラクターが怒っている映像を表示しており、このときに、この映像に予め対応付けられた動き(表示面を前後に激しく揺動させるパターン)で表示面を動かしている。このように、映像に応じた動きを予め定めておくことにより、映像の内容を解析することなく、映像に応じた動きで表示面を動かすことができる。
 以上のようにして、映像に応じた動きで表示面を動かすことができるが、同じ感情に対応する映像については、同じパターンで表示面を動かすことが好ましい。例えば、映像中の人物の動きからその人物が怒っていると判定できる場合や、表情から怒っていると判定できる場合、そして発話内容から怒っていると判定できる場合にも、上記(f)の例と同じパターンで表示面を動かすことが好ましい。これにより、そのパターンの動きが、怒りの感情を示していることをユーザに認識させることができ、表示装置1が感情を有しているかのような感覚を与えることができる。
 なお、所定の感情は怒りに限られない。また、上述の表情の例と同様に、感情に対応付ける動き(動きのパターン)は、その感情のイメージに合うものが好ましいが、どのような動きを対応付けるかは特に限定されない。さらに、映像に応じた感情は、映像がストーリー性のあるものであれば、表示中のシーンから特定してもよい。これにより、例えば、悲しみの感情に、表示面をうつむかせる動きを対応付けた場合に、泣いているキャラクターを表示するとき、映像中の人物が泣いているとき、および悲しいシーンが表示されているときのそれぞれに、表示面をうつむかせることも可能である。この他、表示面の動きは、出力される音声も考慮して決定してもよい。例えば、動きのパターンは映像から決定し、動きの速度は音声のテンポ、音量等に応じて決定してもよい。
 〔動作機構の詳細〕
 次に、動作機構19の詳細を図4に基づいて説明する。図4は、動作機構19による表示装置1の動作を説明する図である。同図の(a)は、動作機構19の構造の一例を示している。図示の動作機構19は、軸191、モータ192、および重り193を含む。なお、同図において、表示面に垂直な軸がZ軸、軸191と並行でZ軸と垂直な軸がY軸、Z軸およびY軸に垂直な軸(紙面に垂直な軸)がX軸である。
 軸191は、重り193を支持するものである。軸191は、直線状の剛体からなり、その長手方向の中央部に重り193が回動可能(振り子運動可能)に取り付けられている。図示の例では、重り193は、軸191を通るZY平面上で回転可能に取り付けられている(X軸周りの回転)。より詳細には、軸191は、表示装置1の中心(球状の筐体3の中心)を通るように設けられている。このため、軸191の長手方向の中央部に取り付けられた重り193の回転軸となる位置は、球の中心に位置する。
 モータ192は、重り193の回転軸に接続されており、モータ192を駆動することにより、重り193をX軸周りの何れの方向にも回転させることができるようになっている。
 また、同図には示していないが、筐体3の内周には、軸191をガイドするレールが設けられており、図示しないモータにより、軸191をこのレールに沿って回転させることができるようになっている。より詳細には、軸191は、図示しないモータを駆動することにより、その長手方向の中央部(重り193の回転軸となる位置)の位置は変えることなく、Z軸周りの何れの方向にも回転させることができるようになっている。
 以上のように、動作機構19は、モータ192によって重り193を回転させること(X軸回転)、および軸191を回転させること(Z軸回転)により、筐体3の内部での重り193の位置を変える。そして、これにより表示装置1の重心の位置を変えて、表示面を含む表示装置1全体を動かすことができる。
 例えば、表示面が真上を向いた状態から、モータ192によって重り193を傾かせた状態とした場合、表示装置1の重心が移動して、図示の例のように表示面が傾いた状態となる。つまり、重り193の回転軸を通りZ軸に平行な直線上から外れた位置に重り193(より厳密には重り193の回転軸より先端側部分)を移動させることによって、表示面を傾かせることができる。上述の基準状態への移行は、動作機構19をこのように動作させることで実現できる。
 また、基準状態から、重り193をモータ192で揺動させることにより、同図の(c)に示すように、表示面を前後に揺動させることができる。さらに、基準状態から軸191を90度回転させた上で、重り193をモータ192で揺動させることにより、同図の(b)に示すように、表示面を左右に揺動させることもできる。なお、表示面の揺動とは、表示面を揺り動かす動きを指す。例えば、同一または概ね同一の軌道で表示面を往復させる動きや、表示面の中心が円または楕円を描く軌道での動きが揺動に相当する。
 そして、上述のX軸回転とZ軸回転とを組み合わせることにより、表示装置1の表示面を様々なパターンで動かすことができる。例えば、X軸回転とZ軸回転とを組み合わせて重心位置を円形に移動させることにより、同図の(d)に示すように、表示面に回転運動させることもできる。
 また、表示面を回転運動させる際の、回転軸に対する表示面の位置は特に限定されず、例えば同図の(e)に示すように、表示面に垂直な軸(Z軸)周りに回転運動させてもよい。そして、この回転の向きも特に限定されず、同図の(e)に示すように、異なる方向への回転運動を交互に反復して行ってもよい。
 したがって、標準状態とした後の、モータ192の駆動パターン(重り193の動作パターン)と、軸191をZ軸周りに回転させるパターンとの組み合わせを示すデータを動作データとすることにより、表示面を所望のパターンで動かすことができる。
 〔表示装置1の使用例1:撮影装置の動作データを使用〕
 次に、表示装置1の使用例を図5に基づいて説明する。図5は、表示装置1の一使用例を示す図であり、撮影装置5の動作データを使用して表示装置1を動作させる例を示している。
 図示の例では、撮影装置5を装着した撮影者がスキーをしながら撮影を行っている。また、この撮影装置5には、撮影装置5の動きを示す動作データを生成する各種センサ(例えば、加速度センサとジャイロセンサ)が外付けまたは内蔵されている。これにより、撮影者は、撮影者目線の映像を撮影しながら、周囲の音声を記録し、かつ撮影装置5の動作(動き)を記録することができる。なお、撮影装置5の動きを直接記録することが難しい場合には、撮影装置5を保持する撮影者の体の部位の動きを記録してもよい。例えば、撮影者が撮影装置5を手で持って撮影している場合には、撮影者の手や腕にセンサを付けて動きを記録してもよい。これらの構成によれば、撮影装置5の動きに応じて表示面を動かすことができるので、表示装置1のユーザに、自らが撮影装置5になったかのような臨場感を与えることができる。
 また、撮影装置5の動きの代わりに撮影者の動きを記録する場合、撮影装置5から離れた位置の動きを記録してもよい。例えば、撮影者の特に目線の動きを記録してもよく、この場合、撮影装置5から離れた位置(例えば撮影者の頭部)にセンサを保持してもよい。また、目線の動きを記録する場合には、加速度センサとジャイロセンサの代わりに、目線の動きを撮影するカメラを用いてもよい。これらの構成によれば、撮影者の目線の動きに応じて表示面を動かすことができるので、表示装置1のユーザに、自らが撮影したかのような臨場感を与えることができる。
 そして、このようにして記録した音声データ、映像データ、および動作データを表示装置1に転送することにより、撮影装置5の撮影時の動き(同図において撮影装置5付近の白抜き矢印で示す)を、表示装置1にて再現しつつ(同図において表示装置1付近の塗り潰し矢印で示す)、撮影された映像(撮影者から見たスキー場の映像)を表示し、記録された音声を出力することができる。そして、このような映像と表示面の動きの組み合わせにより、新たな視覚効果を生み出すことができる。すなわち、映像に応じた動きによって映像に視覚効果を付与することができる。具体的には、表示装置1で映像を観ているユーザは、あたかも自分が動いている(この例ではスキーをしている)かのような臨場感を感じることができる。また、表示面の揺動により、表示面の位置、すなわち映像が表示される位置が3次元的に動くため、映像を観る者に立体感を感じさせることができる。
 なお、表示装置1は、取得した動作データの示す動きと連動して表示面を動かせばよく、撮影装置5の動きと表示面の動きを一致させる必要はない。例えば、撮影装置5が動いた方向に表示面を動かしてもよいし、撮影装置5が動いた方向とは反対の方向に動かしてもよい。
 また、センシングデータから動作データを生成する処理は、撮影装置5が行ってもよいし、表示装置1や通信端末2が行ってもよい。表示装置1や通信端末2が動作データを生成する場合、センシングデータを取得し、これを動作機構19の制御に用いることのできるデータ形式に変換して動作データとする。例えば、ジャイロセンサの検出した傾き情報から、表示装置1の重心移動量(傾き角度)を決定することができ、加速度センサの検出した加速度情報から、表示装置1の重心を移動させる際の加速度を決定することができる。
 (処理の流れ:映像データ、音声データ、および動作データを表示装置に送信)
 次に、表示装置1と通信端末2が実行する処理の流れを図6に基づいて説明する。図6は、表示装置1および通信端末2が実行する処理の一例を示すフローチャートである。より詳細には、図6は、通信端末2が映像データ、音声データ、および動作データを表示装置1に送信し、表示装置1がこれらのデータに基づいて動作する場合の処理の例を示している。これらのデータは、例えば図5の例のようにして記録されたものであってもよい。なお、撮影装置5で取得したデータを、通信端末2を介さずに表示装置1に送信してもよく、これにより、ほぼリアルタイムでの映像・音声・動作の再現が可能になる。
 まず、通信端末2の処理について説明する。通信端末2の端末側動作データ取得部121は、記憶部21から映像データおよび音声データを取得する(S11)。なお、S11およびそれ以降の処理を開始するための契機は特に限定されない。例えば、通信端末2に対して所定の操作が行われたことを契機としてもよいし、表示装置1から所定の通知を受信したことを契機としてもよいし、映像データおよび音声データが記憶部21に格納されたことを契機としてもよい。
 また、端末側動作データ取得部121は、取得した映像データに応じた動作データを、記憶部21から取得する(S12、動作データ取得ステップ)。続いて、データ送信部122は、端末側動作データ取得部121が取得した映像データ、音声データ、および動作データを、第2通信部23を介して表示装置1に送信する(S13、データ送信ステップ)。そして、データ送信部122は、データの送信が完了したかを判断する(S14)。ここで、送信完了と判断した場合(S14でYES)、通信端末2における処理は終了する。一方、送信完了していないと判断した場合(S14でNO)、処理はS11に戻り、データの送信が継続される。
 次に、表示装置1の処理について説明する。通信端末2からデータを受信すると、表示装置1の動作データ取得部104は、受信したデータを確認し(S1)、このデータに動作データが含まれているか否かを判断する(S2)。ここで、動作データが含まれていないと判断した場合(S2でNO)、S4の処理に進む。一方、動作データが含まれていると判断した場合(S2でYES)、動作データ取得部104は、当該動作データを動作制御部107に送信し、動作制御部107はこの動作データに従って動作機構19を動作させる(S3:動作制御ステップ)。なお、この場合、S1が動作データ取得ステップとなる。
 また、動作データ取得部104は、S1で確認したデータに含まれる映像データを表示制御部105に送信し、音声データを音声出力部18に送信する。これにより、表示制御部105が映像を表示部17に表示し、音声制御部106が音声出力部18から音声出力する(S4:表示制御ステップ)。上記S3およびS4の処理により、表示させる映像に応じて表示面が動くことになる。この後、動作データ取得部104は、データの受信が終了したか否かを判断する(S5)。ここで、受信終了と判断した場合(S5でYES)、処理は終了する。一方、受信終了していないと判断した場合(S5でNO)、処理はS1に戻る。
 〔表示装置1の使用例2:テレビ電話〕
 次に、表示装置1の他の使用例を図7に基づいて説明する。図7は、表示装置1の一使用例を示す図であり、表示装置1をテレビ電話のディスプレイおよび撮影装置として使用した例を示している。
 図7に示すように、ユーザが通信端末2を用いてテレビ電話による通話を行なっている場合に、相手方から受信した映像や音声(相手方の映像、音声)を表示装置1に出力させることができる。また、表示装置1は、撮影部15でユーザの映像を撮影することができ、撮影した映像を、通信端末2を介して相手方に送信することができる。そして、表示装置1は、表示している相手方の映像に応じた動きで表示面を動かすことができる。
 (処理の流れ:テレビ電話の映像に応じて表示面を動かす)
 続いて、テレビ電話の映像に応じて表示面を動かす場合の処理の流れを図8に基づいて説明する。図8は、テレビ電話の映像に応じて表示面を動かす場合に、表示装置1A、1B、および通信端末2A、2Bが実行する処理の一例を示すフローチャートである。なお、以下の説明では、表示装置1Aおよび通信端末2AのユーザをユーザAと呼び、表示装置1Bおよび通信端末2BのユーザをユーザBと呼ぶ。
 表示装置1Aは、ユーザAの映像を撮影して得た映像データAを通信端末2Aに送信し(S21)、通信端末2Aは、受信した映像データAを通信端末2Bに転送する(S31)。また、通信端末2Bは、受信した映像データAを表示装置1Bに転送し(S42)、表示装置1Bは映像データAを受信し(S52)、表示出力する(S53:表示制御ステップ)。
 同様に、表示装置1Bは、ユーザBの映像を撮影して得た映像データBを通信端末2Bに送信し(S51)、通信端末2Bは、受信した映像データBを通信端末2Aに転送する(S41)。また、通信端末2Aは、受信した映像データBを表示装置1Aに転送し(S32)、表示装置1Aは映像データBを受信し(S22)、表示出力する(S23:表示制御ステップ)。
 以上の処理により、ユーザAとBは、互いの映像を表示装置1Aまたは1Bで見ながらコミュニケーションすることができる。なお、テレビ電話の通話音声については、映像と同様に表示装置1Aおよび1Bを介して送受信してもよいし、通信端末2Aと2B間のみで送受信してもよい。
 また、S32で映像データBを表示装置1Aに転送した通信端末2Aでは、動作データ生成部123が映像データBを解析し、動作データを生成するか否かを判断する(S34)。具体的には、動作データ生成部123は、映像中のオブジェクト(この例ではテレビ電話の相手であるユーザB)の所定の動作や所定の表情を検出できた場合に、動作データを生成すると判断する。なお、図3の(e)の例のように、音声データの解析により、所定の内容の発話が行われたことが確認できた場合に、動作データを生成すると判断してもよい。
 S34において、動作データを生成しないと判断した場合(S34でNO)、処理はS31に戻る。一方、動作データを生成すると判断した場合(S34でYES)、動作データ生成部123は、映像データBの解析結果に応じた動作データを生成する(S35:動作データ生成ステップ)。なお、S35の処理の結果、動作データが取得されるので、S35は動作データ取得ステップであるとも言える。具体的には、映像中のオブジェクトの所定の動作や表情には、図3で説明したように表示面を動かすパターンがそれぞれ定められているので、動作データ生成部123は、当該定められたパターンで表示面を動かす動作データを生成する。また、所定の内容の発話がなされたときの動作データの生成も同様の処理で行われる。そして、動作データ生成部123は、以上のようにして生成した動作データを表示装置1Aに送信する(S36:データ送信ステップ)。
 この後、表示装置1Aの動作データ取得部104は、動作データを受信し(S24:動作データ取得ステップ)、動作制御部107は、受信した動作データに従って動作機構19を動作させる(S25:動作制御ステップ)。これにより、表示させる映像に応じて表示面が動くことになる。なお、映像と表示面の動きが同期するように、S32の映像データBの転送タイミングを遅らせて、S36の動作データの送信時に映像データBを転送してもよい。
 また、S42で映像データAを表示装置1Bに転送した通信端末2Bにおいても、通信端末2Aと同様に、映像データAの解析が行われ(S43)、動作データを生成する場合には生成して表示装置1Bに送信する(S44~S46)。そして、表示装置1Bは、動作データを受信すると(S54:動作データ取得ステップ)、動作機構19を動作させる(S55:動作制御ステップ)。
 なお、上述の例では、テレビ電話の相手方の映像を解析して動作データを生成しているが、解析の対象となる映像は、表示装置1が表示する映像であればよく、この例に限定されない。例えば、テレビ番組やインターネット上の動画コンテンツなどを表示装置1に表示させる場合には、それらのコンテンツの映像を解析して動作データを生成してもよい。
 (処理の流れ:テレビ電話の相手方の表示面の動きに連動させて表示面を動かす)
 表示装置1は、テレビ電話中に相手方の表示装置1の表示面が動かされたときに、その動きに連動して表示面を動かすことができる。ここでは、この処理について図9を用いて説明する。図9は、テレビ電話の相手方の表示面の動きに連動させて表示面を動かす処理の一例を示すフローチャートである。なお、図9では省略しているが、図8と同様にして映像データの送受信は行われており、映像の解析に基づく動作データの生成や送信も適宜行われる。
 表示装置1Aの動作データ送信部103は、センサ部16から動作データ(センシングデータ)を受信したことを確認する(S61)と、該動作データが、受信した動作データによる表示装置1Aの動作に起因するか否か判断する(S62)。言い換えれば、センサ部16が検知した表示装置1Aの動きが、通信端末2Aの制御に基づき動作機構19を動作させることによって生じた動きであるか否かを判断する。具体的には、動作データ送信部103は、センサ部16から動作データを受信する直前に動作データ取得部104が動作データを取得していれば、受信した動作データに基づく動作であると判断する。
 ここで、受信した動作データに基づく動作であると判断した場合(S62でYES)、処理は図8のS21に進む。一方、受信した動作データに基づく動作ではないと判断した場合(S62でNO)、動作データ送信部103がセンサ部16から受信した動作データを通信端末2Aに送信し(S63)、処理は図8のS21に進む。
 続いて、上記動作データを受信した通信端末2Aでは、通信制御部124が当該動作データを通信端末2Bに転送し(S71)、通信端末2Aの処理は図8のS31に進む。また、上記動作データを受信した(動作データ取得ステップ)通信端末2Bにおいても、通信制御部124が当該動作データを表示装置1Bに転送し(S81)、通信端末2Bの処理は図8のS41に進む。
 そして、表示装置1Bの動作データ取得部104は、S81の処理で転送された動作データを受信し(S91:動作データ取得ステップ)、受信した動作データを動作制御部107に送信して動作機構19を動作させる(S92:動作制御ステップ)。この後、表示装置1Bの処理は図8のS51に進む。
 なお、相手方が表示装置1を使用しておらず、通信端末2のみあるいはパーソナルコンピュータ等の他の機器を用いている場合には、動作データを送信しても相手方で表示面が動くことはない。このため、相手方が表示装置1を使用していることを確認する処理を行った上で、動作データの送信を行ってもよい。また、この場合、相手方が表示装置1を使用していない(相手方の使用機器に表示面を動かす機能がない)ことが確認されたときには、動作データを送信する代わりに、表示面が動かされたことを相手方に通知するための代替処理を行ってもよい。例えば、表示面が動かされたことや、表面がどのように動かされたかを示す画像を送信して表示させてもよいし、相手方の使用する機器が振動を生じさせるバイブレーション機能を備えている場合には、該機能を動作させる命令を送信してもよい。
 また、上述の例では、通信端末2Aおよび2Bを介して、表示装置1Aと1Bとが間接的に通信しているが、表示装置1Aおよび1Bにネットワークを介した通信機能を搭載して、表示装置1Aと1Bとで直接通信するようにしてもよい。
 〔表示装置1の使用例3:コミュニケーションアプリ〕
 表示装置1は、通信を介したコミュニケーションに使用されるソフトウェア(以下、コミュニケーションアプリと呼ぶ)に関する情報を表示する装置として使用することもできる。例えば、近時急速に普及したコミュニケーションアプリには、スタンプと呼ばれる画像を、単独またはメッセージと共に投稿することができるようになっている。表示装置1は、このようなスタンプの表示に使用することができ、また表示させたスタンプの種類に応じて表示面を動かすこともできる。
 以下では、表示装置1に表示させたスタンプに応じて表示面を動かす例を図10に基づいて説明する。図10は、表示させたスタンプに応じて表示面を動かす際の表示装置1における処理の一例を示すフローチャートである。なお、同図では、スタンプの画像の表示を中心に説明を行うが、投稿されたメッセージの文面等、コミュニケーションアプリに関する他の情報についても表示対象に含めてもよい。また、表示するスタンプに応じた音声(例えば効果音)を出力してもよい。
 なお、図示の例では、通信端末2から受信したデータ(スタンプ)を表示することを想定している。より詳細には、通信端末2の端末側動作データ取得部121は、コミュニケーションアプリにて投稿されたスタンプを取得し、データ送信部122により該スタンプを表示装置1に送信して表示させることを想定している。
 表示装置1の動作データ取得部104は、受信したデータを確認し(S104)、受信したデータに、動作データが対応付けられた画像である動作データ対応画像が含まれているか判断する(S111)。ここで、動作データ対応画像が含まれていないと判断した場合(S111でNO)には、S114の処理に進む。
 一方、動作データ対応画像が含まれていると判断した場合(S111でYES)、動作データ取得部104は、当該動作データ対応画像を表示制御部105に送信し、対応付けられた動作データを動作制御部107に送信する。これにより、表示制御部105は受信した画像データの画像を表示し(S112:表示制御ステップ)、動作制御部107は受信した動作データに従って動作機構19を動作させる(S113:動作制御ステップ)。この場合、S110が動作データ取得ステップとなる。これらの処理により、例えば図3の(f)の例のように、画像(動作データ対応画像)が表示されると共に、表示装置1の表示面が動くことになる。
 この後、動作データ取得部104は、受信データの受信が終了したかを判断し(S114)、受信終了と判断した場合(S114でYES)には処理を終了し、受信終了していないと判断した場合(S114でNO)にはS110の処理に戻る。
 なお、動作データ対応画像に対応付けられた動作データは、表示装置1の外部から取得してもよいし、表示装置1の記憶部11等に予め格納しておいたものを取得してもよい。前者の場合、例えば通信端末2でコミュニケーションアプリを使用している際に、スタンプが投稿されたときに、そのスタンプに予め設定された感情(怒り、悲しみ、喜び等)に応じた動作データを動作データ生成部123で生成し、表示装置1に送信してもよい。また、後者の場合、予めスタンプに応じた動作データを記憶部11に記憶しておき、通信端末2から受信したスタンプに応じた動作データを記憶部11から読み出して、動作機構19を動作させてもよい。また、スタンプに応じた動作データをサーバから配信することにより、スタンプに応じた動きで表示面を動かすようにしてもよい。
 さらに、上述の例では、コミュニケーションアプリで使用されるスタンプに動作データを対応付けているが、動作データを対応付ける対象となる画像は、この例に限定されない。例えば、電子メール等で使用される絵文字に動作データを対応付けてもよい。この場合、表示装置1に電子メールを表示させるときに、その文面に含まれる絵文字を表示すると共に、その絵文字に対応付けられた動作データで表示面を動かしてもよい。
 〔表示装置1の使用例4:広告〕
 表示装置1は、表示面を動かすことにより、周囲の人の注意を引き付けることができ、また表示内容を注視させることができるので、広告を表示する装置としても好適に利用できる。以下では、表示装置1に広告を表示させる例を図11および図12に基づいて説明する。
 図11は、表示装置1の一使用例を示す図であり、表示装置1を広告の表示に使用した例を示している。例えば店頭などに設置した表示装置1に広告を表示する場合、表示装置1の前を通りかかった者に対して広告内容をアピールする必要がある。そこで、表示装置1は、近くに人を検出した場合に、検出した人に表示面が向くように表示面を動かす処理を行う。また、上述の各例と同様に、表示する広告の内容に応じて表示面を動かす処理を行う。
 (処理の流れ:検出した人に向くように表示面を動かす)
 図12は、広告を表示させる場合に表示装置1が実行する処理の一例を示すフローチャートである。なお、同図では、通信端末2から受信したデータ(広告コンテンツ)を表示することを想定している。より詳細には、同図には示していないが、通信端末2の端末側動作データ取得部121は、記憶部21から広告コンテンツを読み出し、データ送信部122により該広告コンテンツを表示装置1に送信して表示させることを想定している。ただし、表示するデータは、予め表示装置1に記憶しておいてもよいし、通信端末2以外の装置(広告配信サーバ等)から受信してもよい。
 動作データ取得部104は、データ(広告コンテンツ)を受信したことを確認する(S100)と、人検出部101に人の検出を開始するように指示する。そして、この指示を受信した人検出部101は、撮影部15に撮影を開始させ、撮影された画像を解析して人を検出する(S101)。また、画像中に人が映っていることを検出した人検出部101は、表示装置1から検出した人までの距離を算出し(S102)、検出した人までの距離が所定の距離より近いか否かを判断する(S103)。
 ここで、所定の距離よりも遠いと判断した場合(S103でYES)、処理はS100に戻る。一方、所定の距離よりも近いと判断した場合(S103でYES)、人検出部101は、当該人の位置する方向(例えば撮影部15の撮影範囲の中心を基準として表した方向)を動作データ取得部104に通知する。そして、動作データ取得部104は、通知された方向に表示面を向ける動作データ(例えば撮影部15の撮影範囲の中心に人が来るように動かす動作データ)を生成して動作制御部107に送信し、これにより表示面を人に向ける(S104)。
 なお、複数の人が検出された場合、検出人数が少なければ、検出した一人(例えば最初に検出した人や最も表示装置1に近い人)に表示面を向ければよい。また、検出人数が多い場合、人がより多く集まっている方向に表示面を向ければよい。
 続いて、動作データ取得部104は、S100にて受信を確認したデータに動作データが含まれているか否かを判断する(S105)。ここで、動作データが含まれていないと判断した場合(S105でNO)、動作データ取得部104は、受信したデータに含まれる画像を表示制御部105に送信し、音声データを音声出力部18に送信する。これにより、表示制御部105による画像の再生(表示)と、音声出力部18による音声再生(出力)が行われる(S107)。なお、音声の再生は必須ではない。
 一方、動作データが含まれていると判断した場合(S105でYES)、動作データ取得部104は、当該動作データを動作制御部107に送信して動作機構を動作させる(S106:動作制御ステップ)。この場合、S100が動作データ取得ステップとなる。また、動作データ取得部104は、上述のようにして映像および音声の再生を行わせる(S107:表示制御ステップ)。
 この後、動作データ取得部104は、データの受信が終了しているか否かを判断し(S108)、受信終了と判断した場合(S108でYES)、処理を終了する。一方、受信終了していないと判断した場合(S108でNO)、S100の処理に戻る。
 なお、上記の例では、検出した人に表示面を向けた後は、人の検出に基づいて表示面を動かすことはしていないが、その後も継続的に人の検出と、それに基づいて表示面を動かす処理を行ってもよい。これにより、表示装置1の前で人が動いたときに、それに追従して表示面を動かすことができる。また、表示する映像が広告である例を説明したが、広告以外の任意の映像の表示の際に、上述の処理を適用できることはもちろんである。
 〔映像に対する投稿に応じて表示面を動かす〕
 近時、映像に対するコメントやメッセージの投稿を受け付け、これを映像と共に表示させる(重畳表示してもよいし、重畳せずに表示してもよい)サービスが広く知られるようになっているが、表示装置1は、このような投稿に応じて表示面を動かしてもよい。これについて、図13に基づいて説明する。
 図13は、映像に対して投稿されたコメント量に応じて表示面を動かす例を示す図である。同図の(a)~(c)の表示装置1は、何れも映像を表示していると共に、この映像に重畳して、該映像に対して投稿されたコメントを表示している。
 このうち、同図の(a)の表示装置1は表示しているコメントの量が少なく、このため、この表示装置1は表示面を動かしていない。一方、同図の(b)の表示装置1は表示しているコメントの量が多く、このため、この表示装置1は表示面を動かしている。この例のように、表示装置1の動作制御部107は、表示している映像に対して投稿されたコメントの量が所定の下限値を超えたときに表示面を動かしてもよい。なお、コメント量の多寡を決定する基準は特に限定されず、例えば投稿されたコメントの数、文字数、表示されたコメントが表示面上に占める面積、等を基準(所定の下限値)としてもよい。この他にも、所定の投稿者からのコメント数や、その文字数を基準としてもよいし、コメント中の所定の単語や記号の数を基準としてもよい。
 また、同図の(c)に示すようにコメント量が少ない場合には、動作制御部107は、同図の(b)のようにコメント量が多い場合と比べて弱い動きで表示面を動かしてもよい。なお、動きの強弱は、動きの振幅の大小、動きの周期の長短、およびこれらの組み合わせによって表現できる。
 以上のような構成によれば、映像に対する投稿が盛んに行われていることを、ユーザが認識することを容易にすることができる。なお、上記のような表示面の動きを実現するための動作データは、例えば以下のようにして生成することができる。以下では、投稿数を基準として投稿量の多寡を判断する例を説明するが、上述のようにこの判断の基準は投稿数に限られない。
 まず、動作データ生成部123は、表示装置1が表示する映像を解析し、該映像に対するコメント等の投稿が行われているか否かを判断する。なお、投稿の有無を映像解析によって行う代わりに、投稿を受け付けるサーバ等に問い合わせをすることによって判断してもよい。
 ここで、投稿が行われていると判定した場合、動作データ生成部123は、投稿数が下限値を超えているか否かを判断する。なお、投稿数は、投稿の有無の判定と同様に、映像解析で特定してもよいし、サーバ等への問い合わせによって特定してもよい。そして、動作データ生成部123は、投稿数が下限値を超えていると判断した場合に、投稿量が多い場合の動きとして予め定められた動きを示す動作データを生成する。これにより、動作制御部107は、投稿量が多くなったときに、表示面を動かすことができる。また、投稿量の多寡に応じて動きの強弱を変える場合、投稿量に段階的な閾値を設け、各段階に対応する強度の動きを示す動作データを生成すればよい。
 なお、動作データの生成を通信端末2で行う場合には、生成した動作データを表示装置1に送信すればよく、表示装置1に動作データ生成部123を設けた場合には、このような送信は不要である。また、これら以外の装置で生成した動作データを取得して表示面を動かしてもよい。例えば、投稿を受け付けるサーバ等が、受け付けた投稿に基づいて動作データを生成し、配信するようにしてもよく、この場合、表示装置1は、配信された動作データを直接、または通信端末2等の他の装置を介して取得すればよい。
 〔映像の内容に連動して表示面を動かす他の例〕
 次に、映像の内容に連動して表示面を動かす他の例を図14に基づいて説明する。図14は、笑いがおきている映像に連動して表示面を動かす例を示す図である。同図の(a)では笑いのない映像が表示されており、表示装置1の表示面は動いていないが、同図の(b)では笑いがおきている映像が表示されており、表示装置1の表示面は動いている。この例のように、表示装置1の動作制御部107は、表示している映像の内容に連動して表示面を動かしてもよい。
 この場合、動作データ生成部123は、表示装置1が出力する音声を解析し、笑い声が含まれると判断した場合に、笑いの映像に対応する動作データを生成すればよい。なお、笑い声が含まれるか否かは、音声の周波数を解析する等によって判断可能であり、この場合、所定の帯域の周波数が音声に含まれている場合に、その所定の帯域に対応する動きで表示面を動かすことになる。以上のような構成により、笑いがおきているシーン、すなわち盛り上がっているシーンで表示面を動かし、そのシーンに注目させることができる。同様にして歓声がおきているシーンで表示面を動かすことも可能である。
 また、音量を指標として、表示面を動かすか否か(動作データを生成するか否か)を判断してもよい。スポーツ番組やバラエティ番組等では、盛り上がっているシーンで音量が上がる傾向があるので、これにより盛り上がったシーンで表示面を動かすことができる。この他にも、盛り上がったシーンでは、出演者の多くが笑顔になる傾向があるので、映像中の複数の人物の表情を解析し、笑顔の人物が所定数以上となったときに表示面を動かしてもよい。
 また、動作制御部107は、映像中の文字列の内容に応じて表示面を動かしてもよい。映像中の文字列は、映像の内容を示す情報の1つであるから、これにより、映像に応じた動きで表示面を動かすことができる。例えば、「寒い」との文字列が表示されたときに、表示面を小刻みに揺らして、表示装置1および表示されている画像が震えているような感覚をユーザに与えてもよい。また、例えば「嬉しい」との文字列が表示されたときに、上下に激しく揺らして、喜びの感情を動きで表現してもよい。
 なお、対象とする文字列は、映像中に含まれるものであれば特に限定されず、例えば、ユーザの入力した文字(例えばSNSやメッセージアプリ等への投稿メッセージや電子メール等)、テロップ、字幕などの文字列が挙げられる。また、表示面を動かすタイミングは、文字列を表示したタイミングに限られず、例えば投稿メッセージや電子メールのように、送信する文字列に応じた動きをさせる場合には、その送信時に表示面を動かしてもよい。そして、文字列に応じた動作データの生成は、当該文字列に応じた動きで表示面を動かすまでの任意のタイミングで行えばよい。
 文字列の内容に応じて表示面を動かす場合、動作データ生成部123は、映像中の文字列を解析して、所定の文字列が含まれているか否か、または所定の内容が記述されているか否かを判断する。そして、含まれているまたは記述されていると判断した場合に、その所定の文字列または所定の内容に対応する動作データを生成する。なお、動作データの生成を外部のサーバ等で行ってもよいことは上述の通りである。
 〔スタンプの自動選択〕
 図10では、表示装置1に表示させたスタンプに応じて表示面を動かす例を説明した。これに関連して、表示するスタンプを自動で選択する構成を採用することも可能である。これについて、図15に基づいて説明する。図15は、映像および音声の解析により、表示するスタンプの選択、および動作データの生成を行う例を説明する図である。なお、ここでは、表示装置1が撮影した映像および音声を解析して、表示装置1がスタンプの選択と動作データの生成を行う例を説明する。つまり、本例では、表示装置1が動作データ生成部123を備えているものとして説明を行う。なお、本例で説明する処理は、通信端末2が実行することも可能である。
 同図の例では、ユーザが発話する様子が表示装置1によって撮影されている。そして、撮影された映像を解析することにより、ユーザが笑顔であることが検出されている。また、音声を解析することにより、「うれしい」、「すごい」、「楽しかった」の単語が検出されている。これらの解析は、動作データ生成部123によって行われる。
 次に、動作データ生成部123は、上記の解析結果に応じたスタンプを選択すると共に、該解析結果に応じた動作データを生成する。なお、スタンプ(画像)は、予め複数種類用意しておく。また、どのような解析結果が得られたときに、何れのスタンプを選択するかも予め決めておく。動作データについても同様である。例えば、笑顔が検出されたときに、楽しいことを示すスタンプを選択し、楽しさを示す動きの動作データを生成してもよい。また、映像の解析結果と音声の解析結果とのそれぞれに基づいて異なるスタンプと動作データとを選択、生成してもよいし、これらの解析結果の組み合わせに基づいて1つのスタンプと動作データとを選択、生成してもよい。例えば、笑顔で励ましの言葉を発したユーザの映像・音声を取得した場合に、笑顔に対応するスタンプと動作データを生成すると共に、励ましの言葉に対応するスタンプと動作データを生成してもよい。また、同じ場合に、笑顔と励ましの言葉の何れかまたは両方に対応する1つのスタンプと1つの動作データを生成してもよい。そして、映像の解析結果と音声の解析結果との両方に対応する動作データは、映像の解析結果に対応する動作データと、音声の解析結果に対応する動作データとを組み合わせた動作データであってもよい。これにより、表示面をバリエーションに富んだ動きで動かすことが可能になる。
 そして、表示装置1の表示制御部105は、上記のようにして選択されたスタンプを表示面に表示し、動作制御部107は、上記のようにして生成された動作データを用いて表示面を動かす。これにより、ユーザは、表示装置1に対して何ら操作を行うことなく、自身の気分などに応じたスタンプが表示されるのを、そのスタンプに応じた動きと共に楽しむことができる。無論、表示する画像としては、スタンプと呼ばれるものに限られず、任意の画像が適用できる。
 〔実施形態2〕
 上記実施形態では、球状の筐体3を有し、重心位置を変えることで表示面を動かす動作機構19を備える表示装置1を例示して説明を行ったが、表示装置1は、表示面を動作機構にて動かすことができる構成となっていればよく、上述の例に限られない。本実施形態では、表示面を動かす機構の他の例を図16に基づいて説明する。図16は、表示面を動かす機構の他の例を示す図である。
 同図の(a)の例では、円筒を縦に切った形状(半円柱)の筐体30を使用し、筐体30の外表面のうち、長方形の平面部分(円柱の切断面に相当する部分)に表示部17の表示面を配置している。この構成では、上述の動作機構19と同様の動作機構にて重心を移動させることにより、図示のように筐体30の外縁部(断面が半円状の部分)に沿って筐体30全体を揺動させ、これにより表示面を揺動させることができる。この例では、上記実施形態と同様に、筐体の外縁部が円弧状であるから、滑らかな揺動が可能である。
 同図の(b)の例では、表示部17が第1筐体40に設けられ、第1筐体40は、ヒンジ42を介して第2筐体41と接続されており、これにより同図の矢印方向に回動可能に構成されている。このように、ヒンジ42等の回動部材により、表示部17の表示面を動かすことも可能である。なお、この場合、回動部材にモータ等の駆動部を接続することにより、表示面の動きを制御することが可能である。この例は、一般的なノート型パソコンの筐体と同様の構成であり、このため、例えば、一般的なノート型パソコンにヒンジ部を駆動する動作機構を搭載することにより、本発明の表示装置とすることも可能である。
 同図の(c)の例では、関節部51が設けられているアームに、関節部50を介して表示部17が取り付けられている。この場合、関節部50および関節部51を動かす動作機構により、表示部17の表示面の動きを制御することができる。
 同図の(d)~(f)の例では、ディスプレイスタンド60と表示部17を、接続部61を介して接続している。接続部61は、ディスプレイスタンド60と表示部17を回動可能に接続しており、これにより、表示部17の表示面は接続部61を固定点として可動となっている。例えば、傾ける(同図のd)、左右に動かす(同図のe)、上下に動かす(同図のf)、等の動きが可能である。この場合、接続部61に駆動部を接続することにより、表示面の動きを制御することが可能である。
 〔実施形態3〕
 本発明の他の実施形態について、図17に基づいて説明する。図17は、本発明の一実施形態に係る配信システム200の概要を示すブロック図である。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。本実施形態では、サーバから動作データを配信する配信システムについて説明する。
 図17に示す配信システム200は、表示装置1に動作データを配信するシステムであって、動作データを配信するサーバ(制御装置)210と、配信される動作データを受信する表示装置1および通信端末2とを含む。なお、配信システム200において動作データを受信する装置は、表示装置1と通信端末2に限られず、サーバ210と通信可能な装置であれば任意の装置が動作データの受信主体となり得る。
 サーバ210は、上記実施形態の通信端末2と同様に、動作データを生成する機能を備えており、アップロードされた映像に応じた動作データを自動的に生成し、これを配信することができる。より詳細には、サーバ210は、図示しない制御部と通信部とを備えており、制御部には映像取得部、動作データ生成部123、動作データ取得部、および動作データ送信部が含まれている。なお、制御部は通信端末2の制御部20と同様であり、通信部は通信端末2の第1通信部22と同様である。
 映像取得部は、動作データの生成対象となる映像を取得するものであり、上述のように、サーバ210に対してアップロードされた映像を、通信部を介して取得する。そして、取得した映像を動作データ生成部123に送信し、これにより、動作データ生成部123が該映像に応じた動作データを生成する。なお、映像に応じた動作データの生成方法については、上記実施形態で説明した通りであるから、ここでは説明を省略する。そして、動作データ取得部は、このようにして生成された動作データを動作データ送信部に送信し、動作データ送信部はこれを表示装置1に直接、または通信端末2等の他の装置を介して送信する。
 例えば、表示装置1にて撮影した映像がアップロードされた場合、サーバ210の映像取得部はアップロードされた映像を取得し、動作データ生成部123はこの映像に応じた動作データを生成し、動作データ取得部はこれを取得する。そして、動作データ送信部は、取得された動作データを当該表示装置1に送信する。これにより、表示装置1に動作データの生成機能を持たせることなく、表示面を動かしながら映像を閲覧させることができる。
 なお、動作データ送信部は、動作データを映像と共に送信してもよい。例えば、上記の例において、映像をアップロードした表示装置1とは異なる他の表示装置1にも動作データを映像と共に送信してもよい。また、このような送信は、表示装置1からのリクエストに応じて行ってもよいし、動作データ送信部が主体的に所定の表示装置1に対して配信してもよい。そして、配信先は複数であってもよく、例えば1つの表示装置1から受信した映像と、その映像に応じた動作データとを、複数の表示装置1に対して一斉に配信してもよい。
 また、図17に示すように、通信端末2がサーバ210と通信して動作データを取得してもよい。この場合、通信端末2の端末側動作データ取得部(動作データ取得部)121は、映像をサーバ210に送信して該映像に応じた動作データを取得し、データ送信部122はこの動作データを映像と共に表示装置1に送信する。なお、サーバ210に送信する映像の取得元は特に限定されず、例えば表示装置1であってもよいし、動画投稿サイト等のコンテンツ配信サーバであってもよい。この他にも、通信端末2が撮影装置を備えている場合には、該撮影装置で撮影した映像を用いてもよいし、通信端末2で動作するアプリケーションソフトウェア(例えばゲーム等)により生成あるいは取得された映像を用いてもよい。
 また、通信端末2は、映像および動作データの送信をサーバ210に要求し、この要求に応じて送信された映像および動作データを表示装置1に転送してもよい。この場合、ユーザは、サーバ210が送信可能な映像の中から、所望の映像を通信端末2で選択し、その映像を表示面の動きと共に表示装置1にて楽しむことができる。例えば、SNS(Social Networking Service)には、動画の投稿、閲覧が可能なものがあるから、SNSのサーバにサーバ210と同様の機能を持たせ、ユーザが通信端末2で選択した映像と、その映像に応じた動作データとを配信してもよい。また、動画投稿サイトや動画配信サイトのサーバにサーバ210と同様の機能を持たせ、ユーザが通信端末2で選択した映像と、その映像に応じた動作データとを配信してもよい。
 この他にも、映像をライブ配信するサービスや、コンテンツ配信プラットフォーム等にサーバ210を設け、動作データと共に映像コンテンツを配信する構成等が考えられる。また、広告の配信を行うサーバにサーバ210と同様の機能を持たせ、該サーバにより広告の映像に応じた動作データを生成し、広告の映像と共に配信してもよい。
 なお、上述のサーバ210は、映像の取得、動作データの生成、映像の送信、および動作データの送信を行うが、これらの処理を個別のサーバで行う構成としてもよい。例えば、映像のアップロードを受け付けるサーバと、動作データを生成するサーバと、動作データを送信するサーバと、映像を送信するサーバとの組み合わせによってもサーバ210と同様の機能を実現できる。
 〔変形例〕
 上記実施形態1では、動作データの生成を通信端末2が行う例を説明したが、表示装置1が動作データを生成してもよい。この場合、動作データ生成部123を表示装置1に設け、動作データ生成部123により、表示する映像の解析および動作データの生成を行えばよい。
 また、上記実施形態1では、表示装置1に対する、動作データの送信と映像データの送信を1つの通信端末2が行う例を示したが、これらのデータの送信元が異なっていてもよい。例えば、表示装置1は、映像配信サーバ等から映像データを受信してもよい。このような場合であっても、通信端末2は、表示装置1が表示している映像データがどのような映像データであるかを特定できれば、その映像に応じた動作データを生成し、表示装置1に送信することができる。例えば、映像配信サーバ等から、配信中のデータに関する情報(映像そのものであってもよいし、配信中のシーンの内容を示すシーン情報等であってもよい)を取得して動作データを生成してもよい。
 また、上記実施形態1では、映像等の解析によって、あるいは撮影装置5に取り付けたセンサで取得したデータに基づいて動作データを生成する例を説明したが、動作データの生成方法はこれらの例に限られない。例えば、通信端末2や、他の装置(例えばパーソナルコンピュータ等)でオーサリングツールを用いて映像に応じた動作データを生成してもよい。この場合、映像中の所望のタイミングで表示面を動かすことができるように、動作データと共に、映像と同期させるための同期データ(例えば再生時間情報)を生成することが好ましい。そして、このような同期データを取得した際には、動作制御部107は、当該同期データの示すタイミングで表示面を動かすことが好ましい。
 また、例えば、表示装置1の動きをセンサ部16で検出し、これを動作データとして記録してもよい。この場合、制御部10に、センサ部16の検出した動きを動作データとして記録する動作データ記録部を設ければよい。これにより、ユーザは、所望の動きを動作データとして記録し、その動きで表示面を動かしながら、その動きに応じた好みの映像を楽しむことができる。このような動作データの記録は、ジャイロセンサや加速度センサを備えた装置であれば、表示装置1以外の装置でも行うことができる。例えば、通信端末2がこれらのセンサを備えていれば、通信端末2を動かして、その動きに応じた動作データを生成することもできる。
 また、生成した動作データを単独で、あるいはそれに対応する映像と共に他の表示装置1に直接または間接に送信してもよく、これにより、当該他の表示装置1も、その動作データの動きで表示面を動かすことが可能になる。例えば、通信端末2で生成し、記録した動作データは、所望のタイミングで表示装置1に送信し、これにより表示面を動かすことができる。また、例えば、表示装置1で映像を撮影し、該映像に応じた動作データ、あるいは撮影時に表示装置1のセンサ部16で検出した動きに応じた動作データを生成して、他の表示装置1に送信してもよい。後者の場合、データ送信側の表示装置1の表示面の動きを、データ受信側の表示装置1(他の表示装置)で再現することができる。なお、この場合、データ送信側の表示装置1は、受信側の表示装置1の動作を制御する制御装置として機能することになる。さらに、例えば、他の表示装置1から該表示装置1の撮影した映像を受信し、該映像に応じた動作データを生成して表示面を動かしてもよい。このように、表示装置1間でデータの送受信を行う場合、各表示装置1に通信端末2と同様の通信機能およびユーザインターフェースを設ければよい。
 また、例えば、動画投稿サイトに映像をアップロードすると共に、生成した動作データもアップロードしてもよい。これにより、当該映像を表示装置1で閲覧する際に、映像と共に動作データもダウンロードして、当該映像を当該動作データの動きと合わせて楽しむことができる。また、動画投稿サイト側に上記実施形態3のサーバ210を設け、アップロードされた映像に応じた動作データを生成してもよく、この場合も上記と同様の効果が得られる。無論、アップロード先は、動作データを配信可能なサーバであればよく、動画投稿サイトのサーバに限られない。例えば、SNSのサーバにサーバ210と同様の機能を持たせ、該サーバに動作データをアップロードしてもよい。この場合、SNS経由で動作データを取得し、SNS上の映像を、取得した動作データと組み合わせて楽しむことができる。
 〔ソフトウェアによる実現例〕
 表示装置1および通信端末2の制御ブロック(特に制御部10および制御部20)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、表示装置1および通信端末2は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る制御装置は、表示面を備えた表示装置(1)を制御する制御装置(通信端末2)であって、上記表示面を動かすための、上記表示面に表示される映像に応じた動作データを生成する動作データ生成部(123)と、上記動作データ生成部が生成した動作データを上記表示装置に送信して、該動作データに従って上記表示面の動作機構を動作させて該表示面を動かす制御を上記表示装置に実行させるデータ送信部(122)と、を備えている。
 上記の構成によれば、映像に応じた動作データを生成して表示装置に送信するので、該表示装置は、表示する映像に応じた動きで表示面を動かすことができる。したがって、映像に応じた動きによって映像に視覚効果を付与することができるという効果を奏する。なお、動きによって付与される視覚効果は、動きがあることによって生じる効果であればよく、特に限定されない。例えば、上記視覚効果としては、映像の内容に注目させる効果の他に、臨場感や立体感が生じる等の効果が挙げられる。
 本発明の態様2に係る制御装置は、上記態様1において、上記動作データ生成部は、上記映像中の所定のオブジェクトの動きに応じた動作データを生成してもよい。
 上記の構成によれば、映像中のオブジェクトの動きに応じて動作データを生成するので、映像を観ている者に対して、映像中のオブジェクトの動きを強調して伝えることができるという効果を奏する。なお、所定のオブジェクトは、映像中の所定範囲を占めるものであればよい。例えば、映像中の人物の体全体であってもよいし、体の一部(頭や手、眼球の黒目部分等)であってもよい。
 本発明の態様3に係る制御装置は、上記態様1または2において、上記動作データ生成部は、上記映像中の人物またはキャラクターの表情に応じた動作データを生成してもよい。
 上記の構成によれば、映像中の人物またはキャラクターの表情に応じて動作データを生成するので、映像を観ている者に対して、映像中の人物またはキャラクターの表情(あるいはその表情に応じた感情)を強調して伝えることができるという効果を奏する。例えば、映像中の人物が微笑んでいるときに、表示面をゆっくりと搖動させることにより、該人物の微笑んだ表情に注目させることができ、また、該人物の穏やかな喜びの感情を強調して伝えることができる。
 本発明の態様4に係る制御装置は、上記態様1から3の何れか1態様において、上記映像中の人物またはキャラクターの発話内容に応じた動作データを生成してもよい。
 上記の構成によれば、映像中の人物またはキャラクターの発話内容に応じて動作データを生成するので、映像を観ている者に対して、映像中の人物またはキャラクターの発話内容、またはその発話内容に応じた感情を強調して伝えることができるという効果を奏する。例えば、映像中の人物が驚いた旨の発話をしたときに、表示面を後ろ側に倒れ込むように動かすことにより、該人物の驚きの感情を強調して伝えることができる。
 本発明の態様5に係る表示装置(1)は、表示面を備えた表示装置であって、上記表示面を動かすための、上記表示面に表示する映像に応じた動作データを、上記表示装置の動作を制御する制御装置(通信端末2)から取得する動作データ取得部(104)と、上記表示面に上記映像が表示されているときに、上記動作データに従って上記表示面の動作機構を動作させて上記表示面を動かす動作制御部(107)と、を備えている。
 上記の構成によれば、表示する映像に応じた動作データを取得し、該動作データに従って表示面を動かすので、映像と表示面の動きの組み合わせによる新たな視覚効果を生み出すことができるという効果を奏する。
 本発明の態様6に係る表示装置は、上記態様5において、上記動作データ取得部は、上記映像中の所定のオブジェクトの動きに応じた動作データを取得してもよい。該構成によれば、映像中のオブジェクトの動きに応じた動作データを取得するので、映像を観ている者に対して、映像中のオブジェクトの動きを強調して伝えることができるという効果を奏する。
 本発明の態様7に係る表示装置は、上記態様5または6において、上記動作データ取得部は、上記映像中の人物またはキャラクターの表情に応じた動作データを取得してもよい。該構成によれば、映像中の人物またはキャラクターの表情に応じた動作データを取得するので、映像を観ている者に対して、映像中の人物またはキャラクターの表情(あるいはその表情に応じた感情)を強調して伝えることができるという効果を奏する。
 本発明の態様8に係る表示装置は、上記態様5から7の何れか1態様において、上記動作データ取得部は、上記映像中の人物またはキャラクターの発話内容に応じた動作データを取得してもよい。該構成によれば、映像中の人物またはキャラクターの発話内容に応じた動作データを取得するので、映像を観ている者に対して、映像中の人物またはキャラクターの発話内容、またはその発話内容に応じた感情を強調して伝えることができるという効果を奏する。
 本発明の態様9に係る表示装置は、上記態様5から8の何れか1態様において、上記動作データ取得部は、上記映像を撮影したときの撮影装置または撮影者の動きを示す動作データを取得してもよい。該構成によれば、映像を撮影したときの撮影装置または撮影者の動きを示す動作データを取得するので、映像を観ている者に対して、映像の撮影時の臨場感を伝えることができるという効果を奏する。
 本発明の態様10に係る表示装置は、上記態様5から9の何れか1態様において、上記動作データ取得部は、上記映像中の文字列の内容に応じた動作データを取得してもよい。映像中の文字列は、映像の内容を示す情報の1つであるから、上記の構成によれば、映像に応じた動きで表示面を動かすことができる。
 本発明の態様11に係る制御装置は、表示面を備えた表示装置を制御する制御装置であって、上記表示面を動かすための、上記表示面に表示される映像に応じた動作データを取得する動作データ取得部と、上記動作データ取得部が取得した動作データを上記表示装置に送信して、該動作データに従って上記表示面の動作機構を動作させて該表示面を動かす制御を上記表示装置に実行させるデータ送信部と、を備えている。
 上記の構成によれば、映像に応じた動作データを取得して表示装置に送信するので、該表示装置は、表示する映像に応じた動きで表示面を動かすことができる。したがって、映像に応じた動きによって映像に視覚効果を付与することができるという効果を奏する。なお、動作データは上記制御装置の外部の装置から取得してもよいし、上記制御装置にて生成した動作データを取得してもよい。
 本発明の一態様に係る制御装置の制御方法は、表示面を備えた表示装置(1)を制御する制御装置(通信端末2)の制御方法であって、上記表示面を動かすための、上記表示面に表示される映像に応じた動作データを生成する動作データ生成ステップ(S35、S45)と、上記動作データ生成ステップで生成した動作データを上記表示装置に送信して、該動作データに従って上記表示面の動作機構を動作させて該表示面を動かす制御を上記表示装置に実行させるデータ送信ステップ(S36、S46)と、を含む。該構成によれば、上記態様1と同様の効果を奏する。
 本発明の一態様に係る表示装置の制御方法は、表示面を備えた表示装置(1)の制御方法であって、上記表示面を動かすための、上記表示面に表示する映像に応じた動作データを、上記表示装置の動作を制御する制御装置(通信端末2)から取得する動作データ取得ステップ(S1、S24、S54、S91、S100、S110)と、上記表示面に上記映像が表示されているときに、上記動作データに従って上記表示面の動作機構を動作させて上記表示面を動かす動作制御ステップ(S3、S25、S55、S92、S106、S113)と、を含む。該構成によれば、上記態様5と同様の効果を奏する。
本発明の一態様に係る制御装置(通信端末2)の制御方法は、表示面を備えた表示装置(1)を制御する制御装置(表示装置1、通信端末2、サーバ210)であって、上記表示面を動かすための、上記表示面に表示される映像に応じた動作データを取得する動作データ取得ステップ(S12、S35、S45)と、上記動作データ取得ステップで取得した動作データを上記表示装置に送信して、該動作データに従って上記表示面の動作機構を動作させて該表示面を動かす制御を上記表示装置に実行させるデータ送信ステップ(S13、S36、S46、S81)と、を含む。該構成によれば、上記態様11と同様の効果を奏する。
 本発明の一態様に係る制御装置は、上記の何れか1態様において、上記動作データ生成部は、上記映像に対する投稿に応じた動作データを生成してもよい。該構成によれば、投稿に応じた表示面の動きにより、投稿の状況をユーザに認識させることができるという効果を奏する。なお、「投稿に応じた」とは、投稿に関連する何らかの要素(例えば、投稿数、投稿内容、投稿者、投稿に基づいて表示された文字数等)に連動していることを指す。
 本発明の一態様に係る制御装置は、上記の何れか1態様において、上記動作データ生成部は、上記映像の内容に応じた動作データを生成してもよい。該構成によれば、映像の内容に応じた表示面の動きにより、映像の内容をユーザに強く印象付けることができるという効果を奏する。
 本発明の一態様に係る制御装置は、上記の何れか1態様において、上記動作データ生成部は、上記表示装置の周囲を撮影した撮影映像の内容に応じた動作データを生成してもよい。該構成によれば、上記表示装置の周囲の状況に応じた動きで表示面を動かすことができる。例えば、表示装置の周囲の人を追従するように表示面を動かしたり、人の多い方向に表示面を向けたりすることも可能である。
 また、上記態様において、上記動作データ生成部は、上記撮影映像の内容に応じた映像を上記表示面に表示させると共に、上記撮影映像に応じた動作データを生成してもよい。これにより、ユーザは、撮影映像に応じた動きと共に、撮影映像に応じた映像を楽しむことができる。
 本発明の態様12に係る表示装置(1)は、表示面と、上記表示面に映像を表示させる表示制御部(105)と、上記表示制御部が表示させる映像に応じて上記表示面を動かす動作制御部(107)と、を備えている。
 上記の構成によれば、表示させる映像に応じて表示面を動かすので、映像に応じた動きによって映像に視覚効果を付与することができるという効果を奏する。なお、動きによって付与される視覚効果は、動きがあることによって生じる効果であればよく、特に限定されない。例えば、上記視覚効果としては、映像の内容に注目させる効果の他に、臨場感や立体感が生じる等の効果が挙げられる。
 本発明の態様13に係る表示装置は、上記態様12において、上記動作制御部は、上記映像中の所定のオブジェクトの動きに応じて上記表示面を動かしてもよい。
 上記の構成によれば、映像中のオブジェクトの動きに応じて表示面を動かすので、映像を観ている者に対して、映像中のオブジェクトの動きを強調して伝えることができるという効果を奏する。なお、所定のオブジェクトは、映像中の所定範囲を占めるものであればよい。例えば、映像中の人物の体全体であってもよいし、体の一部(頭や手、眼球の黒目部分等)であってもよい。また、所定のオブジェクトは人であってもよいし、他の動物であってもよく、物体(非生物)であってもよい。また、アニメーションのキャラクターのようにバーチャルなオブジェクトであってもよい。
 本発明の態様14に係る表示装置は、上記態様12または13において、上記映像中の人物またはキャラクターの表情に応じて上記表示面を動かしてもよい。
 上記の構成によれば、映像中の人物またはキャラクターの表情に応じて表示面を動かすので、映像を観ている者に対して、映像中の人物またはキャラクターの表情(あるいはその表情に応じた感情)を強調して伝えることができるという効果を奏する。例えば、映像中の人物が微笑んでいるときに、表示面をゆっくりと揺動させることにより、該人物の微笑んだ表情に注目させることができ、また、該人物の穏やかな喜びの感情を強調して伝えることができる。
 本発明の態様15に係る表示装置は、上記態様12から14の何れか1態様において、上記動作制御部は、上記映像中の人物またはキャラクターの発話内容に応じて上記表示面を動かしてもよい。
 上記の構成によれば、映像中の人物またはキャラクターの発話内容に応じて表示面を動かすので、映像を観ている者に対して、映像中の人物またはキャラクターの発話内容、またはその発話内容に応じた感情を強調して伝えることができるという効果を奏する。例えば、映像中の人物が驚いた旨の発話をしたときに、表示面を後ろ側に倒れ込むように動かすことにより、該人物の驚きの感情を強調して伝えることができる。
 本発明の態様16に係る表示装置は、上記態様12から15の何れか1態様において、上記動作制御部は、上記映像を撮影したときの撮影装置または撮影者の動きを示す動作データを取得し、該動作データを用いて上記表示面を動かしてもよい。
 上記の構成によれば、映像を撮影したときの撮影装置または撮影者の動きを示す動作データを用いて表示面を動かすので、映像を観ている者に対して、映像の撮影時の臨場感を伝えることができるという効果を奏する。なお、撮影者の動きを示す動作データを取得する場合、撮影者の頭部の動きを示す動作データを取得することで、撮影者が撮影を行っているときの臨場感をより正確に伝えることができるので好ましい。
 本発明の態様17に係る表示装置は、上記態様12から16の何れか1態様において、上記動作制御部は、上記映像中の文字列の内容に応じて上記表示面を動かしてもよい。映像中の文字列は、映像の内容を示す情報の1つであるから、上記構成によれば、映像に応じた動きで表示面を動かすことができる。
 本発明の態様18に係る表示装置は、上記態様12から17の何れか1態様において、上記動作制御部は、上記表示装置と直接または間接に通信接続している他の表示装置の表示面が動かされたときに、上記他の表示装置の上記表示面の動きと連動して、上記表示装置の上記表示面を動かしてもよい。
 上記の構成によれば、上記表示装置と直接または間接に通信接続している他の表示装置の表示面が動かされたときに、その動きと連動して表示面を動かすので、表示面を動かすことによるコミュニケーションが可能になるという効果を奏する。特に、上記表示装置をテレビ電話のモニターとして使用する際には、音声での会話と映像に加えて、通話の相手方が動かした表示面の動きが、上記表示装置の動きとして反映されるので、臨場感を高める効果が期待できる。
 本発明の態様19に係る表示装置は、上記態様12から18の何れか1態様において、上記動作制御部は、上記映像に対する投稿に応じて上記表示装置の上記表示面を動かしてもよい。該構成によれば、投稿に応じた表示面の動きにより、投稿の状況をユーザに認識させることができるという効果を奏する。なお、「投稿に応じて」とは、投稿に関連する何らかの要素(例えば、投稿数、投稿内容、投稿者、投稿に基づいて表示された文字数等)に連動していることを指す。
 本発明の態様20に係る表示装置は、上記態様12から19の何れか1態様において、上記動作制御部は、上記映像の内容に応じて上記表示装置の上記表示面を動かしてもよい。該構成によれば、映像の内容に応じた表示面の動きにより、映像の内容をユーザに強く印象付けることができるという効果を奏する。
 本発明の態様21に係る表示装置は、上記態様12から20の何れか1態様において、上記動作制御部は、上記表示装置の周囲を撮影した撮影映像の内容に応じて上記表示装置の上記表示面を動かしてもよい。該構成によれば、上記表示装置の周囲の状況に応じた動きで表示面を動かすことができる。例えば、表示装置の周囲の人を追従するように表示面を動かしたり、人の多い方向に表示面を向けたりすることも可能である。
 また、本発明の態様22に係る表示装置は、上記態様21において、上記表示制御部は、上記撮影映像の内容に応じた映像を上記表示面に表示させ、上記動作制御部は、上記撮影映像に応じた動きで上記表示装置の上記表示面を動かしてもよい。これにより、ユーザは、撮影映像に応じた動きと共に、撮影映像に応じた映像を楽しむことができる。
 本発明の態様23に係る表示装置は、上記態様12から22の何れか1態様において、上記表示面の動きを示す動作データを生成する生成装置(通信端末2)から上記動作データを取得する動作データ取得部(104)を備え、上記動作制御部は、該動作データを用いて上記表示面を動かしてもよい。該構成によれば、生成装置が生成した動作データに応じた動きで表示面を動かすことができる。また、表示装置自体が動作データを生成していない場合であっても、表示面を動かすことができる。
 本発明の態様24に係る表示装置は、上記態様12から23の何れか1態様において、上記表示面の動きを示す動作データを配信する配信サーバから上記動作データを取得する動作データ取得部(104)を備え、上記動作制御部は、該動作データを用いて上記表示面を動かしてもよい。該構成によれば、配信サーバにアクセスすることにより、表示面を動かすことができる。また、表示装置自体が動作データを生成していない場合であっても、表示面を動かすことができる。
 本発明の一態様に係る制御方法は、表示面に映像を表示させる表示装置が実行する制御方法であって、上記表示面に映像を表示させる表示制御ステップ(S4、S23、S53、S107、S112)と、上記表示制御ステップにて表示させる映像に応じて上記表示面を動かす動作制御ステップ(S3、S25、S55、S106、S113)と、を含む。該制御方法によれば、上記態様12と同様の効果を奏する。
 本発明の各態様に係る表示装置および制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記表示装置または上記制御装置が備える各部(ソフトウェア要素)として動作させることにより上記表示装置または上記制御装置をコンピュータにて実現させる表示装置の制御プログラムまたは制御装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 本発明は、表示装置、表示装置を制御する制御装置等に利用することができる。
  1A、1B     表示装置(制御装置)
  2A、2B     通信端末(制御装置)
 19         動作機構
104         動作データ取得部
105         表示制御部
107         動作制御部
121         端末側動作データ取得部(動作データ取得部)
122         データ送信部
123         動作データ生成部
210         サーバ(制御装置)
 S1、S24、S54、S91、S100、S110  動作データ取得ステップ
 S3、S25、S55、S92、S106、S113  動作制御ステップ
 S35、S45    動作データ生成ステップ
 S36、S46    データ送信ステップ
 S4、S23、S53、S107、S112 表示制御ステップ
 S3、S25、S55、S106、S113 動作制御ステップ

Claims (17)

  1.  表示面を備えた表示装置を制御する制御装置であって、
     上記表示面を動かすための、上記表示面に表示される映像に応じた動作データを生成する動作データ生成部と、
     上記動作データ生成部が生成した動作データを上記表示装置に送信して、該動作データに従って上記表示面の動作機構を動作させて該表示面を動かす制御を上記表示装置に実行させるデータ送信部と、を備えていることを特徴とする制御装置。
  2.  上記動作データ生成部は、上記映像中の所定のオブジェクトの動きに応じた動作データを生成することを特徴とする請求項1に記載の制御装置。
  3.  上記動作データ生成部は、上記映像中の人物またはキャラクターの表情に応じた動作データを生成することを特徴とする請求項1または2に記載の制御装置。
  4.  上記動作データ生成部は、上記映像中の人物またはキャラクターの発話内容に応じた動作データを生成することを特徴とする請求項1から3の何れか1項に記載の制御装置。
  5.  表示面を備えた表示装置であって、
     上記表示面を動かすための、上記表示面に表示する映像に応じた動作データを、上記表示装置の動作を制御する制御装置から取得する動作データ取得部と、
     上記表示面に上記映像が表示されているときに、上記動作データに従って上記表示面の動作機構を動作させて上記表示面を動かす動作制御部と、を備えていることを特徴とする表示装置。
  6.  上記動作データ取得部は、上記映像中の所定のオブジェクトの動きに応じた動作データを取得することを特徴とする請求項5に記載の表示装置。
  7.  上記動作データ取得部は、上記映像中の人物またはキャラクターの表情に応じた動作データを取得することを特徴とする請求項5または6に記載の表示装置。
  8.  上記動作データ取得部は、上記映像中の人物またはキャラクターの発話内容に応じた動作データを取得することを特徴とする請求項5から7の何れか1項に記載の表示装置。
  9.  上記動作データ取得部は、上記映像を撮影したときの撮影装置または撮影者の動きを示す動作データを取得することを特徴とする請求項5から8の何れか1項に記載の表示装置。
  10.  上記動作データ取得部は、上記映像中の文字列の内容に応じた動作データを取得することを特徴とする請求項5から9の何れか1項に記載の表示装置。
  11.  表示面を備えた表示装置を制御する制御装置であって、
     上記表示面を動かすための、上記表示面に表示される映像に応じた動作データを取得する動作データ取得部と、
     上記動作データ取得部が取得した動作データを上記表示装置に送信して、該動作データに従って上記表示面の動作機構を動作させて該表示面を動かす制御を上記表示装置に実行させるデータ送信部と、を備えていることを特徴とする制御装置。
  12.  表示面と、
     上記表示面に映像を表示させる表示制御部と、
     上記表示制御部が表示させる映像に応じて上記表示面を動かす動作制御部と、を備えていることを特徴とする表示装置。
  13.  上記動作制御部は、上記映像中の所定のオブジェクトの動きに応じて上記表示面を動かすことを特徴とする請求項12に記載の表示装置。
  14.  上記動作制御部は、上記映像中の人物またはキャラクターの表情に応じて上記表示面を動かすことを特徴とする請求項12または13に記載の表示装置。
  15.  上記動作制御部は、上記映像中の人物またはキャラクターの発話内容に応じて上記表示面を動かすことを特徴とする請求項12から14の何れか1項に記載の表示装置。
  16.  上記動作制御部は、上記映像を撮影したときの撮影装置または撮影者の動きを示す動作データを取得し、該動作データを用いて上記表示面を動かすことを特徴とする請求項12から15の何れか1項に記載の表示装置。
  17.  上記動作制御部は、上記映像中の文字列の内容に応じて上記表示面を動かすことを特徴とする請求項12から16の何れか1項に記載の表示装置。
PCT/JP2015/075258 2015-04-28 2015-09-04 制御装置および表示装置 WO2016174784A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017515357A JP6461322B2 (ja) 2015-04-28 2015-09-04 制御装置および表示装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015-092311 2015-04-28
JP2015092311 2015-04-28
JP2015-096876 2015-05-11
JP2015096876 2015-05-11

Publications (1)

Publication Number Publication Date
WO2016174784A1 true WO2016174784A1 (ja) 2016-11-03

Family

ID=57199680

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/075258 WO2016174784A1 (ja) 2015-04-28 2015-09-04 制御装置および表示装置

Country Status (2)

Country Link
JP (1) JP6461322B2 (ja)
WO (1) WO2016174784A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018181338A (ja) * 2017-04-18 2018-11-15 フォルヴェルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハーVorwerk & Compagnie Interholding Gesellshaft Mit Beschrankter Haftung 自律走行する走行車の動作方法
WO2022009826A1 (ja) * 2020-07-09 2022-01-13 株式会社喜多俊之デザイン研究所 ディスプレイ装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10239769A (ja) * 1997-02-26 1998-09-11 Sanyo Electric Co Ltd 背面投写型表示装置
JP2000176177A (ja) * 1999-01-01 2000-06-27 Casio Comput Co Ltd 腕装着型電子ゲ―ム装置、及び腕装着型電子ゲ―ムシステム
JP2006261836A (ja) * 2005-03-15 2006-09-28 Nec Corp 動画撮影・再生システム、その撮影・再生方法、その携帯装置およびその撮影、再生方法
WO2009050812A1 (ja) * 2007-10-18 2009-04-23 Fujitsu Limited 表示装置および表示システム
JP2010066844A (ja) * 2008-09-09 2010-03-25 Fujifilm Corp 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム
JP2011227160A (ja) * 2010-04-16 2011-11-10 Sanyo Electric Co Ltd 画像表示装置及び画像表示システム
WO2013168732A1 (ja) * 2012-05-08 2013-11-14 株式会社ニコン 電子機器
WO2013186845A1 (ja) * 2012-06-11 2013-12-19 富士通株式会社 電子機器、振動発生プログラム、及び振動パターン利用システム
WO2014084374A1 (ja) * 2012-11-30 2014-06-05 日本電気株式会社 通信システム、通信方法、通信装置、プログラム、及び記録媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013186410A (ja) * 2012-03-09 2013-09-19 Denso Corp 可搬型表示装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10239769A (ja) * 1997-02-26 1998-09-11 Sanyo Electric Co Ltd 背面投写型表示装置
JP2000176177A (ja) * 1999-01-01 2000-06-27 Casio Comput Co Ltd 腕装着型電子ゲ―ム装置、及び腕装着型電子ゲ―ムシステム
JP2006261836A (ja) * 2005-03-15 2006-09-28 Nec Corp 動画撮影・再生システム、その撮影・再生方法、その携帯装置およびその撮影、再生方法
WO2009050812A1 (ja) * 2007-10-18 2009-04-23 Fujitsu Limited 表示装置および表示システム
JP2010066844A (ja) * 2008-09-09 2010-03-25 Fujifilm Corp 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム
JP2011227160A (ja) * 2010-04-16 2011-11-10 Sanyo Electric Co Ltd 画像表示装置及び画像表示システム
WO2013168732A1 (ja) * 2012-05-08 2013-11-14 株式会社ニコン 電子機器
WO2013186845A1 (ja) * 2012-06-11 2013-12-19 富士通株式会社 電子機器、振動発生プログラム、及び振動パターン利用システム
WO2014084374A1 (ja) * 2012-11-30 2014-06-05 日本電気株式会社 通信システム、通信方法、通信装置、プログラム、及び記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018181338A (ja) * 2017-04-18 2018-11-15 フォルヴェルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハーVorwerk & Compagnie Interholding Gesellshaft Mit Beschrankter Haftung 自律走行する走行車の動作方法
WO2022009826A1 (ja) * 2020-07-09 2022-01-13 株式会社喜多俊之デザイン研究所 ディスプレイ装置
JP7488559B2 (ja) 2020-07-09 2024-05-22 株式会社喜多俊之デザイン研究所 ディスプレイ装置

Also Published As

Publication number Publication date
JPWO2016174784A1 (ja) 2018-02-22
JP6461322B2 (ja) 2019-01-30

Similar Documents

Publication Publication Date Title
JP6708689B2 (ja) 三次元ゲームプレイの共有
CN109069934B (zh) 对虚拟现实环境(vr)中的vr用户的观众视图跟踪
JP6266736B1 (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
CN109069933B (zh) 在vr环境中的观众视角
CN107735152B (zh) 用于虚拟现实(vr)观看的扩展视野重新渲染
CN105377383B (zh) 在头戴式显示器上转变游戏过程
JP6298561B1 (ja) ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
JP6298563B1 (ja) ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置
JP5174908B2 (ja) 携帯型ゲーム装置及び携帯型ゲーム装置の制御方法
JP6470356B2 (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
CN109069932A (zh) 观看与虚拟现实(vr)用户互动性相关联的vr环境
US10896322B2 (en) Information processing device, information processing system, facial image output method, and program
JP6392945B1 (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
CN112689854A (zh) 动画合成装置、动画合成方法以及记录介质
JP2018200678A (ja) ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
JP6461322B2 (ja) 制御装置および表示装置
JP6979539B2 (ja) 情報処理システム、表示方法およびコンピュータプログラム
JP6532359B2 (ja) 入力装置
CN115150555B (zh) 视频录制方法、装置、设备及介质
JP2019012509A (ja) ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置
JP2019021324A (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
JP2016151975A (ja) 合成動画データ生成システムおよびプログラム
JP2018097879A (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
US20230218984A1 (en) Methods and systems for interactive gaming platform scene generation utilizing captured visual data and artificial intelligence-generated environment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15890767

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017515357

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15890767

Country of ref document: EP

Kind code of ref document: A1