WO2018016095A1 - 画像表示装置、話題選択方法、話題選択プログラム、画像表示方法及び画像表示プログラム - Google Patents

画像表示装置、話題選択方法、話題選択プログラム、画像表示方法及び画像表示プログラム Download PDF

Info

Publication number
WO2018016095A1
WO2018016095A1 PCT/JP2016/078073 JP2016078073W WO2018016095A1 WO 2018016095 A1 WO2018016095 A1 WO 2018016095A1 JP 2016078073 W JP2016078073 W JP 2016078073W WO 2018016095 A1 WO2018016095 A1 WO 2018016095A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
character
user
image display
unit
Prior art date
Application number
PCT/JP2016/078073
Other languages
English (en)
French (fr)
Inventor
実 武地
尚宏 安川
恒 武樋
匠 儀間
Original Assignee
Gatebox株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016141931A external-priority patent/JP6165302B1/ja
Priority claimed from JP2016141930A external-priority patent/JP2018014575A/ja
Application filed by Gatebox株式会社 filed Critical Gatebox株式会社
Priority to KR1020177017320A priority Critical patent/KR102014623B1/ko
Priority to US15/538,760 priority patent/US10713006B2/en
Priority to KR1020197024082A priority patent/KR20190100428A/ko
Priority to CN201680004506.7A priority patent/CN108140383A/zh
Priority to TW106121155A priority patent/TWI692717B/zh
Publication of WO2018016095A1 publication Critical patent/WO2018016095A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/40Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images giving the observer of a single two-dimensional [2D] image a perception of depth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/58Message adaptation for wireless communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/216Handling conversation history, e.g. grouping of messages in sessions or threads

Definitions

  • the present invention relates to an image display apparatus that displays a character image, and more particularly to an image display apparatus that enables a user to feel a character closer.
  • robots and toys are limited. Specifically, a robot or a toy can make a specific response or movement to voice.
  • robots and toys are merely responses, not emotional expressions. Therefore, the user may not feel familiar with such robots and toys.
  • JP 2004-145541 A JP, 2011-227237, A JP 2002-307354 A
  • An object of the present invention is to provide an image display device that can make a character feel more familiar while realizing communication with a specific character.
  • the image display device includes a display unit for displaying the character, a conversation unit for the character to perform a conversation with the user, and a chat unit for the character to chat with the user's communication terminal,
  • the conversation unit selects the next topic based on the content of the executed conversation and the content of the chat executed by the chat unit, and the chat unit performs the next based on the content of the executed chat and the content of the conversation executed by the conversation unit.
  • the image display device links the character to the user by linking topics with each other in an actual conversation in which the user communicates with the character and a chat in which the user communicates with the image display device at his own communication terminal. It can make you feel more familiar.
  • FIG. 1 is a perspective view of an image display apparatus according to an embodiment of the present invention as viewed from above.
  • FIG. 2 is a perspective view of the image display apparatus according to the embodiment of the present invention as viewed from below.
  • FIG. 3 is a left side view of the image display apparatus according to the embodiment of the present invention.
  • FIG. 4A is a view schematically showing an apparatus mounted on the image display apparatus according to the embodiment of the present invention, which apparatus is installed in the upper accommodation portion.
  • FIG. 4B is a view schematically showing an apparatus mounted on the column, which is an apparatus mounted on the image display device according to the embodiment of the present invention.
  • FIG. 4C is a view schematically showing an apparatus mounted on the image display device according to the embodiment of the present invention, the apparatus being installed in the lower housing portion.
  • FIG. 4A is a view schematically showing an apparatus mounted on the image display apparatus according to the embodiment of the present invention, which apparatus is installed in the upper accommodation portion.
  • FIG. 4B is a view schematically showing an
  • FIG. 5 is a functional block diagram of the image display apparatus according to the embodiment of the present invention, showing one usage mode.
  • FIG. 6 is another functional block diagram of the image display device according to the embodiment of the present invention.
  • FIG. 7A is a data configuration diagram of image data used in the image display device according to the embodiment of the present invention.
  • FIG. 7B is a data configuration diagram of audio data used in the image display device according to the embodiment of the present invention.
  • FIG. 7C is a data configuration diagram of signal data used in the image display device according to the embodiment of the present invention.
  • FIG. 8 is a view for explaining the pattern of the sound outputted by the image display device according to the embodiment of the present invention.
  • FIG. 9 is a data configuration diagram showing a data configuration example of conversation history data used in the image display device according to the embodiment of the present invention.
  • FIG. 10 is a data configuration diagram showing an example data configuration of chat history data used by the image display device according to the embodiment of the present invention.
  • FIG. 11 is a data configuration diagram showing an example data configuration of random conversation data used in the image display device according to the embodiment of the present invention.
  • FIG. 12 is a diagram for explaining state transition in the image display apparatus according to the embodiment of the present invention.
  • FIG. 13A is an example of an image displayed by the image display device according to the embodiment of the present invention.
  • FIG. 13B is another example of the image displayed by the image display device according to the embodiment of the present invention.
  • FIG. 13A is an example of an image displayed by the image display device according to the embodiment of the present invention.
  • FIG. 13B is another example of the image displayed by the image display device according to the embodiment of the present invention.
  • FIG. 13C is a flowchart illustrating processing in the image display device according to the embodiment of the present invention.
  • FIG. 14A is a diagram for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 14B is a view for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 14C is a diagram for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 14D is a view for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 14E is a view for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 14A is a diagram for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 14B is a view for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 14C is a diagram for explaining a communication mode in
  • FIG. 14F is a view for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 14G is a view for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 14H is a view for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 14I is a diagram for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 15A is a view for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 15B is a view for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 15A is a view for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 15B is a view for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 15C is a view for explaining a communication mode in the image display device according to the embodiment of the present invention.
  • FIG. 16 is a flowchart showing the operation in the communication mode of the image display device according to the embodiment of the present invention.
  • FIG. 17A is a screen example for registering the schedule of the user in the image display apparatus according to the embodiment of the present invention.
  • FIG. 17B is a screen example for registering the schedule of the user in the image display apparatus according to the embodiment of the present invention.
  • FIG. 18 is a chart for explaining the wake-up mode in the image display apparatus according to the embodiment of the present invention.
  • FIG. 19 is a chart for explaining the outing mode in the image display device according to the embodiment of the present invention.
  • FIG. 2 is a chart for explaining a return home mode in the image display apparatus according to the embodiment of the present invention.
  • FIG. 21 is a flow chart for explaining the chat mode in the image display device according to the embodiment of the present invention.
  • FIG. 22A is a diagram showing an example display screen of the communication terminal of the user in chat mode according to the embodiment of the present invention.
  • FIG. 22B is a diagram showing an example display screen of a user's communication terminal in chat mode according to the embodiment of the present invention.
  • FIG. 23 is a circuit diagram of an image display apparatus according to an embodiment of the present invention.
  • the image display apparatus displays a character image and outputs a voice of the character.
  • the character image and the voice of the character displayed on the image display device are determined according to the environment in which the image display device is placed, information on the user who owns the device, and time information.
  • FIG. 1 is a perspective view of the image display apparatus 1 as viewed from above.
  • FIG. 2 is a perspective view of the image display device 1 as viewed from below.
  • the image display device 1 mainly comprises a cylindrical transparent case 2 having a hollow inside, and a transparent film erected substantially vertically inside the case 2
  • a flat member 3 a projector 4 for outputting a character image and the like, and parts and devices such as a reflection mirror 5 are provided.
  • the image output from the projector 4 is projected onto the transmission film 3 via the reflection by the reflection mirror 5, and the user is thus projected onto the transmission film 3 Can be seen through the transparent case 2.
  • the case 2 is a casing in which a part or all of the case 2 is made of a translucent member, and is formed of, for example, an acrylic plate or the like.
  • the case 2 forms an entirely transparent integral cylindrical body by incorporating two transparent semi-cylindrical case members 2 a and 2 b into two columns 23.
  • a cylindrical body formed in advance can also be used for the case 2, and a rectangular plate material or film material having elasticity or flexibility is curved in a semi-cylindrical shape, and this is incorporated into the support 23 and formed.
  • a cylindrical body can also be used as case 2. By using the cylindrical case 2 in this manner, it is possible to appropriately view an image projected on the transmission film 3 from any of right and left angles.
  • the support 23 may be formed of a transparent member, and in this case, almost the entire case 2 can be made transparent. However, the support 23 may be opaque or translucent.
  • a band-like opaque shielding portion 25 curved along the surface of the case 2 is provided on the front side upper portion of the case 2.
  • the reflection mirror 5 is behind the shielding unit 25 and can therefore be hidden from view.
  • the circular portion corresponding to the upper bottom surface of the case 2 is subjected to light shielding treatment such as application of a light shielding paint. As a result, it is possible to prevent the illumination and the like in the room from entering the transmissive film 3 and to make the image displayed on the transmissive film 3 easy to see.
  • the upper rear side of the case 2 (the upper portion of the case member 2b) is provided with an opening so that the light forming the image from the reflection mirror 5 can directly reach the transmission film 3 without passing through the case member 2b.
  • the case 2 is not limited to a transparent member, and a translucent member such as milky white may be used.
  • a permeable film 3 is provided inside such a case 2, and an upper accommodation portion 21, a lower accommodation portion 22 and a pillar portion 6 which will be described later are provided on the upper side, the lower side and the rear side of the case 2. It is done.
  • the transmissive film 3 is an embodiment of the “translucent flat member” of the present invention, and functions as a transparent screen on which a predetermined image is projected.
  • the transmission film 3 of the present embodiment is rectangular, and is erected in the vicinity of the center of the inside of the case 2 so as to be substantially vertical.
  • the transparent film 3 is supported by two columns 23 erected at both ends of the pedestal 221, whereby the surface is directed vertically to the center of the pedestal 221 while the front side (rear side) is directed. I am standing.
  • a transparent plate, a semi-transparent plate, a film material or the like can be used.
  • the lower housing portion 22 is a box made of plastic or the like, and has a space for attaching a control board 701 that performs various control operations including output control of the projector 4 (see FIG. 4C).
  • the lower housing portion 22 is provided with a removable lower cover 222, which can hide the inside by attaching it, and enables maintenance and the like of the internal device by removing it.
  • the transparent film 3 and the case members 2 a and 2 b are integrally erected on the pedestal 221 by being supported by the columns 23. Thereby, the cylindrical case 2 is erected on the pedestal 221, and the transmission film 3 is such that the lower portion (lower end) is along the upper surface (surface) of the pedestal 221 while the side portion is inscribed in the inside of the case 2. Provided.
  • the pedestal 221 also functions as a pedestal on which a character or the like displayed in the case 2 is virtually placed. That is, the pedestal 221 can be seen as a base material of a display case that accommodates a doll or a model so as to be displayable.
  • the foot of the character or the like is made to coincide with the lower end of the transmission film 3 and displayed (FIG. 1). By doing this, it is possible to make characters and the like actually stand on the pedestal 221.
  • the pedestal 221 has predetermined visibility. Specifically, the presence of the pedestal 221 is made to stand out by giving a pattern or coloring to the surface of the pedestal 221 or giving a feature to the shape. For example, in the pedestal 221 of the present embodiment, a groove along the so-called magic square pattern is provided on the surface of the acrylic plate by laser processing or the like. Note that this pattern is only an example, and for example, as a magic circle, a five-pointed star may be used, or another complicated geometric pattern may be provided.
  • the pedestal 221 distributes the plurality of effect LEDs 706 (the light emitting means of the present invention) in the lower part of the acrylic plate so that the light from the effect LEDs 706 is spread over the entire surface of the pedestal 221 .
  • each region straddling the transmissive film 3 is strongly recognized, so that the presence of the pedestal 221 is further emphasized before and after the character or the like projected on the transmissive film 3.
  • a character or the like can be displayed as if standing firmly on the pedestal 221.
  • the upper accommodation portion 21 has a space for mounting a device (see FIG. 4A) such as the projector 4 that outputs an image.
  • a device such as the projector 4 that outputs an image.
  • the upper accommodation portion 21 is provided with a ladder-like upper device attachment portion 211 connected to the upper portion of the column portion 6, and the projector 4 is attached to the lower surface of the upper device attachment portion 211.
  • the upper device mounting portion 211 is fixed in a state of being inclined upward to the front side from the connecting portion 213 with the column portion 6, and attached to the upper device mounting portion 211 accordingly.
  • the projector 4 is also fixed in an inclined state. As described above, by attaching the projector 4 obliquely, the output direction of the image is directed to the reflection mirror 5 positioned below the rear side of the projector 4.
  • the upper equipment mounting portion 211 is pivotally supported using a shaft member such as a bolt and the like in connection with the column portion 6, and is rotated to an arbitrary position about the shaft and fixed by a fixing member such as a nut. You can also. In this way, the tilt of the projector 4 can be easily changed, and the output of the image can be adjusted vertically by this change.
  • the upper housing portion 21 is provided with a removable upper cover 212, and by attaching it, devices such as the upper device mounting portion 211 and the projector 4 can be concealed, and by removing them, maintenance and the like of internal devices are possible. And
  • the projector 4 is an image output unit that outputs an image such as a character image.
  • the projector 4 of this type usually displays an image by projecting an image directly on a so-called screen, but in the present embodiment, the image is projected indirectly to the screen (transmissive film 3) via the reflection mirror 5 I am trying to do it.
  • the projector 4 according to the present embodiment is inclined in the upper accommodation portion 21 so that the output image is directed to the reflection mirror 5 at the upper portion of the column portion 6 which is provided to stand on the back side of the case 2 separately. It is attached in the state that
  • specifications of the projector include a focal length (hereinafter referred to as “permissible projection distance”) and a projection ratio (hereinafter referred to as “permissible projection angle”).
  • the “permissible projection distance” is the necessary projection distance (the distance of the light path from the projector to the screen) corresponding to the image size. If the actual projection distance is less than the allowable projection distance, the image is not focused or projected clearly.
  • the “permissible projection angle” is an allowable value of the angle between the light path of the image projected onto the screen and the screen. If the actual projection angle is less than the allowable projection angle, the distortion of the image is large, and the light amount is different at both ends of the image, and the image quality is deteriorated such as the image being blurred.
  • the projector 4 uses the projector having specifications in which the allowable projection distance is relatively short and the allowable projection angle is small, and further, by using the reflection mirror 5, the projector 4 and the screen (that is, , And the transmission film 3) can be integrated in a compact manner.
  • the column portion 6 is a columnar member provided upright on the backmost side of the lower accommodation portion 22 and is provided on the rear side of the case 2 so as to be separated from the case 2. As described above, by providing the column portion 6 on the back side of the case 2, it is possible to prevent illumination in the room from entering the transmissive film 3 and to make the image displayed on the transmissive film 3 easy to see.
  • the reflection mirror 5 and various sensors are attached to the column 6 (see FIG. 2, FIG. 3, FIG. 4B, etc.).
  • the reflection mirror 5 is provided on the top of the column portion 6 so that the mirror surface is substantially vertical (that is, substantially parallel to the surface of the transmission film 3).
  • the light of the image output from the projector 4 is reflected by the reflection mirror 5, and the light of the reflected image travels obliquely downward on the front side and passes through the opening of the case member 2b.
  • the transparent film 3 provided inside the case 2 is projected from the back side. In this state, when looking at the image of the character or the like projected onto the transparent film 3 through the case 2, the character or the like can be visually recognized as a more three-dimensional entity in the same space.
  • the image display device 1 is provided with a transparent film (transmission film 3) inside the transparent case 2 and projects an image on the transparent film.
  • a transparent film transmission film 3
  • the user sees a character or the like displayed on a transparent film through the transparent case 2.
  • the user recognizes the 3D environment, that is, the height (height), width, and depth, in the space within Case 2 restricted by being divided into Case 2.
  • the visual effect (3D environmental effect) is exhibited that the character etc. itself looks 3D (three-dimensional) by recognizing the depth arising from the relation between the character etc. displayed in the space and the case 2 in particular. .
  • the transparent film when the transparent film is viewed through the transparent case 2, the transparent film becomes inconspicuous. This is attributed to the fact that the left and right end portions of the transmission film 3 can not be seen because the transmission film 3 is inscribed in the case 2. Also, looking backward through the forward material, including transparent materials, makes it difficult to recognize the backward material.
  • the transmissive film 3 located behind the case 2 becomes difficult to recognize. Then, the presence of the flat transparent film 3 is not recognized, so that a character or the like projected on the transparent film 3 appears as if a three-dimensional object that is not a plane floats. For this reason as well, in the case where the case 2 is present than in the case where the case 2 is not present, images such as characters can be seen more three-dimensionally.
  • a pedestal 221 is provided below (lower end) of the transparent film 3 so that a foot of a character or the like is matched with the lower end of the transparent film 3 and displayed. In this way, it looks as if a character or the like is standing on the pedestal 221, and the character or the like can be illusive as if it is a solid with mass.
  • the pedestal 221 has a pattern or the like so that the surface is easily visible, and the effect LED 706 is disposed in both the area on the front side and the area on the back side across the transparent film 3 to emit light.
  • the pedestals 221 are present before and after the character or the like, and in turn, the characters or the like can be made to look as if they are standing firmly on the pedestal 221. Therefore, the character etc. projected on the transmission film 3 in the transparent case 2 can be made to look like a solid three-dimensional object also by the relationship with such a pedestal 221.
  • projection is performed by the reflected light from the reflection mirror 5 provided on the upper rear side, and part of the light of the image is transmitted through the transmission film 3 and the pedestal 221 is mounted. It is made to be projected as a shadow of light on top. Even when such a shadow is visually recognized, an effect of causing the display object to be visually recognized more stereoscopically is exhibited.
  • FIG. 4A is an apparatus installed in the upper accommodation unit
  • FIG. 4B is an apparatus installed in the column unit
  • FIG. 4C is a schematic view of an apparatus installed in the lower accommodation unit.
  • the side of the case 2 is made opaque, or an opaque film is attached to the side portion to reduce the visibility of the character from the side, so that the user can see the character from the front side.
  • the image display apparatus is provided with a configuration capable of spraying, for example, water droplets, and projection is performed on the sprayed water droplets. It is also possible to project a character by such stereo holography. By applying three-dimensional holography technology, it is possible to display characters with more three-dimensionality.
  • the lower housing 22 includes a control board 701, a human sensor 702, an infrared LED 703, a microphone 704, a speaker 705, an effect LED 706, an infrared light receiver 707, a status LED 708, an activation button 709, and a USB hub.
  • a Wi-Fi (registered trademark) module, a Bluetooth (registered trademark) module, and the like are installed.
  • the control board 701 has one or more control chips mounted with a CPU, ROM, RAM, HDMI (registered trademark) port, LAN port, USB port, various input / output ports, etc., and is input from various sensors etc. Based on the information, it causes a predetermined device to execute various output operations including images and sounds.
  • the human sensor 702 is a sensor that detects the amount of change in infrared light to detect the location of a person, and is provided on the left and right of the front side.
  • the infrared LEDs 703 are radially provided on the front upper portion and function as a so-called infrared remote control. Specifically, by outputting infrared rays to the surroundings, remote control of external devices such as a television and a vacuum cleaner is enabled.
  • the microphone 704 inputs a voice emitted from the user.
  • one microphone 704 is provided at the bottom of the front.
  • the speaker 705 outputs sound information such as voice and music via an amplifier.
  • the speakers 705 are provided on the front side, but are preferably installed in stereo on the left and right of the rear post.
  • the effect LED 706 is a light emitting means in the pedestal 221.
  • the infrared light receiving unit 707 is provided on the front side, and receives infrared information on remote control operation used in the remote control from a remote control of home appliances such as a television, a lighting fixture, an air conditioner, and a robot cleaner.
  • the status LED 708 is a notification unit that indicates the status of the image display device 1 (for example, power on, error occurrence, communication, and “sleep status”, “not summoned status”, “summoned status”, etc. described later). Various states are notified in a distinguishable manner by a specific blinking pattern, a light emission color or the like.
  • the start button 709 is an operation unit for turning on / off the power of the image display device 1 main body.
  • the USB hub 710 is a hub for connecting a plurality of USB devices.
  • the Wi-Fi (registered trademark) module is a wireless LAN module connected to a USB hub, and provides an Internet environment to a wireless LAN handset as an access point, or connects to the Internet through another access point as a wireless LAN handset You can do it.
  • the Bluetooth (registered trademark) module is a wireless communication interface that enables wireless communication with peripheral devices such as a keyboard, a mouse, a communication terminal such as a smart phone, a microphone, a speaker, and the like in accordance with a predetermined standard.
  • peripheral devices such as a keyboard, a mouse, a communication terminal such as a smart phone, a microphone, a speaker, and the like.
  • the temperature and humidity sensor 611, the vibration sensor 612, and the noise sensor 613 are provided in the pillar part 6. As shown in FIG. 4B, in addition to the reflection mirror 5 as stated above, the temperature and humidity sensor 611, the vibration sensor 612, and the noise sensor 613 are provided in the pillar part 6. As shown in FIG. 4B, in addition to the reflection mirror 5 as stated above, the temperature and humidity sensor 611, the vibration sensor 612, and the noise sensor 613 are provided in the pillar part 6. As shown in FIG.
  • the temperature and humidity sensor 611 measures the temperature and humidity of the room, and inputs these measured values.
  • the vibration sensor 612 is a sensor for detecting a vibration, and corresponds to, for example, a piezo vibration sensor.
  • the vibration detected by the vibration sensor 612 includes not only a large shaking like an earthquake, but also relatively small vibration that can identify footsteps and opening and closing of a door.
  • the noise sensor 613 is a sensor for detecting an environmental sound in a room.
  • the environmental sound detected by the noise sensor 613 includes, for example, the user's living sound (including the sound of a television) determined based on a predetermined reference sound volume, environmental sound in the vicinity, and noise.
  • Installation equipment for upper storage section >>
  • the upper housing portion 21 is provided with a projector 4, an infrared LED 703, a light sensor (illuminance sensor) 721, and a camera 722.
  • the projector 4 projects an image on the transmission film 3 through the reflection mirror 5 as described above.
  • the images output from the projector 4 include, for example, 2D images and 3D images of characters, real people, articles, etc. appearing in various cartoons and animations, and effects images for producing emotional expressions of characters.
  • the infrared LEDs 703 are provided on the left and right, respectively, and function as an infrared remote control as in the case provided in the upper accommodation portion 21.
  • the light sensor (illuminance sensor) 721 is a sensor that measures the brightness (illuminance).
  • the camera 722 is an imaging unit provided in front of the camera 722 for capturing still images and moving images.
  • FIG. 5 is a functional block diagram of the image display device 1 according to the embodiment. As shown in FIG. 5, the image display device 1 includes a display unit 700, a conversation unit 717, and a chat unit 718.
  • the display unit 700 has a function of displaying a character.
  • the character is displayed by causing the projector 4 to project the image relating to the character onto the transmission film 3.
  • the display unit 700 is implemented by, for example, a processor or a graphic engine, but the implementation method is not limited to this.
  • the character is a person or an animal appearing in an animation, a manga, a novel, a computer game, a novel, etc., but is not limited to this, and may be an original creative person.
  • not only a person or an animal but also an inorganic material having individuality may be a character. For example, a robot or the like.
  • the conversation unit 717 has a function of talking with the user, and has a function of directing the character as if the character is talking with the user.
  • the conversation unit 717 is implemented by, for example, a processor and performs a conversation with the user according to a predetermined algorithm.
  • the conversation unit 717 selects a topic of conversation with the user from the voices stored in advance, outputs the voice from the speaker 705, and analyzes the voice of the user input from the microphone 704 to perform conversation. Run.
  • the voice of the character is stored in advance, the present invention is not limited to this, and the character may output a synthetic voice as a voice.
  • the chat unit 718 executes chat with the communication terminal held by the user, and is realized by a processor, for example, and chats with the user according to a predetermined algorithm.
  • the chat unit 718 may perform direct wireless communication with the user's communication terminal to perform a chat, or may perform a chat via a predetermined messaging server (chat server).
  • chat server a predetermined messaging server
  • the chat referred to here is for exchanging so-called messages (messages).
  • the chat unit 718 automatically selects the content of the conversation, transmits the selected content of the conversation as a character string, analyzes the content of the chat transmitted from the user's communication terminal, and responds to the analyzed content. Select a topic, generate a response, and send the message.
  • the conversation unit 717 and the chat unit 718 interlock with each other.
  • the character-user conversation performed by the conversation unit 717 with the user is reflected in the content of the chat performed by the chat unit 718
  • the chat unit 718 It means that the content of the chat executed with the communication terminal is reflected in the content of the conversation executed by the conversation unit 717.
  • the content of the chat and the content of the conversation are the content of the speech itself and the topic.
  • the conversation unit 717 and the chat unit 718 are interlocked is that, for example, when the conversation unit executes a conversation on baseball with the user, the chat unit executes a topic to include a topic on baseball. To be precise, it means having the possibility to carry out a topic on baseball.
  • the conversation unit 717 and the chat unit 718 are realized by the control unit 71 in the following.
  • the image display device 1 can further include the case 2 at least a part of which is a translucent member as described above with reference to FIGS. 1 to 3.
  • the display unit 700 is a light projecting device for projecting a character image and an effect image onto the transmissive film 3 which is a translucent flat plate member standing in the case 2 and the transmissive film 3 which is a flat plate member. It can have a certain projector 4 and a display processing unit 713 for controlling display of an image through the projector which is a light projecting device.
  • the image display device 1 includes a control unit 71, an input unit 72, an output unit 73, an operation unit 74, a storage device 75, and a communication unit 76.
  • the control unit 71 executes an acquisition processing unit 711, an analysis unit 712, a display processing unit 713, and an audio output unit 714 by executing the image display program P1, the conversation program P2, and the chat program P3 stored in the storage device 75.
  • the processing as the transmission processing unit 715 and the data management unit 716 can be executed.
  • the input unit 72 is means for inputting various information detected by various sensors.
  • the data input to the input unit 72 includes, for example, identification information output from the human sensor 702 when the human sensor 702 detects a person, audio information input via the microphone 704, and temperature / humidity sensor 611.
  • Information that can be used to detect room temperature and humidity detected by the sensor information that can identify the magnitude and change of vibration detected by the vibration sensor 612, volume information input through the noise sensor 613, and information input through the optical sensor 721
  • the output unit 73 is an output unit that outputs a signal or information based on a predetermined instruction. For example, an infrared signal for controlling the operation of the external device output from the infrared LED 703, audio information output via the speaker 705, and light from the effect LED 706 are output as signals or information output by the output unit 73. Light, an image output from the projector 4 and the like.
  • the operation unit 74 is an operation unit by the user, and corresponds to, for example, a keyboard or a mouse (not shown), an operation button (hard key) provided on the image display device 1, or a touch panel.
  • the storage device 75 is constituted by, for example, a RAM constituting the image display device 1, a nonvolatile memory such as an EEPROM, a flash memory, etc., and stores programs and data for executing various functions of the image display device 1. It is a storage means.
  • Data stored in the storage device 75 include image data 751 such as a character and voice data 752, signal data 753 for operating an external device such as a television and a lighting fixture, user data 754 related to user attribute information, etc., an image display device 1, conversation history data 755 showing the history of conversations exchanged with the user, chat history data 756 showing the history of chats executed by the image display device 1 with the user's communication terminal, remote control regarding remote control of external device
  • image data 751 such as a character and voice data 752
  • signal data 753 for operating an external device such as a television and a lighting fixture
  • user data 754 related to user attribute information, etc.
  • an image display device 1 an image display device 1
  • conversation history data 755 showing the history of conversations exchanged with the user
  • chat history data 756 showing the history of chats executed by the image display device 1 with the user's communication terminal
  • remote control regarding remote control of external device There are information, calendar information registered on the calendar site, attribute information of the apparatus body and each device, information input from a
  • the stored program includes a conversation program P2 for exchanging a conversation directly with the user, a user
  • a chat program P3 for executing a chat (via a chat server) with the communication terminal, a voice recognition program, an artificial intelligence program, and the like.
  • the image data 751 includes display conditions for displaying an image, character image information (first image information) for specifying a character image to be displayed due to the conditions, and effect image information for specifying an image for presentation (second It is data to be associated with image information).
  • the effect image is an image that expresses the emotions and the like of the character, and may be an image including words of words representing the emotions or the like, or may be an image including particles such as a star shape or a heart shape. .
  • the effect image is not essential and may not be displayed. For example, display may be performed with a predetermined probability.
  • a random threshold changing in one day is provided, and a random value is calculated from time to time whether or not to display the effect image at a timing to display, and the random value exceeds the set threshold
  • the effect image may be displayed depending on whether or not it is.
  • the character image information is preferably image information of a three-dimensional image.
  • the effect image information is image information of a two-dimensional image or three-dimensional image information according to the situation.
  • character image A and effect image A are displayed when “audio A” is detected as an environmental signal.
  • audio A the sound A is the word "Good morning”
  • an image in which the character says “Good morning” is displayed as the character image A
  • the effect image A it is refreshing in the morning.
  • An image to be displayed is displayed.
  • the effect image A may include a balloon in which the characters “Good morning” are displayed.
  • character image C When “action C” is detected as an environmental signal, "character image C” and “effect image C” are displayed. For example, when the action C is “return home”, an image is displayed as the character image C such that the character says “return”, and as the effect image C, the return home is to be received. An image is displayed to make a
  • the effect image C may include a balloon in which the characters of "home page" are displayed.
  • character image D and “effect image D” are displayed. For example, when “6 am” is set as the time of the alarm as time D, and at 6 am, an image is displayed as a character image D in which a character appears to wake the user. As the effect image D, an image that wakes you up may be displayed. In addition, the effect image D may include a balloon in which the characters "It is morning” are displayed.
  • the "character image E” and the “effect image E” are displayed.
  • the signal E is a "ha brush” signal transmitted from the user's communication terminal
  • an image is displayed as a character image E in which a character is brushing teeth
  • a pleasant image suitable for tooth brushing may be displayed as the effect image E.
  • the effect image E may include the characters “under polishing”.
  • display conditions including time information as well as environment information may be defined. For example, even if the environment information is the same, the image data 751 can be defined so that the displayed character image and the effect image are different between morning and afternoon.
  • display conditions including a reception signal together with the environmental information may be defined.
  • the voice data 752 is data in which an output condition for outputting a voice and information for specifying a voice to be output due to the condition are associated.
  • audio A is output when “audio A” is detected as an environmental signal.
  • the voice A is the word “Good morning”
  • the voice of the character is output as "Good morning” as the voice A.
  • an output condition including time information as well as environmental information may be defined.
  • the voice data 752 can be defined so that the voices outputted are different between morning and afternoon, even if the environmental information is the same.
  • output conditions including the received signal together with the environmental information may be defined.
  • the signal data 753 is data in which a condition for outputting an operation signal for operating an external electric device such as a home appliance is associated with an operation signal transmitted due to the condition.
  • the “operation signal F” is output when “speech F” is detected as the environmental signal. For example, when the sound F is the word "TV-OFF", an operation signal F for turning on the TV is output.
  • the images and sounds output according to the date and time may be different even for the same word or action. For example, if the voice of "Good morning” is detected, if it is a weekday morning, “Good morning, let's do our best today! And outputs a voice to encourage the day, if it is a holiday morning, "Good morning, you can relax slowly” And output a voice that works well on weekdays. On the other hand, if it is night, it outputs the voice of "What are you saying? Therefore, unnatural mechanical exchange in daily life can be prevented. This allows the user to feel closer to the character.
  • the user data 754 has various information about the user such as the user's profile, attributes, preferences and the like.
  • the image display apparatus 1 can output, for example, the user's name by voice. At this time, not only the name but also the nickname may be registered. This allows the character to call the user's name. Therefore, the user can feel familiarity with the character and feel more familiar.
  • the image display apparatus 1 may obtain, for example, information on the user's action range using the Internet or the like, and output it as voice or image it can. This makes it possible for the character to inform the user of various information. Therefore, the user can feel familiarity with the character and feel more familiar.
  • the image display apparatus 1 can output, for example, an image or sound for celebrating the birthday on the user's birthday. This allows the character to celebrate the user's birthday. This allows the user to feel familiar with the character and feel more familiar.
  • the image display apparatus 1 can, for example, call the mobile phone while the user is out. This enables the user to be in a state where he / she receives a call from a character waiting at home when away from home. This allows the user to feel familiar with the character and feel more familiar.
  • the user data 754 can have information such as favorite animations, cartoons, novels, games, movies, favorite characters, hobbies, interests, weights, heights, occupations and the like.
  • the image display apparatus 1 can display an image from a topic in which the user is interested or output an audio based on such information on the user. Further, such information can be generated from the result of a questionnaire or the like, the history of SNS (social networking service) used by the user, or the like.
  • the questionnaire referred to here may be a question asked by the character of the image display device 1 to the user, such as “Do you like ⁇ ?” Through conversation or chat, or sometimes like a question list Data may be entered by the user. In the former case, by associating the question content with the character string of the answer from the user and storing it as a part of the user data 754, it is possible to select a topic preferred by the user thereafter.
  • the conversation history data 755 is history information on the content of the conversation in which the character of the image display device 1 directly exchanges with the user.
  • FIG. 9 is a data conceptual diagram showing one specific example of the conversation history data 755.
  • the conversation history data 755 is information indicating that a conversation has been made, and is utterer information 901 indicating whether it is an utterance on the character side or an utterance on the user side, and date and time information indicating date and time of utterance
  • Reference numeral 902 is information associated with conversation content information 903 indicating specific content of the conversation. For example, speaking in the example of FIG.
  • the conversation content information 903 for the user stores text data as a result of the speech recognition performed by the analysis unit 712 for the input speech.
  • the conversation content information 903 may be information in which all the content of the conversation is converted to a character string, or may be information in which a keyword is picked up from the content of the conversation. For example, in the example of FIG. 9, in the case of a conversation content of “A team likes it”, combination information such as “A team, likes” may be stored as conversation content information 903.
  • the keyword selected by the image display device 1 may be selected on the basis of a noun in the speech, or a word representing the user's emotion may be picked up and stored. Since the conversation history data 755 is stored in the storage device 75, the image display device 1 can recognize the content of the past conversation and can reflect it on the topic of the subsequent conversation or chat. The conversation history data 755 is additionally updated by the control unit 71 each time a conversation is made between the character displayed by the image display device 1 and the user.
  • the chat history data 756 is history information on the content of the chat performed by the character of the image display device 1 with the communication terminal held by the user.
  • FIG. 10 is a data conceptual diagram showing one specific history of chat history data 756.
  • the chat history data 756 is information indicating the side who made a chat in the chat, and the speaker information 1001 which indicates whether the user's side or the character's side makes a speech on the chat
  • the date and time information 1002 indicating the date and time when the chat was made is associated with the chat content information 1003 which is a character string indicating the content of the chat that has made a statement.
  • chat content information 1003 which is a character string indicating the content of the chat that has made a statement.
  • the chat content information 1003 may be information in which all the chat content is converted to a character string, or information in which a keyword is picked up from the chat content may be used. For example, in the example of FIG. 10, from the chat contents of "I watch a baseball game at Jingu Stadium", only the keyword “baseball” may be stored, or "a player likes a player” In the case of chat content, a combination of keywords such as "a player, like” may be stored as chat content information 1003.
  • the keyword selected by the image display device 1 may be selected on the basis of a noun in a chat sentence, or a word representing the user's emotion may be picked up and stored. Since the chat history data 756 is stored in the storage device 75, the image display apparatus 1 can recognize the content of the past chat and can reflect it on the subsequent chat or conversation topic. The chat history data 756 is additionally updated by the control unit 71 each time a chat is made between the character displayed by the image display device 1 and the user.
  • the random conversation data 757 is data relating to the selection of a topic when the character randomly performs conversation or chat.
  • random conversation data 757 is information in which a keyword 1101, a condition 1102, and conversation or chat contents 1103 are associated with each other.
  • the keyword 1101 is a word serving as a trigger for conversation
  • the control unit 71 is information for collating with the conversation history recorded in the conversation history data 755 and the chat history data 756 and the topic in the chat history.
  • the content of the conversation or chat content 1103 is output as voice or as a chat text.
  • the condition 1102 is a condition that the character needs to clear in order to speak or chat the corresponding conversation or chat content, including the case where there is no condition. As conditions, it is a specific weather (fine, rain, snow, ...), a specific voice is input, or a specific information (for example, a certain program is broadcast) is input. The information may be included in the information (for example, program information on television), and the like.
  • the conversation or chat content 1103 is information indicating the actual content of the conversation or chat to be performed when the keyword included in the conversation history or chat history matches the keyword 1101 and the condition 1102 matches.
  • control unit 71 If a plurality of conversation or chat contents can be detected by the control unit 71, one of them may be selected at random, or a keyword included in the conversation of the selected conversation or chat contents It is also possible to select one having a high matching rate with the preference of the user, or to select one having high consistency with the preceding one or more conversations. Since the random conversation data is stored, the control unit 71 can perform the next conversation or chat reflecting the past history as the conversation unit or the chat unit.
  • the communication unit 76 is a communication unit that performs two-way or one-way data communication processing with an external device by wire or wirelessly. For example, it is possible to transmit and receive various data with a device connected to the Internet via a wireless based on a LAN cable or a Wi-Fi (registered trademark) module connected to a LAN port. For example, the communication unit 76 can receive a signal transmitted from a user's communication terminal.
  • the communication unit 76 also has information that can be acquired via the Internet, such as weather information receivable from the weather information site and calendar information registered in the calendar site.
  • the communication unit 76 can execute chat communication with the user's communication terminal via a chat server on the network (not shown).
  • the control unit 71 can perform control operations as an acquisition processing unit 711, an analysis unit 712, a display processing unit 713, an audio output unit 714, a transmission processing unit 715, and a data management unit 716 according to the image display program P1.
  • the acquisition processing unit 711 acquires a signal detected from at least one of the microphone 704, the camera 722, the human sensor 702, the light sensor 721, the temperature and humidity sensor 611, the vibration sensor 612, the noise sensor 613 and the like.
  • the analysis unit 712 analyzes the environment information acquired by the acquisition processing unit 711. For example, the analysis unit 712 analyzes a word uttered by the user from the environmental signal detected by the acquisition processing unit 711 from the microphone 704.
  • the analysis unit 712 can specify a word spoken by the user from the voice acquired by the microphone 704 using, for example, a language model and a speech model registered in advance in the storage device 75.
  • the language model is a set of word information of a language used in the language used by the image display device 1 and data in which various wordings are registered.
  • the speech model is a model of speech signal of a language to be used, and is, for example, a signal showing frequency characteristics.
  • the image display apparatus 1 can display the image defined according to the word which the user uttered, and can output the audio
  • voiceprint information may be included as user data regarding the user who is the owner of the image display device 1 so that the voice of the owner user can be recognized.
  • the image display device 1 does not output normal mechanical voice such as “say again” and does not request the user to repeat, React in another way.
  • the image display device 1 outputs a voice saying “speak closer” and “speak gently” to induce repetition.
  • the image display device 1 may output an appropriate sumo voice such as “Fun”, “Sonka”, “Omo” or the like, or "N-” or “E-T”.
  • a voice of filler expression may be output.
  • the analysis unit 712 analyzes the position and operation of the user from the environmental signal detected by the acquisition processing unit 711 from the camera 722. Specifically, the analysis unit 712 can detect a human face from an image as image analysis.
  • the storage device 75 may have user's face information as user data on the owner user, so that the face of the owner user can be recognized from the detected person's face.
  • the image display device 1 can display an image that the character touches the owner user in a familiar manner and can output an audio.
  • the image display apparatus 1 can display an image or output a sound to a person other than the owner, such as making a close contact or giving a greeting such as self-introduction. Thereby, the user can feel more familiarity with the character displayed on the image display device 1.
  • the analysis unit 712 combines the result of other environmental information and button operations detected by other sensors into one environmental information. It may be generated. For example, in addition to the voice and the image, it is possible to determine whether to go out or go home, which will be described later, from the detection result of the human sensor.
  • the display processing unit 713 reads the image data 751 from the storage device 75, and selects character image information and effect image information associated with the display condition corresponding to the environment signal acquired by the acquisition processing unit 711 from the image data 751. In addition, the display processing unit 713 outputs an image corresponding to the selected character image information and the effect image information to the output unit 73 for display. In addition, the display processing unit 713 may display a character image and an effect image according to the environment information and the time information. Furthermore, the display processing unit 713 may display a character image and an effect image according to the environment information and the received signal.
  • the audio output unit 714 reads the audio data 752 from the storage device 75, and selects from the audio data 752 audio information associated with the output condition corresponding to the environmental signal acquired by the acquisition processing unit 711. Further, the audio output unit 714 outputs the audio corresponding to the selected audio information to the output unit 73. Also, the audio output unit 714 may output audio according to the environment information and time information. Furthermore, the audio output unit 714 may output audio according to the environment information and the received signal.
  • the transmission processing unit 715 reads the signal data 753 from the storage device 75, and selects an operation signal associated with the environmental signal acquired by the acquisition processing unit 711 from the signal data 753. Further, the transmission processing unit 715 outputs the read operation signal to the output unit 73.
  • the data management unit 716 acquires time information from a clock incorporated in the image display device 1 or an external clock. When an image or sound to be displayed is determined according to time, a control signal is output to the display processing unit 713 and the sound output unit 714 according to the display and output schedule.
  • the data management unit 716 accesses the weather information site when the image display device 1 is activated, acquires weather information of the day, and stores the acquired weather information in the storage device 75. Furthermore, the data management unit 716 can periodically access the calendar site where the user's schedule is registered, and store the latest calendar information obtained thereby in the storage device 75. Further, the data management unit 716 can cause the infrared light receiving unit 707 to receive remote control information (infrared information) related to the external device from the remote control of the external device such as a television or lighting, and store (learn) in the storage device 75. Infrared information for operating an external device can be transmitted from the infrared LED 703 based on the remote control information. The data management unit 716 can also access various data on the network and collect various data that can be used for conversation and chat with the user.
  • remote control information infrared information
  • the data management unit 716 can also access various data on the network and collect various data that can be used for conversation and chat with the user.
  • the image display device 1 executes processing such as image display and sound output according to each state such as “sleep state”, “not summoned state”, “summoned state” and the like. As shown in FIG. 12, the image display apparatus 1 does not have a power button (not shown) in a state where the outlet is not connected (S1), but when the outlet is inserted and the outlet becomes connected ((1) S2), the power button is enabled.
  • This summoning state is a state in which the display of characteristic images in the image display device 1 and the processing of output of sound are executed.
  • the image display apparatus 1 is in a state where the projector 4 is activated and a character image is displayed, and the speaker 705, the camera 722, etc. are activated to detect an environmental signal.
  • there are modes such as (a) communication mode, (b) life mode, (c) care mode, (d) appeal mode, and (e) chat mode. Processing is performed.
  • Sleep state When the power button is pressed in the unsummed state (S4) or left for a predetermined time, the "sleep state" is entered (S6). “To be left for a predetermined time” means, for example, a state in which the touch button 26 is not held for a predetermined time or more (for example, 20 minutes or more).
  • the sleep state is a power saving standby mode, in which the projector 4 is not activated, and the speaker 705, the camera 722, and the like are not activated. In the image display device 1, in the sleep state, the status LED 708 is on.
  • the image display device 1 shifts to the unsummed state when the power button is pressed or the touch button 26 is touched by the user in the sleep state.
  • “Touch button is touched” means that the touch button 26 is touched by the user for a time less than a predetermined time (for example, less than 3 seconds).
  • (A) Communication Mode In the communication mode, a character image is displayed, and communication between the character and the user is possible. Specifically, in the communication mode, the image display device 1 displays a character image according to the environmental signal acquired by the acquisition processing unit 711. Further, the image display device 1 displays an effect image according to the environmental signal. Furthermore, the image display device 1 outputs sound in accordance with the environmental signal.
  • the image display device 1 When the touch panel is pressed for a long time from the unsummed state to the summoned state, the image display device 1 first enters the communication mode. In addition, the image display device 1 enters the life mode when the environmental signal is not acquired continuously at predetermined timing (for example, 10 minutes or longer) at the timing of the communication mode and no signal such as an operation signal is received. Transition.
  • the image display device 1 when the microphone 704 detects the word “Where is the weather today” issued by the user, which is an environmental signal, the data management unit 716 stores it in the storage device 75 accordingly. Based on the weather information, the speaker 705 outputs an audio such as "It is fine today".
  • a character image that performs an operation representing the joy for the clear is displayed on the transmissive film 3.
  • an effect image for producing a clear weather is displayed on the transparent film 3.
  • the effect image as shown in FIG. 13A, in addition to a mere image, it may be a combination with text data, such as displaying the characters “It is fine today” with a balloon. This allows the user to feel the feeling of living with the character who taught us today's weather, and make the character more familiar. Note that the effect image is not essential, and the display non-display may be switched at random.
  • the speaker 705 outputs a voice such as “too close”. Be done.
  • a character image is displayed on the transparent film 3 that is embarrassed that the user's face is near.
  • an effect image for producing an embarrassed feeling of the character is displayed.
  • a combination of text data may be used, such as displaying a character of “too close” because it is displayed.
  • the user can feel a sense of living with a character embarrassed according to the proximity, and can feel the character closer.
  • the image display device 1 when acquiring the environmental signal (T1), displays the character image of the character in accordance with the acquired environmental signal, and also displays the character image in accordance with the environmental signal. An effect image for producing emotional expression of the character is displayed (T2). Further, the image display device 1 outputs a sound corresponding to the acquired environmental signal (T3). Preferably, steps T2 and T3 are performed simultaneously.
  • the speaker 705 responds by The sound of "na-" is output.
  • a character image that acts like being disturbed is displayed on the transparent film 3 by being asked to the user a plurality of times.
  • an effect image is displayed on the transparent film 3 to ask the user a plurality of calls. In this way, the user can feel more familiar with the character corresponding to a plurality of calls, and can feel a sense of living with the character.
  • the speaker 705 when a signal for sending an object to a character is transmitted from the user's communication terminal, in response to this, the speaker 705 outputs an audio that is pleasing to the user. Characters that use the sent material may be displayed.
  • a user's communication terminal is operated and "television" is transmitted to the character of the image display apparatus 1.
  • the television is displayed as an effect image.
  • the effect image for example, characters such as “Television together” may be included in the balloon.
  • the transmission image for transmitting the television is associated with the character image and the effect image shown in FIG. 14B.
  • an audio of "TV together” is output.
  • an audio “TV together” is output as a transmission signal for transmitting the television.
  • an effect image may be displayed on the image display device 1 that includes the text “it was interesting” in the balloon.
  • the image display apparatus 1 outputs a voice of “interesting”.
  • an effect image including "interesting” is associated on the condition that a predetermined time has elapsed after the transmission signal for transmitting the television is received (the television program is ended).
  • the audio data 752 on the condition that a predetermined time has elapsed after the transmission signal for transmitting the television has been received (the television program has ended), the audio of “interesting” is associated.
  • a voice of an impression appropriate for the impression may be selected and output.
  • the image display device 1 may output the laughing voice of the character at the same time when the user laughs. By outputting such character images, effect images and sounds, it is possible to feel as if the user is watching a television together with the characters.
  • the transmission operation can be performed by flicking the image of the substance to be transmitted in the direction of the image display device 1.
  • the user operates the communication terminal to transmit "coffee” to the character of the image display device 1.
  • the image display device 1 displays coffee as an effect image.
  • the effect image for example, characters such as “let's have a coffee break” may be included in the balloon.
  • the character image and the effect image shown in FIG. 14E are associated with the transmission signal for transmitting the coffee.
  • a voice "let's break coffee” is output.
  • the voice "let's break coffee” is output to the transmission signal for transmitting the coffee.
  • the image display device 1 may display an effect image including a character of “I'm getting ready” in the balloon.
  • the image display device 1 outputs a voice saying "I'm up to dinner".
  • an effect image including "I'm getting lost” is associated.
  • the voice data 752 the voice "I'm up to nothing" is associated on the condition that a predetermined time has elapsed after receiving the transmission signal for transmitting the coffee.
  • the image display device 1 may display a moving image in which the character drinks coffee, or may output an audio such as "Delicious". By outputting such character images, effect images and sounds, it is possible to feel as if the user is drinking coffee with the character.
  • the user operates the communication terminal to transmit “food (a donut in FIG. 14G)” to the character of the image display device 1.
  • food is displayed as an effect image as shown in FIG. 14H.
  • the effect image for example, the characters “thank you” may be included in the balloon.
  • the character image and the effect image shown in FIG. 14H are associated with the transmission signal for transmitting the food.
  • a voice of "thank you” is output.
  • the voice “thank you” is output to the transmission signal for transmitting the food.
  • the image display device 1 may display an effect image including the character “good” in the balloon.
  • the image display device 1 outputs an audio of “It was delicious”.
  • an image for effect including "It was delicious” is associated.
  • a voice of "delicious” is associated on condition that a predetermined time has elapsed after receiving the transmission signal for transmitting the food.
  • the effect image can also be rendered as if the substance has been skipped from the user's communication terminal to the image display device 1. At this time, for example, at the time of transfer, it is illuminated with light such as yellow, and when the character image has this substance, it is possible to produce effects such that the light disappears.
  • the effect may be such that the substance is transferred from the image display device 1 to the user terminal.
  • the image display device 1 operates a coffee maker, it is possible to direct a character to transfer a coffee cup to the communication terminal.
  • the image display device 1 displays a character image of the character wearing the transmitted clothes. Further, in the effect image, for example, the characters “thank you” may be included in the balloon. Further, in the image display device 1, a voice of "thank you” is output.
  • the transmission image is associated with the character image and the effect image shown in FIG. 15C.
  • the voice data 752 the voice of “thank you” is associated with the transmission signal.
  • the image display device 1 may display an image of the character brushing teeth so that the user can brush the teeth together with the character.
  • the image display device 1 may display an image of a state of exercise so that the user can exercise with the character.
  • the storage device 75 may store preference data on the preference of the character, and history data on items and gifts transmitted in the past.
  • the reaction of the character may be different depending on the preference or the history.
  • the character's pleasure is expressed by a large image and sound.
  • the character's pleasure is expressed by a small image and sound.
  • you continue to send the same item you may be less pleasure.
  • the frequency of transmitting the food is increased, it may be expressed as an image and a sound such as "Bright fate".
  • the user can be more familiar with the character because the reaction of the character is not always the same.
  • a predetermined probability (with a predetermined probability, Probability for determining whether or not to perform a conversation related to past communication (this probability may be changed as appropriate)
  • the content of the conversation performed in the past and the image display device 1 in the chat mode described later Executes a random conversation based on a topic according to the content of the chat performed with the user's communication terminal.
  • the control unit 71 when the human sensor 702 detects a person (user), the control unit 71 generates a random number at random timing according to a program for generating a random number (for example, 0 to 100 It is determined whether or not a numerical value exceeds a predetermined threshold value, and when the threshold value is exceeded, the control unit 71 reads out the conversation history data 755 and the chat history data 256 from the storage device 75. Then, a keyword is selected from the contents of conversation contained in conversation content information 903 of conversation history data 755 and chat content information 1003 of chat history data 256, and read out from image data 751 and voice data 752 corresponding to the keyword.
  • a program for generating a random number for example, 0 to 100
  • the image data having a tag that matches the keyword and the audio data are specified, the image data specified by the display processing unit 713 is output from the projector 4, and the audio data specified by the audio output unit 714 is output from the speaker 705.
  • the image display device 1 performs a conversation related to the topic of the conversation executed in the past, the user feels a sense of closeness by the character displayed on the image display device 1.
  • the user since the user also performs conversation based on the topic regarding the content of the chat that was the user's own communication terminal, the user can further feel familiarity with the character and feel familiar.
  • the image display device 1 obtains text data of the conversation, adds the content of the conversation to the conversation history data 755, and uses it for the subsequent conversation and chat. can do. For example, in response to the chat contents of "I'm watching a baseball game" that the user made in chat, the character went with the character by making a remark such as "I will broadcast baseball on TV today". While being able to remind the content of chat, the user can feel a sense of closeness that the character remembered that. Further, the image display device 1 can output a voice corresponding to the output condition or can output a voice of a conversation corresponding to random conversation based on the result of the speech recognition.
  • the acquisition processing unit 711 acquires various environmental signals (S161).
  • the various environmental signals acquired by the acquisition processing unit 711 are transmitted to the analysis unit 712, and the analysis unit 712 analyzes the transmitted environmental signals (S162).
  • the control unit 71 determines which of the conditions under which the character motion to be executed by the character is defined (S163) .
  • the audio output unit 714 outputs the corresponding sound
  • the display processing unit 713 projects the corresponding character image from the projector 4 (S164).
  • the control unit 71 proceeds to the process of step S165.
  • step S165 the control unit 71 generates, for example, random values of 0 to 100 (S165).
  • the random value is not limited to the range of 0 to 100.
  • the control unit 71 compares the magnitude of the generated random value with the threshold value to be compared with the generated random value. If the random value is larger than the threshold (S166: YES), the process proceeds to step S167, and if the random value is equal to or less than the threshold (S166: NO), the process ends.
  • step S167 the control unit 71 reads the conversation history data 755 and the chat history data 756.
  • a keyword is extracted from the conversation content information 903 of the read conversation history data 755 and the chat content information 1003 of the chat history data 756. This can be realized, for example, by syntactic analysis. Then, for example, a keyword with a high frequency of appearance of the latest (for example, one day) keyword is selected. The selection of the keyword may be random or may be based on other criteria.
  • the control unit 71 refers to the random conversation data 757 to identify whether there is a conversation that matches the selected keyword and the environmental signal acquired in step S161 (S168). Then, the voice output unit 714 outputs the voice of the identified conversation from the speaker 705. Also, at this time, if there is a corresponding character image, the display processing unit 713 projects it (S169), and ends the process. For example, if the content of the conversation conducted by the character is content related to "baseball", an image in which the character is wearing a baseball uniform is displayed, or an image having an item such as a ball or a bat is displayed.
  • the process of FIG. 16 is repeatedly performed in the communication mode.
  • the character performs a conversation based on the conversation content exchanged with the user in the past and the content of the chat performed, so that the user feels the accumulation of history with the character, You can feel close to the character.
  • (B) Life Mode The life mode is a state in which a character image is displayed, and this character image does not depend on an environmental signal, and for example, changes according to time. For example, in the case of the morning, the image display device 1 displays an image for making breakfast, eating breakfast, and cleaning. In the daytime, images for making lunch, eating lunch, and ironing are displayed. At night, you will see an image where you can make dinner, eat dinner, and do stretching.
  • the image may be a character washing, cleaning, brushing teeth, or showering.
  • the character may simply display an image of sitting on a chair and hanging out, an image of sitting on a chair and operating a communication terminal such as a smartphone, and an image of sitting on a chair and writing a picture.
  • an image in which the character reads a cartoon on the bed, an image looking around on the bed, an image sleeping on the bed, and the like may be displayed.
  • the image display device 1 shifts to the communication mode.
  • the care mode or the appeal mode is entered at a predetermined timing.
  • (C) Care Mode In the care mode, a character image and an effect image are displayed at predetermined timings according to a user's schedule registered in advance, and a voice according to the tine is output.
  • the image display apparatus 1 outputs voices such as "Good morning”, “Good morning”, “Good morning”, and "Good night”.
  • the user inputs a time to each time input box b11 to b14 in advance via the registration screen W1 as shown in FIG. 17A using a communication terminal etc. Register outing time, return time and bedtime.
  • the chat screen W2 includes an input unit b21 for inputting a message to be transmitted, a transmission unit b22 for transmitting the input message, a message display unit b23 for displaying an example of a message, and a message display unit for displaying the transmitted message and b24.
  • the image display device 1 can execute the “wake up mode”. Specifically, the “wake-up mode” is started a predetermined time before the registered wake-up time (for example, “one hour before”) (S201).
  • the display processing unit 713 displays a character image for greeting "Good morning” and an effect image, and the voice output unit 714 outputs a greeting for "Good morning” (S202). .
  • words corresponding to the user's actions may be output.
  • the voice of "Crispy Wake up” can be output. If the user is late for the previous day, the voice of "Don't be late today” can be output. When it is detected that the curtain is closed, it is possible to output an audio of "Open curtain”. If the user sleeps late on the previous day and his wake-up time is late, a voice of "Because I wake up late late” can be output.
  • the transmission processing unit 715 transmits an operation signal to operate a predetermined home appliance (S203). For example, if a coffee maker is set as a home appliance to be activated after waking up, the coffee maker is activated.
  • an image or sound of an information notification in the morning is output (S204). For example, an image or sound notifying "date”, “weather”, “air temperature”, etc. is output.
  • the voice of the greeting of the character corresponding to this is output (S205). For example, when “thank you” issued by the user is detected, a voice such as “I'm welcome” is output as the voice of the character. Thereafter, when a predetermined time has elapsed, the life mode is entered (S213).
  • the summoning is performed when the analysis unit 712 does not detect the user's face or the touch button 26 is not touched by a predetermined time (for example, 30 seconds before) of the wakeup time. It will be in a state (S206).
  • the transmission processing unit 715 transmits an operation signal, and operates a home appliance registered in advance (S207).
  • the display processing unit 713 displays an image that causes the user
  • the voice output unit 714 outputs a sound that causes the user, and starts the wakeup function (S208) ).
  • the voice that causes the user is a voice such as "morning" of the character.
  • step S202 When the face of the user is detected by the analysis unit 712, or when the touch button 26 is touched, the process proceeds to step S202.
  • the output of the image and voice causing the user is continued as a snooze function (S209).
  • the voice that causes the user can be louder and louder.
  • the light amount of the light output from the image display device 1 may be increased.
  • step S202 When the face of the user is detected by the analysis unit 712, or when the touch button 26 is touched, the process proceeds to step S202.
  • the transmission processing unit 715 transmits an operation signal to operate a home appliance registered in advance (S210).
  • the image and the sound that cause the user are used as the image and the sound of the final means (S211).
  • the display processing unit 713 displays an image in which the character strikes a frying pan.
  • the voice output unit 714 outputs a voice including a sound that the frying pan is struck while saying that the character "will not wake up”.
  • step S202 when the analyzing unit 712 detects the face of the user or when the touch button 26 is touched, the process proceeds to step S202.
  • the image display device 1 makes the user's state unknown (S212), and shifts to the life mode (S213).
  • the image display device 1 can execute the “going out mode”. Specifically, the “going-out mode” is started a predetermined time before the registered going-out time (for example, “5 minutes before”), and a transition is made from the unsummed state (S301) to the summoned state (S302).
  • the “going-out mode” is started a predetermined time before the registered going-out time (for example, “5 minutes before”), and a transition is made from the unsummed state (S301) to the summoned state (S302).
  • the image and sound of the alert are output (S303).
  • the alert is an image of a character that urges the user, a voice of "departure" of the character, and the like.
  • the transmission processing unit 715 transmits an operation signal to operate a predetermined home appliance (S303).
  • the display processing unit 713 displays the image of the leaving check
  • the voice output unit 714 outputs the sound of the leaving check (S304). For example, it outputs an image or sound notifying a confirmation of a schedule, a confirmation of a lost item, a confirmation prompting to hold an umbrella when the probability of precipitation is high, and the like.
  • the display processing unit 713 outputs an image for prompting departure
  • the voice output unit 714 outputs a voice for prompting departure (S305).
  • a moving image in which the character moves rapidly and a voice such as "The departure time is already! It is late" of the character.
  • the display processing unit 713 displays an image according to this, and the voice output unit 714 outputs a voice according to this (S306) .
  • the display processing unit 713 displays a character image that shakes the user.
  • the audio output unit 714 outputs an audio such as "I'm happy”.
  • the voice to be output may be changed according to the schedule of the user to be registered, the action history of the user, and the like.
  • the transmission processing unit 715 transmits an operation signal to operate a predetermined home appliance (S307).
  • the mode is shifted to the life mode (S308, S309). Furthermore, after a predetermined time (for example, 10 minutes) elapses, when no human is detected by the human sensor 702, the sleep state is entered (S310).
  • a predetermined time for example, 10 minutes
  • the image display device 1 can perform "go-out / go-return determination” according to the environment signal, and can execute the "go-to-home mode” accordingly. Specifically, after it is determined that the user is out in the "going out mode" described above with reference to FIG. 15, when the image display device 1 is in the sleep state (S41), a message that is scheduled to return from the user's communication terminal is received. As preparation for returning home, it shifts to a summoning state (S42).
  • the transmission processing unit 715 transmits an operation signal to operate a predetermined home appliance (S43).
  • the image display apparatus 1 predicts that the user will go home when the person detection sensor 702 detects a person, when the light of the house is turned on, and when the door is opened. It determines (S44).
  • opening and closing of the door can be determined by detection of a change in air pressure by an air pressure sensor (not shown) or detection of sound by the noise sensor 613.
  • the voice output unit 714 may output a voice such as “I feel like I came back”.
  • the transmission processing unit 715 transmits an operation signal to operate a predetermined home appliance (S45).
  • the image display apparatus 1 is determined to be “return home” when the analysis unit 712 detects the face of the user or when the touch button 26 is touched.
  • the display processing unit 713 displays a character image and effect image for greeting the return home, and the voice output unit 714 outputs the voice of the return greeting (S46).
  • the greetings for returning home are not limited to "Okaeri”, “Because it is too late”, “Today is early”, “I like today", “Otenare”, etc. And so forth.
  • the voice of the character response is output in response to this (S47).
  • the character may output a voice such as "I ate a donut yesterday and exercise today” as what I did on that day. You may also let them know what happened at home. For example, when the chime of the entrance rang a plurality of times, a voice such as "someone has come today” may be output.
  • the return home confirmation is performed (S48).
  • the voice output unit 714 outputs a voice such as “Come back home? Make a face”.
  • the display processing unit 713 displays a character image that looks like a crawl, a character image that looks angry, and an image for effect.
  • step S49 After replying to the user's greeting in step S47, or after returning home confirmation in step S48, the life mode is entered (S49).
  • (D) Appeal mode In the appeal mode, a character image or effect image corresponding to each condition is displayed according to the time or a signal detected by a sensor or the like, and a voice corresponding to each condition is output.
  • the image display apparatus 1 can output a sound such as "It's 8 o'clock” according to the time. Further, the image display device 1 can output a voice such as "It's hot” depending on the temperature. As a result, the user can talk from the character at an unexpected timing, so the character can be felt closer.
  • (E) Chat Mode In the chat mode, when the user is away from the image display apparatus 1, for example, while away from home, transmission and reception of messages with a communication terminal held by the user are realized.
  • the communication terminal held by the user is, for example, a mobile communication terminal such as a smartphone or a mobile phone.
  • the basic algorithm in chat mode can be done in the same way as a conversation with the user. However, instead of voice input from the user, the image display apparatus 1 performs chat by using a character string on chat as input.
  • FIG. 21 is a flowchart showing the operation of the image display device 1 in the chat mode, and is a flowchart in operation in the chat mode.
  • the user executes a chat application for chatting with the image display device 1 at his own communication terminal.
  • an activation signal of the chat application is transmitted from the user's communication terminal to the image display apparatus 1 via the network.
  • the control unit 71 of the image display device 1 activates the chat mode, and starts a chat with the user's communication terminal via the chat server.
  • the image display device 1 detects that the user is not around using a human sensor, and starts a chat mode from the image display device 1 under predetermined conditions, and the user's communication terminal is A chat application activation signal may be sent to start a chat.
  • the chat server may be a dedicated server for the image display device 1 or a general-purpose chat server.
  • the acquisition processing unit 711 acquires various environmental signals (S501).
  • This environmental signal may include the latest speech input by the user on the chat.
  • the various environmental signals acquired by the acquisition processing unit 711 are transmitted to the analysis unit 712, and the analysis unit 712 analyzes the transmitted environmental signals (S502).
  • the analysis unit 712 performs syntactic analysis on the character string of the utterance content on the chat of the user to recognize the utterance content.
  • the analysis unit 712 also determines the situation from other environmental signals, such as weather information.
  • the control unit 71 refers to the analysis result and the voice data 752, the signal data 753, and the like to determine which of the conditions under which the chat utterance on the character to be executed matches (S503).
  • the voice data 752 is information defining a voice
  • the voice data 752 is common to a chat in the concept of conversation, and thus can be used also in a chat.
  • the transmission processing unit 715 transmits a message of the identified speech content to the communication terminal of the user via the chat application (S 504).
  • the control unit 71 proceeds to the process of step S505.
  • step S505 the control unit 71 generates, for example, random values of 0 to 100 (S505).
  • the random value is not limited to the range of 0 to 100.
  • the control unit 71 compares the magnitude of the generated random value with the threshold value to be compared with the generated random value. If the random value is larger than the threshold (S506: YES), the process proceeds to step S507, and if the random value is equal to or less than the threshold (S506: NO), the process ends.
  • step S507 the control unit 71 reads the conversation history data 755 and the chat history data 756.
  • a keyword is extracted from the conversation content information 903 of the read conversation history data 755 and the chat content information 1003 of the chat history data 756 (S 507). This can be realized, for example, by syntactic analysis. Then, for example, a keyword with a high frequency of appearance of the latest (for example, one day) keyword is selected. The selection of the keyword may be random or may be based on other criteria.
  • the control unit 71 refers to the random conversation data 757 to identify whether there is a conversation that matches the selected keyword and the environmental signal acquired in step S501 (S508). Then, the transmission processing unit 715 transmits a message indicating the content of the identified utterance to the user's communication terminal via the chat application (S509). At this time, if there is a corresponding character image, the transmission processing unit 715 transmits image data for displaying the image on the chat via the chat application, and ends the processing. For example, if the content of the conversation conducted by the character is content related to "baseball", the character transmits an image wearing a baseball uniform or an image having an item such as a ball or a bat.
  • the process of FIG. 21 is repeatedly performed in the chat mode.
  • the character makes a speech based on the contents of conversation with the user in the past and the contents of the executed chat, so the user feels the accumulation of history with the character You can feel the character closer to you.
  • the image display apparatus 1 can implement
  • FIG. 22A shows an ideographic example of a chat screen on a user's communication terminal.
  • the chat screen W3 displays the contents of the statement between the user and the character.
  • the user uses the touch panel (not shown) of the communication terminal to input a message to the input unit b21, and touch the transmission unit b22 to transmit the message.
  • chat as shown in the chat screen W4 of FIG. 22B, unlike the normal chat, a question may be thrown from the character, and the option b 220 may be displayed as an answer thereto.
  • the chat server has a function of relaying a command from the image display device 1 for realizing this control to the communication terminal of the user.
  • This command also includes an answer command selected by the user.
  • Such a configuration can also give the user a feeling of playing a game with the character. Therefore, the user can also enjoy chat with the character in a game-like manner.
  • conversations and chats using conversation history data 755 and chat history data 756 are randomly performed, but this is not limited thereto, and predetermined conditions are satisfied. It is needless to say that in the case, it may be performed by all means.
  • the image display device 1 can display the image of the character corresponding to the name.
  • the image display device 1 can output a voice that responds to the user.
  • the user can call up a favorite character when he / she likes, and can display this character etc. in a transparent case 2 which can make it look more three-dimensional.
  • the user speaks to a character or the like, it can operate as if the character or the like behaves according to the user's speech. For this reason, it is possible to give the user a feeling as if living with a character or the like in the same space.
  • lighting on / off can be controlled according to voice input.
  • the control unit 71 associates remote control information related to turning off the illumination stored in the storage device 75 in advance with this string. It takes out from the storage unit 75, and transmits corresponding infrared information from the infrared LED 703. Thereby, the illumination in the room can be turned off. Similarly, the lighting can be turned on according to "Okaeri” or "Good morning”.
  • the signal utilized here may utilize except infrared rays information.
  • control unit 71 shifts to a monitoring mode corresponding to a character string obtained by this voice.
  • the control unit 71 shifts to the monitoring mode in response to the "it is good” by the character and the like.
  • the monitoring mode is a mode in which the user is not present in the room. For this reason, the monitoring mode can be canceled when the user speaks "I'm here" voice and the character string obtained by this voice is detected. In addition, it is also possible to cancel the monitoring mode in response to the "please return” by the character or the like.
  • the control unit 71 can determine that this is abnormal and notify it. Specifically, a predetermined alarm sound or warning message can be output from the speaker 705, or a predetermined message can be transmitted to a destination registered in advance via the communication unit 76. At this time, the control unit 71 can also cause the camera 722 to photograph the room, store the image in the storage device 75, or transmit the image to a destination registered in advance via the communication unit 76.
  • a person after a person is detected by the human sensor 702 in the monitoring mode, it may be determined as abnormal immediately and notification may be made, or when it is determined that the monitoring mode is not canceled within a predetermined time, it is determined as abnormal. Notification can also be performed.
  • Control action about infrared LED >> As the control operation using the infrared LED 703, the following operation can be performed. Specifically, when the wake-up time preset by the timer program comes, the control unit 71 controls the operation of the corresponding device based on the action information linked to the time information.
  • the control unit 71 becomes “lighting on” when 7:00 is reached.
  • the remote control information is extracted from the storage device 75, the corresponding infrared information is transmitted from the infrared LED 703, and at 23:00, the remote control information of "lighting off” is extracted from the storage device 75, and the corresponding infrared information is transmitted from the infrared LED 703
  • a predetermined device can be automatically operated at a predetermined date and time.
  • the light sensor 721 may be used, for example, to detect that the curtain is not open despite the daytime and prompt the user to open the curtain.
  • the time of sunrise is stored in the storage device 75 as calendar information, and even if the time passes, when the illuminance inputted from the light sensor 721 does not satisfy the predetermined illuminance, the control unit 71
  • the audio data (“open curtain") stored in advance in the storage device 75 is output from the speaker 705.
  • the noise sensor 613 can be used, for example, to alert the user that the television has been on for a long time. Specifically, when it is determined that the television is turned on based on the volume, frequency and the like of the sound input by the noise sensor 613, the control unit 71 starts counting from the time the determination is made and the time of the state is When the predetermined time is exceeded, the audio data ("TV set off") stored in advance in the storage device 75 is taken out and output from the speaker 705. Thus, it is possible to contribute to energy saving and to give the user a feeling as if he or she is being watched by a bride.
  • the vibration sensor 612 can be used to perform earthquake detection and notification operations.
  • a predetermined warning sound or warning message can be output from the speaker 705, or a predetermined message can be transmitted to a destination registered in advance via the communication unit 76.
  • the predetermined sound output control corresponding to the temperature and humidity sensor 611 can be performed. For example, when the temperature detected by the temperature / humidity sensor 611 is less than 10 ° C., the control unit 71 can cause the speaker 705 to output an audio such as “Today is cold” at a predetermined timing.
  • the speaker 705 when the humidity detected by the temperature / humidity sensor 611 is less than 40%, it is possible to cause the speaker 705 to output an audio such as “I'm dry! Do not catch a cold” at a predetermined timing.
  • Image display and audio output control corresponding to an image captured by the camera 722 can be performed.
  • face tracking and facial expression detection can be performed using the image acquired by the camera 722 to change the character image.
  • a character image may be displayed such that the character looks at the user.
  • the character may sometimes display a character image that looks away from the user with his eyes turned away.
  • a laughing character image may be displayed.
  • the user looks at a direction different from that of the character and then looks at it, the user may display a laughing character image at the same timing as the eye looks.
  • a voice of “I drink too” may be output to display a character image drinking a drink with the same cup.
  • a voice “Cool!” May be output.
  • temperature and humidity may be output in response to voice input such as "I would like to bring an umbrella” or voice input from the user such as “what should I wear?" It is possible to display recommended clothes corresponding to weather information, calendar information, etc.
  • the character displayed by the image display device 1 may have different behavior depending on the user's preference for the character. For example, as preference information of a character, preference such as favorite words and colors, behavior of the preference, and character information such as happy things to be done are set, and preference for the user of the character is set. Then, when the user takes a conversation, chat or action that matches the character's preference, the character's preference value is increased, and if the user does not match the conversation, chat, or action, the character's preference is lowered. You may do it.
  • the storage device 75 may further store information defining the action of the character in accordance with the affinity value. For example, when the user is close to the character and the character says "too close", the voice with an angry voice color is output when the preference is low, and the preference is high. May be to output an illuminated voice-like voice. Therefore, the storage device 75 may store a plurality of speech of the same content according to the user's sensitivity. By doing this, the character of the image display device 1 can be made to have a human touch, and the user can feel a sense of closeness.
  • the image display device 1 may realize the following processing.
  • the control unit 71 can call for a wake-up using calendar information including the wake-up time of the user registered in the storage device 75 at the calendar site and the time acquired by the data management unit 716. After that, for example, when the user gets up from the bed and the face detected by the analysis unit 712 has a size larger than a certain size, the control unit 71 determines that the user gets up, and the user executes processing after getting up. For example, the user may transmit schedule information of the communication terminal of the user to the image display device 1, and the image display device 1 may operate in accordance with the content indicated by the received schedule information. For example, when the schedule information indicates "23:00 wake up", the control unit 71 may cause the character to perform an operation to wake up the user at six o'clock on the 23rd.
  • ⁇ Outing judgment system For example, when the position information of the user's communication terminal acquired by the acquisition processing unit 711 is outside the house, for example, in addition to the voice of the user "I'm coming" detected by the analysis unit 712, the control unit 71 goes out. It can be determined that Also, for example, in addition to the fact that the presence of the user is not detected by the human sensor 702, when the position information of the communication terminal of the user acquired by the acquisition processing unit 711 is outside the house, it may be determined that the user has gone out. it can.
  • the control unit 71 can determine that the user has returned home.
  • the face of the user may be determined from an image captured by the camera 722.
  • the control unit 71 detects that the motion of the user is not detected for one hour by the human sensor 702, and the illuminance detected by the light sensor 721 is bright enough that the illumination is not extinguished. If it is analyzed by the analysis unit 712, it can be determined that the user has fallen asleep.
  • “sleep over” means that the user sleeps without turning off the light during work such as watching a television or playing a game.
  • the image display apparatus 1 may control the proof so as to turn off the room light when it is determined that the user has fallen asleep and the room light is not turned off.
  • the control unit 71 can propose, for example, whether to go out the next morning or, if it is earlier than the usual morning, to secure the usual morning preparation time, and to make the next morning's wake-up time earlier. In terms of value, if the time difference between the next morning's wake time and the next scheduled outing time is shorter than the going-out preparation time determined by the time difference between the average wake up time and the outside time, we propose to make it earlier than the next morning's wake time. Do. For example, the control unit 71 selects and outputs, from the voice data 752, the voice of “Tomorrow is departure time? In addition, the control unit 71 changes the alarm time registered in the storage device 75 if the user responds “YES”.
  • the control unit 71 can propose that the wake-up time of the next morning be made earlier. Specifically, when the departure time this morning is delayed by a predetermined time (for example, 10 minutes) from the scheduled departure time, the control unit 71 can propose that the wake-up time be advanced by the predetermined time. For example, the control unit 71 selects and outputs, from the voice data 752, a voice of “Today's late? Do you want to wake up tomorrow 10 minutes early?” In addition, the control unit 71 changes the alarm time registered in the storage device 75 if the user responds “YES”.
  • a predetermined time for example, 10 minutes
  • the control unit 71 selects and outputs, from the voice data 752, a voice of “Today's late? Do you want to wake up tomorrow 10 minutes early?”
  • the control unit 71 changes the alarm time registered in the storage device 75 if the user responds “YES”.
  • the control unit 71 may include, for example, a system in which the analysis unit 712 detects the vertical motion of face recognition and counts the number of times of squatting. Further, the control unit 71 can be applied not only to push-ups but also to a system that counts the number of abdominal muscles and the number of push-ups. Thereby, the display processing unit 713 can display a character image and an effect image that support the user's operation. Further, the voice output unit 714 can output voice counted by the character and voice supported.
  • control unit 71 may allow the user to take a picture with the character. Under the present circumstances, when a user moves to the range which can be imaged with camera 722, if an image of a user is picturized with camera 722, control part 71 will combine a character image with a picturized image. In addition, the control unit 71 may upload the photographed image in which the character image is synthesized to a providing server such as a social networking service (SNS) via the Internet or the like.
  • SNS social networking service
  • the control unit 71 may cause the character to propose a coffee break to the user. For example, when the time managed by the data management unit 716 is a predetermined time, the transmission processing unit 715 transmits an operation signal to the coffee maker. Further, the display processing unit 713 selects and displays an image for prompting the user to make a coffee break, and the voice output unit 714 selects and outputs a voice for urging the user to make a coffee break. Furthermore, when the analysis unit 712 detects from the image or voice that the user has finished drinking coffee, the control unit 71 ends the coffee break. For example, the control unit 71 can be ended by the analysis unit 712 detecting the voice of the user "Good” and "Good food".
  • the control unit 71 may call names of the user and the character.
  • the voice output unit 713 outputs voice of a character calling a name or a nickname registered in the user data 754.
  • the analysis unit 712 detects the voice of the character's name or nickname uttered by the user, the voice output unit 713 can output the voice of the character calling the user's name or nickname.
  • the control unit 71 may recommend the coordination of the user.
  • the analysis unit 712 determines, from the image captured by the camera 722, the shape and color of what the user is wearing, such as "a square hat on the face” and "a long rectangular tie under the face”. Further, the control unit 71 comprehensively determines the user's expression and mood analyzed from the environment information acquired by the acquisition processing unit 711, the schedule of the user registered in the storage device 75, weather information, the season, and the like. You may recommend the recommended color.
  • the control unit 71 can receive a request for operation of a device or schedule management from a user via an information processing apparatus such as a communication terminal. For example, when the operation of the device is requested, the transmission processing unit 715 outputs an operation signal according to the requested signal. In addition, when registration or change of a schedule is requested, the data management unit 716 registers or updates data in response to this signal. Specifically, as described above with reference to FIG. 13B, the control unit 71 can be operated using a chat function or using something like a memo or a message board. The user can feel that he wants the character to want it to be a character, so he can feel like he is asking a human.
  • the control unit 71 may display a character image angry and going to sleep when a predetermined condition is satisfied. For example, if the image display device 1 is not connected to an external network, or if the image display device 1 is not connected to the network of the user's communication terminal, an image is selected to be angry and go to sleep ,indicate. Thus, by displaying a character image that the image display device 1 appeals to the user, it can be more human-like and more realistic.
  • the control unit 71 can randomly select one from a plurality of them and reflect it on an image or sound to be output. For example, at this time, in the user data 754, weight values are set for the preference information of the user, and the control unit 71 can select an image or sound to be output in consideration of the weight values. Also, the weight values of these tastes can be increased or decreased with the passage of time. Furthermore, when the weight value becomes equal to or less than a predetermined value, the topic of another taste or taste may be selected by increasing the weight value of another preference.
  • the control unit 71 can select an image to be displayed or a sound to be output based on the “user preference information” or the “character preference information inside the character”. For example, if the user likes comics, the control unit 71 can display a character image for reading comics in the life mode, and can output a corresponding sound. In addition, if the user likes cooking, the control unit 71 can display a character image for cooking during spare time, and can output a corresponding sound.
  • the control unit 71 can output an image and sound of a topic related to the interaction after a predetermined time when the interaction with the user occurs.
  • the control unit 71 stores the time at which the interaction with the user has occurred, and realizes the control by determining whether or not a predetermined time has elapsed from there.
  • User behavior analysis and estimation system As data for determining the action of the user by the control unit 71, data of a plurality of patterns given in advance as teacher data can be referred to and derived. Specifically, sensing data when the user performs a predetermined action is acquired using various sensors provided in the image display device 1, and stored in association with information indicating the predetermined action at that time. Keep this in mind as teacher data.
  • the image display apparatus 1 can analyze and estimate a user's action by comparing the data input from the various provided sensors with teacher data.
  • the control unit 71 can cause the character to perform an operation corresponding to the user's action.
  • the control unit 71 may sequentially update the teacher data according to the user's action.
  • the image display device 1 may estimate the user's emotion and cause the character to execute an operation corresponding to the user's emotion. Specifically, the process is performed as follows.
  • the control unit 71 may perform expression recognition processing from the face image of the user captured by the camera 722 to estimate the user's emotion. This is because the information of the feature amount of the face image corresponding to various emotions is stored in advance in the storage device 75, and the face image estimated to be closest is identified by pattern matching with the captured image, and the action is taken. Identify the emotions that Also, the user's emotion may be estimated from the voiceprint input from the microphone 704. Similarly to the case of the face image, information of voice information (for example, frequency, volume, etc.) corresponding to various emotions is stored in advance in the storage device 75, and it is determined according to the feature amount with the input voiceprint. , Estimate the user's emotions. Alternatively, the control unit 71 may estimate the user's emotion from the content of the conversation or chat with the user. For example, the user's emotions are estimated from words expressing emotions such as "fun” or "embarrassed" during conversation.
  • the control unit 71 of the image display device 1 can cause the user to take action such as tuning or encouragement according to the personality of the character stored and set in the image display device 1. For example, when it is estimated that the user feels lonely as a result of judging the user's emotion, "Yes, it was sad, but I do not have it?" Or "It is not necessary to feel lonely! It is good to output a speech of speech such as “OK” or “OK” from the audio output unit 714. Also, for example, when it is estimated that the user is depressed, “Fight!” May be encouraged. Needless to say, the behavior of these characters is an example.
  • the control unit 71 of the image display device 1 stores the content of the word of thanks, such as thank you, transmitted from the user in a conversation or transmitted on a chat. Then, the condition at that time is stored. That is, the control unit 71 (character) stores that the user is said to thank “when” and “what to do”. That is, the “timing” and the “character action” are stored in the storage device 75 in association with each other when the user appreciates. Then, the control unit 71 may cause the character to reproduce the appreciated action at the timing of “when”.
  • control unit 71 of the image display device 1 determines that the image captured by the camera 722 includes a face image of a person different from the user, the control unit 71 attaches the face image to the chat and “who is this person?” It is good to ask. On the other hand, when the user answers "It is a mother", the image display apparatus 1 associates and stores a face image obtained by imaging the person and the word "Mother". In addition, the control unit 71 of the image display device 1 may change, for example, a message such as “I am a mother.
  • the image display device 1 may transmit a message “Mother came” to the user's communication terminal.
  • the action of the person can be estimated at that time, the content may be included and transmitted.
  • the said structure can also serve as a crime prevention, when the face image which the image display apparatus 1 imaged is a person's face which a user does not know.
  • the image display apparatus 1 detects that the user has gone out (after a predetermined time has elapsed while the human sensor 702 has not detected a person) and when it is delayed by a certain amount or more (for example, the current time is night When 22 o'clock has passed, the user may be contacted by means of twitter (registered trademark), e-mail, chat, telephone or the like. For example, the control unit 71 may transmit a message such as “Slow but OK?” Or may make a call. When making a call, it is necessary to set the image display device 1 to connect to a telephone line.
  • a threshold may be set to determine whether to take the action, and it may be determined whether to take action to worry about the user based on whether the random value exceeds the threshold. Further, the image display device 1 may control the threshold to be higher as the time is later. Also, the threshold may be changed according to the appearance of the user on that morning. For example, when it is estimated that the physical condition of the user is bad, the threshold may be controlled to be lower than normal. «Infrared information monitoring system» The image display device 1 may further include an infrared sensor to acquire ambient infrared information and cause the character to take an action according to the acquired infrared information.
  • infrared information output from the remote control may be acquired and detected when the user operates the remote control of the television, and the time, day, and channel when the television is turned on may be stored. Then, when it is another day and the same time of the same day comes, the image display device 1 may control the television to turn on the same channel.
  • the control unit 71 of the image display device 1 opens the window to the user. It may be possible to have a conversation with a proposal such as “do you have a fan?” Or “do you want to use air conditioning”?
  • the image display device 1 may have a configuration for acquiring and storing information related to a television or radio program that the user is watching. Specifically, television program information is acquired from the network, and audio popularity processing is performed on the sound emitted from the television to estimate the program being viewed by the user. Alternatively, the image display device 1 is connected to various home appliances, acquires TV ON / OFF information and channel information, and identifies and stores a program viewed by the user. Then, the keyword may be acquired from the program guide related to the stored program, and may be used as the material of the conversation.
  • the cloud server voice recognition is performed on what kind of conversation is being performed for the program of each broadcast station, the content of the program of each broadcast station is converted into text, and cloud text information is acquired.
  • the image display device 1 audio information of a program viewed by the user is acquired from the microphone 704. Then, voice recognition is performed on the obtained voice to convert it into user text information. Then, by comparing and collating the cloud text information with the user text information, the image display device 1 can specify which program the user is watching. Then, the control unit 71 specifies a program being viewed by the user, incorporates the program name, and recommends, for example, “Morning is A TV!” To control the remote control of the television. Good.
  • the control unit 71 of the image display device 1 may determine whether the user is busy or not, and may take an action according to the determined state, that is, an action of reading so-called air.
  • the busyness of the user is determined in accordance with various environmental signals acquired by the control unit 71 (acquisition processing unit 711) of the image display device 1. For example, when it is detected that the user's wake-up time is late and the position of the user detected by the human sensor 702 moves more than a predetermined number of times (for example, ten times or more) within a predetermined time When it is determined that the user is busy, the control unit 71 of the image display device 1 controls the character so as not to talk to the user.
  • control unit 71 controls the character to talk to the user.
  • the control unit 71 of the image display device 1 can check the character state of the user, that is, read the air to determine whether or not to cause an action.
  • the control unit 71 of the image display device 1 may detect the line of sight of the user based on the face image and the eye image of the user acquired by the camera 722. For example, it is detected that the face image of the user is oriented in the direction of the image display device 1, and it is detected whether or not the pupils of the eyes are both oriented in the direction of the image display device 1.
  • the control unit 71 can also cause the character to embarrass or stare at the user when the user's gaze is facing the character.
  • the control unit 71 of the image display device 1 may cause the microphone 704 to detect that the user blows his breath and generate an effect that blows the wind in the world in the image display device 1.
  • the clothes of the character may be fluttered and shaken.
  • the configuration can also be realized by providing a wind pressure sensor in the image display device 1 instead of the microphone 704.
  • the image display apparatus 1 may acquire the user's state information from a device capable of detecting the user's state, such as a weight scale or exercise meter that the user holds, via the communication unit 76. For example, when the weight of the user detected from the weight scale has decreased by a predetermined amount or more within a predetermined period, the control unit 71 causes the character to say "Are you eating properly?" If the weight is higher than the average weight by a predetermined amount, it may be recommended that “must exercise a little!”. In addition, when the user exercises repeatedly, the control unit 71 may output sound so as to count the number of times of exercise repeatedly, referring to the image captured by the camera 722. For example, it is conceivable to count the number of push-ups and squats.
  • a device capable of detecting the user's state such as a weight scale or exercise meter that the user holds
  • the control unit 71 causes the character to say "Are you eating properly?" If the weight is higher than the average weight by a predetermined amount,
  • the control unit 71 of the image display device 1 may perform a special operation by receiving a special signal via the communication unit 76.
  • a motion capture sensor is attached to the person's body on the development operation side, and the motion of the person is distributed to the image display devices 1 of all users.
  • the image display apparatus 1 can also realize program delivery by displaying a character that performs the same motion as the delivered motion. For example, when an earthquake alert or the like is received as a special signal, the voice output unit 714 may output a voice such as “Oh, it is an earthquake with a seismic intensity of 4. Stay calm and act”. Further, when image data to be displayed is included in a special signal, the image data may be displayed.
  • the image data may be, for example, a real person.
  • the image display device 1 can obtain image data of an existing person and obtain voice data of the person, thereby displaying the existing person as a character to be displayed.
  • the image display device 1 may have the following functions. At this time, the image display device 1 identifies the user's expression based on the image acquired from the camera 722, generates avatar information of the same expression as the identified expression, and transmits the avatar information to the telephone partner, The avatar image may be displayed on the display screen of the other party.
  • the control unit 71 of the image display device 1 may detect the return of the user and cause the character to report the day of the character. For example, when the human sensor 702 does not detect the user for a predetermined time or more, the analysis unit 712 determines that the user has returned home when the user is newly detected. Then, the control unit 71 may cause the user to report an event that occurred around the character (content estimated to have occurred based on information that can be acquired from various sensors). For example, when temperature / humidity sensor 611 detects a temperature above a predetermined level for a predetermined time or more, the character reports "Today is hot" or room temperature sensor 611 indicates a temperature and humidity above a predetermined level.
  • the control unit 71 of the image display device 1 is set in advance according to the user's instruction when the user's physical condition is bad, such as the work place or school destination of the user. Alternatively, the user may be asked to make a telephone call on behalf of the user, saying "Please take a rest today because of poor health" to the phone number being stored.
  • the control unit 71 of the image display device 1 may control the character in accordance with a signal from a specific item worn or held by the user. For example, when the specific item is a ring and it is detected that the user rubs the ring by image analysis, the character may be made to perform an embarrassing action. Alternatively, when the user holds a penlight and swings left and right as a specific item, the control unit 71 displays an image in which the character has a penlight, and swings the hand left and right. It is also possible to project an image to be moved.
  • the control unit 71 of the image display device 1 may appropriately change clothes, items, and the like to be worn by the character.
  • the control unit 71 stores display data of various clothes and items in the storage device 75 or downloads it from an external server and acquires it. Then, the control unit 71 is a character dressed according to the season, weather, air temperature, time zone including the date and time from the clock unit (not shown, clock for detecting the current date and time) mounted on the image display device 1 May be displayed.
  • the image display devices 1 may be interlocked, and characters may be displayed only at positions where the user can check.
  • the control unit 701 may provide an effect as if the character has also moved to the image display device 1 at the movement destination to which the user has moved.
  • the control unit 71 of the image display device 1 may communicate with the robot cleaner as a home appliance to control the robot cleaner to clean the room of the user. In addition, at that time, the control unit 71 may specify a part that is usually cleaned by the user and a part that is not cleaned.
  • Tooth brushing support system The control unit 71 of the image display device 1 may detect that the user is brushing teeth by image analysis, and may make the character take action to support the user's brushing teeth, or the user may take a medicine, It is also possible to detect that the affected area is coated with a drug and to let the character support the action.
  • the image display device 1 may acquire an image such as a sports broadcast and project an image so as to cause the character to execute the same motion as the motion of an athlete appearing in the sports broadcast. Also, at that time, the user instructs the direction of the character to face with the communication terminal of the user, the operation panel provided in the image display device 1, voice, etc., and the image display device follows the instruction 1 may be displayed. Also, at this time, it is possible to display the image of the athlete itself instead of the character.
  • the control unit 71 displays the live video as being viewed on the character, and the image display device 1 performs live on the character. As if you are participating in, you may be able to squeeze a whistle or have the action of waving a chemical light. Alternatively, in the case where the character sings a song and dances as if it is an idol as a virtual singer, the control unit 71 may interlock the operation according to the clapping and cheering from the user. For example, the timing of the user's hand clap may be detected, and an image may be output so that the steps may be performed in accordance with the timing, or the action may be changed in accordance with the amount of cheering from the user.
  • the image display device 1 may store information on a plurality of characters in the storage device 75. Then, the control unit 71 may select and project a character to be used according to the situation of the user. Further, when a multi-core is mounted on the image display device 1 and one character is controlled by one core, the image display device 1 may project a plurality of characters simultaneously.
  • the image display device 1 may display an image so that the character ages in a predetermined time.
  • the image display device 1 displays the state of the baby when, for example, summoning the character for the first time, and the image of the character is displayed every time a predetermined period elapses from that (for example, every one month). It may be changed and displayed as if the character is growing.
  • the image display device 1 can cope with various languages by mounting a speech recognition algorithm and a dialogue system according to the language of each country.
  • the character displayed by the image display device 1 may be originally created by the user.
  • the image display device 1 may be configured to prepare various data formats required for the purpose, and the user may edit it, and the edit itself transfers the image created by the user's PC or the like to the image display device 1 You may do it.
  • character data created by the user may be distributed via a network.
  • Various character summons system Data of characters of VR (Virtual Reality) content may be used as the characters displayed by the image display device 1.
  • a character such as a game played by the user using an HMD (Head Mounted Display) may be used as the character displayed by the image display device 1.
  • HMD Head Mounted Display
  • characters of various games for example, a smartphone game etc. can be downloaded and displayed.
  • the image display device 1 may have a chat function, but the chat function may be performed by an external device. That is, when the user exchanges a message with the character of the image display device 1 using the communication terminal, the user may actually communicate with an external server. In such a case, the external server must hold the response algorithm as a character, and also need to obtain in advance conversation history data 755 and chat history data 756 regarding the user from the image display device 1. Therefore, when there is a chat input from the user, the external device may have a configuration for accessing the image display device 1 and acquiring those pieces of information.
  • the external device After the external device finishes chatting with the user's communication terminal, the external device transmits chat history data 756 to the image display device 1, and the image display device 1 receives the received chat history data 756.
  • the storage device 75 may be overwritten.
  • a character or the like to be displayed can be displayed as an entity in the same space. Further, in the image display device 1, the behavior corresponding to the environment information such as the voice of the user is performed by the character or the like. Furthermore, in the image display device 1, it is possible to display an effect image representing the heart feeling etc. of the character together with the character image. Furthermore, since the past content is reflected in the latest conversation and chat regarding the content of the conversation and chat conducted with the user, the user is more familiar with the character and becomes attached.
  • each process has been described as being implemented by the control unit 71 of the image display device 1 executing an image display program, a conversation program, a chat program, and the like.
  • the image display device 1 instead of the CPU, they are formed into integrated circuits (ICs (ICs) chips, LSIs (Large Scale Integrations)), FPGAs (Field Programmable Gate Arrays), CPLDs (Complex Programmable Logic Devices), etc.
  • ICs integrated circuits
  • LSIs Large Scale Integrations
  • FPGAs Field Programmable Gate Arrays
  • CPLDs Complex Programmable Logic Devices
  • Each process may be realized by a logic circuit (hardware) or a dedicated circuit. Also, these circuits may be realized by one or more integrated circuits, and the functions of the plurality of functional units shown in the above embodiments may be realized by one integrated circuit.
  • An LSI may be called a VLSI, a super LSI, an ultra LSI, or the like depending on the degree of
  • the image display device 1 may be configured of a control circuit 71a, an input circuit 72a, an output circuit 73a, an operation circuit 74a, a storage circuit 75a, and a communication circuit 76a.
  • the acquisition control circuit 711a, the analysis circuit 712a, the display processing circuit 713a, the audio output circuit 714a, the transmission processing circuit 715a, and the data management circuit 716a included in the control circuit 71a are controlled by the image display program P1, the conversation program P2, the chat program P3 and the like. Be done.
  • Each function is the same as that of each part having the same name shown in the above embodiment.
  • a “non-transitory tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, etc. can be used.
  • the image display program P1, the conversation program P2 and the chat program P3 are the same as the image display program P1, the conversation program P2 and the chat program P3 via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting. It may be supplied to a processor.
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the video display program is embodied by electronic transmission. Further, not only these programs but also voice data and image data related to characters may be downloaded from a server storing them and used in the image display apparatus 1.
  • various characters can be enjoyed on the image display device 1.
  • new voice data and image data of the same character may be downloaded and used.
  • various data stored in the storage device 75 may be stored not in the storage device 75 but in an external device such as a server on a network accessible by the image display device 1. Then, the control unit 71 of the image display device 1 may access an external server at each necessary timing via the communication unit 76 to acquire necessary information.
  • information such as the language model and the speech model in the above embodiment can be stored on the network.
  • the image display program P1, the conversation program P2, and the chat program P # are, for example, script languages such as ActionScript, JavaScript (registered trademark), Python, Ruby, C language, C language, C ++, C #, Objective-C, Java ( It can be implemented using a compiler language such as a registered trademark, an assembly language, an RTL (Register Transfer Language), or the like.
  • script languages such as ActionScript, JavaScript (registered trademark), Python, Ruby, C language, C language, C ++, C #, Objective-C, Java ( It can be implemented using a compiler language such as a registered trademark, an assembly language, an RTL (Register Transfer Language), or the like.
  • the present invention can be suitably used for an image display apparatus capable of displaying a character image and making the contents of a conversation with a user and a chat exchanged with a user's communication terminal interlock with each other.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Optics & Photonics (AREA)
  • Tourism & Hospitality (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Operations Research (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

画像表示装置は、キャラクターを表示する表示部と、キャラクターがユーザと会話を実行する会話部と、キャラクターがユーザの通信端末とチャットを実行するチャット部と、を備え、会話部は、実行した会話の内容及びチャット部が実行したチャットの内容に基づいて次の話題を選択し、チャット部は、実行したチャットの内容及び会話部が実行した会話の内容に基づいて次の話題を選択する。

Description

画像表示装置、話題選択方法、話題選択プログラム、画像表示方法及び画像表示プログラム
 本発明は、キャラクター画像を表示する画像表示装置に関し、ユーザがキャラクターを、より身近に感じることを可能とする画像表示装置に関する。
 従来、様々なキャラクター商品が販売され、その中には、デスクトップキャラクターと呼称されるものがある。これは、PC等のモニタ上にキャラクターを表示させ、予め定められたアルゴリズムに従って動作し、特定のセリフを表示したり、音楽を流したりするアプリケーションである。また、ユーザの通信端末上に表示させたキャラクターにチャットシステムを利用して、提供しているサービスの説明をさせるアプリケーションもある(例えば、特許文献1)。
 ところで、従来から、外部からの音声等に応じてコミュニケーションを行うコミュニケーションロボットや、外部からの音声等に応じて動作する電子玩具等が存在する(例えば、特許文献2及び3参照)。
 一方、このようなロボットや玩具による応答は限定されている。具体的には、ロボットや玩具は、音声に対して、特定の応答や動きをすることができる。しかしながら、ロボットや玩具では単なる応答のみであり、感情表現まではされない。したがって、ユーザは、このようなロボットや玩具を身近に感じにくいことがある。
特開2004-145541号公報 特開2011-227237号公報 特開2002-307354号公報
 ところで、そのようなキャラクター商品にあっては、キャラクターをより身近に感じられるような商品が望まれている。
 本発明は、特定のキャラクターとのコミュニケーションを実現するとともに、キャラクターをより身近に感じさせることができる画像表示装置を提供することを目的とする。
 上記目的を達成するため、画像表示装置は、キャラクターを表示する表示部と、キャラクターがユーザと会話を実行する会話部と、キャラクターがユーザの通信端末とチャットを実行するチャット部と、を備え、会話部は、実行した会話の内容及びチャット部が実行したチャットの内容に基づいて次の話題を選択し、チャット部は、実行したチャットの内容及び会話部が実行した会話の内容に基づいて次の話題を選択する。
 画像表示装置は、特定のキャラクターとのコミュニケーションを、ユーザがキャラクターと行う実会話と、ユーザが自身の通信端末で画像表示装置と行うチャットとで、互いに話題を連動させることで、ユーザにキャラクターをより身近に感じさせることができる。
図1は、本発明の実施形態に係る画像表示装置を上方から見た斜視図である。 図2は、本発明の実施形態に係る画像表示装置を下方から見た斜視図である。 図3は、本発明の実施形態に係る画像表示装置の左側面図である。 図4Aは、本発明の実施形態に係る画像表示装置に搭載される機器であって、上部収容部に設置される機器を模式的に示す図である。 図4Bは、本発明の実施形態に係る画像表示装置に搭載される機器であって、柱部に設置される機器を模式的に示す図である。 図4Cは、本発明の実施形態に係る画像表示装置に搭載される機器であって、下部収容部に設置される機器を模式的に示す図である。 図5は、本発明の実施形態に係る画像表示装置の機能ブロック図であって一使用態様を示す図である。 図6は、本発明の実施形態に係る画像表示装置の他の機能ブロック図である。 図7Aは、本発明の実施形態に係る画像表示装置で利用される画像データのデータ構成図である。 図7Bは、本発明の実施形態に係る画像表示装置で利用される音声データのデータ構成図である。 図7Cは、本発明の実施形態に係る画像表示装置で利用される信号データのデータ構成図である。 図8は、本発明の実施形態に係る画像表示装置で出力される音声のパターンを説明する図である。 図9は、本発明の実施形態に係る画像表示装置で利用される会話履歴データのデータ構成例を示すデータ構成図である。 図10は、本発明の実施形態に係る画像表示装置で利用されるチャット履歴データのデータ構成例を示すデータ構成図である。 図11は、本発明の実施形態に係る画像表示装置で利用されるランダム会話データのデータ構成例を示すデータ構成図である。 図12は、本発明の実施形態に係る画像表示装置における状態遷移を説明する図である。 図13Aは、本発明の実施形態に係る画像表示装置で表示される画像の一例である。 図13Bは、本発明の実施形態に係る画像表示装置で表示される画像の他の例である。 図13Cは、本発明の実施形態に係る画像表示装置における処理を説明するフローチャートである。 図14Aは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。 図14Bは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。 図14Cは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。 図14Dは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。 図14Eは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。 図14Fは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。 図14Gは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。 図14Hは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。 図14Iは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。 図15Aは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。 図15Bは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。 図15Cは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。 図16は、本発明の実施形態に係る画像表示装置のコミュニケーションモードにおける動作を示すフローチャートである。 図17Aは、本発明の実施形態に係る画像表示装置にユーザのスケジュールを登録する画面例である。 図17Bは、本発明の実施形態に係る画像表示装置にユーザのスケジュールを登録する画面例である。 図18は、本発明の実施形態に係る画像表示装置における起床モードを説明するチャートである。 図19は、本発明の実施形態に係る画像表示装置における外出モードを説明するチャートである。 図2は、本発明の実施形態に係る画像表示装置における帰宅モードを説明するチャートである。 図21は、本発明の実施形態に係る画像表示装置におけるチャットモードを説明するフローチャートである。 図22Aは、本発明の実施形態に係るチャットモードのユーザの通信端末の表示画面例を示す図である。 図22Bは、本発明の実施形態に係るチャットモードのユーザの通信端末の表示画面例を示す図である。 図23は、本発明の実施形態に係る画像表示装置の回路構成図である。
 以下、本発明の実施形態に係る画像表示装置について図面を参照して説明する。実施形態に係る画像表示装置は、キャラクター画像を表示するとともに、キャラクターの音声を出力するものである。この際、画像表示装置に表示されるキャラクター画像及びキャラクターの音声は、画像表示装置が置かれる環境、当該装置を所有するユーザに関する情報、時刻情報に応じて決定される。
〈装置構成〉
 まず、図1乃至図4Cを用いて、実施形態に画像表示装置1の装置構成について説明する。図1は、画像表示装置1を上方から見た斜視図である。図2は、画像表示装置1を下方から見た斜視図である。
 図1,図2に示すように、画像表示装置1は、主に、内部が空洞な円筒状の透明のケース2と、そのケース2の内部にほぼ垂直に立設した透過フィルム(本発明の平状部材)3と、キャラクター画像等を出力するプロジェクタ4と、反射ミラー5等の部品や機器を備える。
 このような構成の画像表示装置1において、プロジェクタ4から出力された画像は、反射ミラー5による反射を介して透過フィルム3に投影され、ユーザは、このようにして透過フィルム3に投影された画像を透明なケース2を通して見ることができる。
 ケース2は、一部又は全部が透光性部材からなる筐体であり、例えば、アクリル板等によって形成されている。例えば、ケース2は、2つの透明な半円柱状のケース部材2a,2bを、2本の支柱23に組み込むことで全体が透明な一体の円筒体を形成している。ただし、予め成形された円筒体をケース2に用いることもでき、また、弾性又は可撓性を有する矩形状の板材や膜材を半円柱状に湾曲させ、これを支柱23に組み込んで形成した円筒体をケース2として用いることもできる。このように円筒状のケース2を用いることで、左右のどの角度からでも透過フィルム3に投影される画像を適切に視認することができる。なお、支柱23は透明な部材で形成されていてもよく、この場合、ケース2のほぼ全部を透明にすることができる。ただし、支柱23は、不透明や半透明であってもよい。
 ケース2の正面側上部には、ケース2の表面に沿って湾曲させた帯状の不透明な遮蔽部25を設けている。これにより、ケース2を正面側から見たときに、反射ミラー5は、遮蔽部25の後方にあるため、隠れて見えなくさせることができる。また、図示していないが、ケース2の上底面にあたる円形部には、遮光塗料の塗布等、遮光処理を施している。これにより、透過フィルム3に室内の照明等が入り込むことを防ぐことができ、透過フィルム3に表示される画像を見易くすることができる。また、ケース2の背面側上部(ケース部材2bの上部)は、開口を施しており、反射ミラー5からの画像を形成する光がケース部材2bを介さず、直接透過フィルム3に到達できるようにしている。なお、ケース2は、透明な部材に限らず、乳白色のように半透明の部材を用いてもよい。
 このようなケース2の内部には、透過フィルム3が設けられており、また、ケース2の上方、下方、背面側には、後述する上部収容部21、下部収容部22、柱部6が設けられている。
 透過フィルム3は、本発明の「透光性を有する平状部材」の一実施態様であり、所定の画像が投影される透明なスクリーンとして機能する。本実施形態の透過フィルム3は矩形状であり、これが、ケース2の内部の中央付近にほぼ垂直になるように立設されている。具体的には、透過フィルム3は、台座221の両端に立設された2本の支柱23によって支持され、これにより、表面が正面側(背面側)を向きつつ、台座221の中央に垂直に立設させている。なお、透過フィルム3の代わりに、透明の板材、半透明の板材や膜材等を用いることもできる。
 下部収容部22は、プラスチック等からなる箱体であり、プロジェクタ4の出力制御を含む種々の制御動作を行う制御ボード701その他の機器(図4C参照)を取り付けるスペースを有する。下部収容部22には、着脱可能な下部カバー222が設けてあり、取り付けることで内部を隠すことができ、取り外すことで内部の機器のメンテナンス等を可能としている。下部収容部22の上面の台座221には、透過フィルム3の立設位置の左右の端部に支柱23を立設している。
 透過フィルム3やケース部材2a,2bは、この支柱23により支持されることで台座221上に一体的に立設される。これにより、円筒状のケース2が台座221上に立設され、透過フィルム3は、側部がケース2の内側に内接しつつ、下部(下端)が台座221の上面(表面)に沿うように設けられる。
 台座221は、ケース2内に表示されるキャラクター等を仮想的に載置する台としても機能する。すなわち、台座221は、人形や模型を展示可能に収容するディスプレイケースのベース基材のように見せることができる。
 画像表示装置1では、ミラー取付部51により反射ミラー5の角度や向きを調整することで、透過フィルム3の下端に、キャラクター等の足元を一致させて表示させるようにしている(図1)。このようにすることで、キャラクター等が台座221の上に実際に立っているように見せることができる。
 また、台座221は所定の視認性を有する。具体的には、台座221の表面に模様や着色を施したり、形状に特徴を施したりすることで、台座221の存在が目立つようにしている。例えば、本実施形態の台座221は、アクリル板の表面に、レーザー加工等によって、いわゆる魔方陣の模様に沿った溝を施すようにしている。なお、この模様は一例にすぎず、例えば、魔法陣としては、五芒星にしてもよいし、その他の複雑な幾何学模様を施すこととしてもよい。
 さらに、台座221は、アクリル板の下部に複数の演出用LED706(本発明の発光手段)を分散して配置することで、台座221の全面に演出用LED706からの光が行きわたるようにしている。このようにすると、台座221の表面において、透過フィルム3を跨ぐぞれぞれの領域が強く認識されるため、透過フィルム3に投影されたキャラクター等の前後において台座221の存在をより強調することができる。そうすると、キャラクター等が、台座221の上にしっかりと着地して立っているように見せることができる。
 上部収容部21は、画像出力を行うプロジェクタ4などの機器(図4A参照)を取り付けるスペースを有する。具体的には、上部収容部21は、柱部6の上部に連結された梯子状の上部機器取付部211を設けており、この上部機器取付部211の下面にプロジェクタ4が取り付けられている。
 上部機器取付部211は、図2や図3に示すように、柱部6との連結部213から正面側上方に傾いた状態で固定されており、これに伴い、上部機器取付部211に取り付けられたプロジェクタ4も斜めに傾いた状態で固定されている。このように、プロジェクタ4を斜めに取り付けることで、画像の出力方向が当該プロジェクタ4の背面側下方に位置する反射ミラー5に向くようにしている。
 なお、上部機器取付部211は、柱部6との連結において、ボルト等の軸部材を用いて軸支させ、軸を中心に任意の位置まで回動させてナット等の固定部材により固定することもできる。このようにすると、プロジェクタ4の傾きを容易に変更することができ、この変更によって画像の出力を上下方向に調整することができる。
 上部収容部21には、着脱可能な上部カバー212が設けてあり、取り付けることで、上部機器取付部211やプロジェクタ4等の機器を隠すことができ、取り外すことで内部の機器のメンテナンス等を可能としている。
 プロジェクタ4は、キャラクター画像等の画像の出力を行う画像出力手段である。この種のプロジェクタ4は、通常、いわゆるスクリーンに対し直接映像を投射することで画像を表示するが、本実施形態では、反射ミラー5を介して間接的にスクリーン(透過フィルム3)に画像を投射するようにしている。具体的には、本実施形態のプロジェクタ4は、ケース2の背面側に離間して立設されている柱部6の上部の反射ミラー5に出力画像が向かうように、上部収容部21において傾斜した状態で取り付けられている。
 ところで、プロジェクタの仕様には、焦点距離(以下、「許容投射距離」という)と投射比(以下、「許容投射角度」という)がある。「許容投射距離」は、画像サイズに対応した必要な投射距離(プロジェクタからスクリーンに至る光路の距離)である。実際の投射距離が許容投射距離に満たないと焦点が合わず画像を鮮明に映し出すことはできない。「許容投射角度」は、スクリーンに投射される画像の光路とスクリーンとの角度の許容値である。実際の投射角度が許容投射角度に満たないと、画像の歪みが大きくなり、また、画像の両端で光量が異なって、画像がぼやけるなど画質が低下する。
 これらの点に鑑み、本実施形態のプロジェクタ4は、比較的、許容投射距離が短く、許容投射角度が小さい仕様のものを用い、さらに、反射ミラー5を用いることで、プロジェクタ4とスクリーン(すなわち、透過フィルム3)とをコンパクトに一体化できるようにしている。
 柱部6は、下部収容部22の最背部に立設された柱状の部材であり、ケース2の背面側にケース2とは離間して立設されている。このように、柱部6をケース2の背面側に設けることで、透過フィルム3に室内の照明等が入り込むことを防ぎ、透過フィルム3に表示される画像を見易くすることができる。柱部6には、反射ミラー5や各種センサを取り付けている(図2,図3,図4B等参照)。
 反射ミラー5は、柱部6の上部に鏡面がほぼ垂直(すなわち、透過フィルム3の面とほぼ平行)になるように設けられている。これにより、プロジェクタ4から背面側斜め下方向に出力された所定の入射角の画像の光をこれと同角度(反射角)で反射し、その反射光によって画像を透過フィルム3に投影するようにしている。このようにすると、透過フィルム3における画像の上部と下部の投射距離の距離差を抑えることができるため、透過フィルム3に投影される画像のぼやけ等を抑えることができる。
 図3に示すように、プロジェクタ4から出力された画像の光は、反射ミラー5によって反射され、その反射された画像の光は、正面側斜め下方向に進み、ケース部材2bの開口を通過して、ケース2の内部に設けられた透過フィルム3を背面側から投射する。この状態において、ケース2を通して透過フィルム3に投影されたキャラクター等の画像を見ると、キャラクター等が、より立体的で同じ空間にいる実体物のように視認することができる。
 このような視認効果を奏する理由について以下に説明する。既述の通り、画像表示装置1は、透明なケース2の内部に透明なフィルム(透過フィルム3)を設け、この透明なフィルムに画像を投影するようにしている。このような画像表示装置1においては、ユーザは、透明なケース2を通して透明なフィルムに表示されるキャラクター等を見ることになる。
 この場合、ユーザは、ケース2に仕切られることで制限されたケース2内という空間で、その3D環境、すなわち、縦(高さ)・横・奥行きを認識することになる。このため、特に、その空間内に表示されるキャラクター等とケース2との関係から生ずる奥行きを認識することによって、キャラクター等自体も3D(立体的)に見えるといった視覚効果(3D環境効果)を奏する。
 すなわち、キャラクター等の奥に透明なケース2を視認することで、閉空間内にキャラクター等とその奥側の仕切りが共に視認されることとなり、この結果、同一の空間におけるキャラクター等と透明なケース2との奥行き感に基づいてキャラクター等が立体的に見える。
 これに対し、仮にケース2を無くし、周りに何も無い開放された空間の中で、透明なフィルムに投影されるキャラクター等の画像を見た場合には、周囲の空間が縦・横の認識が強まる一方、奥行きの認識は弱まる。そうすると、このような開放された環境で透明なフィルムに投影されるキャラクター等の画像を見ても、フィルムの存在感が増えるだけで奥行き感を感じにくいことから、既述したような立体的な視覚効果を奏し得ない。
 また、透明なケース2を通して透明なフィルムを見た場合、透明なフィルムが目立たなくなる。これは、ケース2に透過フィルム3が内接されていることで、透過フィルム3の左右の端部が見えなくなることに起因する。また、透明な物質を含め、前方の物質を通して後方を見ると、当該後方の物質を認識しづらくなる。
 これを画像表示装置1に当て嵌めると、例えば、ケース2を正面側から見たときに、ケース2(ケース部材2a)の後方にある透過フィルム3は認識しづらくなる。そうすると、平面状の透過フィルム3の存在が認識されないことで、その透過フィルム3に投影されるキャラクター等は、平面ではない立体物が浮遊するように見える。このような理由からも、ケース2がない場合よりもケース2がある方が、キャラクター等の画像をより立体的に見せることができる。
 また、本実施形態の画像表示装置1は、透過フィルム3の下方(下端)に台座221を設け、キャラクター等の足元を透過フィルム3の下端に一致させて表示するようにしている。このようにすると、あたかもキャラクター等が台座221の上に立っているように見え、キャラクター等がまるで質量がある立体物のように錯覚させることができる。
 特に、台座221は、表面が視認し易いように模様等を施しているほか、透過フィルム3を跨ぐ正面側の領域と背面側の領域の双方に演出用LED706を配置して発光させるようにしている。これにより、キャラクター等の前後に台座221があることを明確に認識させることができ、ひいては、キャラクター等が、台座221にしっかりと着地した状態で立っているように見せることができる。したがって、このような台座221との関係によっても、透明なケース2内の透過フィルム3に投影されるキャラクター等を実体のある立体物のように見せることができる。
 加えて、透過フィルム3に対しては、背面側上部に設けた反射ミラー5からの反射光による投影を行うようにしており、画像の光の一部が透過フィルム3を透過して、台座221上に光の影として映し出されるようにしている。このような影が視認されることによっても、表示対象をより立体的に視認させる効果を奏する。
 次に、画像表示装置1に搭載される機器について図4A~図4Cを参照しながら説明する。図4Aは、上部収容部に設置される機器、図4Bは、柱部に設置される機器、図4Cは、下部収容部に設置される機器の模式図である。
 なお、ケース2の側面は不透明にしたり、側面部に不透明なフィルムを帖着したりするなどして、側面からのキャラクターの視認性を低下させることで、ユーザが正面側からキャラクターを見るようにしてもよい。また、ここでは、透過フィルム3にプロジェクタからの画像を投影することとしているが、これは、例えば、画像表示装置に例えば水滴等を噴霧できる構成を設けて、噴霧された水滴にプロジェクションを行うというような立体ホログラフィーでキャラクターを投影することとしてもよい。立体ホログラフィー技術を応用することで、より立体感のあるキャラクターを表示することができる。
《下部収容部の設置機器》
 図4Cに示すように、下部収容部22には、制御ボード701、人感センサ702、赤外線LED703、マイク704、スピーカ705、演出用LED706、赤外線受光部707、ステータスLED708、起動ボタン709、USBハブ710のほか、Wi-Fi(登録商標)モジュールやBluetooth(登録商標)モジュール等が設置されている。
 制御ボード701は、CPU、ROM、RAM、HDMI(登録商標)ポート、LANポート、USBポート、各種入出力ポートなどが搭載された一又は複数の制御チップが搭載され、各種センサ等から入力された情報に基づき、画像、音声を含む様々な出力動作を所定の機器に実行させる。
 人感センサ702は、赤外線の変化量を検知して人の所在を検出するセンサであり、正面側の左右に設けている。
 赤外線LED703は、正面上部に放射状に設けられ、いわゆる赤外線リモコンとして機能する。具体的には、赤外線を周囲に出力することで、テレビや掃除機などの外部の機器の遠隔操作を可能としている。
 マイク704は、ユーザから発せられる音声を入力する。例えば、マイク704は、正面の下段に1つ設けられる。
 スピーカ705は、音声や音楽などの音情報を、増幅器を介して出力する。図4Cに示す例では、スピーカ705は、正面側に設けられているが、後方柱部の左右にステレオ方式で設置されることが好ましい。
 演出用LED706は、台座221における発光手段である。
 赤外線受光部707は、正面側に設けられ、テレビや照明器具、エアコン、ロボット掃除機等の家電製品のリモコンから、そのリモコンで用いられるリモコン操作に関する赤外線情報を受信する。
 ステータスLED708は、画像表示装置1の状態(例えば、電源オン、エラー発生、通信中や、後述する「スリープ状態」、「未召喚状態」、「召喚状態」等)を示す報知手段であって、特定の点滅パターンや発光色等によって各種状態を識別可能に報知する。
 起動ボタン709は、画像表示装置1本体の電源のオン/オフを行うための操作手段である。
 USBハブ710は、USB機器を複数接続するためのハブである。
 Wi-Fi(登録商標)モジュールは、USBハブに接続された無線LANモジュールであり、アクセスポイントとして無線LAN子機にインターネット環境を提供したり、無線LAN子機として他のアクセスポイントを通じてインターネットに接続したりすることができる。
 Bluetooth(登録商標)モジュールは、所定規格に対応したキーボードやマウス、スマートフォン等の通信端末、マイク、スピーカなどの周辺機器と無線通信を可能とする無線通信インタフェースである。
《柱部の設置機器》
 図4Bに示すように、柱部6には、既述の反射ミラー5に加え、温湿度センサ611、振動センサ612、騒音センサ613が設けられている。
 温湿度センサ611は、室内の温度及び湿度を測定し、これらの測定値を入力する。
 振動センサ612は、振動を検知するためのセンサであり、例えば、ピエゾ振動センサが相当する。振動センサ612によって検出される振動としては、地震のような大きな揺れのほか、足音やドアの開け閉めを識別可能な比較的小さな振動がある。
 騒音センサ613は、室内の環境音を検出するためのセンサである。騒音センサ613によって検出される環境音としては、例えば、所定の基準音量に基づいて判別されるユーザの生活音(テレビの音を含む)、近所の環境音、騒音がある。
《上部収容部の設置機器》
 図4Cに示すように、上部収容部21には、プロジェクタ4、赤外線LED703、光センサ(照度センサ)721及びカメラ722が設けられている。
 プロジェクタ4は、既述したように、反射ミラー5を介して透過フィルム3に画像を投射する。プロジェクタ4から出力される画像には、例えば、様々な漫画やアニメに登場する各キャラクターや実在の人物、物品等の2D画像や3D画像、キャラクターの感情表現を演出する演出用の画像がある。
 赤外線LED703は、左右にそれぞれ設けられ、上部収容部21に設けられているものと同様、赤外線リモコンとして機能する。
 光センサ(照度センサ)721は、明るさ(照度)を測定するセンサである。
 カメラ722は、前方に設けられ、静止画や動画を撮影する撮像手段である。
〈機能〉
 次に、既述した各機器によって実現される機能について図5及び図6を参照して説明する。図5は、実施形態に係る画像表示装置1の機能ブロック図である。図5に示すように、画像表示装置1は、表示部700と、会話部717と、チャット部718とを備える。
 表示部700は、キャラクターを表示する機能を有するものである。例えば、前述のプロジェクタ4にキャラクターに係る画像を透過フィルム3に投影させることで、キャラクターを表示する。表示部700は、例えば、プロセッサやグラフィックエンジンなどによって実現されるが、実現の手法はこれに限られるものではない。キャラクターは、アニメ、漫画、小説、コンピュータゲーム、小説などに登場する人物や動物などであるが、これに限られず、オリジナルの創造上の人物であってもよい。また、人物や動物に限らず、個性を有する無機物もキャラクターとしてあり得る。例えば、ロボットなどである。
 会話部717は、ユーザと会話する機能を有するものであって、キャラクターがユーザと会話しているように演出する機能を有するものである。会話部717は、例えば、プロセッサにより実現され、予め定められたアルゴリズムに従って、ユーザとの会話を行う。会話部717は、予め記憶している音声の中から、ユーザとの会話の話題を選択して、その音声をスピーカ705から出力し、マイク704から入力されるユーザの音声を解析することで会話を実行する。なお、ここで、キャラクターの音声は予め記憶していることとしたが、これはその限りではなく、キャラクターは音声として合成音声を出力することとしてもよい。
 チャット部718は、ユーザが保持する通信端末との間で、チャットを実行するものであって、例えば、プロセッサにより実現され、予め定められたアルゴリズムに従って、ユーザとチャットを行う。チャット部718は、ユーザの通信端末と直接無線通信を実行してチャットを行うこととしてもよいし、所定のメッセージングサーバ(チャットサーバ)を介して、チャットを実行することとしてもよい。ここでいうチャットはいわゆるメッセージ(通信文)のやり取りを行うためのものである。チャット部718は、自動で会話の内容を選択して、選択した会話の内容を文字列として、送信するとともに、ユーザの通信端末から送信されたチャットの内容を解析して、解析した内容に応じた話題を選択して応答を生成し、そのメッセージを送信する。
 ここで、会話部717とチャット部718とは互いに連動する。会話部717とチャット部718とが互いに連動するとは、ユーザとの間で会話部717が実行したキャラクター-ユーザ間の会話がチャット部718が実行するチャットの内容に反映され、チャット部718がユーザの通信端末との間で実行したチャットの内容が、会話部717が実行する会話の内容に反映されることをいう。チャットの内容や、会話の内容とは、発言の内容そのものや話題のことである。そして、会話部717とチャット部718とが連動するとは、例えば、会話部が野球に関する会話をユーザとの間で実行された場合に、チャット部が実行する話題に野球に関する話題を含ませる、より正確には、野球に関する話題を実行する可能性を持たせることをいう。会話部717、チャット部718は、下記における制御部71により実現される。
 また、画像表示装置1は、図1乃至図3を用いて上述したように少なくとも一部が透光性部材からなるケース2をさらに備えることができる。そして、表示部700は、ケース2内に立設した透光性の平板部材である透過フィルム3と、平板部材である透過フィルム3に、キャラクター画像及び演出用画像を投光する投光装置であるプロジェクタ4と、投光装置であるプロジェクタを介した画像の表示制御する表示処理部713とを有することができる。
 具体的には、画像表示装置1は、図6に示すように、制御部71と、入力部72と、出力部73と、操作部74と、記憶装置75と、通信部76とを備える。この記憶装置75に記憶される画像表示プログラムP1や、会話プログラムP2、チャットプログラムP3が実行されることで、制御部71が取得処理部711、解析部712、表示処理部713、音声出力部714、送信処理部715及びデータ管理部716としての処理を実行することができる。
 入力部72は、各種センサによって検出された様々な情報が入力される手段である。入力部72に入力されるデータには、例えば、人感センサ702が人を検知したときに人感センサ702から出力される識別情報、マイク704を介して入力された音声情報、温湿度センサ611によって検出される室内の温度や湿度の情報、振動センサ612が検出した振動の大きさや変化を識別可能な情報、騒音センサ613を介して入力された音量情報、光センサ721を介して入力された照度情報、カメラ722によって撮像された静止画・動画の情報等がある。
 出力部73は、所定の命令にもとづいて信号や情報の出力を行う出力手段である。出力部73によって出力される信号や情報には、例えば、赤外線LED703から出力される外部機器の動作を制御するための赤外線信号、スピーカ705を介して出力される音声情報、演出用LED706から発光される光、プロジェクタ4から出力される画像等がある。
 操作部74は、ユーザによる操作手段であり、例えば、図示しないキーボードやマウス、画像表示装置1に設けられた操作ボタン(ハードキー)や、タッチパネルが相当する。操作部74によって行われる操作には、例えば、起動ボタン709による装置本体の電源のオン/オフや、画像表示装置1をスリープ状態(非召還状態)とアクティブ状態(召還状態)を切り替えるためのボタン等がある。
 記憶装置75は、例えば、画像表示装置1を構成するRAMや、EEPROMやフラッシュメモリ等の不揮発性メモリ等により構成され、画像表示装置1の有する各種機能を実行するためのプログラムやデータを記憶する記憶手段である。記憶装置75に記憶されるデータには、キャラクター等の画像データ751や音声データ752、テレビや照明器具などの外部機器を操作する信号データ753、ユーザの属性情報等に関するユーザデータ754、画像表示装置1がユーザとの間で交わした会話の履歴を示す会話履歴データ755、画像表示装置1がユーザの通信端末との間で実行したチャットの履歴を示すチャット履歴データ756、外部機器のリモコンに関するリモコン情報、カレンダーサイトで登録したカレンダー情報、装置本体や各機器の属性情報、センサから入力した情報、音楽情報、言語データ等がある。また、記憶装置75には、記憶されるプログラムには、後述する各種制御動作を実行するための画像表示プログラムP1の他、ユーザとの間で直接会話を交わすための会話プログラムP2や、ユーザの通信端末との間で(チャットサーバを介して)チャットを実行するためのチャットプログラムP3、音声認識プログラムや人工知能プログラム等がある。
 画像データ751は、画像を表示する表示条件と、当該条件に起因して表示されるキャラクター画像を特定するキャラクター画像情報(第1画像情報)および演出用画像を特定する演出用画像情報(第2画像情報)とが関連付けられるデータである。演出用画像は、キャラクターの感情等を表現するものであって、感情等を表す言葉の文字を含む画像であってもよいし、星型やハート型等のパーティクルを含む画像であってもよい。なお、演出用画像は、必須のものではなく、表示しなくともよい。例えば、所定の確率で表示することとしてもよい。具体的には、例えば、1日で変わるランダムな閾値を設け、演出用画像を表示するタイミングで表示するか否かをその時々でランダム値を算出して、そのランダム値が設定した閾値を超えるか否かで演出用画像を表示してもよい。キャラクター画像情報は、三次元画像の画像情報であることが好ましい。また、演出用画像情報は、状況に応じて、二次元画像の画像情報、又は、三次元画像情報である。
 図7Aに示す画像データ751の例では、環境信号として「音声A」が検出された場合、「キャラクター画像A」と「演出用画像A」とが表示されることが規定される。例えば、音声Aが「おはよう」という言葉であるとき、キャラクター画像Aとして、キャラクターが「おはよう」と言う様子が表されるような画像が表示されるとともに、演出用画像Aとして、朝のさわやかな演出をする画像が表示される。また、演出用画像Aには、「おはよう」の文字が表示される吹き出しを含んでもよい。
 環境信号として「動作C」が検出された場合、「キャラクター画像C」と「演出用画像C」とが表示される。例えば、動作Cが「ユーザの帰宅」であるとき、キャラクター画像Cとして、キャラクターが「おかえり」と言う様子が表されるような画像が表示されるとともに、演出用画像Cとして、帰宅を迎えるような演出をする画像が表示される。また、演出用画像Cには、「おかえり」の文字が表示される吹き出しを含んでもよい。
 「時刻D」のタイミングでは、「キャラクター画像D」と「演出用画像D」とが表示される。例えば、時刻Dとして、目覚ましの時間として「午前6時」がセットされているとき、午前6時になると、キャラクター画像Dとして、キャラクターがユーザを起こすような様子が表される画像が表示されるとともに、演出用画像Dとして、目が覚めるような画像を表示してもよい。また、演出用画像Dには、「朝だよ」の文字が表示される吹き出しを含んでもよい。
 「信号E」を受信したタイミングでは、「キャラクター画像E」と「演出用画像E」とが表示される。例えば、信号Eが、ユーザの通信端末から送信される「ハブラシ」の信号であるとき、この信号Eを受信すると、キャラクター画像Eとして、キャラクターが歯磨きをする様子が表される画像が表示されるとともに、演出用画像Eとして、歯磨きにふさわしい、気分爽快な画像を表示してもよい。また、演出用画像Eには、「はみがき中」の文字を含んでもよい。
 また、画像データ751では、環境情報とともに時刻情報を含む表示条件が規定されてもよい。例えば、画像データ751は、環境情報が同一であっても、午前と午後とでは、表示されるキャラクター画像及び演出用画像が異なるように規定することができる。
 さらに、画像データ751では、環境情報とともに受信信号を含む表示条件が規定されてもよい。
 音声データ752は、音声を出力する出力条件と、当該条件に起因して出力される音声を特定する情報とが関連付けられるデータである。
 図7Bに示す音声データ752の例では、環境信号として「音声A」が検出された場合、「音声A」が出力されることが規定される。例えば、音声Aが「おはよう」という言葉であるとき、音声Aとして、キャラクターの声で「おはよう」と出力される。
 環境信号として「動作C」が検出された場合、「音声C」が出力される。例えば、動作Cが「ユーザの帰宅」であるとき、音声Cとして、キャラクターの声で「おかえり」と出力される。
 「時刻D」のタイミングでは、音声Dとして、キャラクターの声で、「6時だよ」と出力される。
 「信号E」を受信したタイミングでは、音声Eとして、キャラクターが歯磨きをする音や、うがいをする音が出力される。
 また、音声データ752では、環境情報とともに時刻情報を含む出力条件が規定されてもよい。例えば、音声データ752は、環境情報が同一であっても、午前と午後とでは出力される音声が異なるように規定することができる。
 さらに、音声データ752では、環境情報とともに受信信号を含む出力条件が規定されてもよい。
 信号データ753は、家電等の外部の電気機器を操作する操作信号を出力する条件と、当該条件に起因して送信される操作信号とが関連付けられるデータである。
 図7Cに示す信号データ753の例では、環境信号として「音声F」が検出された場合、「操作信号F」が出力されることが規定される。例えば、音声Fが「テレビ消して」という言葉であるとき、テレビの電源をつける操作信号Fが出力される。
 なお、図8に示すように、同一の言葉や行動に対しても、日時に応じて出力される画像や音声は異なっていてもよい。例えば、「おはよう」の音声が検出された場合、平日朝であれば「おはよう 今日も頑張ろうね!」と一日を励ます音声を出力し、休日朝であれば「おはよう 今日はゆっくりできるね」と平日の疲れを労わるような音声を出力する。一方、夜であれば、「なに言ってるの? もうこんな時間だよ」の音声を出力する。したがって、日常生活で不自然な機械的なやり取りを防止することができる。これにより、ユーザはキャラクターをより身近に感じることができる。
 ユーザデータ754は、ユーザのプロフィール、属性、嗜好等のユーザに関する種々の情報を有する。ユーザデータ754において、ユーザの氏名を有することで、画像表示装置1は、例えば、ユーザの名前を音声で出力することができる。このとき、氏名だけでなくニックネーム等を登録してもよい。これにより、キャラクターがユーザの名前を呼ぶようにすることが可能となる。したがって、ユーザは、キャラクターに親しみを感じ、また、より身近に感じることができる。
 ユーザデータ754において、ユーザの住所や会社の住所を入力することで、画像表示装置1は、例えば、ユーザの行動範囲に関する情報をインターネット等を利用して取得し、音声や画像で出力することができる。これにより、キャラクターが、ユーザに様々な情報を知らせてくれるようにすることが可能となる。したがって、ユーザは、キャラクターに親しみを感じ、かつ、より身近に感じることができる。
 ユーザデータ754において、ユーザの生年月日を入力することで、画像表示装置1は、例えば、ユーザの誕生日に、誕生日を祝う画像や音声を出力することができる。これにより、キャラクターが、ユーザの誕生日を祝うようにすることが可能となる。これにより、ユーザはキャラクターに親しみを感じ、かつ、より身近に感じることができる。
 ユーザデータ754において、ユーザの携帯電話の電話番号を入力することで、画像表示装置1は、例えば、ユーザが外出中に、携帯電話に電話をかけるようにすることができる。これにより、ユーザは外出先において、家で待つキャラクターから電話を受けたような状態とすることが可能となる。これにより、ユーザは、キャラクターに親しみを感じ、かつ、より身近に感じることができる。
 その他、ユーザデータ754は、好きなアニメや漫画、小説、ゲーム、映画、好きなキャラクター、趣味、興味のあるもの、体重、身長、職業等の情報を有することができる。画像表示装置1は、このようなユーザに関する情報に基づいて、ユーザの興味のある話題から画像を表示したり、音声を出力したりすることが可能となる。また、このような情報は、アンケート等の結果や、ユーザが利用したSNS(ソーシャルネットワーキングサービス)の履歴等から生成することができる。ここでいうアンケートとは、画像表示装置1のキャラクターがユーザに対して「○○は好き?」とかいった質問を会話やチャットを通じて行うものであってもよいし、あるいは、時々質問リストのようなデータにユーザが記入するものであってもよい。前者の場合、質問内容とそれに対するユーザからの回答の文字列を対応付けて、ユーザデータ754の一部として、記憶しておくことで、以降においてユーザ好みの話題を選択することができる。
 会話履歴データ755は、画像表示装置1のキャラクターがユーザとの間で直接交わした会話の内容に関する履歴情報である。図9は、会話履歴データ755の一具体例を示すデータ概念図である。図9に示すように、会話履歴データ755は、会話を行ったものを示す情報であってキャラクター側の発話かユーザ側の発話かを示す発話者情報901と、発話された日時を示す日時情報902と、会話の具体的内容を示す会話内容情報903と、が対応付けられた情報である。例えば、図9の例で言えば、キャラクターは、「2016年7月10日、18時30分10秒」に、「今日、野球中継があるね」と話しかけているのに対し、ユーザが、「2016年7月10日、18時32分20秒」に、「そうなんだ?教えてくれてありがとう」と答えていることがわかる。なお、ユーザについての会話内容情報903は、入力された音声に対して、解析部712が実行した音声認識の結果のテキストデータが記憶される。なお、会話内容情報903は、会話の内容全てを文字列にした情報であってもよいし、会話の内容から、キーワードをピックアップした情報であってもよい。例えば、図9の例でいえば、「Aチームが好きかな」という会話内容であれば、「Aチーム、好き」というような組み合わせの情報を会話内容情報903として記憶しておいてもよい。この場合、画像表示装置1が選択するキーワードは、会話文中の名詞を基準に選択することとしてもよいし、ユーザの感情を表す語があれば、それをピックアップして記憶することとしてもよい。会話履歴データ755が記憶装置75に記憶されていることにより、画像表示装置1は、過去の会話の内容を認識することができるとともに、その後の会話やチャットの話題に反映することができる。会話履歴データ755は、画像表示装置1が表示するキャラクターとユーザとの間で会話が成されるごとに、制御部71により追加更新される。
 チャット履歴データ756は、画像表示装置1のキャラクターが、ユーザが保持する通信端末との間で実行したチャットの内容に関する履歴情報である。図10は、チャット履歴データ756の一具体歴を示すデータ概念図である。図10に示すように、チャット履歴データ756は、チャットで発言をした側を示す情報であって、ユーザ側の発言かキャラクター側の発言かを示す発言者情報1001と、チャット上でその発言がされた日時を示す日時情報1002と、発言したチャットの内容を示す文字列であるチャット内容情報1003とが対応付けられた情報である。例えば、図10の例で言えば、キャラクターは、「2016年7月2日、19時39分21秒」に、「今、何してる?」とチャットで質問しているのに対し、ユーザが、「2016年7月2日、19時40分30秒」に、「神宮球場で、野球の試合見てるよ」と答えていることがわかる。なお、チャット内容情報1003は、チャットの内容全てを文字列にした情報であってもよいし、チャットの内容から、キーワードをピックアップした情報であってもよい。例えば、図10の例でいえば、「神宮球場で、野球の試合見てるよ」というチャット内容から、「野球」というキーワードのみを記憶しておいてもよいし、「a選手が好きかな」というチャット内容であれば、「a選手、好き」というような組み合わせのキーワードをチャット内容情報1003として記憶しておいてもよい。この場合、画像表示装置1が選択するキーワードは、チャット文中の名詞を基準に選択することとしてもよいし、ユーザの感情を表す語があれば、それをピックアップして記憶することとしてもよい。チャット履歴データ756が記憶装置75に記憶されていることにより、画像表示装置1は、過去のチャットの内容を認識することができるとともに、その後のチャットや会話の話題に反映することができる。チャット履歴データ756は、画像表示装置1が表示するキャラクターとユーザとの間でチャットが成されるごとに、制御部71により追加更新される。
 ランダム会話データ757は、キャラクターがランダムに会話またはチャットを実行する場合の話題の選択に係るデータである。図11に示すようにランダム会話データ757は、キーワード1101と、条件1102と、会話orチャット内容1103とが対応付けられた情報である。キーワード1101は、会話のトリガとなるワードであって、制御部71が会話履歴データ755及びチャット履歴データ756に記録されている会話履歴及びチャット履歴中の話題と照合するための情報である。会話履歴とチャット履歴の中に含まれているキーワードが、キーワード1101のいずれかに合致する場合に、会話orチャット内容1103の内容が音声で出力または、チャットの文章として出力される。条件1102は、対応する会話orチャット内容をキャラクターが話す又はチャットするためにクリアしておく必要のある条件のことであり、条件がない場合も含む。条件としては、特定の天候(晴れ、雨、雪、…)であったり、特定の音声が入力されることであったり、特定の情報(例えば、ある番組が放送されること)が入力された情報(例えば、テレビの番組情報)に含まれていることであったり、様々である。会話orチャット内容1103は、会話履歴またはチャット履歴に含まれるキーワードがキーワード1101に一致し、かつ、条件1102が合致する場合に、実行する会話またはチャットの実内容を示す情報である。なお、制御部71により複数の会話orチャット内容が検出できた場合には、その中のいずれかをランダムに選択することとしてもよいし、選択された会話orチャット内容の会話に含まれるキーワードのユーザの嗜好との合致率の高いものを選択することとしてもよいし、その前の1以上の会話との整合性の高いものを選択することとしてもよい。ランダム会話データが記憶されていることにより、制御部71は、会話部またはチャット部として、それぞれの過去の履歴を反映した次の会話又はチャットを行うことができる。
 通信部76は、有線又は無線により、外部の機器との間で双方向又は片方向のデータ通信処理を行う通信手段である。例えば、インターネットに接続された機器との間で、LANポートに接続されたLANケーブルやWi-Fi(登録商標)モジュールに基づく無線を介して、各種データの送受信が可能である。例えば、通信部76は、ユーザの通信端末から送信される信号を受信することができる。また、通信部76は、天気情報サイトから受信可能な天気情報、カレンダーサイトに登録したカレンダー情報などのインターネットを介して取得可能な情報がある。また、通信部76は、図示していないネットワーク上のチャットサーバを介して、ユーザの通信端末との間でチャット通信を実行することができる。
 制御部71は、画像表示プログラムP1に従って、取得処理部711、解析部712、表示処理部713、音声出力部714、送信処理部715、データ管理部716、としての制御動作を行うことができる。
 取得処理部711は、マイク704、カメラ722、人感センサ702、光センサ721、温湿度センサ611、振動センサ612、騒音センサ613等のすくなくともいずれかから検出された信号を取得する。
 解析部712は、取得処理部711が取得した環境情報を解析する。例えば、解析部712は、取得処理部711がマイク704から検出した環境信号から、ユーザが発した言葉を解析する。解析部712は、例えば、記憶装置75に予め登録される言語モデル及び音声モデルを用いて、マイク704が取得した音声から、ユーザが発した言葉を特定するようにできる。言語モデルとは、画像表示装置1が使用する言語において使用される言語の単語情報の集合や、各種の言い回しを登録したデータである。また、音声モデルは、使用する言語の音声信号のモデルのことであり、例えば、周波数特性を示す信号のことである。具体的には、「あ」、「い」、…、「a」、「b」といった一語一語の音声の標準的なモデルのことである。これにより、入力されたユーザの音声をパターンマッチングにより特定することができる。また、これにより、画像表示装置1は、ユーザが発した言葉に応じて定められる画像を表示し、言葉に応じて定められる音声を出力することができる。ここで、記憶装置75において、画像表示装置1の持ち主であるユーザに関するユーザデータとして声紋情報を有し、持ち主ユーザの声を認識することができるようにしてもよい。
 なお、解析部712が、ユーザが発した言葉を解析できないとき、画像表示装置1は、「もう一度言って」等、通常の機械的な音声を出力してユーザに繰り返しを要求するのではなく、別の方法で反応する。例えば、画像表示装置1は、「もっと近くでしゃべって」、「優しく言って」の音声を出力して繰り返すことを誘導する。また、画像表示装置1は、「ふーん」、「そっかー」、「なるほどー」等、適当な相槌の音声を出力してもよいし、「んー」、「えっとー」のようなフィラー表現の音声を出力してもよい。
 また、解析部712は、取得処理部711がカメラ722から検出した環境信号から、ユーザの位置や動作を解析する。具体的には、解析部712は、画像解析として、画像から人の顔を検出することができる。また、記憶装置75において、持ち主ユーザに関するユーザデータとしてユーザの顔情報を有し、検出した人の顔から、持ち主ユーザの顔を認識することができるようにしてもよい。
 画像表示装置1は、持ち主ユーザを特定することで、キャラクターが持ち主ユーザに対しては親しげに接するような画像を表示したり音声を出力したりすることが可能となる。また反対に、画像表示装置1は、持ち主以外の者に対しては、よそよそしく接したり、自己紹介等の挨拶をしたりするような画像を表示したり音声を出力したりすることができる。これにより、ユーザは、画像表示装置1で表示されるキャラクターに対し、より親近感を覚えることができる。
 また、解析部712は、解析されたユーザが発した言葉、ユーザの位置や動作に加え、他のセンサ等で検出された他の環境情報やボタン操作を合わせて一つの環境情報とした結果を生成してもよい。例えば、音声や画像に加え、人感センサの検出結果から、後述する外出や帰宅の判定をすることができる。
 表示処理部713は、記憶装置75から画像データ751を読み出し、この画像データ751から取得処理部711が取得した環境信号に対応する表示条件と関連付けられるキャラクター画像情報及び演出用画像情報を選択する。また、表示処理部713は、選択したキャラクター画像情報及び演出用画像情報と対応する画像を、出力部73に出力して表示させる。また、表示処理部713は、環境情報及び時刻情報に応じて、キャラクター画像及び演出用画像を表示してもよい。さらに、表示処理部713は、環境情報及び受信信号に応じて、キャラクター画像及び演出用画像を表示してもよい。
 音声出力部714は、記憶装置75から音声データ752を読み出し、この音声データ752から取得処理部711が取得した環境信号に対応する出力条件と関連付けられる音声情報とを選択する。また、音声出力部714は、選択した音声情報と対応する音声を、出力部73に出力する。また、音声出力部714は、環境情報及び時刻情報に応じて、音声を出力してもよい。さらに、音声出力部714は、環境情報及び受信信号に応じて、音声を出力してもよい。
 送信処理部715は、記憶装置75から信号データ753を読み出し、この信号データ753から取得処理部711が取得した環境信号と対応付けられる操作信号を選択する。また、送信処理部715は、読み出した操作信号を、出力部73に出力する。
 データ管理部716は、画像表示装置1に内蔵される時計又は外部の時計から、時刻情報を取得する。時刻に応じて表示する画像や音声が定められるとき、この表示及び出力スケジュールに従い、表示処理部713及び音声出力部714に制御信号を出力する。
 また、データ管理部716は、画像表示装置1の起動時に天気情報サイトにアクセスして、その日の天気情報を取得して記憶装置75に記憶させる。さらに、データ管理部716は、ユーザのスケジュールが登録されているカレンダーサイトに定期的にアクセスして、これにより得られる最新のカレンダー情報を記憶装置75に記憶させることができる。また、データ管理部716は、テレビや照明などの外部機器のリモコンから当該外部機器に関するリモコン情報(赤外線情報)を赤外線受光部707により受信させて記憶装置75に記憶(学習)させることができ、このリモコン情報に基づいて、外部機器を操作するための赤外線情報を赤外線LED703から発信させることができる。なお、データ管理部716は、様々なネットワーク上のデータにアクセスし、ユーザとの会話やチャットに用いることができる様々なデータを収集することもできる。
〈動作〉
 画像表示装置1では、「スリープ状態」、「未召喚状態」、「召喚状態」等の各状態に応じて、画像の表示や音声の出力等の処理を実行する。図12に示すように、画像表示装置1は、コンセントが未接続の状態(S1)において、電源ボタン(図示せず)は有効ではないが、コンセントが挿されてコンセントが接続の状態になると(S2)、電源ボタンが有効になる。
《未召喚状態》
 コンセントが接続された状態(S2)で電源ボタンが押下されると、制御部71が起動する(S3)。この起動により、例えば、起動画面が表示され、「未召喚状態」に移行する(S4)。「未召喚状態」は、画像表示装置1に電源は入っており、プロジェクタ4は起動しているものの、キャラクター画像は表示されておらず、未召喚画像が表示される状態である。また、未召喚状態では、プロジェクタ4は起動しているものの、スピーカ705やカメラ722等は起動しておらず、環境信号を検出することはできない。画像表示装置1は、未召喚状態では、ステータスLED708が点灯している。
《召喚状態》
 未召喚状態(S4)でタッチボタン26が長押しされると、「召喚状態」に移行する(S5)。タッチボタン26が長押しされるとは、所定時間以上(例えば、3秒以上)、ユーザにタッチボタン26が触れられることをいう。この召喚状態が、画像表示装置1における特徴的な画像の表示や音声の出力の処理が実行される状態である。召喚状態は、画像表示装置1は、プロジェクタ4が起動しておりキャラクター画像が表示されるとともに、スピーカ705、カメラ722等が起動して環境信号の検出が可能な状態である。また、「召喚状態」では、(a)コミュニケーションモード、(b)ライフモード、(c)ケアモード、(d)アピールモード、(e)チャットモード等のモードがあり、これらのモード毎に所定の処理が実行される。
《スリープ状態》
 未召喚状態(S4)で電源ボタンが押下されるか、所定時間放置されると、「スリープ状態」に移行する(S6)。「所定時間放置される」とは、例えば、所定時間以上(例えば、20分以上)タッチボタン26が長押しされることがない状態である。スリープ状態は、省電力の待機モードの状態であり、プロジェクタ4も起動しておらず、スピーカ705やカメラ722等も起動していない状態である。画像表示装置1は、スリープ状態では、ステータスLED708が点灯している。
 画像表示装置1は、スリープ状態で、ユーザにより、電源ボタンが押下、又は、タッチボタン26がタッチされると、未召喚状態に移行する。「タッチボタンがタッチされる」とは、所定時間未満(例えば、3秒未満)の時間、ユーザにタッチボタン26が触れられることをいう。
 次に、召喚状態における、(a)コミュニケーションモード、(b)ライフモード、(c)ケアモード、(d)アピールモード、(e)チャットモードについて説明する。
(a)コミュニケーションモード
 コミュニケーションモードは、キャラクター画像が表示され、キャラクターとユーザとがコミュニケーションをとることが可能な状態である。具体的には、画像表示装置1は、コミュニケーションモードでは、取得処理部711が取得する環境信号に応じたキャラクター画像を表示する。また、画像表示装置1は、環境信号に応じた演出用画像を表示する。さらに、画像表示装置1は、環境信号に応じて音声を出力する。
 画像表示装置1は、未召喚状態から、タッチボタンが長押しされ、召喚状態に移行したとき、まず初めにコミュニケーションモードとなる。また、画像表示装置1は、コミュニケーションモードのタイミングで、所定時間以上(例えば、10分以上)継続して、環境信号が取得されず、また、操作信号等の信号を受信しない場合、ライフモードに移行する。
 例えば、画像表示装置1では、マイク704によって環境信号であるユーザが発した「今日の天気は?」の言葉が検出されると、これに応じて、データ管理部716によって記憶装置75に記憶された天気情報に基づき、スピーカ705から「今日は晴れだよ」等の音声が出力される。また、画像表示装置1では、透過フィルム3に、晴れに対する喜びを表す動作をするキャラクター画像が表示される。さらに、画像表示装置1では、透過フィルム3に、晴れの天気を演出する演出用画像が表示される。演出用画像としては、図13Aに示すように、単なる画像だけの他、「今日は晴れだよ」の文字を吹き出しで表示するなどテキストデータとの組み合わせであってもよい。これにより、ユーザは、今日の天気を教えてくれた、キャラクターと暮らすような感覚を覚え、キャラクターをより身近に感じることができる。なお、演出用画像は必須のものではなく、ランダムで表示非表示を切り替えることとしてもよい。
 また例えば、画像表示装置1では、ユーザが画像表示装置1に近づき、カメラ722によってユーザの顔が大きく検出されると、これに応じて、スピーカ705から「近すぎだよ」等の音声が出力される。また、画像表示装置1では、透過フィルム3に、ユーザの顔が近くにあることを恥ずかしがる動作をするキャラクター画像が表示される。さらに、画像表示装置1では、キャラクターの恥ずかしがる感情を演出する演出用画像が表示される。演出用画像としては、図13Bに示すように、単なる画像だけの他、「近すぎだよー」の文字を吹き出して表示するなどテキストデータとの組み合わせであってもよい。これにより、ユーザは、近くによると恥ずかしがるキャラクターと暮らすような感覚を覚え、キャラクターをより身近に感じることができる。
 この場合、例えば、図13Cに示すように、画像表示装置1は、環境信号を取得すると(T1)、取得した環境信号に応じてキャラクターのキャラクター画像を表示するとともに、当該環境信号に応じて当該キャラクターの感情表現を演出する演出用画像を表示する(T2)。また、画像表示装置1は、取得した環境信号に応じた音声を出力する(T3)。なお、ステップT2とT3とは同時に実行されることが好ましい。
 さらに、例えば、画像表示装置1では、ユーザがタッチボタン26を複数回押すことで、複数回呼びかけてキャラクターの行動を邪魔するような動作をすると、これに応じて、スピーカ705から「もう、なんなのー」の音声が出力される。また、画像表示装置1では、透過フィルム3に、ユーザに複数回呼びかけられたことで、邪魔されたような動作をするキャラクター画像が表示される。さらに、画像表示装置1では、透過フィルム3に、ユーザの複数回の呼びかけを問うような演出用画像が表示される。これにより、ユーザは、複数回の呼びかけに対応するキャラクターに対しより身近に感じることができ、キャラクターと暮らすような感覚を覚えることができる。
 また例えば、画像表示装置1では、ユーザの通信端末から、キャラクターに物を送るような信号を送信すると、これに応じ、スピーカ705からこれを喜ぶような音声が出力され、また、透過フィルム3で送信された物を使用するキャラクターが表示されたりする。
 図14Aに示すように、ユーザの通信端末を操作し、画像表示装置1のキャラクターに「テレビ」を送信する。そうすると、画像表示装置1において、図14Bに示すように、演出用画像としてテレビが表示される。また、演出用画像には、例えば、「一緒にテレビみよ」という文字が吹き出しに含まれていてもよい。この場合、画像データ751において、テレビを送信する送信信号には、図14Bに示すキャラクター画像及び演出用画像が対応付けられる。
 さらに、画像表示装置1において、「一緒にテレビみよ」という音声が出力される。この場合、音声データ752において、テレビを送信する送信信号には、「一緒にテレビみよ」という音声が出力される。
 そして、対象のテレビ番組が終了すると、図14Cに示すように、画像表示装置1には、「おもしろかった」という文字を吹き出しに含む演出用画像が表示されてもよい。同時に、画像表示装置1は、「おもしろかった」という音声が出力される。この場合、画像データ751において、テレビを送信する送信信号を受信後所定時間が経過(テレビ番組が終了)したことを条件として、「おもしろかった」を含む演出用画像が対応付けられる。また、音声データ752において、テレビを送信する送信信号を受信後所定時間が経過(テレビ番組が終了)したことを条件として、「おもしろかった」の音声が対応付けられる。なお、テレビ番組の内容として、「面白い」がふさわしくない場合もあるため、その感想としてふさわしい感想の音声を選択して出力するようにしてもよい。
 加えて、ユーザがテレビを視聴の間、ユーザが笑ったりした場合、画像表示装置1は、ユーザの笑い声を検出すると、同時にキャラクターの笑う音声を出力するようにしてもよい。このようなキャラクター画像、演出用画像及び音声を出力することで、ユーザがキャラクターとともにテレビを視聴するような感覚を覚えることができる。
 例えば、ユーザの通信端末の入力装置がタッチパネルであるとき、送信操作は、送信する物質の画像を、画像表示装置1の方向に向かって、フリックすることで、実行することができる。
 図14Dに示すように、ユーザの通信端末を操作し、画像表示装置1のキャラクターに「コーヒー」を送信する。そうすると、画像表示装置1において、図14Eに示すように、演出用画像としてコーヒーが表示される。また、演出用画像には、例えば、「コーヒーブレイクしよう」という文字が吹き出しに含まれていてもよい。この場合、画像データ751において、コーヒーを送信する送信信号には、図14Eに示すキャラクター画像及び演出用画像が対応付けられる。
 さらに、画像表示装置1において、「コーヒーブレイクしよう」という音声が出力される。この場合、音声データ752において、コーヒーを送信する送信信号には、「コーヒーブレイクしよう」という音声が出力される。
 そして、所定時間(例えば、10分)が経過すると、図14Fに示すように、画像表示装置1には、「ごちそうさまでした」という文字を吹き出しに含む演出用画像が表示されてもよい。同時に、画像表示装置1は、「ごちそうさまでした」という音声が出力される。この場合、画像データ751において、コーヒーを送信する送信信号を受信後所定時間が経過したことを条件として、「ごちそうさまでした」を含む演出用画像が対応付けられる。また、音声データ752において、コーヒーを送信する送信信号を受信後所定時間が経過したことを条件として、「ごちそうさまでした」の音声が対応付けられる。
 加えて、コーヒーを飲む間、画像表示装置1は、キャラクターがコーヒーを飲む動画像を表示したり、「おいしいね」等の音声を出力したりするようにしてもよい。このようなキャラクター画像、演出用画像及び音声を出力することで、ユーザがキャラクターとともにコーヒーを飲むような感覚を覚えることができる。
 図14Gに示すように、ユーザの通信端末を操作し、画像表示装置1のキャラクターに「食べ物(図14Gでは、ドーナツ)」を送信する。そうすると、画像表示装置1において、図14Hに示すように、演出用画像として食べ物が表示される。また、演出用画像には、例えば、「ありがとう」という文字が吹き出しに含まれていてもよい。この場合、画像データ751において、食べ物を送信する送信信号には、図14Hに示すキャラクター画像及び演出用画像が対応付けられる。
 さらに、画像表示装置1において、「ありがとう」という音声が出力される。この場合、音声データ752において、食べ物を送信する送信信号には、「ありがとう」という音声が出力される。
 そして、所定時間(例えば、10分)が経過すると、図14Iに示すように、画像表示装置1には、「おいしかった」という文字を吹き出しに含む演出用画像が表示されてもよい。同時に、画像表示装置1は、「おいしかった」という音声が出力される。この場合、画像データ751において、食べ物を送信する送信信号を受信後所定時間が経過したことを条件として、「おいしかった」を含む演出用画像が対応付けられる。また、音声データ752において、食べ物を送信する送信信号を受信後所定時間が経過したことを条件として、「おいしかった」の音声が対応付けられる。
 ここで、演出用画像は、ユーザの通信端末から画像表示装置1に物質がとばされてきたように演出させることもできる。このとき、例えば、転送時には、黄色等の光で光っており、キャラクター画像がこの物質を持った場合に、その光が消えるように演出することもできる。
 また、通信端末から画像表示装置1に物質を転送する他、画像表示装置1からユーザ端末に物質を転送するように演出してもよい。例えば、画像表示装置1がコーヒーメーカーを操作した際に、キャラクターから通信端末にコーヒーカップを転送するように演出させることができる。
 図15Aに示すようにユーザの通信端末で表示される複数種類の衣類やアクセサリーの中から、図15Bに示すように、いずれかを選択し、選択した衣類等を送信する操作を可能としてもよい。そうすると、画像表示装置1において、図15Cに示すように、送信した衣類を身に着けたキャラクターのキャラクター画像が表示される。また、演出用画像には、例えば、「ありがとう」という文字が吹き出しに含まれていてもよい。さらに、画像表示装置1において、「ありがとう」という音声が出力される。
 この場合、画像データ751において、当該送信信号には、図15Cに示すキャラクター画像及び演出用画像が関連付けられる。また、音声データ752において、当該送信信号には、「ありがとう」という音声が関連付けられる。
 このようなキャラクター画像、演出用画像及び音声を出力することで、ユーザがキャラクターにプレゼントをしたような感覚を覚えることができる。また、ユーザは、キャラクターに好みの服を着せることができる。したがって、ユーザはキャラクターをより身近に感じることができる。
 その他、ユーザがハブラシのデータを送信すると、画像表示装置1は、キャラクターが歯磨きをする様子の画像を表示し、ユーザはキャラクターとともに歯磨きできるようにしてもよい。また、ユーザが縄跳びやダンベルのデータを送信すると、画像表示装置1は、運動をする様子の画像を表示し、ユーザはキャラクターとともに運動できるようにしてもよい。
 なお、記憶装置75において、キャラクターの好みに関する嗜好データや過去に送信したアイテムやプレゼントに関する履歴データを記憶していてもよい。この場合、図14A乃至図15Cで上述したようなアイテムやプレゼントを送信すると、その嗜好や履歴によって、キャラクターの反応が異なるようにしてもよい。例えば、キャラクターが好きなアイテムを送信した場合、キャラクターの喜びが大きい画像と音声で表現される。これに対し、キャラクターが特に好きではないアイテムを送信した場合、キャラクターの喜びが小さい画像と音声で表現される。また、同じアイテムを送信し続けた場合、喜び方が小さくなるようにしてもよい。さらに、食べ物を送信する頻度が多くなると、「太っちゃうよー」等と画像と音声で表現されるようにしてもよい。このように、キャラクターの反応が常に同一ではないため、ユーザは、キャラクターにより親しみをもつことができる。
 また、さらには、コミュニケーションモードにおいては、画像表示装置1は、ユーザとする会話の話題を選択するにあたって、取得処理部711が取得する環境信号以外に、所定の確率(予め定められた確率で、過去のコミュニケーションに関連する会話を行うか否かを判定するための確率。この確率は、適宜、変動することとしてもよい)で、過去においてした会話の内容及び後述するチャットモードにおいて画像表示装置1がユーザの通信端末との間で実行したチャットの内容に応じた話題に基づくランダム会話を実行する。
 具体的には、制御部71は、人感センサ702が人(ユーザ)を検出しているときに、ランダムなタイミングで、乱数を生成するプログラムに従って生成したランダムな数値(例えば、0~100の数値)が、所定の閾値を超えるか否かを判定し、この閾値を超えた場合に、制御部71は、会話履歴データ755と、チャット履歴データ256とを記憶装置75から読み出す。そして、会話履歴データ755の会話内容情報903と、チャット履歴データ256のチャット内容情報1003とに含まれる会話の内容からキーワードを選択し、そのキーワードに応じた画像データ751及び音声データ752から読み出して、キーワードと一致するタグを有する画像データと音声データを特定し、表示処理部713が特定した画像データをプロジェクタ4から出力するとともに、音声出力部714が特定した音声データをスピーカ705から出力する。ランダムな会話において、画像表示装置1が過去において実行した会話の話題に関連する会話を行うので、ユーザは、画像表示装置1に表示されるキャラクターにより親近感を覚える。また、ユーザが自身の通信端末でしたチャットの内容に関する話題に基づく会話も行うので、ユーザは、より一層、キャラクターに親近感を覚え、身近に感じることができる。また、ユーザがした会話に対して音声認識処理を行うことで、画像表示装置1は、会話のテキストデータを得て、会話履歴データ755に会話の内容を追加し、以降の会話及びチャットに利用することができる。例えば、チャットでユーザがした「野球の試合を見てるよ」というチャット内容を受けて、キャラクターが「今日、テレビで野球中継をやるよ」というような発言をさせることで、ユーザにキャラクターと行ったチャットの内容を思い出させることができるとともに、キャラクターがそのことを覚えてくれていたことに、ユーザは、親近感を感じることができる。また、画像表示装置1は、音声認識した結果から、出力条件に対応する音声を出力したり、ランダム会話の対応する会話の音声を出力したりすることができる。
 以下、このようなコミュニケーションモードを実現する画像表示装置1の汎用動作を説明する。
 図16に示すように、取得処理部711は、各種の環境信号を取得する(S161)。取得処理部711が取得した各種の環境信号は、解析部712に伝達され、解析部712は伝達された環境信号を解析する(S162)。解析結果及び画像データ751、音声データ752、信号データ753等を参照して、制御部71は、キャラクターが実行すべきキャラクター動作が規定された条件のいずれかに合致するかを判定する(S163)。判定の結果、実行すべきキャラクター動作があった場合には(S163:YES)、音声出力部714は、対応する音声を出力するとともに、表示処理部713は対応するキャラクター画像をプロジェクタ4から投影する(S164)。解析の結果、実行すべきキャラクターが動作がない場合には(S164:NO)、制御部71は、ステップS165の処理に移行する。
 ステップS165において、制御部71は、例えば、0~100のランダム値を生成する(S165)。なお、ランダム値は0~100の範囲に限られない。制御部71は、生成したランダム値と、これと比較するための閾値との間で大小を比較する。ランダム値が閾値よりも大きい場合に(S166:YES)ステップS167に移行し、ランダム値が閾値以下である場合に(S166:NO)、処理を終了する。
 ステップS167において、制御部71は、会話履歴データ755及びチャット履歴データ756を読み出す。読み出した会話履歴データ755の会話内容情報903とチャット履歴データ756のチャット内容情報1003とからキーワードを抽出する。これは、例えば、構文解析等により実現できる。そして、例えば、直近(例えば1日)のキーワードの登場頻度の高いキーワードを選択する。当該キーワードの選択は、ランダムであってもよいし、その他の基準で選択することとしてもよい。
 制御部71は、選択したキーワード及びステップS161で取得した環境信号に合致する会話があるか否かを、ランダム会話データ757を参照して特定する(S168)。そして、音声出力部714は、特定した会話の音声をスピーカ705から出力する。また、このとき、表示処理部713は、対応するキャラクター画像があれば、それを投影し(S169)、処理を終える。例えば、キャラクターがする会話の内容が「野球」に関する内容であれば、キャラクターが野球のユニフォームを着ている画像を表示したり、ボールやバットなどのアイテムを持たせた画像を表示したりする。
 図16の処理は、コミュニケーションモードにおいて繰り返し実行される。このように、ランダムな会話において、キャラクターは、ユーザと過去に交わした会話内容や、実行したチャットの内容に基づく、会話を行うので、ユーザはキャラクターとの間の歴史の積み重ねを感じて、よりキャラクターを身近に感じることができる。
(b)ライフモード
 ライフモードは、キャラクター画像が表示され、このキャラクター画像が環境信号に依存せず、例えば、時刻に応じて変化する状態である。例えば、画像表示装置1では、朝であれば、朝ごはんを作ったり、朝ごはんを食べたり、掃除をしたりする画像が表示される。昼であれば、昼ごはんを作ったり、昼ごはんをたべたり、アイロンをかけたりする画像が表示される。夜であれば、夕ごはんを作ったり、夕ごはんを食べたり、ストレッチをしたりする画像が表示される。
 その他、キャラクターが洗濯をしたり、掃除をしたり、歯磨きをしたり、シャワーをしたりする画像であってもよい。また、単に、キャラクターが、椅子に座って足をぶらぶらする画像や、椅子に座ってスマートフォン等の通信端末を操作する画像、椅子に座って絵を書く画像等を表示してもよい。その他、キャラクターがベッドの上で漫画を読む画像、ベッドの上で周りを見回す画像、ベッドの上で寝ている画像等を表示してもよい。
 また、この頻度や確率を管理することが可能であり、日によって、異なる動作をする画像を表示するようにすることも可能であり、また、動作時間は、完全に同一でなくてもよく、ある範囲の中でランダムに選択される。これにより、また、ユーザが興味のある行動については、長い時間表示されるようにしてもよい。例えば、朝ごはんを作っているときにユーザが「かわいいね」ということが多い場合、朝ごはんを作る画像を表示する時間を長くすることができる。
 画像表示装置1は、ライフモードのタイミングで、タッチボタン26が触れられると、コミュニケーションモードに移行する。また、ライフモードにおいて、所定のタイミングで、ケアモードやアピールモードに移行する。
(c)ケアモード
 ケアモードは、予め登録されたユーザのスケジュールに応じ、所定の各タイミングで、キャラクター画像や演出用画像を表示し、タイングに応じた音声を出力する。例えば、画像表示装置1は、「おはよう」、「いってらっしゃい」、「おはよう」、「おやすみ」等の音声を出力する。
 例えば、ユーザは、通信端末等を利用し、事前に図17Aに示すような登録画面W1を介して、各時刻入力ボックスb11~b14に時刻を入力し、日々の行動の「起床時間」、「外出時間」、「帰宅時間」及び「就寝時間」を登録する。
 また、このスケジュールに変更が生じた場合、再度この登録画面W1を利用して更新することもできるが、1日のみ予定を変更したい場合、後述するチャットモードにより、図17Bに示すようなチャット画面W2を利用して変更してもよい。チャット画面W2は、送信するメッセージを入力する入力部b21と、入力したメッセージを送信する送信部b22と、メッセージ例が表示されるメッセージ表示部b23と、送信されたメッセージが表示されるメッセージ表示部b24とを有する。
 図18のチャートに示すように、画像表示装置1は、『起床モード』を実行することができる。具体的には、登録された起床時間の所定時間前(例えば、「1時間前」)に、『起床モード』が開始される(S201)。
 この状態で、解析部712によりユーザの顔が検出される、又は、タッチボタン26がタッチされると、ユーザが起床したと判定される。また、ユーザが起床したことを条件に、表示処理部713により「おはよう」の挨拶をするキャラクター画像及び演出用画像が表示され、音声出力部714により「おはよう」の挨拶が出力される(S202)。
 その他、ユーザの行動に応じた言葉が出力されてもよい。ユーザが登録される起床時間より早く目覚めた場合、「シャキッと目覚めたね」の音声を出力することができる。ユーザが前日に遅刻した場合、「今日は遅刻しないでね」の音声を出力することができる。カーテンが閉まっていることが検出された場合、「カーテン開けようね」の音声を出力することができる。ユーザの前日の就寝時間が遅く、今日の起床時間が遅い場合、「昨日遅くまで起きているからよ」の音声を出力することができる。
 ユーザの起床が判定されると、送信処理部715は操作信号を送信し、所定の家電を操作する(S203)。例えば、起床後に起動する家電として、コーヒーメーカーがセットされている場合、コーヒーメーカーが起動される。
 また、ユーザの起床が判定されると、朝の情報通知の画像や音声を出力する(S204)。例えば、「日付」、「天気」、「気温」等を通知する画像や音声を出力する。
 家電の操作や朝の情報通知に関する画像や音声の出力に対してユーザが発した音声が検出されると、これに対するキャラクターの挨拶の音声が出力される(S205)。例えば、ユーザが発した「ありがとう」が検出されると、キャラクターの音声として「どういたしまして」等の音声が出力される。その後、所定時間が経過すると、ライフモードに移行する(S213)。
 また、未召喚状態の場合に、起床時間の所定時間前(例えば、30秒前)までに、解析部712によりユーザの顔が検出されず、又は、タッチボタン26がタッチされていないとき、召喚状態となる(S206)。
 未召喚状態から召喚状態となると、送信処理部715は、操作信号を送信し、予め登録される家電を操作する(S207)。
 また、起床時刻まで解析部712によってユーザの顔検出がされないとき、表示処理部713はユーザを起こす画像を表示し、音声出力部714がユーザを起こす音声を出力し、目覚まし機能を開始する(S208)。例えば、ユーザを起こす音声としては、キャラクターの「朝だよ」等の音声である。
 解析部712によりユーザの顔が検出された場合、又は、タッチボタン26がタッチされた場合、ステップS202に移行する。一方、ユーザの顔も検出されず、タッチボタン26のタッチもされないとき、スヌーズ機能として、ユーザを起こす画像と音声の出力を継続する(S209)。例えば、ユーザを起こす音声は、徐々の大きくすることができる。また、画像表示装置1から出力される光の光量を上げてもよい。
 解析部712によりユーザの顔が検出された場合、又は、タッチボタン26がタッチされた場合、ステップS202に移行する。一方、ユーザの顔も検出されず、タッチボタン26のタッチもされないとき、送信処理部715が操作信号を送信し、予め登録される家電を操作する(S210)。
 さらに、ユーザを起こす画像と音声を最終手段の画像及び音声とする(S211)。例えば、表示処理部713は、キャラクターがフライパンをたたく画像を表示する。また、例えば、音声出力部714は、キャラクターが「起きないとおくれるよー」と言いながらフライパンがたたかれる音を含む音声を出力する。
 その後、解析部712によりユーザの顔が検出された場合、又は、タッチボタン26がタッチされた場合、ステップS202に移行する。一方、解析部712により顔検出がされず、タッチボタン26の検出もないとき、画像表示装置1は、ユーザの状態を不明とし(S212)、ライフモードに移行する(S213)。
 図19のチャートに示すように、画像表示装置1は、『外出モード』を実行することができる。具体的には、登録された外出時間の所定時間前(例えば、「5分前」)に、『外出モード』が開始され、未召喚状態(S301)から召喚状態に移行する(S302)。
 また、出発時刻になると、アラートの画像及び音声が出力される(S303)。例えば、アラートとは、ユーザを急がせるようなキャラクターの画像とキャラクターの「出発だよ」の音声等である。
 また、送信処理部715は操作信号を送信し、所定の家電を操作する(S303)。
 さらに、表示処理部713は、外出チェックの画像を表示し、音声出力部714は、外出チェックの音声を出力する(S304)。例えば、予定の確認、忘れ物の確認、降水確率が高い場合に傘を持つよう促す確認等を通知する画像や音声を出力する。
 また、出発時刻になると、表示処理部713は、出発を急がせる画像を出力し、音声出力部714は、出発を急がせる音声を出力する(S305)。例えば、キャラクターが慌ただしく動く動画像と、キャラクターの「もう出発時間!遅刻だよ」等の音声である。
 解析部712がユーザの「行ってきます」の音声を検出したとき、表示処理部713は、これに応じた画像を表示し、音声出力部714は、これに応じた音声を出力する(S306)。例えば、表示処理部713は、ユーザに手を振るキャラクター画像を表示する。また、音声出力部714は、「いってらっしゃい」等の音声を出力する。また、出力する音声は、登録されるユーザのスケジュールやユーザの行動履歴等に応じて変更してもよい。
 その後、送信処理部715は操作信号を送信し、所定の家電を操作する(S307)。
 ステップS305で出発時刻を通知後、又は、ステップS307で家電を操作後、ライフモードに移行する(S308,S309)。さらに、所定時間(例えば、10分)経過後、人感センサ702によって人が検出されない場合、スリープ状態に移行する(S310)。
 図20に示すように、画像表示装置1は、環境信号に応じて「外出・帰宅判定」が可能であり、これに応じて『帰宅モード』を実行することができる。具体的には、図15を用いて上述した『外出モード』において外出が判定された後、画像表示装置1がスリープ状態であるとき(S41)、ユーザの通信端末から帰宅予定のメッセージを受信すると、帰宅準備として、召喚状態に移行する(S42)。
 その後、送信処理部715は操作信号を送信し、所定の家電を操作する(S43)。
 また、画像表示装置1は、人感センサ702で人を検出したタイミング、家の照明の電源がオンにされたタイミング、ドアが開けられたタイミングで、帰宅をしたと予想する「帰宅予想」と判定する(S44)。ここで、ドアの開閉は、気圧センサ(図示せず)による気圧の変化の検出や、騒音センサ613による音の検出によって判定することができる。また、帰宅予想が判定されると、音声出力部714は、「帰ってきたみたいだー」等の音声を出力してもよい。
 帰宅予想が判定されると、送信処理部715は操作信号を送信し、所定の家電を操作する(S45)。
 また、画像表示装置1は、解析部712によりユーザの顔が検出された場合、又は、タッチボタン26がタッチされた場合、「帰宅」と判定される。また、ユーザが帰宅したことを条件に、表示処理部713は、帰宅の挨拶をするキャラクター画像及び演出画像が表示され、音声出力部714により帰宅の挨拶の音声が出力される(S46)。例えば、帰宅の挨拶としては、「おかえり」に限られず、「今日も遅いんだから―」、「今日は早ね」、「今日はおそいね」、「おつかれさま」等、日々のユーザの行動履歴等に基づいて決定される音声を含むことができる。
 ユーザが発した音声が検出されると、これに対してキャラクターの返答の音声が出力される(S47)。例えば、キャラクターは、その日にしたこととして、「昨日ドーナツを食べたから、今日は運動したよ」等の音声を出力してもよい。また、家で起きたことを知らせてもよい。例えば、玄関のチャイムが複数回鳴った場合、「今日は誰かが来ていたよ」等の音声を出力してもよい。
 一方、帰宅予想を判定後、所定時間(例えば30秒間)、帰宅が判定できないとき、帰宅確認をする(S48)。例えば、帰宅確認とは、音声出力部714によって、「帰ってきたの?顔みせなさいよ」等の音声を出力する。また、表示処理部713によって、拗ねたようなキャラクター画像や怒ったようなキャラクター画像と、演出用画像を表示する。
 ステップS47でユーザの挨拶に対して返答した後、又は、ステップS48で帰宅確認をした後、ライフモードに移行する(S49)。
(d)アピールモード
 アピールモードは、時刻やセンサ等で検出される信号等に応じ、各条件に応じたキャラクター画像や演出画像を表示し、各条件に応じた音声を出力する。例えば、画像表示装置1は、時刻に応じて、「もう8時だよ」等の音声を出力することができる。また、画像表示装置1は、温度に応じて、「なんか暑いね」等の音声を出力することができる。これにより、ユーザは思わぬタイミングでキャラクターから話しかけられるため、キャラクターをより身近に感じることができる。
(e)チャットモード
 チャットモードは、ユーザが外出中等、画像表示装置1と離れた場所にいる場合、ユーザが保持する通信端末との間でメッセージの送受信を実現する。ユーザが保持する通信端末とは、例えば、スマートフォンや携帯電話機等の携帯通信端末のことである。
 チャットモードにおける基本的なアルゴリズムは、ユーザとの会話と同様に行うことができる。ただし、ユーザからの音声入力に代えて、チャット上の文字列を入力として画像表示装置1は、チャットを行う。
 図21は、チャットモードに画像表示装置1の動作を示すフローチャートであって、チャットモードで動作中のフローチャートである。なお、チャットモードを実行する場合、ユーザは、自身の通信端末で画像表示装置1とのチャットを行うためのチャットアプリケーションを実行する。すると、ユーザの通信端末からチャットアプリケーションの起動信号がネットワークを介して画像表示装置1に送信される。すると、画像表示装置1の制御部71は、チャットモードを起動し、ユーザの通信端末との間のチャットを、チャットサーバを介して開始する。なお、画像表示装置1は、人感センサを用いてユーザが周囲にいないことを検出して、所定の条件のもとで、画像表示装置1側からチャットモードを起動し、ユーザの通信端末にチャットアプリケーションの起動信号を送信してチャットを開始することとしてもよい。当該チャットサーバは、画像表示装置1のための専用サーバであってもよいし、汎用のチャットサーバであってもよい。
 図21に示すように、まず、取得処理部711は、各種の環境信号を取得する(S501)。この環境信号は、チャット上でユーザが入力した最新の発言を含んでよい。取得処理部711が取得した各種の環境信号は、解析部712に伝達され、解析部712は伝達された環境信号を解析する(S502)。解析部712は、ユーザのチャット上の発言内容の文字列に対して構文解析を行って、発言内容を認識する。また、解析部712は、その他の環境信号、例えば、天候情報などから状況を判断する。制御部71は、解析結果及び音声データ752、信号データ753等を参照して、キャラクターが実行すべきチャット上の発言が規定された条件のいずれかに合致するかを判定する(S503)。なお、音声データ752は、音声を規定する情報ではあるが、会話という概念においてチャットと共通することから、チャットにおいても利用できる。判定の結果、発言すべき内容があった場合には(S503:YES)、送信処理部715は、特定した発言内容のメッセージをチャットアプリケーションを介して、ユーザの通信端末に送信する(S504)。解析の結果、実行すべきキャラクター発言がない場合には(S504:NO)、制御部71は、ステップS505の処理に移行する。
 ステップS505において、制御部71は、例えば、0~100のランダム値を生成する(S505)。なお、ランダム値は0~100の範囲に限られない。制御部71は、生成したランダム値と、これと比較するための閾値との間で大小を比較する。ランダム値が閾値よりも大きい場合に(S506:YES)ステップS507に移行し、ランダム値が閾値以下である場合に(S506:NO)、処理を終了する。
 ステップS507において、制御部71は、会話履歴データ755及びチャット履歴データ756を読み出す。読み出した会話履歴データ755の会話内容情報903とチャット履歴データ756のチャット内容情報1003とからキーワードを抽出する(S507)。これは、例えば、構文解析等により実現できる。そして、例えば、直近(例えば1日)のキーワードの登場頻度の高いキーワードを選択する。当該キーワードの選択は、ランダムであってもよいし、その他の基準で選択することとしてもよい。
 制御部71は、選択したキーワード及びステップS501で取得した環境信号に合致する会話があるか否かを、ランダム会話データ757を参照して特定する(S508)。そして、送信処理部715は、特定した発言の内容を示すメッセージを、チャットアプリケーションを介してユーザの通信端末に送信する(S509)。また、このとき、送信処理部715は、対応するキャラクター画像があれば、その画像をチャット上で表示するための画像データをチャットアプリケーションを介して送信し、処理を終える。例えば、キャラクターがする会話の内容が「野球」に関する内容であれば、キャラクターが野球のユニフォームを着た画像を送信したり、ボールやバットなどのアイテムを持たせた画像を送信する。
 図21の処理は、チャットモードにおいて繰り返し実行される。このように、チャットにおけるランダムな会話において、キャラクターは、ユーザと過去に交わした会話内容や、実行したチャットの内容に基づく、発言を行うので、ユーザはキャラクターとの間の歴史の積み重ねを感じて、よりキャラクターを身近に感じることができる。そして、画像表示装置1は、図16の処理と図21の処理とにより、会話の内容とチャットの内容が互いに連動する構成を実現できている。なお、チャットの内容が以降の会話の内容に反映され、会話の内容が以降のチャットの内容にも反映されるように構成されていれば、画像表示装置1は、本実施の形態に示したアルゴリズム以外のアルゴリズムに従って動作して、同様の構成を実現してもよいことはいうまでもない。
 上述の構成により、例えば、図22Aに示すようなチャットを行うことができる。図22Aは、ユーザの通信端末におけるチャット画面の表意例を示している。チャット画面W3には、ユーザとキャラクターとの発言内容が表示される。ユーザは、通信端末のタッチパネル(図示せず)を利用して、入力部b21にメッセージを入力し、送信部b22をタッチしてメッセージを送信する。
 また、このチャットにおいては、図22Bのチャット画面W4に示すように、通常のチャットとは異なり、キャラクターから、質問が投げかけられて、それに対する回答としての選択肢b220を表示することもできる。これは、画像表示装置1との間で専用のチャットアプリケーションをユーザの通信端末にインストールすることで実現することができる。また、この場合、チャットサーバは、この制御を実現するための画像表示装置1からのコマンドをユーザの通信端末に中継する機能を有する。このコマンドには、ユーザが選択した回答のコマンドも含まれる。このような構成にすることで、ユーザにキャラクターとのゲームをしている感覚を与えることもできる。したがって、ユーザは、キャラクターとゲーム感覚でチャットを楽しむこともができる。
 なお、本実施の形態においては、会話履歴データ755及びチャット履歴データ756を利用した会話やチャットはランダムに実行することとしているが、これはその限りではなく、予め定められた条件が満たされた場合には、必ず実行するようにしてもよいことはいうまでもない。
《音声に関する動作》
 例えば、ユーザがマイク704に向かってキャラクターの名前を呼ぶと、画像表示装置1は、その名前に対応するキャラクターの画像を表示させることができる。また、ユーザが、表示されたキャラクターに特定の話題について話しかけると、画像表示装置1は、ユーザに対して応答した音声を出力することができる。
 このため、ユーザは、好きなときに、好きなキャラクターを呼び出すことができ、このキャラクター等をより立体的に見せることが可能な透明なケース2の中に表示させることができる。また、ユーザがキャラクター等に向かって話しかけると、あたかもそのキャラクター等が、ユーザの話しかけに応じた振る舞いをするように動作させることができる。このため、同じ空間にいるキャラクター等と一緒に生活をしているかのような感覚をユーザに与えることができる。
 また、音声入力に応じて照明の点灯/消灯を制御することもできる。例えば、「電気消して」や「おやすみなさい」の音声がマイク704から入力されると、制御部71は、予めこの文字列に紐付けて記憶装置75に記憶されている照明の消灯に関するリモコン情報を記憶装置75から取り出し、対応する赤外線情報を赤外線LED703から発信させる。これにより、室内の照明を消灯することができる。また、同様に、「おかえり」や「おはよう」に応じて照明を点灯することもできる。なお、ここで利用する信号は、赤外線情報以外を利用してもよい。
 さらに、このような音声入力と、人感センサ702による人の検知を組み合わせた制御動作も可能である。例えば、ユーザの話しかけにより「いってきます」の音声をマイク704から入力すると、制御部71は、この音声により得られる文字列に対応した監視モードに移行する。なお、キャラクター等による「いってらっしゃい」に対応して監視モードに移行することもできる。
 監視モードは、ユーザが室内に存在しない状態におけるモードである。このため、監視モードは、ユーザの話しかけによる「ただいま」の音声を入力し、この音声により得られる文字列を検出すると解除することができる。なお、キャラクター等による「おかえりなさい」に対応して監視モードを解除することもできる。
 監視モード中に、例えば、人感センサ702により人が検知されると、制御部71は、これを異常と判断し、これを報知することができる。具体的には、所定の警報音や警告メッセージをスピーカ705から出力したり、通信部76を介して予め登録した宛先に所定のメッセージを送信することができる。また、このとき、制御部71は、カメラ722に室内を撮影させて、記憶装置75に画像を記憶したり、通信部76を介して予め登録した宛先に画像を送信することもできる。
 なお、監視モード中に人感センサ702により人が検知された後、すぐに異常と判断して報知を行ってもよく、また、一定時間内に監視モードの解除がない場合に異常と判断して報知を行うこともできる。
《赤外線LEDに関する制御動作》
 赤外線LED703を用いた制御動作として、以下の動作を行うことができる。具体的には、制御部71は、タイマープログラムによって予めセットされた起床時刻になると、その時刻情報に紐付けられている行動情報に基づき、対応する機器の動作を制御する。
 例えば、起床時(7:00)に「照明点灯」、就寝時(23:00)に「照明消灯」といったタイマープログラムを登録した場合、制御部71は、7:00になると、「照明点灯」のリモコン情報を記憶装置75から取り出し、対応する赤外線情報を赤外線LED703から発信させ、23:00になると、「照明消灯」のリモコン情報を記憶装置75から取り出し、対応する赤外線情報を赤外線LED703から発信させる。このようにすると、所定の日時に所定の機器を自動的に動作させることができる。
 このほか、温湿度センサ611により検知される温湿度に応じてエアコン等のオン/オフ制御を行ったり、時間帯に応じてテレビのオン/オフ制御を行うこともできる。
《センサに関する制御動作》
 光センサ721を用い、例えば、昼間であるにもかかわらず、カーテンが開いていないことを検知して、ユーザにカーテンを開けるよう促すことができる。
 具体的には、日の出の時刻をカレンダー情報として記憶装置75に記憶しておき、その時刻を過ぎても、光センサ721から入力される照度が所定の照度に満たない場合、制御部71は、予め記憶装置75に記憶している音声データ(「カーテンあけよう」)を、スピーカ705から出力させる。
《騒音センサに関する制御動作》
 騒音センサ613を用い、例えば、テレビが長時間つきっぱなしであることをユーザに注意することができる。具体的には、制御部71は、騒音センサ613により入力された音の音量、周波数等に基づき、テレビがつけられたと判断すると、その判断をしたときから計時を開始し、その状態の時間が所定時間を超過した場合に、予め記憶装置75に記憶している音声データ(「テレビ消そうよ」)を取り出し、スピーカ705から出力させる。これにより、省エネに貢献するとともに、あたかも嫁から注意されているかのような感覚をユーザに与えることができる。
《振動センサに関する制御動作》
 振動センサ612を用い、地震の検出やその報知動作を行うことができる。
 例えば、人感センサ702により人がいることが検知されていない状態において、振動センサ612により所定の大きさの揺れを検知した場合には、地震が発生したものと判断して、制御部71は、所定の警報音や警告メッセージをスピーカ705から出力させ、又は、通信部76を介して予め登録した宛先に所定のメッセージを送信することができる。
 他方、人感センサ702により人がいることが検知されている状態において、振動センサ612により所定の大きさの揺れを検知した場合には、ユーザ等による人為的な行為によるものと判断し、報知を行わない。なお、この場合、例えば、音声メッセージ(「揺らしちゃダメ!」)をスピーカ705から出力させることができる。このようにすると、地震と生活振動とを精度良く区別しつつ、それぞれに対応した動作を行うことができる。
《温湿度センサに関する制御動作》
 温湿度センサ611に対応した所定の音声出力制御を行うことができる。例えば、温湿度センサ611により検出された温度が10°C未満の場合、制御部71は、所定のタイミングで「今日は寒いね」といった音声をスピーカ705から出力させることができる。
 また、温湿度センサ611により検出された湿度が40%未満の場合には、所定のタイミングで「乾燥してるよ!風邪ひかないようにね」といった音声をスピーカ705から出力させることができる。
《画像に関する動作》
 カメラ722で撮影された画像に対応した画像表示及び音声出力制御を行うことができる。例えば、カメラ722で取得した画像を利用してフェイストラッキングや表情検出を実行してキャラクターの画像を変更することができる。
 具体的には、ユーザが移動すると、キャラクターがユーザの方を見るようなキャラクター画像を表示してもよい。また、キャラクターが、たまに目を背けてまた、ユーザの方を見るようなキャラクター画像を表示してもよい。さらに、ユーザが笑うと、笑い返すキャラクター画像を表示してもよい。また、ユーザがキャラクターとは違う方向を見ていた後で目が合うと、目が合ったタイミングでほほ笑むキャラクター画像を表示してもよい。さらに、ユーザが画像表示装置1に登録済みのカップで飲み物を飲んでいると、「私も飲む」という音声を出力して、同じカップで飲み物を飲むキャラクター画像を表示してもよい。さらに、ユーザが画像表示装置1に登録済みの服を着ていると、「かっこいい!」という音声を出力してもよい。
 この他にも様々な入出力制御が可能である。
 例えば、温湿度や天気情報の入力情報に基づいて、「傘持って行った方がいいよ」といった音声を出力させたり、ユーザからの「何着ていこうかな」といった音声入力に対し、温湿度、天気情報、カレンダー情報等に対応したおすすめの洋服を表示させたりすることができる。
《好感度に応じた動作》
 画像表示装置1が表示するキャラクターは、キャラクターのユーザに対する好感度に応じて動作を異ならせてもよい。例えば、キャラクターの設定情報として予め、好きな言葉や色などの嗜好や、好みの動作、されてうれしいこと、等のキャラクター情報を設定するとともに、キャラクターのユーザに対する好感度を設定しておく。そして、キャラクターの嗜好に合致する会話やチャット、行動をユーザがとった場合に、キャラクターの好感度値を上げ、合致しない会話やチャット、行動をユーザがとった場合に、キャラクターの好感度を下げることとしてもよい。
 そして、記憶装置75においては、さらに、その好感度値に応じたキャラクターの行動を規定する情報を記憶しておいてもよい。例えば、ユーザがキャラクターに近い場合であって、キャラクターが「近すぎるよー」と発言する際に、好感度が低い場合には、怒ったような声色の音声を出力し、好感度が高い場合には、照れたような声色の音声を出力することとしてもよい。したがって、記憶装置75は、好感度に応じた同内容のセリフの音声を複数記憶しておいてもよい。このようにすることで、画像表示装置1のキャラクターにより人間味を持たせることができ、ユーザにより親近感を覚えさせることができる。
 また、画像表示装置1は、以下のような処理を実現してもよい。
《起床判定システム》
 制御部71は、例えば、カレンダーサイトで記憶装置75に登録されたユーザの起床時刻を含むカレンダー情報と、データ管理部716が取得する時刻とを利用し、目覚ましの呼びかけをすることができる。その後、例えば、ユーザがベッドから起き上がり、解析部712で検出する顔が一定以上の大きさになると制御部71は、起床と判定し、ユーザが起床後の処理を実行する。例えば、ユーザは、自身の通信端末のスケジュール情報を、画像表示装置1に送信して、画像表示装置1は、受信したスケジュール情報に示される内容にしたがって、動作することとしてもよい。例えば、スケジュール情報に、「23日6時起床」とあった場合に、制御部71は、23日の6時に、キャラクターにユーザを起こす動作をさせることとしてもよい。
《外出判定システム》
 制御部71は、例えば、解析部712が検出するユーザの「いってきます」の音声に加え、取得処理部711が取得するユーザの通信端末の位置情報が、家の外にある場合、ユーザが外出したと判定することができる。また例えば、人感センサ702でユーザの存在が検出されないことに加え、取得処理部711が取得するユーザの通信端末の位置情報が、家の外にある場合、ユーザが外出したと判定することができる。
《帰宅判定システム》
 制御部71は、例えば、上述の外出判定においてユーザが外出したと判定した後に、人感センサ702でユーザの存在が検出された場合、ユーザが帰宅したと判定することができる。当該検出では、人感センサ702で人を検出することに加え、カメラ722で撮像した画像から、ユーザの顔を判定することとしてもよい。
《寝落ち判定システム》
 制御部71は、ユーザが在宅中に、例えば、人感センサ702により、ユーザの動きが1時間検出されず、かつ、光センサ721によって検出される照度が、照明が消されていない程度の明るさであると解析部712で解析されると、ユーザが寝落ちしたと判定することができる。ここでいう、「寝落ち」とはユーザがテレビを見たり、ゲームをしたりする等、何かの作業中に、照明を消すことがなく寝てしまうことをいう。画像表示装置1は、ユーザが寝落ちしたと判定した場合であって、部屋の照明が消灯されていない場合に、部屋の照明を消灯するように証明を制御することとしてもよい。
《起床時刻確認システム》
 制御部71は、例えば、翌朝の外出時間か?、普段の朝より早い場合、普段の朝の準備時間を確保すへ?く、翌朝の目覚まし時刻を早くするよう提案することができる。具値的には、翌日目覚まし時刻と翌日の外出予定時刻との時間差が、平均の起床時刻と外出時刻との時間差で求められる外出準備時間よりも短い場合、翌朝の目覚まし時刻より早くするよう提案する。例えば、制御部71は、音声データ752から、「明日は出発時刻か?早いみたいた?けと?、目覚まし時刻早める?」の音声を選択し、出力する。また、制御部71は、ユーザは「YES」の返答か?あった場合、記憶装置75に登録される目覚まし時刻を変更する。
 また例えば、制御部71は、今朝、遅刻した場合、翌朝の目覚まし時刻を早くするよう提案することができる。具体的には、制御部71は、今朝の外出時刻が、外出予定時刻より所定時間(例えば、10分)遅れた場合、目覚まし時間をその所定時刻早めるよう提案することができる。例えば、制御部71は、音声データ752から、「今日遅刻したて?しょ!明日は10分早く起きてみる?」の音声を選択し、出力する。また、制御部71は、ユーザは「YES」の返答か?あった場合、記憶装置75に登録される目覚まし時刻を変更する。
《スクワット判定機能》
 制御部71は、例えば、解析部712が顔認識の上下運動を検出し、スクワットしている回数を数えるシステムを備えることができる。また、制御部71は、腕立て伏せだけでなく、腹筋の回数や、腕立てふせの回数を数えるシステムにも応用することもできる。これにより、表示処理部713は、ユーザの動作を応援するキャラクター画像や演出用画像を表示することができる。また、音声出力部714は、キャラクターがカウントする音声や応援する音声を出力することができる。
《カメラ自撮りシステム》
 制御部71は、例えば、ユーザが、キャラクターと自撮り撮影できるようにしてもよい。この際、ユーザがカメラ722で撮像可能な範囲に移動することで、カメラ722でユーザの画像を撮像すると、制御部71は、撮像画像にキャラクター画像を合成する。また、制御部71は、キャラクター画像が合成された撮影画像を、インターネット等を介してSNS(ソーシャルネットワーキングサービス)等の提供サーバにアップロードしてもよい。
《コーヒーブレイクタイムシステム》
 制御部71は、キャラクターがユーザにコーヒーブレイクを提案するようにしてもよい。例えば、データ管理部716が管理する時刻が所定時刻の場合に、送信処理部715が、コーヒーメーカーに、操作信号を送信する。また、表示処理部713は、ユーザにコーヒーブレイクを促す画像を選択して表示し、音声出力部714は、ユーザにコーヒーブレイクを促す音声を選択して出力する。さらに、解析部712が、画像や音声から、ユーザがコーヒーを飲み終わるのを検出すると、制御部71は、コーヒーブレイクを終了する。例えば、制御部71は、解析部712が、ユーザの「おいしかったよ」や「ごちそうさま」の音声を検出することにより、終了することができる。
《コール・レスポンスシステム》
 制御部71は、ユーザとキャラクターと名前を呼びあうようにしてもよい。音声出力部713が、ユーザデータ754に登録される名前やニックネームを呼ぶキャラクターの音声を出力する。また、解析部712によってユーザが発したキャラクターの名前やニックネームの音声が検出されると、音声出力部713は、ユーザの名前やニックネームを呼ぶキャラクターの音声を出力することができる。
《着替えレコメンドシステム》
 制御部71は、ユーザのコーディネートをレコメンドするようにしてもよい。例えば、解析部712によって、カメラ722が撮像した画像から「顔の上の正方形の帽子」、「顔の下の長い長方形のネクタイ」等のユーザが身につけているものの形状や色を判定する。また、制御部71は、取得処理部711で取得する環境情報から解析されるユーザの表情や気分や、記憶装置75に登録されるユーザのスケジュールや、天気情報、季節等を総合的に判断して、おすすめの色をレコメンドしてもよい。
《操作依頼》
 制御部71は、ユーザから通信端末等の情報処理装置を介し、機器の操作や、スケジュール管理の依頼を受けることができる。例えば、機器の操作が依頼された場合、送信処理部715は、依頼された信号に応じて、操作信号を出力する。また、スケジュールの登録や変更が依頼された場合、データ管理部716は、この信号に応じて、データを登録又は更新する。具体的には、図13Bを用いて上述したように、チャット機能を用いたり、メモや伝言板のようなものを用いて、制御部71を操作したりすることができる。ユーザは、自身がキャラクターにしてほしいことをキャラクターにお願いするように感じることができるため、人間にお願いしているように感じることができる。
《ふて寝モード》
 制御部71は、所定の条件を満たした場合に、怒ってふて寝をするキャラクター画像を表示させてもよい。例えば、画像表示装置1が外部のネットワークに接続されていない場合、又は、画像表示装置1がユーザの通信端末との間でネットワーク接続がされていない場合、怒ってふて寝するような画像を選択し、表示する。これにより、画像表示装置1がユーザに訴えかけるようなキャラクター画像を表示することで、より人間らしく、よりリアルに表現することができる。
《興味の変遷アルゴリズム》
 ユーザデータ754に複数種類の興味や趣味嗜好が登録されているとき、制御部71は、複数の中からいずれかをランダムに選択し、出力する画像や音声に反映させることができる。例えば、このとき、ユーザデータ754では、ユーザの嗜好情報についてそれぞれ重み値が設定され、制御部71は、その重み値を加味して、出力する画像や音声を選択することができる。また、これらの趣味嗜好の重み値は、時間の経過と共に増加させたり、減衰させたりすることができる。さらに、重み値が所定の値以下になったら、他の嗜好の重み値が大きくなることにより、別の趣味嗜好の話題を選択するようにしてもよい。
《ライフモードのアルゴリズム》
 制御部71は、ライフモードにおいて、「ユーザの嗜好情報」や「キャラクター内部の嗜好情報」をもとに、表示する画像や、出力する音声を選択することができる。例えば、ユーザが漫画好きであれば、制御部71は、ライフモードにおいて、漫画を読むキャラクター画像を表示することができ、これに対応する音声を出力することができる。また、ユーザが料理好きであれば、制御部71は、暇な時に料理をするキャラクター画像を表示することができ、これに対応する音声を出力することができる。
 《興味トーク》
 制御部71は、ユーザとのインタラクションが発生した一定時間後に、そのインタラクションに関連する話題の画像及び音声を出力することができる。制御部71は、ユーザとのインタラクションが発生した時刻を記憶しておき、そこから、所定時間が経過したか否かを判定することで、当該制御を実現する。
 《ユーザー行動分析推定システム》
 制御部71でユーザの行動を判定するためのデータとしては、予め教師データとして与えられた複数パターンのデータを参照し、導きだすことができる。具体的には、画像表示装置1に備えられた各種センサを用いて、ユーザが所定の行動をした際のセンシングデータを取得しておき、その際の所定の行動を示す情報と対応付けて記憶しておき、これを教師データとする。そして、画像表示装置1は、備えられている各種のセンサから入力されたデータを、教師データとを比較することにより、ユーザの行動を分析、推定することができる。これにより、制御部71は、ユーザの行動に応じた動作をキャラクターにさせることができる。また、制御部71は、逐次、この教師データをユーザの行動に応じて更新することとしてもよい。
《人感情追従システム》
 また、画像表示装置1は、ユーザの感情を推定して、キャラクターにそのユーザ感情に対応した動作を実行させてもよい。具体的には、以下のように処理を実行する。
 制御部71は、カメラ722で撮像したユーザの顔画像から表情認識処理を行って、ユーザの感情を推定してもよい。これは、予め各種の感情に応じた顔画像の特徴量の情報を記憶装置75に記憶しておき、撮像した画像とのパターンマッチングにより、最も近いと推定される顔画像を特定して、対応する感情を特定するものである。また、マイク704から入力された声紋からユーザの感情を推定してもよい。これも顔画像の場合と同様に、予め各種の感情に応じた声情報(例えば、周波数や音量など)の情報を記憶装置75に記憶しておき、入力された声紋との特徴量に応じて、ユーザの感情を推定する。また、あるいは、制御部71は、ユーザとの間の会話やチャットの内容から、ユーザの感情を推定することとしてもよい。例えば、会話中の「楽しかった」とか「むかつく」といった感情を表す言葉から、ユーザの感情を推定する。
 そして、画像表示装置1の制御部71は、画像表示装置1に記憶、設定されているキャラクターの個性に応じて、ユーザに同調したり、励ましたりといった行動をとらせることができる。例えば、ユーザの感情を判定した結果、ユーザが寂しいと感じていると推定したら、「そうだね、寂しかったね。でも、私がいるよ?」とか、「そんなことで、寂しく思う必要なんかないよ!大丈夫大丈夫!」といったセリフの音声を音声出力部714から出力したりするとよい。また、例えば、ユーザが落ち込んでいると推定した場合には、「ファイト!」と励ましたりしてもよい。なお、これらのキャラクターの行動は一例であることは言うまでもない。
《ありがとう学習システム》
 画像表示装置1の制御部71は、ユーザから会話で伝達された、もしくは、チャット上で伝達された、ありがとう等、感謝の言葉を伝えられた内容を記憶する。そして、その時の条件を記憶する。即ち、制御部71(キャラクター)は、ユーザが、「いつ」、「何をする」とありがとうと言われるのかを記憶する。即ち、ユーザから感謝されたときの、「タイミング」と「キャラクターの行動」とを対応付けて記憶装置75に記憶する。そして、制御部71は、その「いつ」というタイミングにおいて、感謝された行動をキャラクターに再現させることとしてもよい。
《顔学習システム》
 画像表示装置1の制御部71は、カメラ722で撮像した画像に、ユーザと異なる人物の顔画像が含まれると判定した場合に、その顔画像をチャットに添付して、「この人誰?」と問いかけることとしてもよい。これに対して、ユーザが「お母さんだよ」と回答することで、画像表示装置1は、その人物を撮像して得られた顔画像と、「お母さん」という言葉を対応付けて記憶する。また、画像表示装置1の制御部71は、ユーザの「お母さんだよ」という回答に対して、例えば、「お母さんなんだね。覚えたよ」というようなメッセージをかえしてもよい。また、別のタイミングで、記憶した人物の顔画像を撮像して得た場合には、画像表示装置1は、「お母さんが来たよ」というメッセージをユーザの通信端末に送信することとしてもよい。また、その際にその人物の行動を推定できた場合に、その内容も含めて送信してもよい。また、当該構成は、画像表示装置1が撮像した顔画像がユーザにとって知らない人物の顔であった場合には防犯の役に立てることもできる。
《心配性システム》
 画像表示装置1は、ユーザが外出したことを検出してから(人感センサ702が人を検出しないまま所定時間が経過してから)、一定以上遅くなってきた場合(例えば、現在時刻が夜22時を経過した場合)に、ユーザに対して、twitter(登録商標)、メール、チャット、電話などの手段で連絡をとってもよい。例えば、制御部71は、「遅いけど、大丈夫?」というようなメッセージを送信してもよいし、電話をかけてもよい。なお、電話を掛ける場合には、画像表示装置1に電話回線と接続するための設定しておく必要がある。また、当該行動をとるかどうかの閾値を定めておき、ランダム値がこの閾値を超えるかどうかで、このユーザを心配する行動をとるかどうかを判定してもよい。また、画像表示装置1は、この閾値を時間が遅くなればなるほど高くなるように制御してもよい。また、その日の朝のユーザの様子に応じて、この閾値を変更することとしてもよい。例えば、ユーザの体調が悪いと推定している場合には、通常よりも閾値が低くなるように制御することとしてもよい。
《赤外線情報監視システム》
 画像表示装置1は更に赤外線センサを備えて、周囲の赤外線情報を取得し、取得した赤外線情報に応じた行動をキャラクターに取らせることとしてもよい。例えば、ユーザがテレビのリモコンを操作したことを、リモコンから出力された赤外線情報を取得して、検出し、テレビをオンした時間と曜日とチャンネルを記憶しておいてもよい。そして、別の日であって、同じ曜日の同じ時間になったときに、画像表示装置1がテレビを操作して、同じチャンネルをつけるように制御してもよい。
 また、赤外線センサからユーザの体温や部屋の温度をモニタして、温度が高くなってきたことを検出したら、画像表示装置1の制御部71は、キャラクターに、ユーザに対して、「窓開けたらどうかな?」とか、「扇風機つける?」とか、「空調つける?」といった提案をする会話をさせることとしてもよい。
《視聴番組監視システム》
 画像表示装置1は、ユーザが視聴しているテレビやラジオ番組に関する情報を取得し、記憶する構成を備えてもよい。具体的には、ネットワーク上からテレビ番組情報を取得し、テレビから発せられる音声に対して音声人気処理を行ってユーザの視聴している番組を推定する。あるいは、画像表示装置1は、各種家電と接続し、テレビのON/OFF情報や、チャンネル情報を取得して、ユーザが視聴した番組を特定し、記憶する。そして、記憶した番組に関する番組表からキーワードを取得して、会話のネタにしてもよい。
 例えば、クラウドサーバにおいて、各放送局の番組についてどのような会話が行われているかに対して音声認識にかけ、各放送局の番組の内容をテキスト化し、クラウドテキスト情報を取得する。一方、画像表示装置1において、ユーザが視聴している番組の音声情報をマイク704から取得する。そして、取得した音声に音声認識をかけてユーザテキスト情報に変換する。そして、クラウドテキスト情報とユーザテキスト情報とを比較、照合することにより、画像表示装置1は、ユーザがどの番組を視聴しているかを特定することができる。そして、制御部71は、ユーザが視聴している番組を特定し、その番組名を組み込んで、例えば、「朝は、Aテレビだよね!」とリコメンドし、テレビのリモコンを制御することとしてもよい。
《空気読みシステム》
 画像表示装置1の制御部71は、ユーザが忙しそうにしているか否かを判定し、判定した状態に応じた行動、所謂空気を読んだ行動をとることとしてもよい。画像表示装置1の制御部71(取得処理部711)が取得した種々の環境信号に応じてユーザの忙しさを判定する。例えば、ユーザの起床時刻が遅く、人感センサ702が検出するユーザの位置が所定時間内(例えば、5分以内)に左右に所定回数以上(例えば、10回以上)動くことを検出した場合に、ユーザが忙しいと判定して、画像表示装置1の制御部71は、キャラクターにユーザに話しかけないように制御する。また、ユーザがあまり動かない、即ち、人感センサ702が検出するユーザ位置が所定範囲内にとどまっている場合に、制御部71は、キャラクターにユーザに話しかけさせるように制御する。このように、画像表示装置1の制御部71は、キャラクターにユーザの状態を見て、即ち、空気を読んで、アクションを起こさせるか否かを判定することができる。
《フェイス&アイトラッキングシステム》
 画像表示装置1の制御部71は、カメラ722が取得するユーザの顔画像と目の画像に基づいて、ユーザの視線を検出することとしてもよい。例えば、ユーザの顔画像が画像表示装置1の方向を向いていることを検出し、眼の瞳孔が双方とも画像表示装置1の方向を向いているか否かを検出する。そして、制御部71は、ユーザの視線がキャラクターの方を向いている場合に、キャラクターに恥ずかしがらせたり、ユーザと見つめ合わせたりするようにすることもできる。
《バーチャル風システム》
 画像表示装置1の制御部71は、マイク704に、ユーザが息を吹きかけていることを検出して、画像表示装置1内の世界に風を吹かせたエフェクトを発生させてもよい。例えば、キャラクターの服がひらひらと揺れたりする演出をしてもよい。当該構成はマイク704ではなく、画像表示装置1に風圧センサを設けることでも実現できる。
《体調管理システム》
 画像表示装置1は、通信部76を介して、ユーザが保持する体重計や運動量計など、ユーザの状態を検出することができる機器から、ユーザの状態情報を取得することとしてもよい。例えば、体重計から検出したユーザの体重が、所定期間内に所定以上減少していたような場合には、制御部71は、「ちゃんと食べてる?」とキャラクターに話させたり、ユーザの身長に対する体重が平均体重を所定以上多い場合には、「ちょっとは運動しなきゃ!」とリコメンドさせたりすることとしてもよい。また、ユーザが繰り返し運動するような場合には、制御部71は、カメラ722で撮像した画像を参照しながら、キャラクターに繰り返し運動の回数を数えるように音声を出力させることとしてもよい。例えば、腕立て伏せやスクワットの回数を数えることなどが考えられる。
《リアルタイムモーション配信システム》
 画像表示装置1の制御部71は、通信部76を介して特殊な信号を受信することで特殊な動作をすることとしてもよい。具体的には、開発運営側の人物の体にモーションキャプチャセンサーを装着し、人物の動きを全ユーザの画像表示装置1に配信する。画像表示装置1は、配信されたモーションと同じ動きをするキャラクターを表示することで、番組配信を実現することもできる。例えば、特殊な信号として地震速報などを受信した場合には、「○○で、震度4の地震だよ。落ち着いて行動してね」といった音声を音声出力部714が出力することとしてもよい。また、特殊な信号内に、表示すべき画像データが含まれる場合に、その画像データを表示してもよい。この画像データとしては、例えば実在の人物であってもよく、例えば、有名人の会見を表示し、その音声を出力するようにしてもよい。これにより、例えば、ホログラムによる番組配信を実現することもできる。また、画像表示装置1は、実在の人物の画像データを取得し、その人物の音声データを取得することで、実在の人物を表示するキャラクターとして表示することができる。
《ホログラムアバター電話システム》
 画像表示装置1に電話機が接続、又は、画像表示装置1に電話機能が備えられている場合に、画像表示装置1は、以下の機能を備えてもよい。画像表示装置1は、このとき、カメラ722から取得した画像に基づいて、ユーザの表情を特定し、特定した表情と同じ表情のアバター情報を生成し、電話相手にそのアバター情報を送信して、電話相手の表示画面にそのアバター画像を表示させる構成を備えてもよい。
《報告システム》
 画像表示装置1の制御部71は、ユーザの帰宅を検出して、ユーザに対して、キャラクターにキャラクターの一日を報告させることとしてもよい。例えば、解析部712は、人感センサ702が、所定時間以上、ユーザを検出していない状態で、新たにユーザを検知した場合に、ユーザが帰宅したものと判定する。すると、制御部71は、キャラクターに周辺で起こった出来事(各種センサから取得できる情報に基づいて、その事象が起こったと推定される内容)を、ユーザに報告させることとしてもよい。例えば、温湿度センサ611が所定以上の温度を、所定時間以上、検出していた場合に、キャラクターに「今日は暑かったよ~」と報告させたり、室温度センサ611が所定以上の温度と湿度を、所定時間以上検出していた場合に、「今日は蒸し暑かったねえ」と報告させたり、地震速報を受信していた場合には、「今日、地震があったね。そっちは大丈夫だった?」と報告させたり、「あなたがいないときに、誰々がきたよ~」と報告させたりしてもよい。
《体調不良連絡電話システム》
 画像表示装置1の制御部71は、画像表示装置1に電話機能が搭載されている場合に、ユーザの体調が悪い場合に、ユーザからの指示に従って、ユーザの勤務先や通学先など、予め設定されている電話番号に、「本日、体調不良のためお休みをいただきます」と、ユーザの代わりに電話連絡をさせることとしてもよい。
《特定デバイスによるジェスチャーコントロールシステム》
 画像表示装置1の制御部71は、ユーザが装着または保持する特定のアイテムからの信号に従って、キャラクターを制御することとしてもよい。例えば、特定のアイテムが指輪の場合であって、画像解析によりユーザが指輪をこすっていることを検出した場合に、キャラクターに恥ずかし気な動作をさせることとしてもよい。また、あるいは、特定のアイテムとして、ユーザがペンライトを持って左右に振っていた場合には、制御部71は、キャラクターにペンライトを持たせた画像を表示し、その手を左右に振らせるように動かす映像を投影することとしてもよい。
《キャラクターお着替えシステム》
 画像表示装置1の制御部71は、キャラクターに着させる服装やアイテムなどを、適宜、変更することとしてもよい。そのために、制御部71は、各種の服装やアイテムの表示データを記憶装置75に記憶、あるいは、外部のサーバからダウンロードして取得する。そして、制御部71は、画像表示装置1が搭載する計時部(図示せず。現在日時を検出するクロック)からの日時が含まれる季節や、天気、気温、時間帯に応じた服装をしたキャラクターを表示することとしてもよい。
《瞬間移動システム》
 上記実施の形態に係る画像表示装置1をユーザが複数台保持する場合、各画像表示装置1を連動させて、そのうちの、ユーザが確認できる位置にのみキャラクターを表示することとしてもよい。その場合、制御部701は、ユーザが移動した移動先にある画像表示装置1に、キャラクターも移動してきたかのような演出をすることとしてもよい。
《掃除システム》
 画像表示装置1の制御部71は、家電として、ロボット掃除機と通信を行って、そのロボット掃除機を制御して、ユーザの室内を掃除することとしてもよい。また、その際に、制御部71は、ユーザが普段掃除している箇所と掃除していない箇所とを特定してもよい。
《歯磨き応援システム》
 画像表示装置1の制御部71は、画像解析によりユーザが歯磨きをしていることを検出して、キャラクターにユーザの歯磨きを応援する行動をとらせてもよいし、ユーザが薬を飲んだり、患部に薬を塗ったりすることを検出して、キャラクターにその行動を応援させることとしてもよい。
《スポーツ選手モーションキャプチャシステム》
 画像表示装置1は、スポーツ中継などの映像を取得し、そのスポーツ中継に登場するスポーツ選手のモーションと同じモーションをキャラクターに実行させるように画像を投影してもよい。また、その際に、ユーザは、ユーザの通信端末や、画像表示装置1に備え付けられた操作パネルや、音声等により、キャラクターの向く向きを指示して、当該指示に従った映像を画像表示装置1は、表示することとしてもよい。また、このとき、キャラクターではなく、スポーツ選手そのものの映像を表示することとしてもよい。
《ライブ応援システム》
 画像表示装置1は、ユーザが何等かのアイドル等のライブなどを視聴している場合に、制御部71は、キャラクターにもそのライブ映像を視聴しているように表示するとともに、そのキャラクターにライブに参加しているかのように、掛け声を発したり、ケミカルライトを振る動作をさせてもよい。また、あるいは、制御部71は、キャラクターがバーチャルシンガーとしてアイドルのように、歌を歌って踊る動作をさせる場合に、ユーザからの手拍子や応援に応じて、その動作を連動させてもよい。例えば、ユーザの手拍子のタイミングを検出して、そのタイミングに合わせてステップを踏ませるように画像を出力することとしてもうよいし、ユーザからの応援の声量に合わせて行動を変化させてもよい。
《マルチエージェントシステム》
 画像表示装置1は、記憶装置75に複数のキャラクターに関する情報を記憶しておいてもよい。そして、制御部71は、ユーザの状況に応じて使用するキャラクターを選択し、投影することとしてもよい。また、画像表示装置1にマルチコアを搭載し、1コアで1キャラクターを制御する場合に、画像表示装置1は、同時に複数のキャラクターを投影することとしてもよい。
《年齢経過システム》
 画像表示装置1は、キャラクターを表示する際に、一定時間でキャラクターが年をとるように画像を表示することとしてもよい。画像表示装置1は、例えば、キャラクターを初めて召還する場合には、赤ちゃんの状態を表示することとし、そこから、所定期間が経過するごと(例えば、1ヶ月経過するごと)に、キャラクターの画像を変化させるようにして、キャラクターが成長しているかのように、表示することとしてもよい。
《各種言語対応システムシステム》
 画像表示装置1は、音声認識のアルゴリズムや、対話システムを、各国の各言葉に応じたモデルを搭載することで、各種の言語に対応することができる。
《オリジナルキャラクターシステム》
 画像表示装置1が表示するキャラクターは、ユーザがオリジナルで作成することとしてもよい。画像表示装置1は、そのために必要とする各種データのフォーマットを用意し、ユーザがエディットできるように構成されてもよいし、エディット自体はユーザのPC等で作成したものを画像表示装置1に転送することとしてもよい。また、ユーザが作成したキャラクターデータは、ネットワークを介して配信することとしてもよい。
《各種キャラクター召還システム》
 画像表示装置1が表示するキャラクターとしては、VR(Virtual Reality)コンテンツのキャラクターのデータを用いることとしてもよい。例えば、ユーザがHMD(Head Mounted Display)を利用して遊んだゲーム等のキャラクターを画像表示装置1が表示するキャラクターとして使用することとしてもよい。また、VRコンテンツに限らず、各種のゲーム(例えば、スマホゲームなど)のキャラクターをダウンロードして表示するキャラクターとして使用することができる。
《チャット機能の外部実装》
 上記では、画像表示装置1が、チャット機能を有することとしてが、チャット機能は、外部の装置が実行することとしてもよい。即ち、ユーザが通信端末を用いて、画像表示装置1のキャラクターとメッセージのやり取りをする際には、実際には、外部サーバとやり取りをしている構成をとってもよい。その場合に、外部のサーバは、キャラクターとしての応答アルゴリズムを保持するほか、画像表示装置1から、ユーザに関する会話履歴データ755、チャット履歴データ756を事前に取得しておく必要がある。そのため、ユーザからのチャット入力があった場合に、外部の装置は、画像表示装置1にアクセスして、それらの情報を取得する構成を備えていてもよい。また、外部の装置がユーザの通信端末とのチャットを終えた後には、外部の装置は、チャット履歴データ756を画像表示装置1に送信し、画像表示装置1は、受信したチャット履歴データ756を記憶装置75に上書きすることとしてもよい。このような実装により、画像表示装置1の外部にチャット機能を有する装置を設けたシステムを実現することができる。
 以上のように、本発明の第一実施形態に係る画像表示装置1によれば、表示対象であるキャラクター等を、同じ空間にいる実体物のように表示させることができる。また、画像表示装置1では、ユーザの音声等の環境情報に対応した振る舞いを、キャラクター等などにより行わせるようにしている。さらに、画像表示装置1では、キャラクターの心情等を表現する演出画像をキャラクター画像とともに表示させることができる。さらには、ユーザと行った会話やチャットの内容について、過去の内容が最新の会話やチャットに反映されるので、ユーザはより一層キャラクターに対して親近感を覚え、愛着がわく。
 これにより、あたかも実在するキャラクター等と同じ空間にいるような感覚をユーザに与えることができる。また、キャラクターをより身近に感じさせることができる。
 上述した実施形態においては、各処理を、画像表示装置1の制御部71が画像表示プログラム、会話プログラム、チャットプログラム等を実行することにより、実現するものとして説明した。一方、画像表示装置1において、CPUに代えて、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))、FPGA(Field Programmable gate array)、CPLD(Complex Programmable Logic Device)等に形成された論理回路(ハードウェア)や専用回路によって各処理を実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、上記実施形態に示した複数の機能部の機能を1つの集積回路により実現されることとしてもよい。LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。
 すなわち、図23に示すように、画像表示装置1は、制御回路71a、入力回路72a、出力回路73a、操作回路74a、記憶回路75a、通信回路76aから構成されてもよい。制御回路71aが有する取得制御回路711a、解析回路712a、表示処理回路713a、音声出力回路714a、送信処理回路715a及びデータ管理回路716aは、画像表示プログラムP1、会話プログラムP2、チャットプログラムP3等によって制御される。それぞれの機能は、上記実施形態に示した同様の名称を有する各部と同様である。
 また、上記記憶装置75としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記画像表示プログラムP1、会話プログラムP2、チャットプログラムP3は、当該画像表示プログラムP1、会話プログラムP2、チャットプログラムP3を伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記プロセッサに供給されてもよい。本発明は、上記映像表示プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。また、これらのプログラムに限らず、キャラクターに関する音声データや画像データもそれらを記憶しているサーバからダウンロードして画像表示装置1で使用できてもよい。こうすることで、様々なキャラクターを画像表示装置1で楽しむことができる。また、同一キャラクターの新たな音声データや画像データもダウンロードして使用できるように構成されてもよい。また、記憶装置75に記憶されている各種データは、記憶装置75ではなく、画像表示装置1がアクセス可能なネットワーク上のサーバ等の外部装置に記憶することとしてもよい。そして、画像表示装置1の制御部71は通信部76を介して、都度必要なタイミングで外部サーバにアクセスして必要な情報を取得することとしてもよい。例えば、上記実施の形態における言語モデルや音声モデルなどの情報をネットワーク上に記憶しておくことができる。
 なお、上記画像表示プログラムP1、会話プログラムP2、チャットプログラムP#は、例えば、ActionScript、JavaScript(登録商標)、Python、Rubyなどのスクリプト言語、C言語、C++、C#、Objective-C、Java(登録商標)などのコンパイラ言語、アセンブリ言語、RTL(Register Transfer Language)などを用いて実装できる。
 本発明は、キャラクター画像を表示し、ユーザと行わせる会話及びユーザの通信端末との間でやり取りするチャットの内容を互いに連動させることができる画像表示装置に好適に用いることができる。
 1 画像表示装置
 2 ケース
 21 上部収容部
 22 下部収容部
 221 台座
 23 支柱
 3 透過フィルム(平状部材)
 4 プロジェクタ(映像出力手段)
 5 反射ミラー(反射手段)
 51 ミラー取付部(調整手段)
 6 柱部
 71 制御部(出力制御手段)
 72 入力部(入力手段)
 73 出力部(出力手段)
 706 演出用LED(発光手段)

Claims (22)

  1.  キャラクターを表示する表示部と、
     前記キャラクターがユーザと会話を実行する会話部と、
     前記キャラクターが前記ユーザの通信端末とチャットを実行するチャット部と、を備え、
     前記会話部は、実行した会話の内容及び前記チャット部が実行したチャットの内容に基づいて次の話題を選択し、
     前記チャット部は、実行したチャットの内容及び前記会話部が実行した会話の内容に基づいて次の話題を選択する
     画像表示装置。
  2.  前記画像表示装置は、さらに、
     一部又は全部が透光性部材からなるケースと、
     前記ケースの内部に立設した透光性を有する平状部材と、を備え、
     前記表示部は、前記平状部材に前記キャラクターを投影することで、前記キャラクターを表示する
     ことを特徴とする請求項1に記載の画像表示装置。
  3.  前記画像表示装置は、さらに、
     前記会話部が実行した前記ユーザとの会話に関する情報を記憶する第1記憶部と、
     前記チャット部が実行した前記チャットに関する情報を記憶する第2記憶部と、を備え、
     前記会話部は、前記第1記憶部と前記第2記憶部とに記憶した情報に基づいて、次の話題を選択する
     ことを特徴とする請求項1又は2に記載の画像表示装置。
  4.  前記チャット部は、前記第1記憶部と前記第2記憶部とに記憶した情報に基づいて、次の話題を選択する
     ことを特徴とする請求項3に記載の画像表示装置。
  5.  前記表示部は、前記会話部が実行している会話の内容に応じた画像を前記キャラクターと共に表示する
     ことを特徴とする請求項1~4のいずれか1項に記載の画像表示装置。
  6.  前記画像表示装置は、さらに、
     スピーカを備え、
     前記会話部は、前記スピーカから前記キャラクターの音声を出力する
     ことを特徴とする請求項1~5のいずれか1項に記載の画像表示装置。
  7.  前記画像表示装置は、さらに、
     マイクを備え、
     前記会話部は、前記マイクに入力されたユーザの音声を解析して、当該音声に対する回答であるキャラクターの音声を前記スピーカから出力する
     ことを特徴とする請求項6に記載の画像表示装置。
  8.  前記会話部は、前記ユーザの音声をテキストデータ化し、当該テキストデータを解析して得られる名詞を、前記会話の内容として前記第1記憶部に記憶する
     ことを特徴とする請求項7に記載の画像表示装置。
  9.  前記画像表示装置は、さらに、
     画像表示装置外部の装置と通信を実行する通信部を備え、
     前記チャット部は、前記通信部を介して、選択した話題に応じたテキストデータを、画像表示装置外部のチャットサーバに送信し、
     前記通信部が前記チャットサーバから受信した前記ユーザの通信端末からのテキストデータを解析して、次の話題を選択する
     ことを特徴とする請求項1~8のいずれか1項に記載の画像表示装置。
  10.  前記チャット部は、前記テキストデータを解析して得られる名詞を、前記チャットの内容として前記第2記憶部に記憶する
     ことを特徴とする請求項9に記載の画像表示装置。
  11.  キャラクターを表示する表示ステップと、
     前記キャラクターがユーザと会話を実行する会話ステップと、
     前記キャラクターが前記ユーザの通信端末とチャットを実行するチャットステップと、
     前記会話ステップにおいて次に実行する会話の話題を、以前に実行した会話の内容及び前記チャットステップにおいて実行したチャットの内容に基づいて選択する第1話題選択ステップと、
     前記チャットステップにおいて次に実行するチャットの話題を、以前に実行したチャットの内容及び前記会話ステップにおいて実行した会話の内容に基づいて選択する第2話題選択ステップとを含む話題選択方法。
  12.  コンピュータに、
     キャラクターを表示する表示機能と、
     前記キャラクターがユーザと会話を実行する会話機能と、
     前記キャラクターが前記ユーザの通信端末とチャットを実行するチャット機能と、
     前記会話機能が次に実行する会話の話題を、以前に実行した会話の内容及び前記チャット機能が実行したチャットの内容に基づいて選択する第1話題選択機能と、
     前記チャット機能が次に実行するチャットの話題を、以前に実行したチャットの内容及び前記会話機能が実行した会話の内容に基づいて選択する第2話題選択機能とを実現させる話題選択プログラム。
  13.  環境信号を取得する取得処理部と、
     前記取得処理部が取得した環境信号に応じてキャラクターのキャラクター画像を表示するとともに、当該環境信号に応じて当該キャラクターの感情表現を演出する演出用画像を表示する表示部と、
     前記取得処理部が取得した環境信号に応じた音声を出力する音声出力部と、を備える画像表示装置。
  14.  少なくとも一部が透光性部材からなるケースをさらに備え、
     前記表示部は、前記ケース内に立設した透光性の平板部材と、当該平板部材にキャラクター画像及び演出用画像を投光する投光装置と、当該投光装置を制御する表示処理部とを有する、請求項13に記載の画像表示装置。
  15.  前記取得処理部は、マイク、カメラ、または、人感センサの少なくともいずれか1つで得られた環境信号を取得し、
     前記取得処理部が取得した環境情報を解析する解析部をさらに備え、
     前記表示処理部は、画像を表示する表示条件と、当該条件の場合に表示されるキャラクター画像を特定する第1画像情報と、当該条件の場合に表示される演出用画像を特定する第2画像情報とが関連付けられる画像データを記憶する画像データ記憶部から、前記解析部で解析された環境情報に対応する表示条件と関連付けられる第1画像情報及び第2画像情報とを選択し、キャラクター画像及び演出用画像を表示し、
     前記音声出力部は、音声を出力する出力条件と、当該条件の場合に出力される音声を特定する音声情報とが関連付けられる音声データを記憶する音声データ記憶部から、前記解析部で解析された環境情報に対応する出力条件と関連付けられる音声情報を選択し、音声を出力する
     請求項13又は14に記載の画像表示装置。
  16.  前記取得処理部は、時刻情報を取得可能であって、
     前記画像データでは、環境情報とともに時刻情報に応じてキャラクター画像と演出用画像を表示する表示条件が定められ、
     前記音声データでは、環境情報とともに時刻情報に応じて音声を出力する出力条件が定められ、
     前記表示処理部は、環境情報及び時刻情報に応じて、キャラクター画像及び演出用画像を表示し、
     前記音声出力部は、環境情報及び時刻情報に応じて、音声を出力する
     請求項15に記載の画像表示装置。
  17.  キャラクターとともに表示させる画像に関する信号を受信する受信部を備え、
     前記画像データでは、環境情報とともに受信信号に応じてキャラクター画像と演出用画像を表示する表示条件が定められ、
     前記音声データでは、環境情報とともに受信信号に応じて音声を出力する出力条件が定められ、
     前記表示処理部は、環境情報及び受信信号に応じて、キャラクター画像及び演出用画像を表示し、
     前記音声出力部は、環境情報及び受信信号に応じて、出力する
     請求項15又は16に記載の画像表示装置。
  18.  外部の電気機器を操作する操作信号と、当該操作信号を送信する送信条件とが関連付けられる信号データを記憶する信号データ記憶部から、前記取得処理部が取得した環境信号と関連付けられる操作信号を選択して送信する送信処理部とをさらに備える請求項13乃至17のいずれか1に記載の画像表示装置。
  19.  前記表示処理部は、ホログラムとして画像を表示する請求項13乃至18のいずれか1項に記載の画像表示装置。
  20.  前記キャラクター画像は、動画像である請求項13乃至19のいずれか1項に記載の画像表示装置。
  21.  環境信号を取得する取得処理ステップと、
     前記取得処理ステップで取得した環境信号に応じてキャラクターのキャラクター画像を表示するとともに、当該環境信号に応じて当該キャラクターの感情表現を演出する演出用画像を表示する表示ステップと、
     前記取得処理ステップで取得した環境信号に応じた音声を出力する音声出力ステップと、を有する画像表示方法。
  22.  コンピュータに、
     環境信号を取得する取得処理機能と、
     前記取得処理機能が取得した環境信号に応じてキャラクターのキャラクター画像を表示するとともに、当該環境信号に応じて当該キャラクターの感情表現を演出する演出用画像を表示する表示機能と、
     前記取得処理機能が取得した環境信号に応じた音声を出力する音声出力機能とを実現させる画像表示プログラム。
PCT/JP2016/078073 2016-07-19 2016-09-23 画像表示装置、話題選択方法、話題選択プログラム、画像表示方法及び画像表示プログラム WO2018016095A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020177017320A KR102014623B1 (ko) 2016-07-19 2016-09-23 화상 표시장치, 화제 선택 방법, 화제 선택 프로그램, 화상 표시 방법 및 화상 표시 프로그램
US15/538,760 US10713006B2 (en) 2016-07-19 2016-09-23 Image display apparatus, topic selection method, topic selection program, image display method, and image display program
KR1020197024082A KR20190100428A (ko) 2016-07-19 2016-09-23 화상 표시장치, 화제 선택 방법, 화제 선택 프로그램, 화상 표시 방법 및 화상 표시 프로그램
CN201680004506.7A CN108140383A (zh) 2016-07-19 2016-09-23 影像显示设备、话题选择方法、话题选择程序、影像显示方法及影像显示程序
TW106121155A TWI692717B (zh) 2016-07-19 2017-06-23 影像顯示裝置、話題選擇方法及程式

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016-141930 2016-07-19
JP2016-141931 2016-07-19
JP2016141931A JP6165302B1 (ja) 2016-07-19 2016-07-19 画像表示装置、話題選択方法、話題選択プログラム
JP2016141930A JP2018014575A (ja) 2016-07-19 2016-07-19 画像表示装置、画像表示方法及び画像表示プログラム

Publications (1)

Publication Number Publication Date
WO2018016095A1 true WO2018016095A1 (ja) 2018-01-25

Family

ID=60992172

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/078073 WO2018016095A1 (ja) 2016-07-19 2016-09-23 画像表示装置、話題選択方法、話題選択プログラム、画像表示方法及び画像表示プログラム

Country Status (6)

Country Link
US (1) US10713006B2 (ja)
KR (2) KR102014623B1 (ja)
CN (1) CN108140383A (ja)
HK (1) HK1252060A1 (ja)
TW (1) TWI692717B (ja)
WO (1) WO2018016095A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020066154A1 (ja) * 2018-09-25 2020-04-02 ソニー株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに対話システム
WO2020071403A1 (ja) * 2018-10-02 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報提供方法
US11829572B2 (en) 2019-10-31 2023-11-28 Sony Group Corporation Three dimensional input for a cylindrical display device
US11914797B2 (en) 2019-10-29 2024-02-27 Sony Group Corporation Image display apparatus for enhanced interaction with a user

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109716760A (zh) * 2016-07-15 2019-05-03 门箱股份有限公司 立体影像显示装置
US11256460B2 (en) * 2018-02-05 2022-02-22 Disney Enterprises, Inc. Digital companion device with display
TWI647612B (zh) * 2018-03-19 2019-01-11 技嘉科技股份有限公司 影像投射裝置
CN109144610B (zh) * 2018-08-31 2020-11-10 腾讯科技(深圳)有限公司 音频播放方法、装置、电子装置及计算机可读存储介质
KR102663888B1 (ko) 2018-09-18 2024-05-08 삼성전자주식회사 냉장고 및 그의 제어방법
US11353259B2 (en) 2018-09-18 2022-06-07 Samsung Electronics Co., Ltd. Augmented-reality refrigerator and method of controlling thereof
US11288733B2 (en) * 2018-11-14 2022-03-29 Mastercard International Incorporated Interactive 3D image projection systems and methods
KR102153922B1 (ko) * 2018-12-20 2020-09-09 주식회사 원더풀플랫폼 가상 캐릭터를 이용한 엔터테인먼트 시스템
KR102667064B1 (ko) * 2019-02-19 2024-05-20 삼성전자 주식회사 전자 장치 및 이를 이용한 카메라 기능과 연동하여 이모지 편집을 위한 사용자 인터페이스를 제공하는 방법
KR20220037466A (ko) * 2019-07-19 2022-03-24 엘지전자 주식회사 영상표시장치 및 영상표시장치의 모션감지방법
US11212494B2 (en) * 2019-12-30 2021-12-28 Ray Yanez Holographic Christmas tree projector assembly
KR102279991B1 (ko) * 2020-02-06 2021-07-21 동서대학교 산학협력단 소형 홀로그램 기반의 인공지능 헬퍼 시스템
CN111459451A (zh) * 2020-03-31 2020-07-28 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN111526244A (zh) * 2020-04-02 2020-08-11 维沃移动通信有限公司 一种闹钟处理方法以及电子设备
TWI758960B (zh) * 2020-11-19 2022-03-21 友達光電股份有限公司 電子裝置
KR102619836B1 (ko) * 2021-01-04 2023-12-29 주식회사 카카오 말풍선 배치 기법
KR102548641B1 (ko) * 2021-01-04 2023-06-27 주식회사 카카오 대화형 게임에서 대화셋을 제공하는 방법
KR102622621B1 (ko) * 2021-01-04 2024-01-08 주식회사 카카오 대화형 게임을 제공하는 방법
CN113010138B (zh) * 2021-03-04 2023-04-07 腾讯科技(深圳)有限公司 文章的语音播放方法、装置、设备及计算机可读存储介质
US11520217B1 (en) * 2021-08-03 2022-12-06 Sony Interactive Entertainment Inc. Four-sided projection for augmented reality
TWI776643B (zh) * 2021-08-19 2022-09-01 崑山科技大學 影像顯示裝置
US20230351142A1 (en) * 2022-04-28 2023-11-02 Theai, Inc. Relationship graphs for artificial intelligence character models
TWI822267B (zh) * 2022-08-22 2023-11-11 淡江大學學校財團法人淡江大學 沉浸式生態屋互動學習系統

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188787A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2002169590A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3381648B2 (ja) 1998-12-11 2003-03-04 カシオ計算機株式会社 キャラクター表示制御装置、キャラクター表示制御システム、及び記録媒体
JP2002307354A (ja) 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
JP2002351489A (ja) 2001-05-29 2002-12-06 Namco Ltd ゲーム情報、情報記憶媒体、及びゲーム装置
JP2004145541A (ja) 2002-10-23 2004-05-20 Inosu:Kk チャットシステム
JP2005010691A (ja) 2003-06-20 2005-01-13 P To Pa:Kk 音声認識装置、音声認識方法、会話制御装置、会話制御方法及びこれらのためのプログラム
TWI237991B (en) 2004-06-28 2005-08-11 Delta Electronics Inc Integrated dialogue system and method thereof
JP4652190B2 (ja) 2005-09-22 2011-03-16 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び電子機器
US9823737B2 (en) * 2008-04-07 2017-11-21 Mohammad A Mazed Augmented reality personal assistant apparatus
US7427140B1 (en) * 2007-04-19 2008-09-23 Yao-Dong Ma Sunlight readable direct-view and projection-view computing device
KR101224660B1 (ko) 2008-07-09 2013-01-21 고려대학교 산학협력단 유사 문장 검색 장치, 검색 방법, 저장 매체, 자동 대화서비스 시스템 및 서비스 방법
US9202171B2 (en) 2008-11-11 2015-12-01 Digideal Corporation Virtual game assistant based on artificial intelligence
US20110055309A1 (en) * 2009-08-30 2011-03-03 David Gibor Communication in Context of Content
JP5411789B2 (ja) 2010-04-19 2014-02-12 本田技研工業株式会社 コミュニケーションロボット
CN102750125A (zh) * 2011-04-19 2012-10-24 无锡天堂软件技术有限公司 基于语音的控制方法与控制***
WO2012158572A2 (en) * 2011-05-13 2012-11-22 Microsoft Corporation Exploiting query click logs for domain detection in spoken language understanding
US9516299B2 (en) 2011-10-14 2016-12-06 National University Corporation Toyohashi University Of Technology Three-dimensional image projector, three-dimensional image projection method, and three-dimensional image projection system
TWI476449B (zh) 2012-04-24 2015-03-11 Univ Minghsin Sci & Tech 裸眼三維背投影顯示裝置
KR20130136630A (ko) 2012-06-05 2013-12-13 이범호 스마트폰을 활용한 유명인의 캐릭터 서비스 시스템 및 그 운용방법
US9973457B2 (en) * 2012-06-26 2018-05-15 Nuance Communications, Inc. Method and apparatus for live chat integration
TW201408052A (zh) * 2012-08-14 2014-02-16 Kentec Inc 電視裝置及其虛擬主持人顯示方法
US10346542B2 (en) * 2012-08-31 2019-07-09 Verint Americas Inc. Human-to-human conversation analysis
KR20140054493A (ko) * 2012-10-26 2014-05-09 심심이(주) 대화 서비스 제공 방법 및 장치
KR20140108498A (ko) 2013-02-28 2014-09-11 엘지전자 주식회사 멀티미디어 커머스 서비스 처리 장치 및 방법
US20140278403A1 (en) 2013-03-14 2014-09-18 Toytalk, Inc. Systems and methods for interactive synthetic character dialogue
US20140279239A1 (en) * 2013-03-15 2014-09-18 Kuyam Companies, Inc. Computer Implemented Search System
KR101532327B1 (ko) * 2013-11-26 2015-06-30 유영진 플로팅방식 홀로그램 플레이어
KR20150068609A (ko) * 2013-12-12 2015-06-22 삼성전자주식회사 이미지 정보 표시 방법 및 장치
US20150207765A1 (en) * 2014-01-17 2015-07-23 Nathaniel Brantingham Messaging Service with Conversation Suggestions
KR102248474B1 (ko) * 2014-04-30 2021-05-07 삼성전자 주식회사 음성 명령 제공 방법 및 장치
KR102305117B1 (ko) * 2014-04-30 2021-09-27 삼성전자주식회사 텍스트 입력 제어 방법 및 그 전자 장치
US10726831B2 (en) * 2014-05-20 2020-07-28 Amazon Technologies, Inc. Context interpretation in natural language processing using previous dialog acts
KR101645992B1 (ko) * 2014-05-28 2016-08-05 삼성생명보험주식회사 고객 불만을 모니터링 하기 위한 장치 및 컴퓨터-판독가능 매체
WO2015194773A1 (ko) * 2014-06-20 2015-12-23 엘지전자(주) 디스플레이 장치 및 그 구동 방법
US10354256B1 (en) * 2014-12-23 2019-07-16 Amazon Technologies, Inc. Avatar based customer service interface with human support agent
CN204406271U (zh) * 2014-12-30 2015-06-17 吴建伟 一种自助查询机
TWM504275U (zh) 2015-04-01 2015-07-01 Kings Metal Fiber Technologies 具情境化模擬系統
CN105141587B (zh) 2015-08-04 2019-01-01 广东小天才科技有限公司 一种虚拟玩偶互动方法及装置
WO2017112796A1 (en) * 2015-12-21 2017-06-29 Google Inc. Automatic suggestions and other content for messaging applications

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188787A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2002169590A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Hologram Communication Robot ''Gatebox'' ga", JIGEN NO KABE O KOWASU! VINCLU TAKECHI-SHI & GIMA-SHI INTERVIEW, 3 June 2016 (2016-06-03), Retrieved from the Internet <URL:http://www.famitsu. com/news/201606/03107156.html> [retrieved on 20161222] *
CHATBOT PLATFORM 'TRUE TALK, 12 May 2016 (2016-05-12), Retrieved from the Internet <URL:http://www.jetrun.co.jp/curation/truetalk_lp.html> [retrieved on 20161222] *
YUKA OKADA: "Ore no Yome'' Shokan Sochi 'Gatebox' Jitsugen e", GIJUTSU ZERO KARA IDONDA IOT VENTURE 'ERABARESHI OTAKU NI TODOKETAI, 18 February 2016 (2016-02-18), Retrieved from the Internet <URL:http://www. itmedia.co.jp/news/articles/1602/15/news072. html> [retrieved on 20161222] *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020066154A1 (ja) * 2018-09-25 2020-04-02 ソニー株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに対話システム
WO2020071403A1 (ja) * 2018-10-02 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報提供方法
JPWO2020071403A1 (ja) * 2018-10-02 2021-09-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報提供方法
JP7292300B2 (ja) 2018-10-02 2023-06-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報提供方法
US11914797B2 (en) 2019-10-29 2024-02-27 Sony Group Corporation Image display apparatus for enhanced interaction with a user
US11829572B2 (en) 2019-10-31 2023-11-28 Sony Group Corporation Three dimensional input for a cylindrical display device

Also Published As

Publication number Publication date
TW201802663A (zh) 2018-01-16
HK1252060A1 (zh) 2019-05-10
KR20190100428A (ko) 2019-08-28
KR102014623B1 (ko) 2019-08-26
US20190138266A1 (en) 2019-05-09
KR20180030767A (ko) 2018-03-26
US10713006B2 (en) 2020-07-14
CN108140383A (zh) 2018-06-08
TWI692717B (zh) 2020-05-01

Similar Documents

Publication Publication Date Title
WO2018016095A1 (ja) 画像表示装置、話題選択方法、話題選択プログラム、画像表示方法及び画像表示プログラム
JP6165302B1 (ja) 画像表示装置、話題選択方法、話題選択プログラム
JP6682475B2 (ja) 画像表示装置、話題選択方法、話題選択プログラム
JP6367440B2 (ja) 没入型環境用のインタラクティブ型オブジェクト
JP2018014575A (ja) 画像表示装置、画像表示方法及び画像表示プログラム
JP2019139170A (ja) 画像表示装置、画像表示方法および画像表示プログラム
AU2014236686B2 (en) Apparatus and methods for providing a persistent companion device
US10086265B2 (en) Video teleconference object enable system
JP2019521449A (ja) 永続的コンパニオンデバイス構成及び配備プラットフォーム
CN107000210A (zh) 用于提供持久伙伴装置的设备和方法
JPWO2016068262A1 (ja) コミュニケーションロボット
CN114787759A (zh) 交流支持程序、交流支持方法、交流支持***、终端装置以及非语言表达程序
JP2024032778A (ja) 表示装置等
WO2019215983A1 (ja) 情報処理システム、情報処理方法、および記録媒体
JP2019139169A (ja) 画像表示装置、画像表示方法および画像表示プログラム
JP7448142B2 (ja) 表示装置等
JP2023035270A (ja) 表示装置等
JP2022157245A (ja) システム等
JP2022157238A (ja) システム等
WO2018183812A1 (en) Persistent companion device configuration and deployment platform
WO2017152167A1 (en) Interactive toy device, and systems and methods of communication between the same and network devices
Xie Sonic Interaction Design in Immersive Theatre
Kang Shin'm; Reshaping the Perceived Body with Sound—Hybrid of Interactive Installation and Performance—

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 20177017320

Country of ref document: KR

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16909570

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16909570

Country of ref document: EP

Kind code of ref document: A1