WO2011042989A1 - 視認情景に対する視認者情感判定装置 - Google Patents

視認情景に対する視認者情感判定装置 Download PDF

Info

Publication number
WO2011042989A1
WO2011042989A1 PCT/JP2009/067659 JP2009067659W WO2011042989A1 WO 2011042989 A1 WO2011042989 A1 WO 2011042989A1 JP 2009067659 W JP2009067659 W JP 2009067659W WO 2011042989 A1 WO2011042989 A1 WO 2011042989A1
Authority
WO
WIPO (PCT)
Prior art keywords
viewer
visual
viewpoint
attention
emotion
Prior art date
Application number
PCT/JP2009/067659
Other languages
English (en)
French (fr)
Inventor
菊池光一
倉島渡
Original Assignee
Kikuchi Kouichi
Kurashima Wataru
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kikuchi Kouichi, Kurashima Wataru filed Critical Kikuchi Kouichi
Priority to JP2011535257A priority Critical patent/JP5445981B2/ja
Priority to PCT/JP2009/067659 priority patent/WO2011042989A1/ja
Publication of WO2011042989A1 publication Critical patent/WO2011042989A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to a viewer feeling determination apparatus for a visually recognized scene, and particularly relates to a technique for analyzing a change in physiological reaction of a viewer when visually recognizing the visually recognized scene and evaluating an object and a viewer's own ability.
  • the video content is visually recognized using the movement of the line of sight, the pupil area, the blink frequency, etc. as data obtained by imaging the eye movement. Judging the degree of interest and interest and evaluating video content. As a result, a higher-level evaluation that is more reliable than an evaluation method that uses the audience rating as an index has been realized with a small number of subjects.
  • Emotion is a physiological reaction that reacts unconsciously to a visual target (including sound) or body stimulation.
  • a visual target including sound
  • body stimulation As an example, there is a phenomenon in which attention is unconsciously when there is an interest in a visual target. Emotions are feelings that are felt by people's movements and things. Joy, sadness, anger, surprise, disgust, fear.
  • emotion (E) and emotion (F: Feeling) are collectively defined as emotion (EF).
  • the technique described in the above-mentioned patent document evaluates the degree of attention to video content such as a television program, and is not assumed to be applied to other scenes. Furthermore, although the pupil diameter is determined as the degree of attention as it is, the pupil diameter greatly reacts to the brightness (illuminance and luminance) of the viewing target, and therefore means for removing the pupil diameter response corresponding to the brightness of the viewing target. In addition, the pupil diameter response with an accurate attention degree cannot be obtained.
  • the object of the present invention is to grasp the physiological reaction of the viewer more precisely and finely and to evaluate the object and the viewer's own ability more accurately and finely in various situations. It is another object of the present invention to provide a viewer feeling determination device for visual recognition scenes (including auditory, taste, tactile, olfactory stimuli, and image recall).
  • the invention according to claim 1 is a viewer emotion determination device for a visual scene, which diagnoses the emotion of a viewer who looks at the scene including the specific object with respect to the specific object.
  • Analyzing part to calculate, normal position (normal emotion value) of each part of the face of the viewer, changes in physiological reaction data when the viewer is looking at an object of low interest and attention, and the accompanying speed Accumulate information including acceleration as a normal emotion value, and the change value when the viewer's emotion is high such as the viewer's anger, fear, disgust, happiness (satisfaction), sadness, surprise, etc.
  • a diagnostic unit that diagnoses the viewer's feelings about the specific object and the viewer's own reaction ability by comparing with the high emotion value (both are referred to as emotion values), and, if necessary, the body It has a function to measure the degree of viewer's feelings for a visual scene, which includes a normal temperature of the body and a part for diagnosing the degree of excitement by measuring the body temperature and movement at the time of excitement. It is characterized by.
  • the object at the time of visual recognition of claim 1 includes the case where the object is visually recognized while touching or operating the actual object. Furthermore, in addition to vision, the same response is also seen when receiving auditory, gustatory, tactile, and olfactory stimuli. Analyze the degree of attention to these stimuli (five senses), the movement of the viewpoint, and the movement of each part of the face. And a similar feeling determination for the object.
  • the “normal emotion value” and the “high emotion value” are measured by visually recognizing the basic video showing the “normal emotion value” and the “high emotion value”, and the “normal emotion value” and the “high emotion value” are the faces.
  • the position of each part of the face of “normal” (normal emotion value) and the maximum expression showing “anger”, “fear”, “disgust”, “happiness (joy)”, “sadness”, “surprise” The anger level, fear level, disgust level, happiness level, sadness level, and surprise level are calculated based on the displacement values of the movements of each part of the face. It is provided with measuring as "high emotion value”.
  • the invention of claim 2 is the viewer feeling determination apparatus for the visually recognized scene according to claim 1, wherein the change of the physiological response data and the accompanying velocity and acceleration are determined by the viewer's viewpoint being the specific object.
  • the approach speed and acceleration when approaching the object, or the disengagement speed and acceleration when the viewer's viewpoint is detached from the specific object, and the diagnosis unit increases the identification speed and acceleration as the approach speed and acceleration increase.
  • the smaller the acceleration is the more the diagnosis is made that the specific object is more interesting.
  • the visual recognition target may be a certain part in the target object (for example, in the case of a product, a product name, a manufacturer name, an expiration date, a note, a specification, an operation button, etc.).
  • the analysis unit is configured to shoot a visual image with a visual scene photographing device worn on the head of the viewer.
  • the movement distance, movement speed, and movement acceleration of the viewer's head are calculated by calculating from the change in the position of the stationary object in the visual image using the position of the stationary object in the visual image captured by the camera as a base point. Then, the change in the position of the viewpoint in the visual image is added to calculate the approach speed and acceleration or the detachment speed and acceleration of the viewpoint with respect to the specific object including the head movement.
  • An existing method such as a measurement method using a gyroscope may be used to calculate the moving direction and distance, moving speed, and moving acceleration of the viewer's head.
  • the physiological response data when the physiological response data is a change in pupil diameter,
  • the visual target is a video display
  • the visual image is the content displayed on the display
  • the eyeball photographing device, face photographing device, and brightness measuring device are not attached to the viewer's head, but are fixed to the video display side.
  • the visual target when the visual target is a video display, the luminance of the video display is changed, the pupil diameter of the viewer corresponding to the video display is obtained, and stored as relation data between the basic luminance and the pupil diameter.
  • the pupil diameter of the viewer is measured, and at the same time, the luminance is measured for the viewing range with a luminance meter, and the accumulated basic luminance and pupil diameter are calculated from the pupil diameter value when the object is viewed.
  • the viewer's feeling for a visual scene characterized in that the pupil diameter corresponding to only the degree of attention to the object is obtained by subtracting the value of the pupil diameter corresponding to the luminance when the object is viewed in the relation data Judgment device.
  • an eyeball photographing device, a face photographing device, a visual scene photographing device, and a brightness measuring device are integrally mounted on the viewer's head for measurement.
  • the illuminance indicating the brightness of the visible range is applied instead of the luminance, and the illuminometer is used instead of the luminance meter.
  • the red (r), green (G), and blue (B) of the pixel having the viewpoint on the display is compared with the luminance of the video display according to the second aspect.
  • the luminance of the pixel at the viewpoint is calculated using the influence on the luminance of the image as a parameter, and the pupil corresponding to the luminance of the pixel at the time of visual recognition of “basic relationship data of display luminance, viewpoint luminance, and pupil diameter” from the pupil diameter of the viewer
  • a viewer feeling determination device for a visual scene, wherein a pupil diameter corresponding to the degree of attention of the viewer's viewpoint including the brightness of the display can be obtained by subtracting the diameter (pupil diameter that reacts to brightness) .
  • the luminance of each pixel may be obtained by the measuring device.
  • the “basic relationship data of display brightness, viewpoint brightness, and pupil diameter” shows that the brightness of a circle of about 1.7 cm is changed from the highest (white) to the minimum (black) in the brightness of the display that changes in stages.
  • the pupil diameter when the viewer visually recognizes the circle is measured, and “basic relation data of display luminance, viewpoint luminance, and pupil diameter” is calculated and accumulated.
  • a sixth aspect of the present invention provides the relationship between the basic luminance and the pupil diameter in the fourth and fifth aspects, wherein the maximum value of the pupil diameter (the lowest luminance of the video display) and the minimum value of the pupil diameter (the highest luminance of the video display).
  • the ratio between the change range of the pupil diameter and the pupil diameter corresponding to the degree of attention only to the object when the viewer visually recognizes the object is the degree of attention that absorbs the individual difference of the viewer A viewer feeling determination device for a viewing scene to be performed.
  • the viewer feeling determination device for the visual scene if the degree of attention is high, it is determined that the interest / interest in the visual target is high. This is an emotional reaction, and the attention level in this case is an emotional value.
  • the speed and acceleration associated with the change in the physiological response data are an expansion speed and acceleration of the attention level of the viewer, or a reduction speed and acceleration of the attention level of the viewer. The greater the degree and the greater the enlargement speed and acceleration, the more the diagnosis is made. The less the degree of attention and the greater the reduction speed and acceleration, the greater the particular object. It is characterized by diagnosing that there is no interest.
  • the movement of each part (nose, eyes, mouth, eyebrows, etc.) of the visual image of the viewer is measured and the change thereof is measured.
  • the quantity is measured, and the magnitude of the emotion value based on the facial expression of the viewer is determined based on the changed size of each part.
  • the feeling of the viewer with respect to the visual recognition object is determined by combining this determination with the emotion value based on the degree of attention due to eye movement during visual recognition of the visual recognition object of claims 1 to 3 and 7.
  • each emotion value (F) is low. Therefore, it can be determined that the evaluation is negative with respect to the visual recognition target.
  • the emotional value (E) is normal, the subject has little special interest / interest and little attention. In this case, each emotion (F) generally does not increase. Therefore, it cannot be said that emotion can be determined accurately.
  • the emotion value (E) is high and each emotion is high, it can be determined that the happiness (HP) is positive and effective.
  • the emotion value (E) is high and each emotion is high, it can be determined that the happiness (HP) is positive and effective.
  • SD sadness
  • anger, fear, or disgust it is a negative reaction. If you are surprised, you will be surprised and interested (interested), and depending on the subject, it is generally an effective response.
  • the object to be viewed is content such as a movie and the content intentionally invites each emotion, the happiness (joy) degree (HP) and surprise (SP), sadness (SD), anger of the emotion value (F)
  • the content to be visually recognized has an emotional reaction as intended and can be determined to be effective.
  • a specific determination method will be described for each target.
  • the invention of claim 9 is a viewer feeling determination apparatus for a visually recognized scene according to claim 1,
  • the object at the time of visual recognition in claim 1 is a case where the object is visually recognized while touching or operating the actual object, when listening to only the sound, smelling, or eating. Analyzes the attention level and viewpoint movement of the viewer and the movement of each part of the face when the user feels the taste, when a part of the body is in contact with the object, or when there are multiple stimuli Then, it is characterized by performing emotion determination for those stimuli. In particular, when the emotional value (E) is low for these stimuli, it can be determined that there is no response to the stimulus.
  • E emotional value
  • the emotion value (E) when the emotion value (E) is high, and when the happiness (joy) degree (HP) of the emotion value (F) is generally high, the stimulus can be determined to be comfortable.
  • sadness (SD), anger (AG), fear (FR), and disgust (DI) of other emotion values (F) when high, it can be generally determined that the stimulus is not comfortable for the viewer.
  • attention is paid and the surprise (SP) is high, it depends on the situation, but generally, it can be determined that an unexpected feeling is felt.
  • a tenth aspect of the present invention is the viewer feeling determination apparatus for the visual recognition scene according to any one of the first to third aspects and the seventh to ninth aspects, wherein the specific object is a product, and the diagnosis unit And diagnosing the viewer's willingness to purchase the product.
  • the emotional value is low (not interested and not paying attention), it can be clearly determined that it does not lead to purchase.
  • the emotional value is high (interesting and paying attention)
  • it can be determined that the purchase is positive when the happiness (joy) level and the surprise are generally high at that time.
  • the sadness, anger, fear, and disgust of other emotion values are high, it can be generally determined that the purchase is not aggressive.
  • the eleventh aspect of the present invention is the viewer feeling determination apparatus for a visual recognition scene according to any one of the first to third and seventh to ninth aspects, wherein the specific object is a learning object (lecture, Reading, teacher movement, teaching materials, etc.), and the diagnosis unit diagnoses the viewer's willingness to learn about the learning target. If the emotion value is low (not interested and not interested), it can be determined that the learning object is clearly not interested and is “bored”. However, if the emotional value is high (interested and focused), it can be said that the willingness to learn is high.
  • the specific object is a learning object (lecture, Reading, teacher movement, teaching materials, etc.)
  • the diagnosis unit diagnoses the viewer's willingness to learn about the learning target. If the emotion value is low (not interested and not interested), it can be determined that the learning object is clearly not interested and is “bored”. However, if the emotional value is high (interested and focused), it can be said that the willingness to learn is high.
  • the content of learning is a content that invites each emotion
  • happiness (joy) level of the emotion value and surprise, sadness, anger, fear, and disgust are high as intended
  • the learning can be determined to be good.
  • the emotional value is high when tackling a problem, but when sadness, anger, fear, and disgust are high, something is confusing and it can be determined that there is a problem with this learning target.
  • the invention of claim 12 is a viewer feeling determination apparatus for a visual scene according to any one of claims 1 to 3 and 7 to 9,
  • the specific object is video content such as a television or a movie
  • the viewer is the video content viewer.
  • the attention level of interest and interest in each scene of the video content that the video content producer expects from the viewer, and the happiness (joy), surprise, sadness, anger, fear, and aversion sensitivity of each basic emotion And the level of excitement level are set on the time axis of the content software program, and at the time of the video content projection, the attention level and happiness (joy) level, surprise level, sadness level, anger level, fear level, It is characterized by diagnosing how much disgust sensitivity and excitement have reached the level expected by the video content producer, and evaluating the video content.
  • the target content includes sound at the same time as the video, but there may be a case where only the sound is present without the video.
  • the most effective use methods are pre-evaluation of production movies and pre-evaluation of commercial audience response.
  • the invention according to claim 13 is the viewer feeling determination apparatus for the visually recognized scene according to any one of claims 1 to 3 and 7 to 9, wherein the specific object is video content such as a television or a movie. And The viewer is the video content viewer. Display the distribution of attention points on the video screen according to the degree of attention of multiple viewers in a specific scene or still image of the video content, and compare the appeal points of the content with the appeal points on the video screen of the content creator It is characterized by judging the effect.
  • the invention of claim 14 is the viewer feeling determination apparatus for the visually recognized scene according to any one of claims 1 to 3 and 7 to 9, wherein the receiving unit receives each of two videophones.
  • the caller's face, the visual image and the eye movement image are received, and the diagnosis unit diagnoses feelings from one caller to the other caller, and from one caller to the other caller.
  • It is characterized by comprising a transmission unit for transmitting the emotion diagnosis result to an intermediary such as a video phone of the other party or a diagnostic center.
  • an intermediary such as a video phone of the other party or a diagnostic center.
  • the compatibility is good if the degree of happiness (joy) is generally high at that time.
  • the degree of happiness happiness
  • anger, fear, and disgust are high, it can be determined that compatibility is good in the sense of conflict in the case of a reaction based on the content of the talk.
  • the invention of claim 15 is the viewer feeling determination apparatus for a visually recognized scene according to any one of claims 1 to 3 and 7 to 9, wherein the viewer is difficult to speak a language. They are animals, and their visual objects are all their visual objects and are characterized by determining their feelings for the visual objects.
  • the viewer is a human (for example, a baby or a person with dementia)
  • it can be clearly determined that he / she is not interested in the visual target if the emotion value is low (not interested).
  • the emotion value is high (attention is paid)
  • the invention of claim 16 is a viewer feeling determination apparatus for a visual recognition scene according to any one of claims 1 to 3 and 7 to 9, wherein the viewer feeling determination apparatus of the present invention is incorporated in a robot,
  • the viewer is an emotional human being and an animal, and the visual target is all that the viewer visually recognizes.
  • the robot includes a selection unit and an execution function for selecting an appropriate speech and response based on a viewer's diagnosis result input from the diagnosis unit in the robot. For example, when the viewer's emotional value is low (not interested), it is clearly determined that the viewer's visual target is not interested, and the robot behaves and moves to the interested subject. If the viewer's emotional anger, fear, or disgust is high, the robot will take appropriate measures such as uttering appropriate comfort words or changing the visual target.
  • the invention of claim 17 is the viewer feeling determination apparatus for a visually recognized scene according to any one of claims 1 to 3 and 7 to 9, wherein the viewer is a criminal suspect and the identification
  • the object is characterized in that it is a crime scene, a criminal tool, an accomplice or a victim.
  • the viewer's emotional value is low (not paying attention), it can be determined that the visual target is not relevant to the criminal suspect.
  • the emotional value is high (attracting attention), it cannot be said to be related to criminals simply because of high interest.
  • the emotional value is generally high and the emotional value is high in happiness (joy), surprise, anger, fear, or disgust, it can be determined that the crime suspect is of some relevance.
  • the invention of claim 18 is the viewer feeling determination apparatus for a visually recognized scene according to any one of claims 1 to 3 and 7 to 9, wherein the viewer is a vehicle or an airplane such as an airplane. If it is a driver and the diagnosis unit further determines whether attention is being focused on by measuring the position of the viewpoint and the pupil diameter, and if it is diagnosed that the vehicle is in a dangerous driving state, a warning is given to the viewer Or it has the function to perform appropriate operation assistance, such as a brake.
  • the emotional value of the viewer (driver) is low, it can be said that it is a dangerous driving state because it can be determined that it is clearly inadvertent state or close to dozing.
  • the emotional value is high (attention is paid)
  • the driving is good when the viewpoint is always located at an appropriate position. Furthermore, it can be determined that the situation is good if the happiness (joy) level of the emotion value is high. In addition, when feelings of anger, fear, and disgust are high, it can be determined that there is some obstacle during driving, other than when being influenced by the conversation in the car. For example, when stress is high.
  • the invention of claim 19 is the viewer feeling determination apparatus for a visually recognized scene according to any one of claims 1 to 3 and 7 to 9, wherein the viewer is a worker, It is a machine operation simulator or a real machine, and the analysis unit analyzes response delay time and an operation method using response data by the operation of the viewer's response device, and the diagnosis unit is an expert of the viewer It is characterized by diagnosing degree or appropriateness.
  • the analysis unit analyzes response delay time and an operation method using response data by the operation of the viewer's response device
  • the diagnosis unit is an expert of the viewer It is characterized by diagnosing degree or appropriateness.
  • the invention of claim 20 is the viewer feeling determination device for a visually recognized scene according to any one of claims 1 to 3 and 7 to 9, wherein the viewer is a worker before work,
  • the target is content of an operation video with a dangerous part or a simulator, and the diagnosis unit diagnoses the physical condition of the viewer to determine suitability for work.
  • the diagnosis unit diagnoses the physical condition of the viewer to determine suitability for work.
  • the viewer's emotional value is low, it can be determined that the state is clearly inadvertent or close to dozing. For example, being distracted by other things.
  • the emotional value is high (attention is paid)
  • the gaze always keeps the right target in the video, Furthermore, it can be determined that the situation is good if the happiness (joy) level of the emotion value is high. If the feelings of anger, fear, and disgust are high, it can be determined that the viewer has some kind of disability (such as the person's physical condition, home, friend, etc.).
  • the invention of claim 21 is the viewer feeling determination device for a visually recognized scene according to any one of claims 1 to 3 and 7 to 9, wherein the viewer is an athlete,
  • the object is an object to be seen when the athlete is exercising (the movement of the pitcher and the ball's ball muscle for baseball batters, the movement of the opponent's player and the ball's ball muscle for tennis players, etc.)
  • the diagnostic unit is the viewer It is characterized by diagnosing the tone, proficiency level, or appropriateness level. When the line of sight does not go to the target to be noticed and the viewer's emotional value is low (not focused), the viewer can clearly be determined to be unskilled.
  • the viewer feeling determination device of the present invention is incorporated in a game machine,
  • the viewer is a game player
  • the viewing target is game content that is viewed by the viewer.
  • the game machine includes a selection unit and an execution function for selecting an appropriate game content screen, sound and game program based on a diagnosis result of a viewer input from the diagnosis unit in the game machine.
  • the game console will take appropriate measures such as changing the viewing target (changing the game content screen, sound, and game program). Will do.
  • the invention according to claim 23 is the viewer feeling determination apparatus for a visually recognized scene according to any one of claims 1 to 3 and 7 to 9, wherein the specific object is arranged in a space.
  • the diagnostic unit diagnoses the appropriateness of the arrangement of the specific objects viewed from the viewer. If the viewer's emotional value is low (not interested and low in attention), it can be clearly determined that the item on the shelf and the item on the shelf are not noticed. However, even if the emotional value is high (attracting attention), it cannot be said that the interest in purchasing is high simply because the interest is high. However, in general, when the emotional value is high in happiness (joy) and surprise, it can be determined as favorable. However, when the feelings of sadness, anger, fear, and disgust of other emotion values are high, it can be generally determined that there is an element that leads to dissatisfaction.
  • the viewer in the viewer feeling determination apparatus for a visual recognition scene according to any one of the first to third and seventh to ninth aspects, the viewer is a visitor and the visual target is a customer. It is a store clerk, a receptionist, and the like, and it is characterized by diagnosing the feeling of the viewer in the reception of the store clerk and the receptionist and determining whether the reception is good or bad. If the viewer's emotional value is low (not interested), it can be determined that there is no particular problem with the other party and that he / she is responding normally. When the viewer's emotional value is high (attracting interest), it can generally be determined that the response is good if the emotional value is high in happiness (joy). However, when anger, fear, and disgust are high, it can be determined that the response is not preferable except for the synchronous response to the conversation content.
  • the viewer is a general TV viewer (receiver of video content)
  • the viewing target is the content on the TV display connected to the broadcast, communication network or video storage device.
  • a viewer feeling determination apparatus for a visual scene which recommends content of high interest and interest level of a viewer when the viewer watches the television.
  • a twenty-sixth aspect of the present invention is the viewer feeling determination apparatus for a visual recognition scene according to any one of the first to third aspects and the seventh to ninth aspects, wherein the viewer is a general television viewer, and the viewing target is a network. Alternatively, it is a television receiver (video content receiver) that receives via radio waves. While watching a program, the object or person with a viewpoint in the receiver is automatically marked at the moment of high sensitivity, and the information on the marked object is distributed to the viewer via e-mail later. This system is characterized by being able to purchase products and contact people with the intention of the viewer thereafter. However, when automatically marking an object or person with a viewpoint in the receiver, even if the emotion (interest / interest level) is high, those with high disgust sensitivity and anger level are automatically excluded. .
  • the ability of the target object and the viewer himself / herself is evaluated by combining the change in physiological response data, the accompanying velocity and acceleration, and facial expression analysis based on the change in each part of the face. .
  • the physiological reaction of the viewer can be grasped more accurately, and the target object and the viewer's own ability can be more accurately evaluated in various situations.
  • FIG. 5 is a flowchart illustrating a method for calculating viewpoint tracking time according to an embodiment of the present invention.
  • Figure of facial part measurement by face analysis technique for emotion determination of the present invention Example of average attention level distribution of viewers in specific video content (minimum attention level is 0 and maximum attention level is 100) Average attention concentration (%) of viewers in specific video content
  • FIG. 1 is a block diagram showing a configuration of a viewer feeling determination system according to an embodiment of the present invention.
  • This viewer feeling determination system includes an eye camera 3, a transmission device 7, a storage device 8, a body motion photographing device 9 including a viewer's face, a body temperature measuring device 10, a brightness measuring device 11 (a visual target is a video display).
  • a luminance measurement device in the case of the visual recognition, the illuminance measurement device in the case of other visual recognition target
  • the response device 14 the viewer feeling determination device 100.
  • the viewer 1 equips the head with the eye camera 3 and directs his / her line of sight to the viewing scene including the object 2.
  • the visual target is content of a video display
  • a device corresponding to an eye camera may be fixed near the display.
  • the visual recognition scene may be anything as long as it is visible to the viewer 1, for example, video data displayed on a display of a computer, a mobile phone, a television, etc., in addition to a store, a plaza, a human being, and a townscape. Web page data, computer game data, data output by a computer program, and the like are also included.
  • response prompting information for causing the viewer 1 to react such as a character string, a figure, a symbol, a picture, a photo, or a video
  • the character string, the figure, the symbol, the picture, Reaction target information such as a photo or a moving image, to which the viewer 1 reacts is included.
  • the eye camera 3 includes an eyeball photographing device 4, a visual scene photographing device 5, and a microphone 6.
  • the eye camera 3 is connected to the storage device 8 and the transmission device 7, and the viewer 1 also wears the storage device 8 and the transmission device 7.
  • the visual recognition target is a display such as a computer, a mobile phone, or a television
  • the eye camera may be installed on the side of the display without mounting the eye camera on the head.
  • the eyeball photographing device 4 photographs the eyeball of the viewer 1.
  • the eye movement image b photographed by the eyeball photographing device 4 is accumulated in the accumulating device 8.
  • the eye movement video b may be accumulated as a moving image or may be accumulated as a still image periodically shot.
  • the visual scene photographing device 5 photographs the visual scene including the object 2 to which the viewer 1 is looking.
  • the visual image a photographed by the visual scene photographing device 5 is stored in the storage device 8. Note that the visual image a may be accumulated as a moving image or may be accumulated as a still image that is periodically taken.
  • the brightness measuring device 11 has a function of measuring the brightness g of the visual recognition target.
  • the visual recognition target is a video display
  • the luminance of the video display is measured.
  • the illuminance indicating the brightness of the viewing range is measured instead of the luminance.
  • the brightness data g is stored in the storage device 8.
  • the microphone 6 captures the viewer 1 and surrounding sounds.
  • the voice data c captured by the microphone 6 is stored in the storage device 8.
  • the response device 14 acquires a response signal by the operation of the viewer 1.
  • a response signal by the operation of the viewer 1.
  • an operation of the viewer for example, a button press operation, a keyboard operation, a mouse operation, a touch panel operation, a remote control operation, an operation of a controller attached to a game device, an operation of a machine, a raise of a hand, a voice, etc.
  • a body action is mentioned.
  • the response data d acquired by the response device 14 is stored in the storage device 8.
  • the storage device 8 stores the visual image a from the visual scene photographing device 5, the eye movement video b from the eyeball photographing device 4, the audio data c from the microphone 6, and the response data d from the response device 14.
  • the human body motion image e, the body temperature data f, and the brightness data g including the above images are stored in time series as synchronized data.
  • the transmission device 7 includes a visual image a, an eye movement video b, audio data c and response data d accumulated by the accumulation device 8, a viewer motion video e including a video of the viewer's face, body temperature data f, and brightness data. g is transmitted to the viewer feeling determination apparatus 100 by wireless or wired. At this time, the transmission apparatus 7 may transmit each data to the viewer feeling determination apparatus 100 at a predetermined time interval, and each data is transmitted to the viewer feeling determination apparatus 100 according to an instruction from the viewer feeling determination apparatus 100. May be sent to.
  • the body motion photographing device 9 photographs the motion of each part of the body including the face of the viewer 1. Moreover, the body motion imaging device 9 transmits the captured body motion video e to the viewer feeling determination device 100 by wireless or wired.
  • a face photographing device for photographing only the face of the viewer may be prepared separately, and for example, the face can be photographed by being attached to the tip of the eaves of a hat-type eye camera.
  • the body temperature measuring device 10 measures the temperature of the body of the viewer 1. In addition, the body temperature measurement device 10 transmits the body temperature data f to the viewer feeling determination device 100 by wireless or wired. In FIG. 1, the temperature of the body of the viewer 1 is remotely measured by the body temperature measuring device 10, but may be directly measured by a sensor attached to the viewer 1. In this case, the measured body temperature data f is stored in the storage device 8 and transmitted to the viewer feeling determination device 100 by the transmission device 7.
  • the imaging frequency of the video frame in the eyeball photographing device 4, the visual scene photographing device 5 and the body motion photographing device 9 is as high as 240 Hz or higher. Further, it is desirable that the shooting frequencies of these video frames are the same.
  • the eye camera 3 and the response device 14 are connected to the storage device 8 and transmit each data to the storage device 8 by wire, but each data is transmitted to the storage device 8 wirelessly. You can send it. Furthermore, in the case of wireless, the visual scene photographing device 5, the eyeball photographing device 4, the brightness measuring device 11, the microphone 6, and the response device 14 may directly transmit each data to the viewer feeling determination device 100.
  • FIG. 2 is a block diagram illustrating a configuration of the viewer feeling determination apparatus 100 according to the embodiment of the present invention.
  • the viewer feeling determination apparatus 100 includes a receiving unit 101, an analysis unit 102, a storage unit 103, a diagnosis unit 104, and a display unit 105.
  • the receiving unit 101 receives a visual image a, an eye movement video b, audio data c, brightness data g, and response data d from the transmission device 7. In addition, the receiving unit 101 receives the body motion image e from the body motion imaging device 9. Further, the receiving unit 101 receives body temperature data f from the body temperature measuring device 10. Then, the receiving unit 101 synchronizes all received data and outputs each data to the analyzing unit 102 at predetermined time intervals or according to an instruction from the analyzing unit 102.
  • a method of including the time of the clock in each data as a synchronization signal and a synchronization signal from the viewer feeling determination device 100, the transmission device 7, the body motion imaging device 9, and the body temperature measurement device 10 Visual image a from transmission device 7, eye movement image b, audio data c and response data d, body motion image e from body motion photographing device 9, body temperature data f from body temperature measuring device 10, brightness
  • a method of including the brightness data g from the measuring device 11 as synchronization signal data Thereby, all data can be processed synchronously.
  • Analyzing unit 102 receives visual image a, eye movement video b, audio data c, response data d, body motion video e, body temperature from receiving unit 101 at predetermined time intervals or by instructing receiving unit 101. Data f and brightness data g are acquired. Then, the analysis unit 102 attaches synchronization signal data to each of the data a to g and accumulates them in the accumulation unit 103. Further, the analysis unit 102 reads the data ag stored in the storage unit 103 as necessary, and uses the read data ag for analysis. The analysis unit 102 calculates the position of the viewpoint in the viewing image a from the viewing image a and the eye movement image b, and calculates the change in the physiological response data of the viewer and the accompanying acceleration. Details will be described later.
  • FIG. 3 is a diagram for explaining the calculation of the position of the viewpoint using the visual image a and the eye movement image b.
  • the analysis unit 102 obtains a line of sight from the eye movement image b, and calculates the position of the viewpoint by combining the line of sight with the visual image a.
  • various gaze calculation methods For example, there is a method of irradiating a near-infrared ray of a point light source to an eyeball called a cornea reflection method and using a reflection image (hereinafter referred to as a Purkinje image) on the cornea surface.
  • the line-of-sight measurement method by the corneal reflection method is roughly divided into two types: a method for obtaining the line of sight from the distance between the pupil center and the Purkinje image, and a line connecting the corneal curvature center and the pupil center obtained from the Purkinje image as virtual lines of sight. There is a method of obtaining a line of sight by performing error correction.
  • FIG. 4 is a diagram for explaining the relationship between the movement of the viewer 1's head (including the movement of the face) and the visual image a.
  • the movement of the head can be measured only with the visual image a captured by the visual scene photographing device 5 worn by the viewer 1 on the head. However, since the measurement is based on the visual image a, it is two-dimensional.
  • the viewing angle (horizontal ⁇ h, vertical ⁇ v) of the visual image a is set in advance by the visual scene photographing device 5.
  • the analysis unit 102 can also measure the head movement using the body motion image e.
  • the head motion is measured by identifying the head from the body motion image e by image processing and tracking the head.
  • FIG. 5 is an example of coordinate axes when the visual image a is analyzed.
  • FIG. 6 is a diagram illustrating the movement of the head when the viewer 1 moves in the horizontal direction.
  • the entire field of view around the head of the viewer 1 is compared to a spherical surface, and the movement of the head is represented by the horizontal direction h and the vertical direction by v.
  • the coordinate axes shown in FIG. 5 may be represented by only numbers (h, v), or by radians (rad) or angles (°).
  • each round may be represented by 1 ( ⁇ 0.5 to +0.5), 2 ⁇ rad ( ⁇ to + ⁇ ), or 360 ° ( ⁇ 180 ° to + 180 °).
  • the first frame picture as F 0 represents the next frame screen after 1 / S seconds as F 0 +1.
  • FIG. 7 is a diagram illustrating the movement of the base point of the stationary object when the head moves from the frame screen F 0 of the visual image a to the next frame screen F 0 +1.
  • the visual image a is represented by coordinates (x, y) with the lower left corner as the origin, and the point of the non-moving object (stationary object) “A” in the first frame screen F 0 is defined as the base point. Is (x0, y0).
  • the stationary object “A” and its point (coordinates) may be determined by an operator who operates the viewer feeling determination apparatus 100 by looking at the visual image “a”, or may be determined in advance.
  • the feature of the still object “A” may be captured by the visual image a and automatically tracked. Note that image processing for identifying and tracking the stationary object “A” is a known technique, and thus detailed description thereof is omitted here.
  • the analysis unit 102 calculates the following data.
  • the analysis unit 102 can calculate the head moving speed qhv ⁇ d (phv) / dt, and the head moving speed qhv0 in the frame screen F 0 is qhv0 ⁇ d (phv) / dt ⁇ (phv1-phv0) / (1 / S) Calculate as However, t represents time, and the analysis unit 102 can calculate as head movement acceleration khv ⁇ d (qhv) / (1 / S), The movement acceleration khv0 of the head in the frame screen F 0 is khv0 ⁇ d (qhv) / dt ⁇ (qhv1-qhv0) / (1 / S) Calculate as
  • a gyroscope unit: angular velocity: radians or degrees / second.
  • a general method is to calculate the movement angle by integrating the angular velocity with the elapsed time.
  • the angular movement speed of the head in the L frame can be obtained by measuring the moving speed (qhv L ) at the frame L time with a gyroscope.
  • Horizontal movement speed of head at frame L qh L
  • Vertical movement speed of head at frame L qv l
  • the horizontal movement distance of the head up to N frames is: Vertical movement distance of head up to N frames: It becomes.
  • FIG. 8 is a diagram illustrating movement of the viewpoint B in the visual image a.
  • the position of the viewpoint in the visual image a on the frame screen F 0 is displayed as (H0, V0). Further, the position of the viewpoint on the next frame screen F 0 +1 is displayed as (H1, V1).
  • the horizontal speed qH0 of the viewpoint in the visual image a on the frame screen F 0 is set as follows: qH0 ⁇ d (pH) / dt ⁇ (pH1-pH0) / (1 / S).
  • the vertical velocity qV0 is qV0 ⁇ d (pV) / dt ⁇ (pV1 ⁇ pV0) / (1 / S).
  • the horizontal acceleration kH0 of the viewpoint in the visual image a on the frame screen F 0 is expressed as follows: Calculate as kH0 ⁇ d (qH) / dt ⁇ (qH1 ⁇ qH0) / (1 / S).
  • the vertical acceleration kV0 is Calculate as kV0 ⁇ d (qV) / dt ⁇ (qV1 ⁇ qV0) / (1 / S).
  • FIG. 9 is a diagram illustrating movement of the viewpoint when moving from the frame F 0 to the frame F 0 +1.
  • the movement acceleration of the viewpoint including the head in the frame F 0 is calculated as follows.
  • the analysis unit 102 calculates the movement of the object in the visual image a by the same method as the movement of the viewpoint.
  • FIG. 10 is a diagram illustrating a positional relationship between the object and the viewpoint in the visual image a.
  • the viewpoint B when the viewpoint B is included in the video of the object C in the visual image a, it is determined that the viewer's viewpoint tracks the target object.
  • the contour of the object can be specified by image processing and can be handled by a known technique, and thus detailed description thereof is omitted here.
  • the analysis unit 102 determines the distance between the position of the viewpoint B (H, V) and the position of the object C (X, Y), the approach speed (Bv) when the viewpoint approaches the object, and the approach acceleration (Bk). ), A separation speed (Bs) and a separation acceleration (Br) when the viewpoint is separated from the object are calculated.
  • the target object C deviates from the visual image “a” or the viewpoint B is separated from the target object C and a predetermined time elapses, it is clearly determined that the viewpoint B has left the target object. .
  • FIG. 11 is a flowchart illustrating a method of calculating the approach speed (Bv), the approach acceleration (Bk), the separation speed (Bs), and the separation acceleration (Br).
  • a method of calculating the approach speed (Bv), the approach acceleration (Bk), the separation speed (Bs), and the separation acceleration (Br) will be described with reference to FIG.
  • the analysis unit 102 determines whether or not the viewpoint is within the range of the object. Whether or not the object is within the range is obtained from the distance between the position of the viewpoint B (H, V) and the position of the object C (X, Y).
  • step 101: N When the position (H, V) of the viewpoint B is not included in the range of the position (X, Y) of the object C (step 101: N), that is, when the viewpoint B exists outside the object C, The following processes A to C are performed.
  • step 103 when U1-U0 ⁇ 0, it is determined that the viewpoint B is approaching the object C, the process proceeds to step 104, and the approach speed and acceleration are calculated.
  • the approach speed (Bv) of the viewpoint B to the object C is as follows.
  • Bv0 -(U1-U0) / (1 / S)
  • the approach acceleration (Bk) of the viewpoint B to the object C is as follows.
  • step 103 when U1-U0> 0, it is determined that the viewpoint B is being detached from the object C, the process proceeds to step 105, and the separation speed and acceleration are calculated.
  • the departure speed (Bs) of the viewpoint B from the object C is as follows.
  • Bs0 (U1-U0) / (1 / S)
  • the separation acceleration (Br) of the viewpoint B from the object C is as follows.
  • Br0 (Bs1-Bs0) / (1 / S)
  • step 101 the process returns to step 101.
  • FIG. 12 is a flowchart illustrating a method for calculating the viewpoint tracking time.
  • the viewpoint tracking time calculation method shown in FIG. 12 corresponds to step 102 shown in FIG.
  • the analysis unit 102 determines whether or not the viewpoint is within the range of the target object.
  • the method for determining whether or not the viewpoint is within the range of the object is the same as the method described in FIG. If the viewpoint is within the range of the object, the process proceeds to step 202 and the time is counted.
  • step 203 it is determined whether or not the viewpoint is within the range of the object.
  • step 202 If the viewpoint is within the range, the process returns to step 202 and the time is counted. On the other hand, if the viewpoint is not within the range of the object, the process proceeds to step 204, the counted time is set as the viewpoint tracking time, and the process returns to step 101 in FIG.
  • the pupil diameter is affected by the brightness (luminance, illuminance, etc.) of the visual target. Therefore, it is necessary to erase the pupil diameter change portion corresponding to the brightness (luminance, illuminance, etc.) of the visual recognition target.
  • the viewing target is “video display”: Slowly change the display brightness from lowest (black screen) to highest (white screen), conversely from highest to lowest, and from lowest to highest.
  • the viewer's pupil diameter during the last motion is measured. This is referred to as “basic luminance and pupil diameter relationship data”.
  • the reason for adopting the measured pupil diameter for the last change in brightness is that the viewer will be interested in the "changes in the beginning" of the brightness change at the beginning, and pay attention to it.
  • the display that measures the actual content should be displayed as “basic luminance and pupil diameter relationship data”. It is assumed that the display that measures the actual content is adjusted so that it has the same brightness and hue as the same room environment as the display that measured “”.
  • the luminance (Yt) of the display is simultaneously measured using a luminance meter or the like.
  • the analysis unit 102 obtains “relation data between basic luminance and pupil diameter” corresponding to the luminance (Yt) when the object 2 is visually recognized from the pupil diameter (Pt) when the object 2 (in this case, the video display) is visually recognized.
  • the pupil diameter (Pbt) at By subtracting the pupil diameter (Pbt) at, the pupil diameter due to the brightness of the display is erased, and the pupil diameter (Pmt) corresponding to only the degree of attention of the viewer to the object at that moment (t) can be obtained. .
  • Pmt ⁇ 0
  • the degree of attention is inferior to that in normal times, which means that the user is in a bored state.
  • the pupil diameter is very small, Pmt ⁇ 0. It ⁇ 0 On the contrary, it can be said that the degree of attention is lower than usual and it is bored. It> 1 In the case of, it can be said that it is in a state of extreme attention.
  • the attention degree is Ih.
  • the luminance (Yt) and the viewer's pupil diameter (Pt) are simultaneously measured over time on a display of content that changes with time, and the degree of attention is calculated and analyzed to determine the degree of attention.
  • the display of the content is measured only for the luminance (Yt) over time, and then the viewer measures only the pupil diameter (Pt) for the display of the content over time.
  • the attention level (It) may be calculated by matching the luminance (Yt) of the video content with the time (t) of the pupil diameter (Pt). For other visual scenes except video display: Apply illuminance instead of luminance.
  • an illuminometer is used instead of the luminance meter, and the “basic illuminance and pupil diameter relationship data” corresponding to “basic luminance and pupil diameter relationship data” provides a room where the basic illuminance can be changed. It can be obtained by measuring the pupil diameter.
  • the illuminance meter is attached to the viewer's head along with the visual field scene photographing device and the eyeball photographing device to measure the illuminance of the object.
  • the object to be viewed is a video display and the brightness of the viewpoint is not negligible compared to the brightness of the entire display (contents with a sharp contrast in the screen, or a room environment that is not bright)
  • the luminance of the viewpoint since the luminance of the viewpoint also affects the pupil diameter, it is necessary to eliminate the pupil diameter change of the viewer corresponding to the luminance of the viewpoint.
  • the luminance Yj of the entire screen at the time of the scene of the frame j can be measured by the previous item “0070”.
  • the degree of influence on the luminance of red (R), green (G), and blue (B) of each pixel of the display varies depending on the manufacturer, but the degree of influence on the luminance of red (R) (Cr) Road (Cg) that affects green (G) brightness Blue (B) luminance influence (Cb)
  • the intensity of each of R, G, and B of the pixel (x) at the time of frame j is set to the intensity of red (R) (Srjx) Green (G) intensity (Sgjx) Blue (B) intensity (Sbjx)
  • the luminance of each pixel may be obtained by the measuring device.
  • the total luminance of pixels within a diameter of 17 cm centered on a certain viewpoint pixel x is Ydx.
  • Change the brightness Yd of the entire display step by step For each stage of the overall brightness of the display, the brightness (Ydx) of a pixel within a diameter of 17 cm centered on pixel x is slowly changed from maximum to minimum, further from minimum to maximum, and further from maximum to minimum three times.
  • This table is referred to as “basic relationship data of display luminance, viewpoint luminance, and pupil diameter”.
  • the viewer's pupil diameter (Pg) at the time of actual content viewing is measured, and the brightness (Yg) of the display at that time and the brightness (Ygx) with a diameter of 17 cm centered on the viewpoint x are measured and analyzed.
  • the pupil diameter (Pcx) corresponding to the degree of attention at the viewing viewpoint including the influence of the luminance of the display is obtained.
  • the luminance of each pixel may be obtained by the measuring device. Since Ijx corresponds to “It” of the item “0070”, it will be treated in the same manner. Therefore, after that, It is (1) When the display is a visual target, The degree of attention due to the brightness of the display of 1 item “0070” is It, and Ijx is used when the brightness of the viewpoint of the display of 2 items “0071” is adopted. (2) It is assumed that It is replaced with the illuminance instead of the illuminance.
  • the analysis unit 102 analyzes the pupil diameter (P) and the number of blinks from the eye movement image b. Further, the analysis unit 102 calculates the attention level (It), the attention level expansion speed (Its), and the attention level expansion acceleration (Itk) from the pupil diameter (P) data. When Its and Itk are minus ( ⁇ ), the attention level reduction speed and the attention level reduction acceleration are respectively indicated.
  • the analysis unit 102 analyzes various values, and outputs the analyzed values as the analysis value A to the storage unit 103 and the diagnosis unit 104 (see FIG. 2). Therefore, the values included in the analysis value A include the attention level (It), the attention level change speed (Its), the attention level expansion acceleration (Itk), the viewpoint tracking time (Bt), the viewpoint approach speed (Bv), and the viewpoint approach.
  • Other emotion values and excitement levels include acceleration (Bk), viewpoint departure speed (Bs), and viewpoint departure acceleration (Br).
  • the storage unit 103 includes a visual image a, an eye movement image b, audio data c, response data d, body motion image e, body temperature data f, and brightness output from the analysis unit 102. Accumulate data.
  • the storage unit 103 stores the analysis value A output from the analysis unit 102. Further, the storage unit 103 is the degree of attention (Ih), the degree of attention expansion (Ihv), and the degree of attention expansion when the viewer 1 is watching the object 2 with low interest, that is, mediocre and low stimulus.
  • Acceleration (Ihk), viewpoint tracking time (Bht), viewpoint approach speed (Bhv), viewpoint approach acceleration (Bhk), viewpoint departure speed (Bhs), and viewpoint departure acceleration (Bhr) are stored as normal values H in advance.
  • the accumulation unit 103 also draws attention (Ie), attention expansion speed (Iev), attention expansion acceleration (Iek), and viewpoint tracking time when the viewer 1 is looking at the object 2 of high interest.
  • Bet viewpoint approach speed
  • Bek viewpoint approach acceleration
  • Bes viewpoint departure speed
  • viewpoint departure acceleration (Ber) are stored in advance as moving values K.
  • the accumulation unit 103 accumulates the diagnosis result output from the diagnosis unit 104.
  • the diagnosis unit 104 diagnoses that the object 2 is interested when the number of blinks within a predetermined time is less than the predetermined number. Furthermore, when the degree of attention is greater than a predetermined value, the diagnosis unit 104 diagnoses that the object 2 is interested. In addition to the above, the diagnosis unit 104 diagnoses that the object 2 is interested when the enlargement speed and the enlargement acceleration of the attention degree are larger than the predetermined value, and conversely, when the attention degree is smaller than the predetermined value, When the reduction rate and the reduction acceleration of the attention level are larger than the predetermined values, it is diagnosed that the object 2 is not interested.
  • the diagnosis unit 104 diagnoses that the object 2 is interested, and conversely, when the viewpoint approach speed and the viewpoint approach acceleration are less than the predetermined values. Diagnose that the object 2 is not interested. If the viewpoint leaving speed and the viewpoint leaving acceleration are larger than the predetermined values, it is diagnosed that the object 2 is not interested or disgust, and conversely, the viewpoint leaving speed and the viewpoint leaving acceleration are below the predetermined values. Then, it is diagnosed that the object 2 is interested.
  • the diagnosis unit 104 calculates the viewpoint moving speed and acceleration by combining the approaching moving speed and approach acceleration of the head direction with respect to the object 2, the viewpoint approaching speed, and the viewpoint approaching acceleration. Determination similar to “0075” is performed. If the viewer 1 is interested, the head also keeps its direction in order for the viewpoint to track the object. Although the head may continue to be directed toward the object even if not interested, in this case, the degree of attention is reduced. Further, when the head keeps moving away from the object 2 and the attention level is reduced, it is diagnosed that there is no interest.
  • the diagnosis unit 104 diagnoses that the viewer 1 is interested in the object 2. In this case, when the object 2 is moving, the viewer tracks while the object 2 is visible. On the other hand, in the case of the object 2 that does not move, a time longer than the normal value (Bht) is tracked.
  • the diagnosis unit 104 once tracks the viewpoint within the range of the object 2 for a short time ⁇ Bht ⁇ , and the degree of attention does not expand to the moving value (Ie).
  • the viewer 1 diagnoses that the object 2 is not interested.
  • the diagnostic unit 104 diagnoses that there is disgust when the viewer 1 once sees the object 2 and the degree of attention expands, but the viewpoint leaves the object 2 in a short time within a predetermined time. To do.
  • the diagnosis unit 104 diagnoses that the viewer 1 is excited about the object 2 when the body temperature rises using the body temperature data f as compared to the body temperature measured in advance on the day. To do. Further, the diagnosis unit 104 evaluates the capabilities of the object 2 and the viewer 1 based on the number of responses, the speed of the response operation, and the accuracy using the response data d by the operation of the response device 14. A specific method of using the response data d will be described in detail later. Further, the diagnosis unit 104 outputs the diagnosis result to the display unit 105 and the storage unit 103.
  • FIG. 13 shows the viewer face image data e from the viewer motion photographing device 9. Characteristic points of each part (eye, lips, eyebrows, etc.) of the face of the viewer are marked by a face analysis method to analyze the facial expression. Although some of these feature points are shown in the figure for explanation, they are based on an actual face analysis method. Typical emotion judgments are surprise, fear, disgust, anger, joy (happiness), and sadness. Preliminarily measure and place the maximum value of each part of the face and the normal movement of the viewer, and determine the degree of emotion (F) based on the ratio to the maximum value of the amount of change at each measurement To do. Thus, together with the emotional value (E) of the degree of attention analyzed from the change in the pupil diameter or blink frequency of the eyes according to claims 1 to 4, it is possible to determine the viewer's emotion (EF value) for the visual target. .
  • the display unit 105 displays the diagnosis result in the diagnosis unit 104 on an output device such as a display. From the diagnosis result displayed on the display unit 105, the operator can determine the capabilities of the object 2 and the viewer 1 themselves.
  • the object 2 or the viewer 1 himself / herself is used by using the change in physiological response data, the accompanying acceleration, and the change in the viewer's face.
  • changes in physiological response data include attention (It), its enlarged acceleration (Itk), viewpoint approach acceleration (Bk), and viewpoint departure acceleration (Br).
  • attention It
  • Itk degree of attention and its enlargement speed and acceleration
  • viewpoint approach speed and acceleration Bk
  • viewpoint departure acceleration Br
  • the degree of attention (It) is It is diagnosed that the object 2 is not interested as the negative acceleration ( ⁇ Itk) increases or the viewpoint departure acceleration (Br) increases.
  • the change of the emotion of the viewer is determined by analyzing the partial change of the face.
  • the physiological reaction of the viewer can be grasped more accurately, and the ability of the object or the viewer himself / herself can be more accurately evaluated in various situations. can do.
  • the application scene of the viewer feeling determination apparatus 100 according to the embodiment of the present invention will be described in detail later.
  • the body motion imaging device 9 and the body temperature measurement device 10 directly transmit data to the viewer feeling determination device 100, but once stored in the storage device 8, together with the visual image a and the like. Then, it may be transmitted from the transmission device 7 to the viewer feeling determination device 100.
  • the eye camera 3 is configured to include the eyeball photographing device 4, the visual scene photographing device 5 and the microphone 6. However, the eyeball photographing device 4, the visual scene photographing device 5 and the microphone 6 are not necessarily physically connected. It is not necessary, and each may be provided as a single unit.
  • the corneal reflection method is used to calculate the position of the viewpoint.
  • the method of calculating the position of the viewpoint is not limited to this, and various known methods can be used.
  • the viewer feeling determination apparatus 100 is configured by a computer including a volatile storage medium such as a CPU and a RAM, a nonvolatile storage medium such as a ROM, an interface, and the like.
  • the functions of the receiving unit 101, the analyzing unit 102, the accumulating unit 103, the diagnosis unit 104, and the display unit 105 provided in the viewer feeling determination device 100 are realized by causing the CPU to execute a program describing these functions.
  • the These programs can also be stored and distributed in a storage medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like.
  • the viewing method may be a method of viewing an actual product or a product displayed on a display such as an advertisement, a television, a personal computer, or a mobile terminal (including a mobile phone).
  • the viewer feeling determination device 100 shown in FIGS. 1 and 2 is used.
  • the object 2 is an actual product or an image of the product.
  • the diagnosis unit 104 is a. Looking at the product, the pupil has not expanded to the emotional value (Pe) ⁇ Pe ⁇ (indifference), b.
  • the viewer 1 diagnoses that the product has no willingness to purchase. Further, when the viewpoint departure speed (Bs) from the product and the first departure acceleration (Br) are larger than the normal values ⁇ Bhs, Bhr ⁇ , the disgust (DI) by the analysis of the emotion value (F) by the face analysis method is calculated.
  • the aversion can be determined by determining. In this case, it can be said that the behavior is clearly opposite to the case where there is a willingness to purchase. From this, it is possible to measure the degree of diagnosis of “no purchase intention”.
  • the degree of attention (It) when expanding and the viewpoint tracking time (Bt) to the product is longer than the normal value (Bht) and reaches the impression value (Bet), it can be diagnosed as being interested. It cannot be diagnosed until there is a willingness to purchase. That is, when there is no interest, there is no willingness to purchase, but there is a case where there is no willingness to purchase even if there is interest. Therefore, the emotion determination is combined with the face analysis method. Generally, when the emotional value (F) is high in happiness (joy) (HP) and surprise (SP), it can be determined that the purchase is positive.
  • the learning motivation level diagnosis is diagnosed by setting the learning object (teacher, textbook, teaching material, blackboard, etc.) as the object 2.
  • the viewer's feeling determination apparatus 100 shown in FIGS. 1 and 2 is used for the learning motivation degree diagnosis.
  • the degree of attention (It) has not expanded to the impression value (Ie) (indifference);
  • the viewpoint tracking time (Bt) is shorter than the normal value (Bht) (not interested), or when disgust is shown by the face analysis method, it can be determined that the learning object is disliked. From this, the diagnosis unit 104 diagnoses “no learning motivation”.
  • the diagnosis unit 104 determines that the learning object is more than the other learning objects. Diagnose with high motivation to learn. On the other hand, a specific learning object is a. The degree of attention is small. The viewpoint tracking time is short. If the viewpoint withdrawal speed and the initial acceleration are large and the face analysis method does not show a sense of happiness (joy), the positive response will be small, so the diagnosis unit 104 learns the learning target. It is diagnosed that the degree of motivation is low compared to other learning subjects.
  • the viewer emotion reaction degree diagnosis with respect to the expected emotion reaction degree of the video content creator uses the viewer feeling determination apparatus 100 shown in FIGS. 1 and 2.
  • Degree (HP), degree of surprise (SP), degree of sadness (SD), degree of anger (AG), degree of fear (FR), aversion (DI) and excitement level with respect to the level expected by the video content creator It is characterized by diagnosing whether it is reacting to a certain extent, and evaluating and judging video content.
  • the producer's expected emotional response is set in the content software program.
  • the emotion value (EF) expected by the author on the scene (time) of the video content is set with the maximum value of emotion value (E) set to 100, and the expected value of emotion value (F) expected The maximum value is set to 100, and the happiness (joy) level (HP), surprise level (SP), sadness level (SD), anger level (AG), fear level (FR), aversion level (DI) of each basic emotion ) And the expected level of excitement.
  • CM viewer response evaluation it is determined that a CM with a high degree of attention to appeal points in the appeal scene and a low disgust sensitivity and low anger level is a good CM.
  • the specific object is a content such as one page of a television, a specific screen of a video, a still image, a poster, or a magazine
  • the viewer is the content viewer.
  • the attention level distribution of attention points of a plurality of viewers is displayed to determine the appeal point and level of the content producer.
  • the average value of the attention level based on the positions of the viewpoints and the attention levels of multiple people is displayed on the screen.
  • the concentration level of the attention level when the whole is set as 100 is displayed, and it is evaluated whether or not the portion as the content creator intended is focused. .
  • FIG. 16 is a block diagram showing a configuration of a viewer feeling determination system used for compatibility diagnosis
  • FIG. 17 is a block diagram showing a configuration of a viewer feeling determination device 100 used for compatibility diagnosis.
  • the object 2 is a face image displayed on the displays 22a and 22b.
  • the storage unit 103 of the viewer feeling determination apparatus 100 shown in FIG. 17 measures and stores the personal attribute data of the viewers (here, Mr. A and Mr. B) in advance.
  • the personal attribute data includes the normal values (“attention level”, “attention level”) when viewing an object that is mediocre and has low irritation, in addition to the age, sex, birthplace, etc. of the viewer (Mr. A, Mr. B, etc.) Magnification speed, "Attention expansion acceleration”, “Viewpoint tracking time”, “Viewpoint approach speed”, “Viewpoint approach acceleration”, “Viewpoint departure speed”, “Viewpoint departure acceleration”).
  • Impression value "attention level”, “attention level expansion speed”, “attention level expansion acceleration”, “start point position”, “viewpoint tracking time”, “viewpoint approach speed” “Viewpoint approach acceleration”, “viewpoint departure speed”, “viewpoint departure acceleration”).
  • values maximum values
  • the accumulation unit 103 accumulates average values such as the normal value and the emotional value for each layer such as human age, sex, and occupation.
  • the video phones 20a and 20b include face cameras 21a and 21b, displays 22a and 22b, eyeball cameras 23a and 23b, and tracking cameras 24a and 24b, respectively.
  • the face cameras 21a and 21b capture the caller's face.
  • the displays 22a and 22b display communication partners.
  • the eyeball cameras 23a and 23b capture the caller's eyeball.
  • the tracking cameras 24a and 24b are provided on both sides of the eyeball cameras 23a and 23b, and measure the position of the caller's eyeball using the principle of triangulation.
  • the eyeball cameras 23a and 23b track the caller's eyeballs according to the measurement results of the tracking cameras 24a and 24b.
  • the eyeball cameras 23a and 23b are omitted, the face cameras 21a and 21b are made highly detailed, and the analysis unit 102 in the viewer feeling determination apparatus 100 enlarges the face image of the caller and performs image analysis.
  • a caller's eyeball image may be captured.
  • the eyeball cameras 23a and 23b are omitted, the face cameras 21a and 21b are made highly detailed, and the analysis unit 102 in the viewer feeling determination apparatus 100 enlarges the caller's face video and performs image analysis.
  • other means for measuring the distance from the video phone 20a, 20b to the caller's face may be used instead of the tracking cameras 24a, 24b. In this way, since the eyeball is captured and the distance is known, the diameter of the pupil can be measured.
  • the face camera 21a is used to photograph Mr. A's face
  • the eyeball camera 23a is used to photograph Mr. A's eyeball.
  • the video phone 20a transmits Mr. A's face data and Mr. A's eyeball data (gaze direction, pupil image, distance from the camera to the eyeball) to the viewer feeling determination apparatus 100 via the communication line 30.
  • Mr. B's face is photographed by the face camera 21b
  • Mr. B's eyeball is photographed by the eyeball camera 23b.
  • the video phone 20b transmits Mr. B's face data and Mr. B's eyeball data (line-of-sight direction, pupil image, distance from the camera to the eyeball) to the viewer feeling determination apparatus 100 via the communication line 30.
  • the receiving unit 101 of the viewer feeling determination apparatus 100 in FIG. 17 receives the face data and eyeball data (line-of-sight direction, pupil image, distance from the camera to the eyeball) of Mr. A and Mr. B.
  • the analysis unit 102 of the viewer feeling determination apparatus 100 determines the viewpoint position and viewpoint movement speed (approach speed) in the image of Mr. B's face on the display 22a owned by Mr. A from the line-of-sight direction data of Mr. A's eyeball data. Bv, separation speed Bs) and acceleration (approach acceleration Bk, separation acceleration Br) are calculated. Further, the attention degree is calculated from the eyeball data of Mr.
  • the analysis unit 102 outputs the analyzed value to the diagnosis unit 104.
  • the diagnosis unit 104 tracks the face of Mr. B reflected on Mr. A's display 22a as long as the face of Mr. B is reflected, and the attention level (It) of Mr. A is stored in the storage unit. If it is expanded to the emotional value data (Ie) read out from 103, Mr. A diagnoses that Mr. B is interested. Also, by facial analysis, emotions such as surprise, fear, disgust, anger, joy (happiness), sadness, and the like of Mr.
  • the transmission unit 106 transmits this diagnosis result to the videophone 20b (or mediator) of Mr. B.
  • the videophone 20b (or the intermediary videophone) that has received the diagnosis result displays a symbol (for example, a heart symbol) indicating that “Mr. A is interested / interested in B” on a specific location on the display 22b.
  • Mr. B's time to track Mr. A's face reflected on Mr. B's display 22b is shorter than when Mr. A's face appears on Mr. B's videophone display 22b (from Mr.
  • the attention level (It) does not increase to the impression value data (Ie) extracted from the storage unit 103, the attention level expansion speed (Its), the initial attention level expansion acceleration ( If Itk) is less than the normal value (Ihv, Ihk), the diagnosis unit 104 diagnoses that “Mr. B is not interested in Ms. A”. Further, when visually recognizing Mr. A's face by face analysis, the emotions such as surprise, fear, disgust, anger, joy (happiness), sadness and the like of Mr. B are judged. The transmitting unit 106 transmits this diagnosis result to the videophone 20a (or mediator) of Mr. A.
  • the videophone 20a (or the mediator's videophone) that has received the diagnosis result displays a symbol (for example, a x mark) indicating that ⁇ B is not interested or interested in Mr. A ⁇ and emotion on the display 22a at a specific location. To display.
  • a symbol for example, a x mark
  • the above-described compatibility diagnosis can be applied to the following situations.
  • A Used for marriage arrangements.
  • B Used for interview tests.
  • diagnosis result can be used as a reference for supporting the content of the statement.
  • C Used for interviews with criminals.
  • the psychological state of the criminal suspect can be known by using it for a scene of interview with a criminal suspect in a criminal case. In these scenes, when the user is interested in the content of the story and the displayed video, the property that the degree of attention (It) is greater than the normal value (Ih) is used.
  • the analysis unit 102 measures the viewpoint position and attention level (It) of babies, animals, persons with dementia, etc., and the diagnosis unit 104 tracks the viewpoint on the visual target, and the attention level (It) is a normal value (Ih). )
  • the attention level (It) is a normal value (Ih).
  • the diagnosis unit 104 has a tracking time (Bt) of the viewpoint to the visual recognition object shorter than the normal value (Bht), the viewpoint withdrawal speed (Bs), and the acceleration (Br) are faster than the normal values (Bhs, Bhr),
  • Bt tracking time
  • the degree of attention (It) is also less than the impression value (Ie)
  • Ie impression value
  • facial analysis techniques can determine the emotions, such as baby's surprise, fear, disgust, anger, joy (happiness), and sadness, and their levels, and can be used as a reference for the response.
  • the eye camera 3, the body motion photographing device 9, the body temperature measurement device 10, and the viewer feeling determination device 100 shown in FIG. 18 are incorporated in the robot, and a diagnosis is performed on a person who responds to the robot.
  • the robot constantly measures the face of the person who responds, the baby who does not speak, the person with dementia, the animal, the movement of the eyeball, the body movement, the movement of the face, and the body temperature.
  • the viewer feeling determination system shown in FIG. 18 is incorporated using the viewer feeling determination system shown in FIG.
  • FIG. 18 is a block diagram showing a configuration of the viewer feeling determination device 100 used for the robot diagnosis.
  • the diagnosis unit 104 of the viewer feeling determination apparatus 100 diagnoses feelings of a person who interacts with the robot, or a baby who does not speak, a person with dementia, or an animal. Based on the diagnosis result input from the diagnosis unit 104, the behavior selection unit 107 selects a behavior corresponding to the diagnosis result from a plurality of pre-stored behaviors. As a result, the robot can grasp the feelings of the person and animal who responds according to the diagnosis result, and can issue appropriate words. Appropriate support actions can also be taken.
  • the robot response diagnosis has been described with reference to the block diagram shown in FIG. 18, but the parts that are not particularly described are the same as those in FIG. 2 described above.
  • [Criminal evidence diagnosis] a criminal suspect is diagnosed by displaying a video image including a crime scene in the middle of an ordinary image on a video display.
  • the viewer feeling determination apparatus 100 shown in FIGS. 1 and 2 is used.
  • the diagnosis unit 104 looks at when the degree of attention (It) increases. It can be used as a reference for identifying the crime scene, assuming that the location of the image was the crime scene.
  • the diagnosis unit 104 diagnoses that there is disgust in the video of the scene. That is, the criminal suspect wants to avoid the scene as soon as possible. Furthermore, the facial analysis technique can determine the suspect's emotions such as fear, disgust, anger, joy (happiness), sadness, and their degree, and the diagnosis result by the diagnosis unit 104 determines that the place is a criminal place. For reference.
  • the diagnosis unit 104 looks at the video or photograph of the victim of the crime and compares it with other persons.
  • the degree of attention (It) increases, it is diagnosed that the viewer may be a criminal suspect.
  • the diagnosis unit 104 has a normal point of view (Bht) as the tracking time (Bt) for the subject.
  • the facial analysis technique can determine the suspect's emotions and their degree of fear, disgust, anger, joy (happiness), sadness, etc. You can confirm the feelings you want to avoid.
  • video including crime scenes by attaching eye camera 3 to suspects of crimes and going to crime scenes, it is possible to diagnose attention to crime objects and facial expressions that are close to disgust, Can be helpful.
  • FIG. 19 is a block diagram illustrating a configuration of the viewer feeling determination device 100 used for driver drowsiness detection diagnosis.
  • the diagnosis unit 104 of the viewer feeling determination device 100 diagnoses that the driving state is dangerous.
  • the diagnosis unit 104 diagnoses that the driving direction is further inattentive and dangerous when the direction of the line of sight deviates from the front.
  • the warning unit 108 warns the driver when the diagnosis result input from the diagnosis unit 104 is used and it is determined that the diagnosis result is a dangerous driving state.
  • the warning may be an announcement or a warning sound, as long as it gives the driver a stimulus for restoring attention.
  • the viewer 1 wears the eye camera 3 and the driver 1 operates the car, an airplane simulator or an actual car to diagnose the appropriateness of driving and driving. To do.
  • the viewer feeling determination device 100 shown in FIGS. 1 and 2 is used.
  • the analysis unit 102 of the viewer feeling determination apparatus 100 analyzes the line-of-sight direction and attention level data of the eye movement data of the viewer 1, and the diagnosis unit 104 tracks the viewpoint to a point to be noted when attention is to be paid.
  • the diagnosis unit 104 diagnoses that the head direction and the line-of-sight direction are always in front. Further, in order to determine whether the response device 14 is responding with the steering wheel or the brake in a timely manner at the time when the response reaction should be performed, the analysis unit 102 uses the response data d to determine the response delay time and the operation method.
  • Analyzing and analyzing unit 104 determines whether or not the operation delay time is equal to or shorter than a predetermined time (predetermined set time) for avoiding danger, and the operation obtained from response data d is an appropriate operation method set in advance. And the skill level and appropriateness level of the viewer 1 are diagnosed based on the operation delay time and the operation method. In addition, put the video of the car that the driver of the selfish behavior is driving into the simulator, let the viewer perform driving operation, calculate the degree of anger and fear of the viewer by face analysis, It is also possible to determine whether driving is appropriate.
  • Occupational safety skill diagnosis In the occupational safety skill diagnosis, the worker wearing the eye camera 3 diagnoses the occupational safety skill level by operating the equipment with a simulator or an actual machine. In the occupational safety skill level diagnosis, a viewer feeling determination device 100 shown in FIGS. 1 and 2 is used. The analysis unit 102 of the viewer feeling determination apparatus 100 measures the position of the viewpoint, the degree of attention, and the degree of carelessness based on changes in the gaze direction of the worker and the degree of attention (It).
  • the viewpoint goes to the part to be noted when it should be noted (this becomes the object), the attention level (It) increases to the moving value level (Ie), and the speed of expansion of the attention level (Its) ),
  • the acceleration (Itk) is also as large as the moving value level (Iev, Iek)
  • the diagnosis unit 104 diagnoses whether or not an appropriate response reaction is performed in a timely manner (no time delay) within a predetermined time to be careful.
  • the diagnosis unit 104 diagnoses as an inappropriate state or careless state. To do. Based on the above diagnosis, the skill level and appropriateness level of the worker are diagnosed based on data such as the delay time and the number of correct operations among the entire operations.
  • pre-work appropriateness diagnosis the worker diagnoses the appropriateness of work on the day before starting work every day.
  • the viewer feeling determination device 100 shown in FIGS. 1 and 2 is used.
  • the content of attention determination including points that should be noted in each part (parts that are dangerous if not operated carefully) is displayed on the video display to show the worker.
  • the analysis unit 102 of the viewer feeling determination apparatus 100 analyzes the line-of-sight direction and the attention level (It) in the data from the eye camera 3, and the diagnosis unit 104 determines the viewpoint position, the attention level, and the inattention level.
  • the attention level (It) increases to the emotional level (Ie), the speed of attention expansion (Its),
  • the acceleration (Itk) is also as large as the emotional value levels (Iev, Iek)
  • the acceleration (Bk) is also slower than the specified value
  • the timing is later than the specified value, and there is no appropriate response response. If any one of them applies, it is determined that the worker's physical condition on the day is not normal.
  • the athlete's suitability diagnosis in sports, it is diagnosed which part is being viewed according to the viewpoint direction at the time of competition of the athlete wearing the eye camera 3.
  • the viewer feeling determination device 100 shown in FIGS. 1 and 2 is used.
  • the analysis unit 102 of the viewer feeling determination device 100 analyzes the degree of attention based on the magnitude of the degree of attention (It), the enlargement speed (Its) of the degree of attention, and the acceleration (Itk). And the analysis part 102 analyzes the reaction (action
  • the analysis unit 102 uses the response data d to analyze whether or not the appropriate response device 14 is being operated at an appropriate timing, so that it is timely (no time delay) to be noted. ) Analyze whether the response is appropriate. At the same time, the face analysis at that time is performed, the emotion at that time is judged, and the emotional problem is inferred. And the diagnosis part 104 diagnoses a player's skill and appropriateness compared with the average of the appropriate value of all the athletes of the same competition.
  • Game excitement diagnosis In the game excitement level diagnosis, the viewer 1 wears the eye camera 3 and executes the game. In the excitement level diagnosis of the game, the viewer feeling determination device 100 shown in FIGS. 1 and 2 is used. The diagnosis unit 104 of the viewer feeling determination device 100 diagnoses that the interest level (It) is clearly interested in the game because the attention level (It) is expanded to the emotional value level (Ie) during the game. At the same time, the face at that time is analyzed, and emotions such as fear, disgust, anger, joy (happiness), sadness, etc. are determined to determine the compatibility of the game. Moreover, the diagnostic part 104 diagnoses the excitement degree according to the height, when a body temperature is higher than the normal value before a game by viewer body temperature measurement.
  • the diagnosis unit 104 diagnoses that it is not excited.
  • the viewer feeling determination device 100 of the present invention is incorporated in a game machine, the viewer is a game player, and the visual target is a game content visually recognized by the viewer, which is input from the diagnostic unit in the game machine. If the game machine has an appropriate game content screen, a selection unit for selecting a sound and a game program, and an execution function based on the diagnosis result of the viewer, for example, the emotion value of the viewer is If it is low (not interested), it is clearly determined that the viewer is not interested in the visual target, and the game machine guides the game to the content of interest. In addition, according to the viewer's emotional surprise, anger, fear, sadness, disgust, happiness (joy), the game machine changes the appropriate visual target (changes the game content screen, sound, game program, etc.) You can also deal with it.
  • the visual recognition method may be a method of viewing an actual space or an object displayed on a display such as a television or a PC.
  • the space refers to a space such as a cityscape, a department store, a design or display in a store, a design or display in an exhibition hall, a station passage, a station platform, a station building, or a car interior.
  • the viewer feeling determination device 100 shown in FIGS. 1 and 2 is used for the space design diagnosis. Note that the analysis unit 102 of the viewer feeling determination device 100 determines whether the viewer 1 is moving forward, backward, or moving left and right in the actual space by analyzing the visual image a.
  • the object 2 is a specific object in the video (the object of appeal may be plural).
  • the diagnosis unit 104 is a. Looking at the object, the degree of attention (It) has not expanded to the moving value (Ie) ⁇ Ie ⁇ (indifference); When the tracking time (Bt) of the viewpoint is shorter than the normal value (Bht) (not interested), the viewer 1 diagnoses the object 2 as “inappropriate design”. Furthermore, when face analysis is performed and it is determined that there is a feeling of disgust, anger, sadness, etc. at that time, it can be said that the behavior is clearly the opposite of the case where “design is appropriate”. From this, it is possible to determine the degree of diagnosis that “design is not appropriate”.
  • the degree of attention (It) is large.
  • the viewpoint tracking time (Bt) is long.
  • the viewpoint departure speed (Bs) and the initial acceleration (Br) are small, the object in the design is most interesting. Further, if it can be determined that the feeling of joy (happiness) at that time by face analysis is large, the diagnosis unit 104 diagnoses that “the design is more appropriate than other designs”. On the other hand, the object is a.
  • the degree of attention (It) is small; The viewpoint retention time (Bt) is short.
  • the diagnosis unit 104 determines that “the object of the design is compared with the object of the other design. Is not appropriate. "
  • the visual recognition target is a store clerk, a receptionist, or the like who responds to the customer. Viewers act from the customer's perspective. In the reception of the store clerk and the receptionist, it is characterized by diagnosing the feeling of the viewer and determining whether the reception of the store clerk and the receptionist is good or bad. If the viewer's emotional value (E) is low (not interested), it can be determined that there is clearly no particular problem with the other party and that he / she is responding normally.
  • E viewer's emotional value
  • [Video content selection priority diagnosis] 10 The viewer feeling determination apparatus for a viewing scene according to any one of claims 1 to 3 and 7 to 9, wherein the viewer is a general TV viewer (receiver of video content) and is a viewing target. Is content on a TV display connected to a broadcast, network or video storage device.
  • a viewer feeling determination apparatus 100 shown in FIGS. 1 and 2 is used. Initially, the viewer feeling determination apparatus 100 selects a scene in which the viewer 1 is highly interested when the viewer 1 views the basic content in advance. However, if anger (AG), fear (FR), and disgust (DI) are high after face analysis, it is removed from the selection.
  • the content area of the viewer's high interest / interest is determined, and the content of high interest / interest viewed by other viewers showing similar interest / interest is stored in the storage unit 103 as recommended content.
  • the recommended content is displayed when the viewer 1 actually views it, and one content can be selected and viewed from the viewer's intention.
  • the diagnostic unit 104 of the viewer feeling determination apparatus 100 increases the attention level (It) to the impression value (Ie) and the attention level expansion speed (Its) when the viewer 1 is viewing the video content from the next time.
  • the diagnosis result is recorded in the storage unit 103 and used as recommendation data for selecting the content at the time of viewing the video content at the next viewing time.
  • the diagnosis unit 104 is content other than that field, and the interest / interest / excitement has been previously Switch to a content that has not been viewed yet in a high-frequency field, and at the same time, when selecting the next content to be viewed, lower the priority for selecting the content in that field.
  • the diagnosis result is recorded in the storage unit 103 and used as recommendation data for selecting content at the time of viewing the video content in the next viewing time.
  • the viewer feeling determination apparatus for a viewing scene according to any one of claims 1 to 3 and 7 to 9, wherein the viewer is a general TV viewer (receiver of video content) and is a viewing target. Is content on a TV display connected to a broadcast, network or video storage device. A viewer feeling determination apparatus 100 shown in FIGS. 1 and 2 is used. Automatic marking of objects or people with high interest / interest in the content automatically marks the object or person with a viewpoint in the receiver at the moment of high sensitivity while watching the program, and later network In the system in which the information on the item or person is distributed by e-mail, the item can be purchased later and the person can be contacted by the viewer's intention.
  • the fear value depends on the aversion sensitivity, anger level, and conditions in the emotional value by face analysis. It is characterized by automatically removing those with a high degree.
  • the purchase willingness degree diagnosis, the learning willingness degree diagnosis, the viewer emotion reaction degree diagnosis with respect to the expected emotion reaction degree of the video content creator Content evaluation by distribution of attention points, compatibility diagnosis, diagnosis of communication with non-speaking babies, people with dementia, animals, etc., robot response method determination, criminal evidence diagnosis, driver drowsiness detection diagnosis, car driving aptitude diagnosis, labor Safety proficiency diagnosis, pre-work appropriateness diagnosis, athlete appropriateness diagnosis, game excitement diagnosis, spatial design diagnosis, audience response diagnosis, video content selection priority diagnosis, high content interest / interest
  • various situations such as automatic marking of a person, the ability of the object or viewer itself can be more accurately evaluated.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychiatry (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

 視認者の生理反応をより正確に把握し、様々な状況において、対象物または視認者自身の能力をより正確に評価する。視認者情感判定装置100は、視認映像a及び眼球運動映像bから視認映像aにおける視点の位置を算出するとともに、視認者の生理反応データの変化とそれに伴う加速度を算出する解析部102と、興味の高い対象物を見ている場合の生理反応データの変化とそれに伴う加速度を含む情報を感動値Kとして蓄積し、解析部102によって算出された生理反応データの変化とそれに伴う加速度を含む情報を解析値Aとして蓄積する蓄積部103と、解析値Aを、感動値Kと比較する。一方、視認者の顔の各部の変化を算出することによる顔解析手法により、視認者の特定の対象物に対する感情を解析し、情動と感情を合わせて診断する診断部104とを備えていることを特徴とする視認情景に対する視認者情感判定装置。

Description

視認情景に対する視認者情感判定装置
 本発明は、視認情景に対する視認者情感判定装置に関し、特に、視認情景を視認した際の視認者の生理反応の変化を解析し、対象物及び視認者自身の能力を評価する技術に関する。
 従来、テレビ番組などの映像コンテンツを評価するために、視聴率を測定することが行われている。しかしながら、視聴率だけでは、テレビチャンネルを合わせたとしても、視認者が実際に視聴したかどうか分からず、加えて、信頼性を向上させるためには莫大な調査視認者数が必要とされる、などの問題があった。そこで、視認者の眼球運動を撮像し、得られたデータから映像コンテンツの評価を効率的に行う技術が開示されている。
特開2004-282471号公報
 上記、特許文献に記載の技術では、眼球運動を撮像することにより得られたデータとして、視線の動き、瞳孔面積、瞬目発生頻度などを用いて、映像コンテンツを視認して、その映像コンテンツについて興味・関心の度合いを判定し、映像コンテンツの評価を行っている。これにより、少ない被験者数で、従来テレビ放送で行われていた視聴率を指標とする評価手法よりも、信頼性のある高次な評価を実現している。
 しかしながら、上記特許文献に記載の技術のように、眼球運動の映像より得られた、視線の動き、瞳孔面積、瞬目発生頻度などのデータだけでは、視認者の生理反応を正確に把握することが困難であった。すなわち、上記特許文献に記載の技術では、瞬目発生頻度が減少した場合、対象物に注目していると判定し、眼球中心の位置や瞳孔面積から、視認者の情動の変化を解析しているが、これらは、対象物に対する視認者の注目度を単純に判定しているに過ぎず、より細かな視認者の情感(情動と感情)を判定しているわけではない。
なお、この特許の文章での情動と感情の定義は:
情動とは、視認対象(音を含む)または身体刺激に対して無意識に反応する生理反応である。
例として、視認対象に興味・関心があると無意識に注目する現象がある。
感情とは、人の動きや物事などに感じる気持ちのこと。喜び、悲しみ、怒り、驚き、嫌悪、恐怖などである。)
ここでは情動(E:Emotion)と感情(F:Feeling)をあわせて情感(EF)と定義している。
 また、上記特許文献に記載の技術は、テレビ番組などの映像コンテンツに対する注目度の評価を行っており、その他の場面に適用することは想定されていない。
さらに、瞳孔径がそのまま注目度と判断しているが、瞳孔径は視認対象の明るさ(照度および輝度)にも大きく反応するので、視認対象の明るさに相当する瞳孔径反応を取り除く手段がなく、正確な注目度による瞳孔径反応が得られない。
 そこで、前記課題を解決するため、本発明の目的は、視認者の生理反応をより正確にきめ細かに把握し、様々な状況において、対象物及び視認者自身の能力をより正確にきめ細かに評価する、視認情景(聴覚、味覚、触覚、臭覚の刺激及びイメージ想起を含む)に対する視認者情感判定装置を提供することにある。
 前記課題を解決するため、請求項1の発明は、特定の対象物を含む情景に視線を向けた視認者の、前記特定の対象物に対する情感を診断する、視認情景に対する視認者情感判定装置において、前記視認者の視認映像及び視認映像範囲の明るさ、前記視認者の顔の映像、視認者身体動作、眼球運動映像、体温を受信する受信部と、前記視認者の顔映像により、前記視認者の顔の各部の変化を算出し、また、前記視認映像及び前記眼球運動映像から前記視認映像における視点の位置を算出するとともに、前記視認者の生理反応データの変化とそれに伴う速度と加速度を算出する解析部と、前記視認者の顔の各部の平常時の位置(平常感情値)と前記視認者が興味が低く注目しない対象物を見ている場合の生理反応データの変化とそれに伴う速度と加速度を含む情報を平常情動値として蓄積し、前記視認者の怒り、恐怖、嫌悪、幸福(喜び)、悲しみ、驚きなどの視認者の感情の高い時の変化値を高感情値とし、また、前記視認者が興味が高く注目する対象物を見ている場合の生理反応データの変化とそれに伴う速度と加速度を含む情報を高情動値として蓄積し、前記解析部によって算出された前記視認者の生理反応データの変化とそれに伴う速度と加速度を含む情報を解析値として蓄積する蓄積部と、前記解析値を平常感情値および平常情動値(双方あわせて平常値と呼ぶ)あるいは前記高感情値および前記高情動値(双方あわせて感動値と呼ぶ)と比較することにより、前記視認者の前記特定の対象物に対する情感および視認者自身の反応能力を診断する診断部と、必要により身体温度測定機能を備え、身体の平常温度とエキサイト時での身体の温度と動作の測定による興奮度を診断する部分とを備えたことを特徴とする視認情景に対する視認者情感判定装置を備えたことを特徴とする。
請求項目1の視認時の対象物は、実際の対象物を手で触りながら、または操作しながら視認する場合を含む。
さらに、視覚の他、聴覚、味覚、触覚、臭覚の刺激を受ける場合も同様の反応を示すので、これらの刺激(5感)に対する注目度および視点の動きと顔の各部位の動きを解析して対象物への同様の情感判定行うことを備えたことを特徴とする。
前記「平常情動値」と「高情動値」は、「平常情動値」と「高情動値」を示す基本映像を視認することにより計測し、「平常感情値」、「高感情値」は顔の動きの「平常時」の顔の各部の位置(平常感情値)と「怒り」、「恐怖」、「嫌悪」、「幸福(喜び)」、「悲しみ」、「驚き」を示す最大の表情を演じてもらい、そのときの顔の各部の動きの変位値をもって「怒り度」、「恐怖度」、「嫌悪度」、「幸福(喜び)度」、「悲しみ度」、「驚き度」の「高感情値」として計測することを備えたことを特徴とする。
 また、請求項2の発明は、請求項1に記載の視認情景に対する視認者情感判定装置において、前記生理反応データの変化とそれに伴う速度と加速度は、前記視認者の視点が前記特定の対象物に接近する際の接近速度および加速度、あるいは、前記視認者の視点が前記特定の対象物から離脱する際の離脱速度および加速度であり、前記診断部は、前記接近速度および加速度が大きいほど前記特定の対象物に興味があり、前記接近速度および加速度が小さいほど前記特定の対象物に興味がないと診断し、前記離脱速度および加速度が大きいほど前記特定の対象物に興味がなく、前記離脱速度および加速度が小さいほど前記特定の対象物に興味があると診断することを特徴とする。
なお、視認対象は、対象物の中のある部分(たとえば商品の場合、商品名、製造会社名、賞味期限、注意書き、仕様、操作ボタン等)でも良い。
 また、請求項3の発明は、請求項2に記載の視認情景に対する視認者情感判定装置において、前記解析部は、前記視認者が頭に装着した視認情景撮影装置で視認映像を撮影する場合は、カメラにより撮影された視認映像内の静止物の位置を基点として、視認映像内の静止物の位置の変化から計算して、前記視認者の頭の移動距離、移動速度及び移動加速度を算出し、視認映像内の視点の位置の変化を加算して、前記頭の動きを含む前記特定の対象物に対する視点の接近速度および加速度あるいは離脱速度および加速度を算出することを特徴とする。
前記視認者の頭の移動方向と距離、移動速度及び移動加速度の算出には、ジャヤイロスコープによる測定方法等、既存の方法を利用しても良い。
請求項1に記載の生理反応データにおいて生理反応データが瞳孔径の変化の場合において、
視認対象が映像ディスプレイの場合、視認映像はディスプレイに表示するコンテンツであり、眼球撮影装置、顔撮影装置、明るさ計測装置は視認者の頭に装着せずに、映像ディスプレイの側に固定されていて良い。
請求項4は、視認対象が映像ディスプレイの場合、映像ディスプレイの輝度を変化させ、それに対応する視認者の瞳孔径を求め、基本輝度と瞳孔径の関係データとして蓄積し、視認者が目的の対象物を視認したときは、視認者の瞳孔径を計測すると同時に、輝度計により視認範囲を対象に輝度を計測し、対象物を視認した時の瞳孔径の値から、蓄積した基本輝度と瞳孔径の関係データの対象物視認時の輝度に相当する瞳孔径の値を差し引くことにより、対象物に対する注目度だけに相当する瞳孔径を求めることを備えたことを特徴とする視認情景に対する視認者情感判定装置。
なお、映像ディスプレイを除くその他の視認情景の場合は:眼球撮影装置、顔撮影装置、視認情景撮影装置、明るさ計測装置を一体として視認者の頭部に装着して計測する。この場合、輝度の代わり視認範囲の明るさを示す照度を適用し、輝度計の代わりに照度計を使い、「基本輝度と瞳孔径の関係データ」に相当する「基本照度と瞳孔径の関係データ」は、基本照度を変化させることのできる部屋を用意して瞳孔径を計測することで得ることができる。
請求項5は、請求項2において、映像ディスプレイの輝度に比較して視点の輝度が無視できない映像においては、ディスプレイ上の視点のあるピクセルの赤(r)、緑(G)、青(B)の輝度への影響度をパラメータとして視点のあるピクセルの輝度を求め、視認者の瞳孔径から、「ディスプレイ輝度と視点輝度と瞳孔径の基本関係データ」の視認時のピクセルの輝度に相当する瞳孔径(明るさに反応する瞳孔径)を差し引くことで、ディスプレイの明るさを含む視認者の視点の注目度に相当する瞳孔径を得ることができることを特徴とする視認情景に対する視認者情感判定装置。
なお、すでに、特定のピクセルの輝度を計測する測定器があるので、その計測器により各ピクセルの輝度を求めても良い。
また、「ディスプレイ輝度と視点輝度と瞳孔径の基本関係データ」は段階的に変化させるディスプレイの明るさにおいて、1.7cm程度の円の輝度を最高(白)から最小(黒)に変化させた時に、視認者がその円を視認したときの瞳孔径を測り、「ディスプレイ輝度と視点輝度と瞳孔径の基本関係データ」を算出し、蓄積しておく。
請求項6は、請求項4および5において、基本輝度と瞳孔径の関係データにおいて、瞳孔径の最大値(映像ディスプレイが最低の輝度)と瞳孔径が最小値(映像ディスプレイが最大の輝度)の間の瞳孔径の変化範囲と視認者が対象物を視認した時の対象物だけに対する注目度に相当する瞳孔径との比を、視認者の個人差を吸収した注目度とすることを特徴とする視認情景に対する視認者情感判定装置。
 また、請求項7の発明は、請求項1に記載の視認情景に対する視認者情感判定装置にお
いて、注目度が高いと視認対象への興味・関心が高いと判定する。これは情動反応であり、この場合の注目度は情動値である。さらに、前記生理反応データの変化に伴う速度および加速度は、前記視認者の注目度の拡大速度および加速度、あるいは、前記視認者の注目度の縮小速度および加速度であり、前記診断部は、前記注目度が大きく、かつその拡大速度および加速度が大きいほど前記特定の対象物に興味・関心が極度にあると診断し、注目度が小さく、かつ、前記縮小速度および加速度が大きいほど前記特定の対象物に興味・関心がないと診断することを特徴とする。
請求項8の発明は請求項1に記載の視認情景に対する視認者の情感判定装置において、前記視認者の顔映像の各部位(鼻、目、口、眉等)の動きを計測し、その変化量を測定して、変化した各部位の大きさにより、視認者の表情による感情値の大きさを判定することを特徴とする。
この判定と請求項1から3および7の視認対象への視認時の眼球運動による注目度による情動値の大きさを合わせて、視認対象物に対する視認者の情感を判定することを特徴とする。
感情(Feeling:F)の基本6要素である「幸福(喜び)=Happiness(Joy)」、「悲しみ=Sadness」、「怒り=Anger」、「恐怖=Fear」、「嫌悪=Disgust(Dislike)」、「驚き=Surprise」の度合いを
「幸福(喜び)度」=HP
「悲しみ度」=SD
「怒り度」=AG
「恐怖度」=FR
「嫌悪度」=DI
「驚き度」=SP
と定義し、
 前述のとおり、情動(=Emotion(E))と感情(=Feeling(F)6要素)の大きさを合わせてEF値と定義する。
 一般に情動値(E)が低い場合は対象に対して退屈か眠いか倦怠感がある。その場合、各感情値(F)は低く。したがって視認対象に対して消極的評価であると判定できる。
 情動値(E)が平常の場合は、対象に特別な興味・関心は少なく注目も少ない。この場合は一般的に各感情(F)も大きくなることは少ない。したがって特に情感を正確に判定できるとはいえない。
 情動値(E)が高い場合で各感情が高い場合、幸福感(HP)が高いと積極的、効果的と判定できる。
しかし、悲しさ(SD)の表情があると、対象に対して非積極的と判定できる。
 また、怒り、恐怖、嫌悪感が表れたらマイナス反応であり、対象に対して注目しているが逆効果であるといえる。驚き感が表れたら驚いて注目(関心)しており、対象により異なるが、一般には効果的反応である。
 また、視認対象が、たとえば映画などのコンテンツで、故意にそれぞれの感情を誘う内容の場合、感情値(F)の幸福(喜び)度(HP)と驚き(SP)、悲しみ(SD)、怒り(AG)、恐怖(FR)、嫌悪(DI)が狙いどおりに高い場合は視認対象のコンテンツは意図どおりの感情反応をしていることになり効果的と判定できることを特徴とする。以下、各対象により、具体的な判定方法を述べる。
請求項9の発明は、請求項1に記載の視認情景に対する視認者情感判定装置において、
請求項1の視認時の対象物は、実際の対象物を手で触りながら、または操作しながら視認する場合と、音声だけを聞いているとき、匂いをかいでいるとき、食べているときの味覚を感じているとき、体のある部分が対象物と接触しているとき、またはそれらの複数の刺激があったときの視認者の注目度および視点の動きと顔の各部位の動きを解析して、それ
らの刺激物を対象にした情感判定をすることを特徴とする。
特に、これら前記の刺激に対して、情動値(E)が低いと、その刺激に対して反応がないと判定できる。また、情動値(E)が高い場合、一般的に感情値(F)の幸福(喜び)度(HP)が高い場合は、その刺激は快適と判定できる。
しかし、その他の感情値(F)の悲しみ(SD)、怒り(AG)、恐怖(FR)、嫌悪(DI)が高い場合は一般的にその刺激は視認者にとって快適でないと判定できる。
注目していて、驚き(SP)が高い場合は状況によるが、一般に意外性を感じていると判定できることを特徴とする。
請求項10の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記特定の対象物は、商品であり、前記診断部は、前記視認者の前記商品に対する購買意欲を診断することを特徴とする。
 情動値が低い(関心がなく注目していない)場合は明らかに購買につながらないと判定できる。
しかし、情動値が高く(関心があって注目している)ても、単に関心が高いだけで購買意欲が高いとはいえない。
ただし、その時に一般的に感情値の幸福(喜び)度と驚きが高い場合は購買に積極的と判定できる。
しかし、その他の感情値の悲しみ、怒り、恐怖、嫌悪が高い場合は一般的に購買に積極的ではないと判定できる。
 また、請求項11の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記特定の対象物は、学習対象(講演会、読書、教師の動き、教材等)であり、前記診断部は、前記視認者の前記学習対象に対する学習意欲を診断することを特徴とする。
 情動値が低い(関心がなく注目していない)場合は明らかに学習対象に関心がなく「退屈している」と判定できる。
しかし、情動値が高く(関心があって注目している)場合は学習意欲が高いといえる。
一般的に学習の内容がそれぞれの感情を誘う内容の場合、感情値の幸福(喜び)度と驚き、悲しみ、怒り、恐怖、嫌悪が狙い通りに高い場合はその学習は良いと判定できる。ただし、問題に取り組んでいる場合は情動値は高いが、悲しみ、怒り、恐怖、嫌悪が高い場合は、何か戸惑っており、この学習対象に問題あり、と判定できることを特徴とする。
請求項12の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
 前記特定の対象物は、テレビ、映画等の映像コンテンツであり、
前記視認者は、前記映像コンテンツ視認者である。
映像コンテンツ製作者が、視聴者に期待する映像コンテンツの各場面の、興味・関心による注目度、および各基本感情の幸福(喜び)度、驚き度、悲しみ度、怒り度、恐怖度、嫌悪感度および興奮度のレベルを、コンテンツソフトプログラムの時間軸上に設定しておき、前記映像コンテンツ映写時に、視聴者の注目度および幸福(喜び)度、驚き度、悲しみ度、怒り度、恐怖度、嫌悪感度および興奮度が、映像コンテンツ製作者の期待したレベルにどの程度達しているかを診断し、映像コンテンツの評価をすることを特徴とする。
なお、対象コンテンツには映像と同時に音を含むが、映像なしで音だけの場合もありうる。
最も有効な利用方法は製作映画の上映事前評価、CMの視聴者反応の放映事前評価である。
また、請求項13の発明は、請求項1から3および7から9のいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記特定の対象物は、テレビ、映画等の映像コンテンツであり、
前記視認者は、前記映像コンテンツ視認者である。
映像コンテンツの特定の場面または静止画において、複数の視認者の注目度による注目点の映像画面上の分布を表示し、コンテンツ制作者の映像画面上の訴求点と比較して、コンテンツの訴求点効果
 を判定することを特徴とする。
 また、請求項14の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記受信部は、2つのテレビ電話から、それぞれの通話者の顔と前記視認映像及び前記眼球運動映像を受信し、前記診断部は、一方の通話者から他方の通話者に対する情感をそれぞれ診断し、さらに、一方の通話者から他方の通話者に対する情感の診断結果を他方の通話者のテレビ電話または診断センター等の仲介者に送信する送信部を備えていることを特徴とする。
情動値が低い(関心がない)場合は明らかに相手に関心がなく、相性がないと判定できる。
しかし、情動値が高く(注目している)ても、単に関心が高いだけで相性が良いとは判定できない。
ただし、その時に一般的に感情値の幸福(喜び)度が高ければ相性が良いと判定できる。驚き、怒り、恐怖、嫌悪が高い場合は、話しの内容による反応の場合は相槌の意味で相性は良いと判定できる。しかし、話しの内容と無関係で、怒り、恐怖、嫌悪が高い場合は相性が良いとする判定はできない。
 また、請求項15の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、言葉を話すことが困難な人、あるいは動物であり、彼らの視認対象は彼らの視認するものすべてであり、彼らの視認対象への情感を判定することを特徴とする。
視認者が人間(たとえば、赤ん坊、認知症者)の場合、情動値が低い(関心がない)場合は明らかに視認対象に関心がないと判定できる。
一方、情動値が高い(注目している)場合は関心が高いと判定できる。
情動値に関係なく、一般的に感情値の幸福(喜び)度が高ければ状況がよいと判定できる。また、怒り、恐怖、嫌悪が高い場合は不満があると判定できる。
視認者が動物の場合、情動値が低い場合は明らかに視認対象に関心がないと判定できる。逆に情動値が高い場合は視認対象に関心があると判定できる。
 また、請求項16の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、本発明の視認者情感判定装置をロボットに組み込み、前記視認者は、情感を持つ人間であり、動物であり、視認対象は視認者の視認するもののすべてである。
ロボット内の前記診断部から入力された視認者の診断結果に基づいて、前記ロボットが適切な言動をおよび応対を選択する選択部と実行機能を備えていることを特徴とする。
たとえば、視認者の情動値が低い(関心がない)場合は明らかに視認者の視認対象に関心がないと判定し、ロボットは関心のあるものに誘導する言動、動作をする。
視認者の感情の怒り、恐怖、嫌悪が高い場合、ロボットは適切な慰めの言葉を発したり、視認対象を変更するなどの対処をすることになる。
 また、請求項17の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、犯罪容疑者であり、前記特定の対象物は、犯罪現場、犯罪用具、共犯者または被害者であることを特徴とする。視認者の情動値が低い(注目していない)場合、視認対象に犯罪容疑者にとって関連がないと判定できる。
しかし、情動値が高く(注目している)ても、単に関心が高いだけで犯罪者に関係がある
とはいえない。
この場合、一般的に情動値が高く、感情値の幸福(喜び)度、驚き、怒り、恐怖、嫌悪が高い場合は犯罪容疑者にとってなんらか関連があると判定できる。
 また、請求項18の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、自動車または飛行機等の交通機関の運転者であり、さらに、前記診断部から、注目すべきところで注目しているかどうかを視点の位置と瞳孔径の計測で判定し、危険運転状態であると診断した場合は、前記視認者に警告またはブレーキ等の適切な操作補助を行う機能を備えていることを特徴とする。
視認者(運転者)の情動値が低い場合は明らか不注意状態か居眠り状態に近いと判定できるので危険運転状態と言える。
しかし、情動値が高く(注目している)ても、必ずしも運転良好とはいえない。
常に視点が適切なところに位置している場合に良好な運転と判定できる。
さらに、感情値の幸福(喜び)度が高ければ状況がよいと判定できる。
また、怒り、恐怖、嫌悪の感情が高い場合は、車内の会話に影響されている場合以外に、運転時になんらかの障害があると判定できる。たとえば、ストレスが高い場合などである。
 また、請求項19の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、労働者であり、視認対象は機械の操作シミュレータまたは実機械であり、前記解析部は、前記視認者の応答装置の動作による応答データを用いて、応答遅延時間及び操作方法を解析し、前記診断部は、前記視認者の熟練度あるいは適正度を診断することを特徴とする。
視認者の情動値が低い場合は明らかに不注意状態か居眠りに近い状態と判定できる。
しかし、情動値が高く(注目している)ても、必ずしも操作良好とはいえない。
常に視線が操作対象をキープしており、
さらに、感情値の幸福(喜び)度が高ければ状況がよいと判定できる。
また、怒り、恐怖、嫌悪が高い場合は、操作時になんらかの障害があると判定できる。たとえば、労働パートナーの操作への怒り等。
 また、請求項20の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は就業前の労働者であり、視認対象は危険箇所のある操作映像のコンテンツまたはシミュレータであり、前記診断部は、前記視認者の体調を診断して、就業への適性を判定することを特徴とする。
視認者の情動値が低い場合は、明らかに不注意状態か居眠りに近い状態と判定できる。たとえば、他のことに気を取られている等。
しかし、情動値が高く(注目している)ても、必ずしも体調良好とはいえない。
常に、視線が映像内の適切な対象をキープしており、
さらに、感情値の幸福(喜び)度が高ければ状況がよいと判定できる。
また、怒り、恐怖、嫌悪の感情が高い場合は、その時に視認者に(本人の体調、家庭、友人等の)なんらかの障害があると判定できる。
 また、請求項21の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、運動選手であり、前記特定の対象物は、運動選手が運動する時に見る対象(野球のバッターなら投手の動きとボールの球筋、テニス選手なら相手の選手の動作とボールの球筋等)であり、前記診断部は、前記視認者の調子、熟練度あるいは適正度を診断することを特徴とする。
注目すべき対象に視線が行ってなく、視認者の情動値が低い(注目していない)場合は明らかに視認者は未熟練と判定できる。
しかし、注目すべき対象に視線が行って、情動値が高く(注目している)ても、必ずしも調子が良いと言えないが、感情値の幸福(喜び)度が高ければ状況がよいと判定できる。また、怒り、恐怖、嫌悪が高い場合は(たとえば審判に不満等)、その時になんらかの感情的問題があると判定できる。
 請求項22の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、本発明の視認者情感判定装置をゲーム機に組み込み、前記視認者は、ゲームプレイヤーであり、視認対象は視認者の視認するゲームコンテンツである。
ゲーム機内の前記診断部から入力された視認者の診断結果に基づいて、前記ゲーム機が適切なゲームコンテンツ画面をおよび音声及びゲーム用プログラムを選択する選択部と実行機能を備えていることを特徴とする。
たとえば、視認者の情動値が低い(関心がない)場合は明らかに視認者の視認対象に関心がないと判定し、ゲーム機は関心のあるものに誘導するコンテンツ画面などを提示する。視認者の感情の驚き、怒り、恐怖、悲しみ、嫌悪、幸福(喜び)に合わせて、ゲーム機は適切な視認対象の変更(ゲームコンテンツ画面、音声、ゲーム用プログラムを変える)するなどの対処をすることになる。
 また、請求項23の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記特定の対象物は、空間の中に配列されている物であり、前記診断部は、前記視認者から見た前記特定の対象物の配列の適切性を診断することを特徴とする。
 視認者の情動値が低い(関心がなく注目度が低い)場合は明らかにその場の棚および棚にあるものが注目されないと判定できる。
しかし、情動値が高く(注目している)ても、単に関心が高いだけで購買意欲が高いとはいえない。
ただし、一般的に感情値の幸福(喜び)度と驚き度が高い場合は好意的と判定できる。
しかし、その他の感情値の悲しみ、怒り、恐怖、嫌悪の感情が高い場合は、一般的に不満につながる要素があると判定できる。
請求項24の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、視認者は訪問者であり、視認対象は客に応対する店員、受付者等であり、店員、受付者の応対において、視認者の情感を診断して、店員、受付者等の応対の良し悪しを判定することを特徴とする。
視認者の情動値が低い(関心がない)場合は明らかに相手に特別に問題はなく、平常の応対をしているものと判定できる。
視認者の情動値が高い(興味を引いている)場合、一般的に感情値の幸福(喜び)度が高ければ応対が良いと判定できる。
ただし、怒り、恐怖、嫌悪が高い場合は、会話内容への同調反応を除き、好ましい応対ではないと判定できる。
請求項25の発明は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
前記視認者は、一般のテレビ視聴者(映像コンテンツの受信者)であり、
視認対象は放送、通信ネットワークまたは映像蓄積装置に接続したTVディスプレイ上のコンテンツであり、テレビ視聴時の視認者の興味・関心の高いコンテンツの分野を視認者の情感の解析により判定し、次の視認者のテレビ等視聴時に、視認者の興味・関心度の高いコンテンツを推薦することを特徴とする視認情景に対する視認者情感判定装置。
 請求項26発明は、請求項1から3および7から9までのいずれか一項に記載の視認情
景に対する視認者情感判定装置において
前記視認者は、一般のテレビ視聴者であり、視認対象はネットワークまたは電波を経由して受信するテレビ受信機(映像コンテンツ受信機)である。番組を視聴中に情感度の高い瞬間に受像機の中の視点のある対象物または人物を自動的にマークし、後でネットワークを通して、そのマークした対象の情報を視認者に電子メールにて配信されてくるシステムで、その後の視認者の意思で、商品の購入、人物への連絡ができることを特徴とする。
ただし、受像機の中の視点のある対象物または人物を自動的にマークするに際して、情動(興味・関心度)が高くても、感情度において嫌悪感度と怒り度が高いものは自動的に除く。
 以上のように、本発明によれば、生理反応データの変化とそれに伴う速度および加速度と、顔の各部位の変化による顔の表情解析を組み合わせて、対象物及び視認者自身の能力を評価する。これにより、視認者の生理反応をより正確に把握し、様々な状況において、対象物及び視認者自身の能力をより正確に評価することができる。
本発明の実施形態による視認者情感判定システムの構成を示すブロック図である。 本発明の実施形態による視認者情感判定装置の構成を示すブロック図である。 本発明の実施形態による視点の位置を算出することを説明する図である。 本発明の実施形態による視認者の頭の動きと視認映像の関係を説明するための図である。 本発明の実施形態による視認映像を解析する際の座標軸の一例である。 本発明の実施形態による水平方向に視認者の頭が動いた場合の頭の移動を説明する図である。 本発明の実施形態によるフレーム画面F0から次のフレーム画面F0+1へ頭が移動した場合の、静止物の基点の移動を示す図である。 本発明の実施形態による視認映像の中の視点の移動を示す図である。 本発明の実施形態によるフレーム画面F0からフレーム画面F0+1に移動した際の視点の移動を示す図である。 本発明の実施形態による視認映像における対象物と視点の位置関係を示す図である。 本発明の実施形態による接近速度、接近加速度、離脱速度及び離脱加速度の算出方法を示すフローチャートである。 本発明の実施形態による視点追尾時間の算出方法を示すフローチャートである。 本発明の情感判定用の顔解析手法による顔の部位計測の図 特定映像コンテンツでの視認者の平均注目度分布例(最低注目度を0、最大注目度を100とする) 特定映像コンテンツでの視認者の平均注目度集中度(%) 本発明の実施形態による、相性診断に用いる視認者情感判定システムの構成を示すブロック図である。 本発明の実施形態による、相性診断に用いる視認者情感判定装置の構成を示すブロック図である。 本発明の実施形態による、ロボットの応対診断に用いる視認者情感判定装置の構成を示すブロック図である。 本発明の実施形態による、ドライバー眠気感知診断に用いる視認者情感判定装置の構成を示すブロック図である。
 以下、本発明を実施するための最良の形態について図面を用いて詳細に説明する。
〔視認者情感判定システム〕
 まず、視認者情感判定システムの構成、及び各構成部の処理について説明する。図1は、本発明の実施形態による視認者情感判定システムの構成を示すブロック図である。この視認者情感判定システムは、アイカメラ3、送信装置7、蓄積装置8、視認者の顔を含む身体動作撮影装置9、身体温度測定装置10、明るさ計測装置11(視認対象が映像ディスプレイの場合は輝度計測装置、視認対象がその他の場合は照度測定装置等)、応答装置14及び視認者情感判定装置100を備えている。
 まず、視認者1は、アイカメラ3を頭部に装備し、対象物2を含む視認情景に視線を向ける。視認対象が映像ディスプレイのコンテンツの場合は、ディスプレイの近くに、アイカメラに相当する装置が固定されていても良い。ここで、視認情景とは、視認者1が視認可能な情景であれば何でもよく、例えば、商店、広場、人間、町並の他、コンピュータ、携帯電話、テレビジョンなどのディスプレイに表示される映像データ、ウェブページデータ、コンピュータゲームデータ、コンピュータプログラムの出力するデータなども含まれる。
ディスプレイ上に表示される上記のデータには、文字列、図、記号、絵、写真または動画など、視認者1を反応させるための応答喚起情報が表示され、文字列、図、記号、絵、写真または動画など、視認者1が反応する対象となる反応対象情報が含まれる。
 アイカメラ3は、眼球撮影装置4、視認情景撮影装置5及びマイクロフォン6を備えている。なお、図1では、アイカメラ3は、蓄積装置8及び送信装置7に接続されており、視認者1は、蓄積装置8及び送信装置7も身に付けている。
また、視認対象がコンピュータ、携帯電話、テレビジョンなどのディスプレイの場合、アイカメラを頭に装着せず、ディスプレイの側に、眼球撮影装置、マイクロフォンを設置してもよい。
 眼球撮影装置4は、視認者1の眼球を撮影する。眼球撮影装置4が撮影した眼球運動映像bは、蓄積装置8に蓄積される。なお、眼球運動映像bは、動画として蓄積されてもよく、定期的に撮影された静止画として蓄積されてもよい。
 視認情景撮影装置5は、視認者1が視線を向けている対象物2を含む視認情景を撮影する。視認情景撮影装置5が撮影した視認映像aは、蓄積装置8に蓄積される。なお、視認映像aは、動画として蓄積されてもよく、定期的に撮影された静止画として蓄積されてもよい。
 明るさ計測装置11は、視認対象の明るさgを計測する機能を備えている。この場合、視認対象が映像ディスプレイの場合は、映像ディスプレイの輝度を計測する。映像ディスプレイを除くその他の視認対象の場合は、輝度の代わり視認範囲の明るさを示す照度を計測する。この明るさのデータgは蓄積装置8に蓄積される。
 マイクロフォン6は、視認者1及び周囲の音声を捕捉する。マイクロフォン6が捕捉した音声データcは、蓄積装置8に蓄積される。
 応答装置14は、視認者1の動作により応答信号を取得する。視認者1の動作としては
、例えば、ボタン押し操作、キーボード操作、マウス操作、タッチパネル操作、リモコン操作、ゲーム機器付属コントローラの操作、機械の操作などの他、手を上げる、発声するなど、その他のボディアクションが挙げられる。応答装置14が取得した応答データdは、蓄積装置8に蓄積される。
 蓄積装置8は、視認情景撮影装置5からの視認映像a、眼球撮影装置4からの眼球運動映像b、マイクロフォン6からの音声データc、及び応答装置14からの応答データdを、視認者の顔の映像を含む視認者身体動作映像e、身体温度データf、明るさデータgをそれぞれ同期したデータとして時系列に蓄積する。
 送信装置7は、蓄積装置8が蓄積した視認映像a、眼球運動映像b、音声データc及び応答データd、視認者の顔の映像を含む視認者動作映像e、身体温度データf、明るさデータgを、無線または有線によって、視認者情感判定装置100へ送信する。このとき、送信装置7は、所定の時間間隔で、各データを視認者情感判定装置100へ送信してもよく、視認者情感判定装置100からの指示に従って、各データを視認者情感判定装置100へ送信してもよい。
 身体動作撮影装置9は、視認者1の顔を含む身体の各部の動作を撮影する。また、身体動作撮影装置9は、無線または有線によって、撮影した身体動作映像eを視認者情感判定装置100へ送信する。
なお、この場合、視認者の顔だけを撮影する顔撮影装置を別に用意してもよく、たとえば帽子型のアイカメラの帽子のひさしの先端に装着して顔を撮影することもできる。
 身体温度測定装置10は、視認者1の身体の温度を測定する。また、身体温度測定装置10は、無線または有線によって、身体温度データfを視認者情感判定装置100へ送信する。なお、図1では、視認者1の身体の温度を身体温度測定装置10によって遠隔から測定しているが、視認者1に装着したセンサーにより直接測定しても構わない。この場合、測定した身体温度データfは、蓄積装置8に蓄積され、送信装置7によって視認者情感判定装置100へ送信される。
 ここで、眼球撮影装置4、視認情景撮影装置5及び身体動作撮影装置9における映像フレームの撮影周波数は、240Hz以上と高速なものが適切である。また、これらの映像フレームの撮影周波数は同一であることが望ましい。
 なお、図1では、アイカメラ3及び応答装置14は、蓄積装置8に接続されており、有線によって、各データを蓄積装置8に送信しているが、無線によって、各データを蓄積装置8に送信しても構わない。さらに、無線による場合、視認情景撮影装置5、眼球撮影装置4、明るさ計測装置11、マイクロフォン6及び応答装置14は、各データを直接、視認者情感判定装置100へ送信しても構わない。
〔視認者情感判定装置〕
 次に、図1に示す視認者情感判定装置100の構成、及び各構成部の処理について説明する。図2は、本発明の実施形態による視認者情感判定装置100の構成を示すブロック図である。この視認者情感判定装置100は、受信部101、解析部102、蓄積部103、診断部104及び表示部105を備えている。
〔受信部〕
 受信部101は、送信装置7から、視認映像a、眼球運動映像b、音声データc、明るさデータg及び応答データdを受信する。また、受信部101は、身体動作撮影装置9から身体動作映像eを受信する。さらに、受信部101は、身体温度測定装置10から身体
温度データfを受信する。そして、受信部101は、受信した全データを同期させ、所定の時間間隔で、あるいは、解析部102からの指示によって各データを解析部102へ出力する。受信したデータを同期させるためには、各データに時計の時刻を同期信号として含ませる方法と、視認者情感判定装置100から同期信号を送信装置7、身体動作撮影装置9及び身体温度測定装置10へ送り、送信装置7からの視認映像a、眼球運動映像b、音声データc及び応答データd、身体動作撮影装置9からの身体動作映像e、身体温度測定装置10からの身体温度データf、明るさ計測装置11からの明るさデータgに同期信号データとして含ませる方法とがある。これにより、全データを同期させて処理することができる。
〔解析部〕
 解析部102は、所定の時間間隔で、あるいは、受信部101へ指示することによって、受信部101から視認映像a、眼球運動映像b、音声データc、応答データd、身体動作映像e、身体温度データf、および明るさデータgを取得する。そして、解析部102は、各データa~gに同期信号データを付し、蓄積部103へ蓄積する。また、解析部102は、必要に応じて、蓄積部103に蓄積した各データa~gを読み出し、読み出した各データa~gを解析のために用いる。また、解析部102は、視認映像a及び眼球運動映像bから視認映像aにおける視点の位置を算出するとともに、視認者の生理反応データの変化とそれに伴う加速度を算出する。詳細については後述する。
 図3は、視認映像aと眼球運動映像bとを用いて、視点の位置を算出することを説明する図である。解析部102は、図3に示すように、眼球運動映像bから視線を求め、この視線と視認映像aとを合わせることにより、視点の位置を算出する。ここで、視線の算出方法は、様々なものがある。例えば、角膜反射法と呼ばれる眼球へ点光源の近赤外線を照射し、角膜表面における反射像(以下、プルキニエ像という。)を利用する方法がある。角膜反射法による視線の測定方法は、2種類に大別され、瞳孔中心とプルキニエ像との距離から視線を求める方法と、プルキニエ像から得られる角膜曲率中心と瞳孔中心を結ぶ線を仮想視線とし、誤差補正を行って視線を求める方法とがある。
 図4は、視認者1の頭(顔の動きを含む)の動きと視認映像aの関係を説明するための図である。解析部102は、図4に示すように、視認情景撮影装置5からの視認映像aにより、視認者1の頭の動きを解析する。
視認情景撮影装置5の撮影時におけるフレーム周波数をS(/秒)とするとフレーム間隔Fは、F=1/S(秒)となる。図4において、頭の動きについては、視認者1が頭に装着する視認情景撮影装置5が撮影した視認映像aだけでも、その動きを計測できる。ただし、視認映像aを基本にした計測であるため、2次元となる。ここで、視認映像aの視野角(横θh、縦θv)は視認情景撮影装置5によって、予め設定されている。また、解析部102は、身体動作映像eを用いて、頭の動きを計測することもできる。または、画像処理によって身体動作映像eから頭を特定し、その頭を追跡することにより、頭の動きを計測する。全く異なる技術として視認者1の頭部または視認情景撮影装置5に装着したジャイロスコープを用いて頭の動きを計測することも可能である。
 図5は、視認映像aを解析する際の座標軸の一例である。また、図6は、水平方向に視認者1の頭が動いた場合の頭の移動を説明する図である。ここでは、視認者1の頭を中心に視野全体を球面にたとえて、頭の動きを水平方向h、上下方向をvで表している。図5に示す座標軸は、(h、v)ともに数字だけで表したり、ラジアン(rad)または角度(°)で表したりしてもよい。例えば、一周をそれぞれ、1(-0.5~+0.5)、または2πrad(-π~+π)、または360°(-180°~+180°)で表してもよい。なお、図6においては、最初のフレーム画面をF0として、1/S秒後の次のフレーム画面をF0+1として表している。
 また、解析部102は、頭の移動距離、移動速度、移動加速度を算出する。図7は、視認映像aのフレーム画面F0から次のフレーム画面F0+1へ頭が移動した場合の、静止物の基点の移動を示す図である。視認映像aを、左下端を原点とした座標(x、y)で表し、最初のフレーム画面F0の中の動いていない物(静止物)“A”の点を基点と定めて、その座標を(x0、y0)とする。ここで、静止物“A”及びその点(座標)は、視認者情感判定装置100を操作するオペレータが視認映像aを見て指定することによって、決定するようにしてもよいし、予め設定された静止物“A”の特徴を視認映像aで捉え、自動的に追尾するようにしてもよい。なお、静止物“A”を特定して追跡する画像処理については既知の技術であるから、ここでは詳細な説明を省略する。1/S秒後の次のフレーム画面F0+1における静止物“A”の位置(x1、y1)を解析ことにより、解析部102は、以下のデータを算出する。
頭の水平移動距離:h0=―(x1-x0)
頭の垂直移動距離:v0=―(y1-y0)
(視認者の頭の移動は基点“A”の動きとは逆になるので、負(-)の方向になる)
頭のF0からF0+1までの移動距離は:phv0=(h02+v021/2
また、解析部102は、移動フレームを全部(nまで)合わせることにより、以下のデータを算出する。
全移動水平距離:phn=Σh=h0+h1+・・・・・+hn
全移動垂直距離:pvn=Σv=v0+v1+・・・・・+vn
全体の移動距離:phvn=(phn2+pvn21/2
ここで、0、1、2、・・・、nは最初のフレーム番号を0としたときのnまでのフレーム番号である。また、解析部102は、頭の移動速度qhv≒d(phv)/dtとして計算でき、フレーム画面F0における頭の移動速度qhv0は、
qhv0≒d(phv)/dt≒(phv1-phv0)/(1/S)
として算出する。ただし、tは時間を表す
また、解析部102は、頭の移動加速度khv≒d(qhv)/(1/S)として計算でき、
フレーム画面F0における頭の移動加速度khv0は、
khv0≒d(qhv)/dt≒(qhv1-qhv0)/(1/S)
として算出する。
また、頭の移動距離、移動速度、移動加速度を算出する方法としてはジャイロスコープ(単位は角速度:ラジアンまたは度/秒)がある。
角速度を経過時間で積分して移動角度を算出する方法が一般的である。
Lフレーム時の頭の角移動速度はジャイロスコープでフレームL時点の移動速度(qhvL)を測定することで得られる。
 フレームL時の頭の水平移動速度=qh
フレームL時の頭の垂直移動速度=qv
として
Nフレーム時までの頭の水平移動距離は:
Figure JPOXMLDOC01-appb-M000001

Nフレーム時までの頭の垂直移動距離:
Figure JPOXMLDOC01-appb-M000002
となる。
頭のF0からFまでの移動距離:phvN=(phN2+pvN21/2
となる。
また、本解析方法は、映像のフレーム単位での解析のため、
解析部102は、移動映像フレームを全部合わせることにより、以下のデータを算出する。
全体の移動距離:phvN=(phN2+pvN21/2
また、解析部102は、フレーム画面F0時における頭の移動速度qhv0を、
qhv0≒(phv1-phv0)/(1/S)
として算出する。
また、解析部102は、頭の移動加速度はkhv≒d(qhv)/(1/S)
として計算できるので、フレーム画面F0における頭の移動加速度khv0を、
khv0≒d(qhv)/dt≒(qhv1-qhv0)/(1/S)
として算出する。
 また、解析部102は、視認映像aの中の視点の動きを算出する。図8は、視認映像aの中の視点Bの移動を示す図である。図8では、フレーム画面F0における視認映像aの中の視点の位置を(H0、V0)で表示する。また、次のフレーム画面F0+1における視点の位置を(H1、V1)で表示する。1/S秒後の次のフレーム画面F0+1における視点Bの位置(H1、V1)を測ることにより、解析部102は、視点の水平移動距離pH0を、
pH0=H1-H0として算出する。
同様に、垂直移動距離pV0を、
pV0=V1-V0として算出する。
また、視点のF0からF0+1までの移動距離pHV0を、
pHV0=(pH02+pV021/2として算出する。
また、移動フレームF0からFnまでを全部あわせた水平移動距離pHを、
pHn=ΣpH=pH0+pH1+pH2+・・・+pHnとして算出する。
同様に、垂直移動距離pVを、
pVn=ΣpV=pV0+pV1+pV2+・・・+pVnとして算出する。
よって、F0からFnまでの全体の移動距離pHVnを、
pHVn=(pHn2+pVn21/2として算出する。
また、フレーム画面F0における視認映像aの中での視点の水平速度qH0を、
qH0≒d(pH)/dt≒(pH1-pH0)/(1/S)として算出する。
同様に、垂直速度qV0を、
qV0≒d(pV)/dt≒(pV1-pV0)/(1/S)として算出する。
また、フレーム画面F0における視点の移動速度qHV0は、
qHV0=(qH02+qV021/2として算出する。
また、フレーム画面F0における視認映像aの中での視点の水平加速度kH0を、
kH0≒d(qH)/dt≒(qH1-qH0)/(1/S)として算出する。
同様に、垂直加速度kV0を、
kV0≒d(qV)/dt≒(qV1-qV0)/(1/S)として算出する。
また、フレーム画面F0における視点の移動加速度kHV0を、
kHV0=(kH02+kV021/2として算出する。
 また、解析部102は、頭の動きを含む視点の動きを算出する。図9は、フレームF0からフレームF0+1に移動した際の視点の移動を示す図である。
図9において、解析部102は、フレームF0における頭と視点を合わせた水平移動距離を、
Dh0=ph0+pH0として算出する。
同様に、フレームF0における頭と視点を合わせた垂直移動距離を、
Dv0=pv0+pV0として算出する。
したがって、F0からF0+1までの頭と視点との移動距離D0は、
D0=(Dh02+Dv021/2として算出する。
また、フレーム画面F0からFnまでのトータルの頭と視点との全移動距離TDを、
TD=D0+D1+・・・+Dnとして算出する。
また、フレームF0における頭を含む視点の移動速度を以下のように算出する。
視点移動の水平速度:Qh0=qh0+qH0
視点移動の垂直速度:Qv0=qv0+qV0
したがって、フレームF0における視点移動速度Q0は、
Q0=(Qh02+Qv021/2として算出する。
同様に、フレームF0における頭を含む視点の移動加速度を以下のように算出する。
水平加速度:Kh0=kh0+kH0
垂直加速度:Kv0=kv0+KV0
したがって、フレームF0における頭を含む視点移動の加速度K0は、
K0=(Kh02+Kv021/2として算出する。
 また、解析部102は、視認映像aの中で対象物の移動も視点の移動と同様の方法で算出する。
 上記の情報を用いて、解析部102は、対象物に視点が追尾しているか否かを解析する。図10は、視認映像aにおける対象物と視点の位置関係を示す図である。図10において、視認映像aの中で、対象物Cの映像の中に視点Bが入っている場合は、視認者の視点はその対象物を追尾していると判定する。
なお、対象物の輪郭の特定は、画像処理によって可能であり、既知の技術で対応可能であるため、ここでは詳細の説明は省略する。
 また、解析部102は、視点Bの位置(H、V)と対象物Cの位置(X、Y)の乖離距離、視点が対象物に接近する際の接近速度(Bv)及び接近加速度(Bk)、視点が対象物から離脱する際の離脱速度(Bs)及び離脱加速度(Br)を算出する。
なお、対象物Cが視認映像aから外れたり、視点Bが対象物Cから離れて所定の時間経過したりの所定の条件を満たす場合は、明らかに視点Bが対象物から離脱したと判定する。
 図11は、接近速度(Bv)、接近加速度(Bk)、離脱速度(Bs)及び離脱加速度(Br)の算出方法を示すフローチャートである。接近速度(Bv)、接近加速度(Bk)、離脱速度(Bs)、離脱加速度(Br)の算出方法を、図11を参照して説明する。まず、ステップ101において、解析部102は、視点が対象物の範囲内にあるか否かを判定する。対象物が範囲内にあるか否かは、視点Bの位置(H、V)と対象物Cの位置(X、Y)の乖離距離から求められる。
まず、フレームF0における水平乖離距離Zh0を、
Zh0=X0-H0として算出する。
同様に、垂直乖離距離Wv0を、
Wv0=Y0-V0として算出する。
また、乖離距離U0を、
U0=(Xh02+Wv021/2として算出する。
フレームF0における乖離距離をU0、フレームF0+1における乖離距離をU1とする。
 ア.視点Bの位置(H、V)が対象物Cの位置(X、Y)の範囲内に含まれない場合(ステップ101:N)、すなわち、視点Bが対象物Cの外部に存在する場合、以下のA~Cの処理を行う。
A.ステップ103において、U1-U0<0のとき、視点Bは対象物Cに接近中であると判定し、ステップ104へ進み、接近速度および加速度を算出する。
フレームF0において、視点Bの対象物Cへの接近速度(Bv)は、以下のようになる。
Bv0=―(U1-U0)/(1/S)
また、視点Bの対象物Cへの接近加速度(Bk)は、以下のようになる。
Bk0=―(Bv1-Bv0)/(1/S)
そして、ステップ101の処理へ戻る。
B.ステップ103において、U1-U0>0のとき、視点Bは対象物Cから離脱中であると判定し、ステップ105へ進み、離脱速度および加速度を算出する。
フレームF0において、視点Bの対象物Cからの離脱速度(Bs)は、以下のようになる。
 Bs0=(U1-U0)/(1/S)
 また、視点Bの対象物Cからの離脱加速度(Br)は、以下のようになる。
 Br0=(Bs1-Bs0)/(1/S)
 そして、ステップ101の処理へ戻る。
C.なお、ステップ103において、U1-U0=0のときは、その時点での視点の移動はない。
したがって、それ以降のU1-U0の結果がプラス+またはマイナス-になるまで、同じ動作を繰り返す。したがって、ステップ101の処理へ戻る。
視点Bの位置(H、V)が対象物Cの位置(X、Y)の範囲内に含まれる場合(ステップ101:Y)、すなわち、視点Bが対象物Cの内部に存在する場合、視点が対象物を追尾中であると判断し、ステップ102へ移行し、追尾中のフレーム数(N)を数えて、後述する図12を用いて説明するように、視点追尾時間(Bt)=((1/S)×N)}を算出する。
 また、解析部102は、視点追尾時間を算出する。図12は、視点追尾時間の算出方法を示すフローチャートである。図12に示す視点追尾時間の算出方法は、図11に示したステップ102に対応している。各視認映像aのフレーム毎に、まず、ステップ201において、解析部102は、視点が対象物の範囲内にあるか否かを判定する。視点が対象物の範囲内にあるか否かの判定方法は、図11において説明した方法と同様である。そして、視点が対象物の範囲内にある場合、ステップ202へ進み、時間をカウントする。次に、ステップ203において、視点が対象物の範囲内にあるか否かを判定し、範囲内にある場合は、ステップ202へ戻り、時間をカウントする。一方、視点が対象物の範囲内にない場合は、ステップ204へ進み、カウントした時間を視点追尾時間として設定するとともに、図11のステップ101へ戻る。
生理反応データが瞳孔径の変化の場合において、瞳孔径は視認対象の明るさ(輝度および照度等)の影響を受ける。そこで、視認対象の明るさ(輝度および照度等)に相当する瞳孔径変化部分を消去する必要がある。
視認対象が「映像ディスプレイ」の場合は:
ディスプレイの輝度をゆっくり最低(黒画面)から最高(白画面)、逆に最高から最低に、また最低から最高に変化させる。最後の動作の時の視認者の瞳孔径を測定する。これを
「基本の輝度と瞳孔径の関係データ」とする。最後の輝度変化に対する瞳孔径の測定値を採用する理由は、最初の方の輝度変化には、視認者が「何が始まるか」といったところに関心をもってしまい、注目してしまうので、注目度の影響による瞳孔径が含まれてしまうためである。
なお、視認者が「基本の輝度と瞳孔径の関係データ」を計測した部屋環境とディスプレイで実際の評価コンテンツを計測するものとする。
視認者が「基本の輝度と瞳孔径の関係データ」を計測したディスプレイと異なるディスプレイで実際の評価コンテンツを計測する場合は、実際のコンテンツを計測するディスプレイを「基本の輝度と瞳孔径の関係データ」を計測したディスプレイと同一の部屋環境と同一の輝度、色合いになるように実際のコンテンツを計測するディスプレイを調節することを前提する。

実際のコンテンツ視認時は、ある瞬間(t)の視認者の瞳孔径(Pt)を計測するときに、同時に輝度計等によりディスプレイの輝度(Yt)を計測する。
解析部102は、対象物2(この場合は映像ディスプレイ)を視認した時の瞳孔径(Pt)から、対象物2視認時の輝度(Yt)に相当する「基本輝度と瞳孔径の関係データ」における瞳孔径(Pbt)を差し引くことにより、ディスプレイの輝度による瞳孔径を消去して、その瞬間(t)の対象物に対する視認者の注目度だけに相当する瞳孔径(Pmt)を求めることができる。
すなわち
Figure JPOXMLDOC01-appb-M000003

この場合、Pmt<0の場合は平常時よりも注目度が劣り、退屈状態であることを意味する。
「基本輝度と瞳孔径の関係データ」において、映像ディスプレイが最低の輝度の時の瞳孔径平均値(Pmax)と映像ディスプレイが最大の輝度の時の瞳孔径の平均値(Pmin)の間の瞳孔径の変化範囲をPHPnとすると:
PHPn=Pmax―Pmin

そこで、ある瞬間(t)の注目度(It)とすると
Figure JPOXMLDOC01-appb-M000004

として求めることができる。
こうすることで視認者の個人差による瞳孔径の変化をなくして、視認者共通の注目度の尺度にすることができる。
瞳孔径が非常に小さいとPmt<0になることがあるので、
It<0
となり、注目度が平常時より低く、退屈している場合と言える
逆に
It>1
の場合は極度に注目している状態であると言える。
It≒0は、平凡で刺激の低い内容を見ている場合であって、この注目度をIhとする。
実際の計測では、時間により変化するコンテンツのディスプレイを時間経過とともに輝度(Yt)と視認者の瞳孔径(Pt)を同時に計測し、解析して注目度を計算し、注目度を判定する。
 また、実際の計測ではコンテンツを上映するディスプレイを時間経過とともに、輝度(Yt)だけを計測しておき、その後、視認者がコンテンツを上映するディスプレイを時間経過による瞳孔径(Pt)だけを計測し、解析時に映像コンテンツの輝度(Yt)と瞳孔径(Pt)の時間(t)を一致させて注目度(It)を計算しても良い。
なお、映像ディスプレイを除くその他の視認情景の場合は:
輝度の代わり照度を適用する。したがって、輝度計の代わりに照度計を使い、「基本輝度と瞳孔径の関係データ」に相当する「基本照度と瞳孔径の関係データ」は、基本照度を変化させることのできる部屋を用意して瞳孔径を計測することで得ることができる。
この場合、実際の対象物の計測時に、視認者の頭部に視野情景撮影装置、眼球撮影装置と並べて照度計を装着して対象物の照度を計測する。
前項「0070」において、視認対象物が映像ディスプレイの場合で、視点の輝度がディスプレイ全体の輝度に比較して無視できない場合(画面内での明暗の差が激しいコンテンツであったり、明るくない部屋環境等の場合)、視点の輝度も瞳孔径に影響を与えるため、視点の輝度に相当する視認者の瞳孔径変化も消去する必要がある。
フレームjの場面の時の画面全体の輝度Yjは前項「0070」で計測可能である。
ディスプレイの各ピクセルの赤(R)、緑(G)、青(B)の輝度への影響度は各メーカにより異なるが
赤(R)の輝度への影響度(Cr)
緑(G)の輝度への影響道(Cg)
青(B)の輝度への影響度(Cb)
として、
フレームjのときのピクセル(x)の
R、G、Bのそれぞれの強度を
赤(R)の強度(Srjx)
緑(G)の強度(Sgjx)
青(B)の強度(Sbjx)
とすると
フレームjのときのピクセル(x)の仮輝度をBjxと定義して、
Bjx=(Srjs×Cr+Sgjs×Cg+Sbjx×Cb)
とし、
仮輝度と実際の輝度の比をeとし、
フレームjの時のピクセル(x)の実際の輝度をYjxとすると、
Yjx=e×Bjx
フレームjの画面全体の輝度(Yj)は、ディスプレイ画面全体のピクセルをTとして
Figure JPOXMLDOC01-appb-M000005


なので

Figure JPOXMLDOC01-appb-M000006

即ち

Figure JPOXMLDOC01-appb-M000007



実際のコンテンツ視聴時のディスプレイ画面の輝度測定値がYjなので
ピクセル1つあたりの平均輝度(Yjh)は、
Figure JPOXMLDOC01-appb-M000008


視点がピクセルxの輝度(Yjx)と画面平均輝度(Yjh)と比較しての輝度の比(Wjx)は
Figure JPOXMLDOC01-appb-M000009


即ちピクセルxの輝度Yjxは
Yjx=Yjh×Wjx=e×Bjx
これにより、あるピクセルの輝度が算出できる。
なお、すでに、特定のピクセルの輝度を計測する測定器があるので、その計測器により各ピクセルの輝度を求めても良い。
次に、ある視点ピクセルxを中心にした直径1,7cm内のピクセルの輝度の合計をYdxとする。
ディスプレイ全体の輝度Ydを段階的に変化させ、
ある段階のディスプレイ全体の輝度毎に、ピクセルxを中心にした直径1,7cm内のピ
クセルの輝度(Ydx)を最大から最小まで、さらに最小から最大に、さらに最大から最小にゆっくり3回変化させ、最後の動作の時の瞳孔径を測定する。最初の方はこの動きに注目するので、注目による瞳孔径が含まれてしまうために計測はしない。
この表を「ディスプレイ輝度と視点輝度と瞳孔径の基本関係データ」とする。

実際のコンテンツ視認時の視認者の瞳孔径(Pg)を測定し、その時のディスプレイの輝度(Yg)と視点xを中心にした直径1,7cmの輝度(Ygx)を計測・解析し、ディスプレイ輝度(Yg)と視点のあるピクセルxを中心にした直径1,7cm内での輝度(Ygx)に相当する「基本ディスプレイ輝度と視点輝度の関係データ」における瞳孔径(Pgx)を視認者の瞳孔径(Pg)から引くことで、ディスプレイの輝度の影響を含んだ視認視点での注目度に相当する瞳孔径(Pcx)が得られる。
Figure JPOXMLDOC01-appb-M000010

実際のコンテンツ視聴時の画面全体の輝度(Yg)と「基本ディスプレイ輝度と視点輝度の関係データ」の値の中間値は補間法により求めるものとする。
映像ディスプレイが最低の輝度の時の瞳孔径平均値(Pmax)と映像ディスプレイが最大の輝度の時の瞳孔径の平均値(Pmin)の間の瞳孔径の変化範囲をPHPnとすると:
PHPn=Pmax―Pmin
であるから、
視点ピクセルxを中心にした半径1.7cmのピクセルの数をSgとし、
した半径1.7cmのピクセル1つ当たりの輝度による瞳孔径への影響度は
Figure JPOXMLDOC01-appb-M000011

また、画面全体のピクセルをTとすると、画面全体でのピクセル一つ当たりの瞳孔径への平均瞳孔径の変化範囲は

Figure JPOXMLDOC01-appb-M000012
  


したがって、あるフレーム(j)の視点(x)の注目度(Ijx)は

Figure JPOXMLDOC01-appb-M000013
  


として求めることができる。
こうすることで視認者の個人差による瞳孔径の変化を吸収して、ディスプレイ全体の明るさを考慮した画面内の視点の注目度が求められ、視認者共通の尺度にすることができる。なお、すでに、ピクセル毎に輝度を計測する測定器があるので、その計測器により各ピクセルの輝度を求めても良い。
Ijxは項目「0070」のItに相当するので、以後同等に扱うものとする。
したがって、以後、Itは
  (1)ディスプレイが視認対象の場合、
  1項目「0070」のディスプレイの輝度による注目度はItを
  2項目「0071」のディスプレイの視点の輝度を採用する場合はIjxを
  (2)ディスプレイを除くその他を視認対象にする場合は
  項目「0070」の輝度を照度に替えてItを
採用するものとする。
 また、解析部102は、眼球運動映像bから、瞳孔径(P)及び瞬目回数を解析する。さらに、解析部102は、瞳孔径(P)のデータから、注目度(It)、注目度拡大速度(Its)、注目度の拡大加速度(Itk)、を算出する。Its、Itkがマイナス(-)の場合は、それぞれ注目度縮小速度、注目度縮小加速度を表す。
 以上のように、解析部102は様々な値を解析し、この解析した値を解析値Aとして、蓄積部103及び診断部104へ出力する(図2参照)。よって、解析値Aに含まれる値としては注目度(It)、注目度変化速度(Its)、注目度の拡大加速度(Itk)、視点追尾時間(Bt)、視点接近速度(Bv)、視点接近加速度(Bk)、視点離脱速度(Bs)、視点離脱加速度(Br)の他感情値、興奮度がある
〔蓄積部〕
 再び図2を参照して、蓄積部103は、解析部102から出力された視認映像a、眼球運動映像b、音声データc、応答データd、身体動作映像e、身体温度データfおよび、明るさデータを蓄積する。また、蓄積部103は、解析部102から出力された解析値Aを蓄積する。さらに、蓄積部103は、視認者1が興味の低い、すなわち、平凡で刺激の低い対象物2を見ている場合の注目度(Ih)、注目度の拡大速度(Ihv)、注目度の拡大加速度(Ihk)、視点追尾時間(Bht)、視点接近速度(Bhv)、視点接近加速度(Bhk)、視点離脱速度(Bhs)及び視点離脱加速度(Bhr)を平常値Hとして、予め蓄積している。
また、蓄積部103は、視認者1の興味の高い対象物2を見ている場合の注目度(Ie)、注目度の拡大速度(Iev)、注目度の拡大加速度(Iek)、視点追尾時間(Bet)、視点接近速度(Bev)、視点接近加速度(Bek)、視点離脱速度(Bes)及び視点離脱加速度(Ber)を感動値Kとして、予め蓄積している。また、蓄積部103は、診断部104から出力された診断結果を蓄積する。
〔診断部〕
 診断部104は、解析部102から出力された解析値Aを、蓄積部103に蓄積された平常値Hあるいは感動値Kと比較することにより、視認者1の対象物2に対する興味を診断し、視認者1が視認している対象物2または視認者1自身の能力を評価する。すなわち、診断部104は、解析値Aに含まれる各パラメータを、a、b、c、・・・とし、各パラメータに対する重み付けをA、B、C、・・・とし、視認時(t)の視認対照の評価値E(t)を算出する。
E(t)=A・a(t)+B・b(t)+C・c(t)+・・・
 具体的には、診断部104は、所定時間内における瞬目回数が所定回数よりも減少している場合、その対象物2に興味があると診断する。さらに、診断部104は、注目度が所定値よりも大きい場合、その対象物2に興味があると診断する。上記に加え、診断部104は、注目度の拡大速度及び拡大加速度が所定値よりも大きい場合、その対象物2に興味があると診断し、逆に、注目度が所定値よりも小さい場合、注目度の縮小速度及び縮小加速度が所定値よりも大きい場合、その対象物2に興味がないと診断する。また、診断部104は、視点接近速度及び視点接近加速度が所定値よりも大きい場合、その対象物2に興味があると診断し、逆に、視点接近速度及び視点接近加速度が所定値以下の場合、その対象物2に興味がないと診断する。また、視点離脱速度及び視点離脱加速度が所定値よりも大きい場合、その対象物2に興味がないか嫌悪感があると診断し、逆に、視点離脱速度及び視点離脱加速度が所定値以下の場合、その対象物2に興味があると診断する。
 さらに、診断部104は、対象物2への頭部の向きの接近移動速度及び接近加速度と、視点接近速度、視点接近加速度とを合成した視点の移動速度及び加速度を算出することにより、上記「0075」と同様の判定を行う。視認者1は、興味がある場合、視点が対象物を追尾するために頭もその方向を維持する。なお、興味がなくても頭を対象物に向け続けることはあるが、この場合、注目度は縮小している。また、頭が対象物2からから離れ続け、注目度が縮小している場合、興味がないと診断する。
 また、診断部104は、視認者1がある対象物2に視点が視点追尾時間が平常値(Bht)より多くの時間追尾して、注目度が感動値の(Ie)になる場合には、その対象物に興味・関心があると診断する。すなわち、
Bt>Bht
It>Ih×1.3、または、It=Ie
の場合、診断部104は、視認者1が対象物2に興味・関心があると診断する。
この場合、対象物2が動いている場合は、視認者は対象物2が見える間追尾する。
一方、動かない対象物2の場合は、平常値(Bht)以上の時間を追尾する。
また、診断部104は、一旦、視点が対象物2の範囲内を短時間{<Bht}追尾し、注目度が感動値の値(Ie)までに拡大せず、視点が、視点離脱速度が平常値(Bhs)より急速{>Bhs}に対象物2から離れ、再度視点が対象物2に戻らない場合、視認者1はその対象物2に興味がないと診断する。さらに、診断部104は、視認者1が一旦対象物2を見て注目度が拡大するが、所定の時間内である短時間で視点が対象物2から離脱した場合、嫌悪感があると診断する。すなわち、対象物内に視点があるとき、
It>Ih、または、It=Ie
であり、この時、対象物からの視点離脱速度(Bs)、視点離脱加速度(Br)が平常値(Bhs、Bhr)より大きく、すなわち
Bs>Bhs
そして、
Br<Bhr
である場合、対象物2に対して嫌悪感があると診断する。
なお、すでに1000件以上の統計では、対象物への視点追尾時間(Bt)がBt<0.2秒である場合、明らかに嫌悪感があると診断できるという結果を得ている。
 また、診断部104は、身体温度データfを用いて、当日、事前に測定した身体温度に比較して、身体温度が上昇した場合、視認者1は、対象物2に興奮していると診断する。また、診断部104は、応答装置14の動作による応答データdを用いて、応答回数、応答動作の速さ、正確度を基に、対象物2及び視認者1自身の能力を評価する。具体的な応答データdの使用方法は後に詳述する。また、診断部104は、診断結果を表示部105及び蓄積部103へ出力する。
図13は視認者動作撮影装置9からの視認者顔映像データeである。
視認者の顔の各部位(目、唇、眉毛等)の特徴点を顔解析手法によりマークして顔の表情を解析する。
この特徴点は図では説明のために一部を示しているが、実際の顔解析手法による。
代表的な感情判定は驚き、恐れ、嫌悪、怒り、喜び(幸福)、悲しみである。
視認者の平常時と顔の各部が最大に動いた時の値(最大値)を予め計測して置き、各測定時の変化量の最大値との比率により、感情の度合い(F)を判定する。
これにより、請求項1から4による目の瞳孔径または瞬目頻度の変化から解析した注目度の情動値(E)と合わせて、視認対象に対する視認者の情感(EF値)判定ができることになる。
〔表示部〕
 表示部105は、診断部104における診断結果をディスプレイなどの出力装置へ表示する。表示部105に表示された診断結果により、オペレータは、対象物2及び視認者1自身の能力を判断することができる。
 以上のように、本発明の実施形態による視認者情感判定装置100によれば、生理反応データの変化とそれに伴う加速度と視認者の顔の変化を用いて、対象物2または視認者1自身の能力を評価する。
生理反応データの変化としては、注目度(It)とその拡大加速度(Itk)視点接近加速度(Bk)、視点離脱加速度(Br)が挙げられる。注目度とその拡大速度と加速度(Itk)が大きくなるほど、あるいは、視点接近速度と加速度(Bk)が大きくなるほど、その対象物2に興味があると診断し、逆に、注目度(It)が小さく、その負の加速度(―Itk)が大きくなるほど、あるいは、視点離脱加速度(Br)が大きくなるほど、その対象物2に興味がないと診断する。
また、合わせて、顔の部分変化を解析して視認者の感情の変化を判定する。
このように、本発明の実施形態による視認者情感判定装置100によれば、視認者の生理反応をより正確に把握し、様々な状況において、対象物または視認者自身の能力をより正確に評価することができる。本発明の実施形態による視認者情感判定装置100の適用場面については、後に詳述する。
 以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、前記実施形態では、身体動作撮影装置9及び身体温度測定装置10は、直接、視認者情感判定装置100にデータを送信しているが、一旦蓄積装置8に蓄積され、視認映像aなどとともに、送信装置7から視認者情感判定装置100へ送信しても構わない。また、アイカメラ3が、眼球撮影装置4、視認情景撮影装置5及びマイクロフォン6を備える構成としたが、眼球撮影装置4、視認情景撮影装置5及びマイクロフォン6は、必ずしも物理的に接続されている必要はなく、それぞれが単体として備えていても構わない。
 また、前記実施形態では、視点の位置を算出する際に、角膜反射法を用いたが、視点の位置を算出する方法はこれに限られず、様々な公知の方法が使用可能である。
尚、視認者情感判定装置100は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。視認者情感判定装置100に備えた受信部101、解析部102、蓄積部103、診断部104及び表示部105の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもできる。
 次に、本発明の実施形態による視認者情感判定装置100が適用される場面について説明する。具体的には、購買意欲度診断、学習意欲度診断、映像コンテンツ作者の期待感情反応度に対する視聴者感情反応度診断、コンテンツ内の注目点の分布によるコンテンツ評価、相性診断、言葉を話せない赤ん坊、認知症者、動物等との意思伝達診断、ロボットの応対方法判定、犯罪証拠診断、ドライバー眠気感知診断、自動車運転適性診断、労働安全熟練度診断、労働前適正診断、運動選手適正診断、ゲームのエキサイト度診断、空間デザイン診断、応対者応対度診断、映像コンテンツ選択優先度診断、コンテンツの中の興味・関心度の高い物または人物の自動マークについて説明する。
〔購買意欲度診断〕
 購買意欲度診断では、ある商品を一般の視認者1に見てもらい、その商品に対して、視認者1が購買意欲をもつか、持たないかの診断を行う。
視認方法は、実際の商品を見る方法でも、広告、テレビ、パソコン、モバイル端末(携帯電話含む)等のディスプレイに表示された商品でも構わない。購買力診断には、図1及び図2に示す視認者情感判定装置100を用いる。ここでは、対象物2は実際の商品または商品の映像となる。診断部104は、ア.その商品を見て、瞳孔が感動値(Pe)まで拡大していない{<Pe}(無関心)、イ.視点追尾時間(Bt)が平常値(Bht)より短い(興味なし)場合、視認者1がその商品に対して「購買意欲はない」と診断する。
さらに、商品からの視点離脱速度(Bs)と最初の離脱加速度(Br)が平常値{Bhs、Bhr}より大きいときに、顔解析手法による感情値(F)の解析によりの嫌悪(DI)を判定することにより嫌悪感を判定できる。この場合、明らかに購買意欲がある場合とは反対の行動であるといえる。このことから、「購買意欲なし」という診断の度合いを測ることができる。
一方、注目度(It)が拡大していて、商品への視点追尾時間(Bt)が平常値(Bht)より長く、感動値(Bet)に達したときに、興味はあると診断できるが、購買意欲があることまでは診断できない。すなわち、興味がない場合は、購買意欲はないが、興味があっても、購買意欲がない場合がある。そこで、顔解析手法により感情判定を組み合わせることにする。
一般的に感情値(F)の幸福(喜び)度(HP)と驚き(SP)が高いが場合は購買に積極的と判定できる。
しかし、その他の感情値(F)の悲しみ(SD)、怒り(AG)、恐怖(FR)、嫌悪(DI)が高い場合は一般的に購買に消極的と判定できる。
次に、複数の商品を視認者1に視認してもらい、特定の商品を見て、他の商品より、ア.注目度が大きい、イ.視点追尾時間が長い、ウ.視点離脱速度、最初の加速度が小さい場合は、その特定商品が一番興味を引いていると判定できる。さらに、顔解析手法により、幸福(喜び)感を感じている場合、その特定商品に対して、肯定的な感情を持っていると判定できるので、診断部104は、他の商品より購買意欲度が高いと診断する。一方、特定の商品が、他の商品より、ア.注目度が小さい、イ.視点滞留時間が短い、ウ.視点離脱速度、最初の加速度が大きい場合で、顔解析手法により、幸福(喜び)感を感じない場
合は、肯定的な反応が少ないことになるので、診断部104は、購買意欲度は他の商品に比べて小さいと診断する。
〔学習意欲度診断〕
 学習意欲度診断では、学習対象(教師、教科書、教材、黒板等)を対象物2とすることにより、学習意欲度の診断を行う。学習意欲度診断には、図1及び図2に示す視認者情感判定装置100を用いる。ここでは、診断部104は、視認者1が学習対象(教師、教科書、教材、黒板等)を見ている時、
ア.注目度(It)が感動値 (Ie)まで拡大していない(無関心)、イ.視点追尾時間(Bt)が平常値(Bht)より短い(興味なし)場合、また顔解析手法により、嫌悪感を示す場合、この学習対象が嫌いであるとの判定もできる。このことから、診断部104は、「学習意欲なし」と診断する。
一方、注目度(It)が拡大していて、学習対象への視点追尾時間(Bt)が平常値(Bht)より長くても、興味・関心はあるが、学習意欲とは必ずしも結びつかない。
そこで、興味が顔解析手法の感情判定により、幸福(喜び)感を示す場合、視認対象に対して、肯定的な感情を持っていると判定できるので、学習意欲度が高いと判定できる。
一般的に学習の内容がそれぞれの目的の感情を誘う内容の場合、感情値(F)の幸福(喜び)度(HP)と驚き(SP)、悲しみ(SD)、怒り(AG)、恐怖(FR)、嫌悪(DI)が高い場合はその学習は良いと判定できる。
ただし、問題に取り組んでいる場合、悲しみ(SD)、怒り(AG)、恐怖(FR)、嫌悪(DI)が高い場合は、学習内容が前述の目的の感情を引き出すことを目的にする場合を除き、何か戸惑っており、この学習に問題あり、と判定できる。
次に、複数の学習対象を視認者1に視認してもらい、特定の学習対象を見て、他の学習対象より、ア.注目度が大きい、イ.視点追尾時間が長い、ウ.視点離脱速度、最初の加速度が小さい場合は、その学習対象が一番興味を引くものと判定できる。さらに、顔解析手法により、幸福(喜び)感を示す場合、その学習対象に対して、肯定的な感情を持っていると判定できるので、診断部104は、その学習対象が他の学習対象より学習意欲度が高いと診断する。
一方、特定の学習対象が、他の学習対象より、ア.注目度が小さい、イ.視点追尾時間が短い、ウ.視点離脱速度、その最初の加速度が大きい場合で、顔解析手法により、幸福(喜び)感を示さない場合は、肯定的な反応が少ないことになるので、診断部104は、その学習対象に対する学習意欲度は、他の学習対象に比べて少ないと診断する。
〔映像コンテンツ作者の期待感情反応度に対する視聴者感情反応度診断〕
 映像コンテンツ作者の期待感情反応度に対する視聴者感情反応度診断は、図1及び図2に示す視認者情感判定装置100を用いる。
視認者1がテレビ、映画等で映像コンテンツを視聴している場合に、視認者1の興味・関心による注目度(情動度E)、および、感情度(F)の各基本感情の幸福(喜び)度(HP)、驚き度(SP)、悲しみ度(SD)、怒り度(AG)、恐怖度(FR)、嫌悪度(DI)および興奮度が映像コンテンツ作者の期待したレベルに対してどの程度反応しているかを診断し、映像コンテンツの評価判定をすることを特徴とする。
 すべてのコンテンツにおいて、コンテンツ製作者はこの場面では感動して泣いて欲しい、ここでは怒って欲しい、ここでは大いに笑って欲しいという意図で製作する。
そこで、コンテンツソフトプログラムに製作者の期待感情反応度を設定しておく。
 具体的には、映像コンテンツの場面(時間)上で作者の期待する情動値(EF)を情動値(E)の最大値を100にして設定し、また期待する感情値(F)の期待値設定も、最大値を100にして各基本感情の幸福(喜び)度(HP)、驚き度(SP)、悲しみ度(SD)、怒り度(AG)、恐怖度(FR)、嫌悪度(DI)および興奮度の期待レベルを設定する。
実際の映写時に、視聴者の情動解析による情動反応と顔解析による感情反応の度合いを測
定・解析することで、コンテンツが製作者の意図した情動反応および感情反応の期待値に対してどの程度反応をしたかを判定し、その作品を評価できる。
なお、対象コンテンツには映像と同時に音を含むが、映像なしで音だけの場合もありうる。
したがって、このコンテンツは期待どおりの作品であり、高い評価を得られると判定できる。
 そのほか、有効な利用方法はCMの視聴者反応評価である。この場合は、訴求場面での訴求点への注目度が高く、かつ嫌悪感度、怒り度が低いものが良いCMであると判定する。
「コンテンツ内の注目点の分布によるコンテンツ評価」
請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
前記特定の対象物は、テレビ、映像の特定画面、静止画、ポスター、雑誌の1ページのようなコンテンツであり、
前記視認者は、前記コンテンツ視認者である。
 コンテンツの特定の場面または静止画において、複数視聴者の注目視点の注目度分布を表示してコンテンツ製作者の訴求点とそのレベルを判定することを特徴とする。
具体的には映像画面、静止画、ポスター、雑誌の1ページのような特定コンテンツにおいて、図14に示すように、複数人の視点の位置と注目度による注目度の平均値を画面内で表示し、同時に図15に示すように、全体を100とした場合の注目度の集中度を表示して、コンテンツ製作者の意図したとおりの部分を注目しているかどうかを評価することを特徴とする。
〔相性診断〕
 相性診断では、図16に示すように、テレビ電話機能(携帯電話を含む)で通信回線を通して、お互いに顔を見ながら通話をしている状況において、通話相手同士の相性診断を行う。相性診断には、図16及び図17に示す視認者情感判定装置100を用いる。
図16は、相性診断に用いる視認者情感判定システムの構成を示すブロック図であり、図17は、相性診断に用いる視認者情感判定装置100の構成を示すブロック図である。ここでは、対象物2はディスプレイ22a、22bに表示された顔の映像となる。まず、Aさんが使用するテレビ電話20a及びBさんが使用するテレビ電話20bは、それぞれ通信回線30を介して、視認者情感判定装置100に接続されている。また、図17に示す視認者情感判定装置100の蓄積部103は、視認者(ここでは、Aさん、Bさん)の個人属性データを予め計測して蓄積している。個人属性データには、視認者(Aさん、Bさん等)の年齢、性別、出身地等の他、平凡で刺激の低い対象物を見ている場合の平常値(「注目度」「注目度拡大速度」「注目度拡大加速度」、「視点追尾時間」、「視点接近速度」「視点接近加速度」、「視点離脱速度」「視点離脱加速度」)と、興味・関心が高い視認対象を見ている時の感動値(興味・関心のある物を見る場合の「注目度」、「注目度拡大速度」「注目度拡大加速度」、「始点の位置」「視点追尾時間」、「視点接近速度」「視点接近加速度」、「視点離脱速度」「視点離脱加速度」)が含まれている。また、顔解析手法の情感判定のために、視認者の平常時と顔の各部が最大に動いた時の値(最大値)を予め計測して置き、蓄積している。さらに、蓄積部103は、人間の年齢、性別、職業といった層ごと、及び、全体の平常値、感動値等の平均値を蓄積する。
 テレビ電話20a、20bは、それぞれ、顔カメラ21a、21b、ディスプレイ22a、22b、眼球カメラ23a、23b及び追尾カメラ24a、24bを備えている。顔カメラ21a、21bは、通話者の顔を撮影する。ディスプレイ22a、22bは、通信相手を表示する。眼球カメラ23a、23bは、通話者の眼球を撮影する。追尾カメラ24a、24bは、眼球カメラ23a、23bの両側に設けられ、三角測量の原理を用いて通話者の眼球の位置を計測する。追尾カメラ24a、24bによる計測結果に応じて、眼
球カメラ23a、23bは、通話者の眼球を追尾する。なお、眼球カメラ23a、23bを省略し、顔カメラ21a、21bを高詳細なものにして、視認者情感判定装置100内の解析部102において、通話者の顔映像を拡大して、画像解析により通話者の眼球映像を捉えても良い。また、眼球カメラ23a、23bを省略し、顔カメラ21a、21bを高詳細なものにして、視認者情感判定装置100内の解析部102において、通話者の顔映像を拡大して、画像解析により通話者眼球映像を捕らえるようにした場合、追尾カメラ24a、24bの代わりに、テレビ電話20a、20bから通話者の顔までの距離を測る他の手段を用いても良い。このようにして、眼球をとらえ、距離が分かるので、瞳孔の直径が計測できる。
 Aさんが使用するテレビ電話20aでは、顔カメラ21aでAさんの顔を撮影し、眼球カメラ23aでAさんの眼球を撮影する。そして、テレビ電話20aは、Aさんの顔データ、Aさんの眼球データ(視線方向、瞳孔映像、カメラから眼球までの距離)を、通信回線30を介して、視認者情感判定装置100へ送信する。同様に、Bさんが使用するテレビ電話20bでは、顔カメラ21bでBさんの顔を撮影し、眼球カメラ23bでBさんの眼球を撮影する。そして、テレビ電話20bは、Bさんの顔データ、Bさんの眼球データ(視線方向、瞳孔映像、カメラから眼球までの距離)を、通信回線30を介して、視認者情感判定装置100へ送信する。
 図17の視認者情感判定装置100の受信部101は、Aさん及びBさんの、顔データ及び眼球データ(視線方向、瞳孔映像、カメラから眼球までの距離)を受信する。視認者情感判定装置100の解析部102は、Aさんの眼球データの視線方向データから、Aさんの持つディスプレイ22aに映るBさんの顔の映像の中の視点の位置、視点移動速度(接近速度Bv、離脱速度Bs)及び加速度(接近加速度Bk、離脱加速度Br)を算出する。また、Aさんの眼球データから、眼球カメラ23aから眼球までの距離と瞳孔映像から注目度を算出し、同時に注目度(It)の拡大速度(Its)、拡大加速度(Itk)及び縮小加速度(-Itk)を算出する。一方、Bさんの眼球データの視線方向データから、Bさんの持つディスプレイ22bに映るAさんの顔映像の中の視点の位置、視点移動速度(接近速度Bv、離脱速度Bs)及び加速度(接近加速度Bk、離脱加速度Br)を算出する。また、Bさんの眼球データから、眼球カメラ23bから眼球までの距離と瞳孔映像から注目度を算出し、同時に注目度(It)の拡大速度(Its)、拡大加速度(Itk)を算出する。解析部102は、解析した値を診断部104へ出力する。診断部104は、AさんがAさんのディスプレイ22aに映るBさんの顔を追尾する時間が、Bさんの顔が映っている限り追尾しており、Aさんの注目度(It)が蓄積部103から読み出した感動値データ(Ie)にまで拡大していれば、AさんはBさんに興味・関心を持っていると診断する。
また、顔解析により、Bさんの顔を視認している時のAさんのBさんに対する驚き、恐れ、嫌悪、怒り、喜び(幸福)、悲しみ等の感情とその程度を判定する。
送信部106は、この診断結果をBさんのテレビ電話20b(または仲介者)に送信する。診断結果を受信したテレビ電話20b(または仲介者のテレビ電話)は、ディスプレイ22bに、「AさんがBさんに興味・関心がある」ことを示す記号(たとえばハートマーク)を特定の箇所に表示する。
逆に、BさんがBさんのディスプレイ22bに映るAさんの顔を追尾する時間が、Aさんの顔がBさんのテレビ電話のディスプレイ22bに映っている間より短く(Bさんの顔からAさんの視点が早く離脱する)、注目度(It)も蓄積部103から引き出した感動値データ(Ie)にまで拡大することがなく、注目度の拡大速度(Its)、初期注目度拡大加速度(Itk)が平常値(Ihv、Ihk)より少ない場合は、診断部104は、「BさんはAさんに興味・関心がない」と診断する。
また、顔解析によるAさんの顔を視認している時、BさんのAさんに対する驚き、恐れ、嫌悪、怒り、喜び(幸福)、悲しみ等の感情とその程度を判定する。
送信部106は、この診断結果を、Aさんのテレビ電話20a(または仲介者)に送信する。
診断結果を受信したテレビ電話20a(または仲介者のテレビ電話)は、ディスプレイ22aに、{BさんがAさんに興味・関心がない}ことを示す記号(たとえば×マーク)と情感を特定の箇所に表示する。
 上述した相性診断を応用し、以下のような状況に適用することができる。(ア)結婚の見合いの場面に用いる。(イ)面接試験の場面に用いる。これにより、被相談者の真の心理状況を知ることができ、診断結果を発言内容の裏づけの参考にすることができる。(ウ)犯罪者との面談の場面に用いる。具体的には、刑事事件における犯罪容疑者との面談の場面に用いることにより、犯罪容疑者の心理状態を知ることができる。
これらの場面では、話の内容、表示された映像に興味があった場合には、注目度(It)が平常値(Ih)より大きくなる性質が利用される。
 なお、相性診断では、図16及び図17に示すブロック図を用いて説明したが、特に説明しなかった部については、上述した図1及び図2の構成と同様である。
また、すでに世の中にある会話音声による感情診断技術を併用することにより、より精度の高い相性診断が可能となる。
〔言葉を話せない赤ん坊、認知症者、動物等との意思伝達診断〕
 赤ん坊、認知症者、動物(ペットを含む)の生理反応による意思伝達診断では、赤ん坊、認知症者、動物(ペットを含む)の意思の診断を行う。ここでは、赤ん坊、認知症者、動物等の言葉を話すことが困難な人及び動物を視認者1として、アイカメラ3を装着させる。または、赤ん坊、動物、認知症者等がディスプレイの前に座って、ディスプレイの下にあるカメラで赤ん坊、動物、視認症患者の眼球を撮影する方法もある。赤ん坊等の意思伝達診断には、図1及び図2に示す視認者情感判定装置100を用いる。解析部102は、赤ん坊、動物、認知症者等の視点の位置と注目度(It)を計測し、診断部104は、視認対象に視点が追尾し、注目度(It)が平常値(Ih)より大きいときに、その視認対象に、赤ん坊、認知症者、動物等が興味・関心があると診断する。これにより、ものを言わない赤ん坊、認知症者、動物の視認対象に対する興味を把握できる。逆に、診断部104は、視認対象への視点の追尾時間(Bt)が平常値(Bht)より短く、視点離脱速度(Bs)、加速度(Br)が平常値(Bhs、Bhr)より速く、注目度(It)も感動値(Ie)より少ないときに、視認対象に対して無関心で、興味がないと診断する。これにより、ものを言わない赤ん坊、認知症者、動物への対応が可能となる。
また、赤ん坊については、顔解析手法により、赤ん坊の驚き、恐れ、嫌悪、怒り、喜び(幸福)、悲しみ等の感情とその程度を判定でき、そのときの対応方法の参考になる。
〔ロボットの応対方法判定〕
 ロボットの応対診断では、ロボットに、アイカメラ3、身体動作撮影装置9、身体温度測定装置10、及び図18に示す視認者情感判定装置100を組み込み、ロボットと応対する人などに対する診断を行う。
ロボットは、応対する人、言葉を話さない赤ん坊、認知症者、動物等の顔、眼球の動き、身体動作、顔の動作、身体温度の変化を常に測定している。ロボットの応対診断では、図1に示す視認者情感判定システムを用い、図18に示す視認者情感判定装置100を組み込む。図18は、ロボットの応対診断に用いる視認者情感判定装置100の構成を示すブロック図である。視認者情感判定装置100の診断部104は、ロボットと応対する人、またはものを言わない赤ん坊、認知症者、動物の情感を診断する。
言動選択部107は、診断部104から入力された診断結果に基づいて、予め記憶された複数の言動の中から診断結果に見合った言動を選択する。これにより、ロボットは、診断結果に従って、応対する人及び動物の情感を把握し、適切な言葉を発することができる。
また、適切な支援行動を起こすこともできる。なお、ロボットの応対診断では、図18に示すブロック図を用いて説明したが、特に説明しなかった部については、上述した図2の構成と同様である。
〔犯罪証拠診断〕
 犯罪証拠診断では、犯罪容疑者に、映像ディスプレイに、平凡な映像の途中に、犯罪現場を含むビデオ映像を見せることにより、犯罪の証拠となる映像を診断する。犯罪証拠診断には、図1及び図2に示す視認者情感判定装置100を用いる。犯罪容疑者は、自己の犯罪現場を含む場面を見たときに、他の場面よりも注目度(It)が拡大することから、診断部104は、注目度(It)が拡大したときに見ていた映像の場所が犯罪現場であるとして、犯罪現場を特定する参考とすることができる。さらに、その対象物である映像への視点追尾時間(Bt)は平常値(Bht)より短く、視点離脱速度(Bs)、初期加速度(Br)が平常値(Bhs、Bhr)より高いときに、診断部104は、その場面の映像に嫌悪感があると診断する。すなわち、犯罪容疑者はその場面を早く避けたいと思っていることになる。さらに、顔解析手法により、恐れ、嫌悪、怒り、喜び(幸福)、悲しみ等の容疑者の感情とその程度を判定でき、診断部104による診断結果は、その場所が犯罪場所であると判定するための参考になる。
また、犯罪容疑者に被害者の映像または写真を複数の人物と織り交ぜて見せた場合、診断部104は、犯罪容疑者が被害者の姿の映像または写真を見て、他の人物に比べて注目度(It)が大きくなったときに、その視認者が犯罪容疑者の可能性があると診断する。一般に、自己の犯罪場面と被害者に対して、あまり見続けたくないので、嫌悪感と同様の反応を示すため、診断部104は、対象への視点追尾時間(Bt)が平常値(Bht)より短く、対象から視点をそらす速度(Bs)が平常値(Bhs)より大きく、したがって、そらす瞬間の加速度(Bhr)も大きい場合、その容疑者が犯人の可能性があると診断する。さらに、顔解析手法により、恐れ、嫌悪、怒り、喜び(幸福)、悲しみ等の容疑者の感情とその程度を判定でき、その場所または被害者に対する嫌悪感に似た表情を示し、その場を避けたい心情を確認できる。
また、犯罪現場を含むビデオの代わりに、犯罪容疑者にアイカメラ3を装着させて犯罪現場に出向かせることにより、同様に犯罪対象物への注目、嫌悪感に近い表情を診断でき、捜査の参考にできる。
〔ドライバー眠気感知診断〕
 ドライバー眠気感知診断では、自動車運転者にアイカメラ3を装着してもらい、運転中に眼球を撮影することにより、ドライバーの眠気の有無を診断する。ドライバー眠気感知診断では、図1に示す視認者情感判定システムを用い、図19に示す視認者情感判定装置100を用いる。図19は、ドライバー眠気感知診断に用いる視認者情感判定装置100の構成を示すブロック図である。視認者情感判定装置100の診断部104は、注目度(It)が平常値(Ih)より少ないとき、危険な運転状態であると診断する。さらに、診断部104は、視線の方向が前方から外れる時間が多いときに、さらに前方不注意となり危険な運転状態であると診断する。
自動車の運転席の前(ハンドルの前方上)に運転者の眼球を追尾・撮影するカメラを用いることにより、前記と同様の測定、解析及び診断を行うことができる。
警告部108は、診断部104から入力した診断結果を用い、診断結果が危険な運転状態であると判定した場合に、運転者に警告を行う。警告は、アナウンスでも、警告音の発生でもよく、運転者に注意力回復のための刺激を与えるものであればよい。
〔自動車運転適性診断〕
 自動車運転適性診断では、視認者1にアイカメラ3を装着してもらい、自動車、飛行機のシミュレーターまたは実際の自動車で、視認者1に操作してもらうことにより、自動車運転や飛行機運転の適正を診断する。自動車運転適性診断では、図1及び図2に示す視認
者情感判定装置100を用いる。視認者情感判定装置100の解析部102は、視認者1の眼球運動撮影データの視線方向と注目度データを解析し、診断部104は、注意すべき時に、注意すべき箇所に視点が追尾し続け、注目度(It)が平常値(Ih)より大きく、拡大速度(Its)、加速度(Itk)も平常値(Ihv、Ihk)より大きいときに、注意すべき部分に視点が行き、注意しているものと診断する。
また、診断部104は、頭の向き及び視線の方向がいつも前面であることを診断する。さらに、応答装置14により、応答反応すべき時間に、タイミング良くステアリングハンドル、ブレーキで応答反応しているかを判定するため、解析部102は、応答データdを用いて、応答遅延時間と操作方法を解析し、診断部104は、操作遅延時間が危険回避のための一定時間(所定の設定時間)以下であり、かつ、応答データdから得られる操作が、予め設定された適切な操作方法かどうかを判断し、操作遅延時間、操作方法に基づいて、視認者1の熟練度、適正度を診断する。
また、シミュレーターに、勝手な振る舞いのドライバーが運転している車の映像を入れて、視認者に運転操作をしてもらい、顔解析による視認者の怒りの度合い、恐怖の度合いを計算して、運転適正の判定をすることもできる。
〔労働安全熟練度診断〕
 労働安全熟練度診断では、アイカメラ3を装着した労働者が、シミュレーターまたは実際の機械で、機器を操作してもらうことにより、労働安全熟練度を診断する。労働安全熟練度診断では、図1及び図2に示す視認者情感判定装置100を用いる。視認者情感判定装置100の解析部102は、労働者の視線方向、注目度(It)の変化から、視点の位置と注目度、さらに不注意度を計測し、診断部104は、労働者が作業で、注意すべき時に注意すべき部分(これが対象物となる)に視点が行って追尾し、注目度(It)が感動値レベル(Ie)まで大きくなり、注目度の拡大の速度(Its)、加速度(Itk)も感動値レベル(Iev、Iek)ほど大きいときに、注目すべき部分を注目していると診断する。さらに、解析部102は、応答データdを用いて、応答装置14を妥当なタイミングで操作しているかを解析するための応答反応の遅延時間と応答操作の正確性(正しい操作をしたか否かのデータ)を計測する。そして、診断部104は、所定の注意すべき時間内にタイミングよく(時間的遅延がない)適切な応答反応をしているか否かを診断する。注目度は感動値レベル(Ie)より縮小しており、視点が見るべきところに行っていない、または、身体応答反応も遅い場合、診断部104は、不適切な状態または不注意の状態として診断する。
以上の診断により、遅延時間、全体の操作のうちの正しい操作を行った数等のデータに基づいて、労働者の熟練度、適正度を診断する。
〔労働前適正診断〕
 労働前適正診断では、労働者が毎日、作業開始前にその日の作業の適正を診断する。
労働前適正診断では、図1及び図2に示す視認者情感判定装置100を用いる。
各所に注意すべき点(注意して操作しないと危険な箇所)を含めた注意力判定のコンテンツを映像ディスプレイに表示して労働者に見せる。視認者情感判定装置100の解析部102は、アイカメラ3からのデータの中の視線方向、注目度(It)を解析し、診断部104は、視点の位置と注目度、さらに不注意度を計測し、労働者が作業で注意すべき時に、注意すべき部分に視点が行って追尾し、注目度(It)が感動値レベル(Ie)まで大きくなり、注目度拡大の速度(Its)、加速度(Itk)も感動値レベル(Iev、Iek)ほど大きいときに、注目すべき部分を注目していると診断し、その労働者のその日の労働の体調は正常であると判定する。しかし、危険な箇所が映し出されていても、視点の接近速度(Bv)が規定値より遅く、加速度(Bk)も規定値より遅く、タイミングが規定値より遅く、適切な応答反応そしていない場合のどれか一つでも該当するときは、その労働者のその日の体調は正常ではないと判定する。
さらに、家族、会社関係の映像を見せて、その時の顔解析をして、その時の驚き、恐れ、
嫌悪、怒り、喜び(幸福)、悲しみ等の心情を判定して、当日の情感的な問題を類推することで、当日の作業適正を判定できる。
〔運動選手適正診断〕
 運動選手適正診断では、スポーツにおいて、アイカメラ3を装着した競技者の競技時の視点方向により、どの箇所を見ているかを診断する。運動選手適正診断では、図1及び図2に示す視認者情感判定装置100を用いる。視認者情感判定装置100の解析部102は、注目度(It)の大きさや注目度の拡大速度(Its)、加速度(Itk)により、注目度を解析する。そして、解析部102は、身体動作による競技者の反応(動作、遅延時間)を解析する。具体的には、解析部102は、応答データdを用いて、妥当な応答装置14を妥当なタイミングで操作しているかを解析することにより、注意すべき時間にタイミングよく(時間的遅延がない)適切な応答反応しているかを解析する。
あわせて、その時の顔解析をして、その時の心情を判定して、情感的な問題を類推する。そして、診断部104は、同じ競技の全競技者の適正値の平均と比較して、競技者の熟練度、適正度を診断する。
〔ゲームのエキサイト度診断〕
 ゲームのエキサイト度診断では、視認者1はアイカメラ3を装着してゲームを実施する。ゲームのエキサイト度診断では、図1及び図2に示す視認者情感判定装置100を用いる。視認者情感判定装置100の診断部104は、ゲーム中に注目度(It)が感動値レベル(Ie)まで拡大していることで、明確に興味・関心があると診断する。あわせて、その時の顔を解析して、その時の恐れ、嫌悪、怒り、喜び(幸福)、悲しみ等の心情を判定して、そのゲームの相性を判断する。
また、診断部104は、視認者身体温度計測により、身体温度がゲーム前の平常値より高いときに、その高さに応じた興奮度を診断する。逆に、診断部104は、注目度(It)が感動値レベル(Ie)まで拡大せず、身体温度が感動値にいたらないときに、エキサイトしていない、と診断する。
また、本発明の視認者情感判定装置を100をゲーム機に組み込み、前記視認者は、ゲームプレイヤーであり、視認対象は視認者の視認するゲームコンテンツでとして、ゲーム機内の前記診断部から入力された視認者の診断結果に基づいて、前記ゲーム機が適切なゲームコンテンツ画面をおよび音声及びゲーム用プログラムを選択する選択部と実行機能を備えていることにすると、たとえば、視認者の情動値が低い(関心がない)場合は、明らかに視認者の視認対象に関心がないと判定し、ゲーム機は関心のある内容のゲームに誘導する。
また、視認者の感情の驚き、怒り、恐怖、悲しみ、嫌悪、幸福(喜び)に合わせて、ゲーム機は適切な視認対象の変更(ゲームコンテンツ画面、音声、ゲーム用プログラムを変える)するなどの対処をすることもできる。
〔空間デザイン診断〕
 空間デザイン診断では、視認者1がアイカメラ3を装着して実際の空間を歩き、視認者1が空間の中に配列されている物の中で何に視点が行き、興味を持ってみているかを診断して、視認対象の空間が訴求どおりのデザインまたは配列の中で適切な状態になっているかどうかを診断する。
視認方法は、実際の空間を見る方法でも、テレビ、PC等のディスプレイに表示された物でも構わない。また、空間とは、街の景観、デパート、商店でのデザインや陳列、展示会場でのデザインや陳列、駅の通路、駅ホーム、駅ビル、車内等の空間を指す。空間デザイン診断には、図1及び図2に示す視認者情感判定装置100を用いる。なお、視認者情感判定装置100の解析部102は、視認者1が実際の空間を前進しているか、後退しているか、左右に動いているかを、視認映像aを解析することにより判明する。
 ここでは、対象物2は映像の中の特定の物(訴求対象であって、複数でも良い)である。診断部104は、ア.その対象物を見て、注目度(It)が感動値(Ie)まで拡大していない{<Ie}(無関心)、イ.視点の追尾時間(Bt)が平常値(Bht)より短い(興味なし)場合、視認者1がその対象物2に対して「デザインが適切でない」と診断する。さらに、顔解析をして、その時の嫌悪、怒り、悲しみ等の感情がある判定すると、明らかに「デザインが適切である」場合とは反対の行動であるといえる。このことから、「デザインが適切でない」という診断の度合いを判定できる。
一方、注目度(It)が拡大していて、対象物への視点追尾時間(Bt)が平常値(Bht)より長く、感動値(Bet)に達したときに、興味はあると診断できるが、「デザインが適切である」ことまでは診断できない。そこで、顔解析をして、その時の喜び(幸福)の感情が高い場合はデザインを肯定的に見ていると診断する。一方、悲しみ(SD)、怒り(AG)、恐怖(FR)、嫌悪(DI)が高い場合は、デザインが適切ではないと判定する。
 次に、複数の配列デザインを視認者1に視認してもらい、対象物を見て、他のデザインでの対象物より、ア.注目度(It)が大きい、イ.視点追尾時間(Bt)が長い、ウ.視点離脱速度(Bs)と最初の加速度(Br)が小さい場合は、そのデザインでの対象物が一番興味を引いていることになる。
さらに、顔解析によるその時の喜び(幸福)の心情が大きいと判定できたら、診断部104は、「そのデザインが他のデザインより適切である」と診断する。
一方、対象物が、他の配列デザインより、ア.注目度(It)が小さい、イ.視点滞留時間(Bt)が短い、ウ.視点離脱速度(Bs)、最初の加速度(Br)が大きい、顔解析による喜び(幸福)の程度が少ない場合は、診断部104は、「そのデザインの対象物は他のデザインの対象物に比べて適切でない」と診断する。
〔応対者応対度診断〕
応対者応対度診断は、請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、視認対象は客に応対する店員、受付者等であり、視認者はお客の立場で行動する。店員、受付者の応対において、視認者の情感を診断して、店員、受付者等の応対の良し悪しを判定することを特徴とする。
視認者の情動値(E)が低い(関心がない)場合は明らかに相手に特別に問題はなく、平常の応対をしているものと判定できる。
視認者の情動値が高い(興味を引いている)場合、一般的に感情値(F)の幸福(喜び)度(HP)が高ければ応対が良いと判定できる。
ただし、怒り(AG)、恐怖(FR)、嫌悪(DI)が高い場合は、会話内容にへの同調反応を除き、相手が好ましい応対ではないと判定できる。
〔映像コンテンツ選択優先度診断〕
請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、一般のテレビ視聴者(映像コンテンツの受信者)であり、視認対象は放送、ネットワークまたは映像蓄積装置に接続したTVディスプレイ上のコンテンツである。
図1及び図2に示す視認者情感判定装置100を用いる。
最初は、視聴者情感判定装置100は、予め視認者1が基本コンテンツを視聴したときに視認者1の興味・関心度の高い場面を選定する。ただし顔解析をして、怒り(AG)、恐怖(FR)、嫌悪(DI)が高い場合は、選定からはずす。さらに、視認者の興味・関心の高いコンテンツの分野を判定し、同類の興味・関心を示す他の視認者が視聴した興味・関心度の高いコンテンツを推薦コンテンツとして蓄積部103に蓄積しておき、視認者1が実際に視聴する時にその推薦コンテンツを表示して、その中から視認者の意思で一つのコンテンツを選択して視聴することができるようにしたものである。
一方、視認者情感判定装置100の診断部104は、視認者1が、次回からの映像コンテンツ視聴中は、注目度(It)が感動値(Ie)まで拡大し、注目度拡大速度(Its)、加速度(Itk)も平常値(Ih、Phv)より大きいとき、または身体温度が平常値より高くて興奮する場面により、視聴している場面に対して明確に興味・関心・興奮度があると診断する。ただし顔解析をして、怒り(AG)、恐怖(FR)、嫌悪(DI)が高い場面はずす。そこで、次回の視聴するコンテンツを選択する時のために、その分野のコンテンツを選択する優先度を上げる。なお、その診断結果は、蓄積部103に記録しておき、次の視聴時において、映像コンテンツ視聴時のコンテンツを選択するための推薦データに利用する。
逆に、診断部104は、視認者1がコンテンツ視聴中に、平常値より興味・関心・興奮度が低いと判定した場合に、その分野以外のコンテンツであって、以前に興味・関心・興奮度が高かった分野のまだ視聴してないコンテンツに切り替え、同時に次に視聴するコンテンツを選択する時の、その分野のコンテンツを選択する優先度を下げる。なお、その診断結果は、蓄積部103に記録しておき、次の視聴時間において、映像コンテンツ視聴時のコンテンツを選択するための推薦データに利用する。
〔コンテンツの中の興味・関心度の高い物または人物の自動マーク〕
請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、一般のテレビ視聴者(映像コンテンツの受信者)であり、視認対象は放送、ネットワークまたは映像蓄積装置に接続したTVディスプレイ上のコンテンツである。
図1及び図2に示す視認者情感判定装置100を用いる。
コンテンツの中の興味・関心度の高い物または人物の自動マークは、番組を視聴中に情感度の高い瞬間に受像機の中の視点のある対象物または人物を自動的にマークし、後にネットワークを通して、その品物または人物の情報を電子メールにて配信されてくるシステムで、後で、視認者の意思により商品の購入、人物への連絡ができることを特徴とする。
ただし、受像機の中の視点のある対象物または人物を自動的にマークするに際して、情動(興味・関心)度が高くても、顔解析による感情値において嫌悪感度と怒り度、および条件により恐怖度が高いものを自動的に除くことを特徴とする。
 上述したように、本発明の実施形態による視認者情感判定装置100によれば、購買意欲度診断、学習意欲度診断、映像コンテンツ作者の期待感情反応度に対する視聴者感情反応度診断、コンテンツ内の注目点の分布によるコンテンツ評価、相性診断、言葉を話せない赤ん坊、認知症者、動物等との意思伝達診断、ロボットの応対方法判定、犯罪証拠診断、ドライバー眠気感知診断、自動車運転適性診断、労働安全熟練度診断、労働前適正診断、運動選手適正診断、ゲームのエキサイト度診断、空間デザイン診断、応対者応対度診断、映像コンテンツ選択優先度診断、コンテンツの中の興味・関心度の高い物または人物の自動マークなどの様々な状況において、対象物または視認者自身の能力をより正確に評価することができる。
1 視認者
2 対象物
3 アイカメラ
4 眼球撮影装置
5 視認情景撮影装置
6 マイクロフォン
7 送信装置
8 蓄積装置
9 身体動作撮影装置
10 身体温度測定装置
11 明るさ計測装置
14 応答装置
20a、20b テレビ電話
21a、21b 顔カメラ
22a、22b ディスプレイ
23a、23b 眼球カメラ
24a、24b 追尾カメラ
30 通信回線
100 視認者情感判定装置
101 受信部
102 解析部
103 蓄積部
104 診断部
105 表示部
106 送信部
107 言動選択部
108 警告部
301 顔解析におけるマーク1(特徴点)眉毛内側端
302 顔解析におけるマーク2(特徴点)眉毛外側端
303 顔解析におけるマーク3(特徴点)上瞼の真ん中上部
304 顔解析におけるマーク4(特徴点)顎の真ん中下端
401 特定映像コンテンツの映像ディスプレイ画面
402 特定映像コンテンツの映像ディスプレイ画面上の訴求点

Claims (26)

  1.  特定の対象物を含む情景に視線を向けた視認者の、前記特定の対象物に対する情感(情動と感情)を診断する、視認情景に対する視認者情感判定装置において、視認者の顔の映像を撮影する顔撮影装置と前記視認者の眼球撮影装置と、前記視認者の視認映像と視認視野の明るさ情報および前記視認者の眼球運動映像を受信する受信部と、前記視認映像及び前記眼球運動映像から前記視認映像における視点の位置を算出するとともに、前記視認者の注目度の変化による生理反応データの変化とそれに伴う加速度を算出する部分と、前記視認者の顔映像から視認者の表情を解析する部分を含む解析部と、前記視認者が興味が低く注目しない対象物を見ている場合の注目度と視点の動きの生理反応データの変化とそれに伴う加速度を含む情報を平常情動値として蓄積し、前記視認者が興味が高く注目する対象物を見ている場合の生理反応データの変化とそれに伴う加速度を含む情報を高情動値として蓄積し、前記解析部によって算出された前記視認者の生理反応データの変化とそれに伴う加速度を含む情報を情動値として蓄積する部分と、視認者の平常時の顔の各部の状態(平常感情値)と、顔の各部が最大に動いた時の値(高感情値)を蓄積する部分を含む蓄積部と、前記顔の解析値を、前記平常感情値あるいは前記高感情値と比較することにより、前記視認者の前記特定の対象物に対する感情値として蓄積する部分と、注目の情動と感情を同時に診断する部分と必要により、身体温度測定機能を備え、身体の平常温度とエキサイト時での身体の温度測定による興奮度を診断する部分とを備えたことを特徴とする視認情景に対する視認者情感判定装置。
  2.  請求項1に記載の視認情景に対する視認者情感判定装置において、前記生理反応データの変化とそれに伴う加速度は、前記視認者の視点が前記特定の対象物に接近する際の速度および接近加速度、あるいは、前記視認者の視点が前記特定の対象物から離脱する際の離脱速度と加速度であり、前記診断部は、前記接近速度およびその加速度が大きいほど前記特定の対象物に興味があり注目する現象があり、前記接近速度およびその加速度が小さいほど前記特定の対象物に興味が低く注目しないと診断し、前記離脱速度およびその加速度が大きいほど前記特定の対象物に興味が低く注目もしない、前記離脱速度およびその加速度が小さいほど前記特定の対象物に興味があり注目すると診断することを特徴とする視認情景に対する視認者情感判定装置。
    なお、視認対象は、対象物の中のある部分(たとえば商品の場合、商品名、製造会社名、賞味期限、注意書き、仕様、操作ボタン等)でも良い。
  3.  請求項1に記載の視認情景に対する視認者情感判定装置において、前記解析部は、前記視認者の頭に装着されたカメラにより撮影された視認映像内の静止物の位置を基点として、または、ジャイロスコープにより、前記視認者の頭の移動の大きさ、移動速度及び移動加速度を算出し、さらに視認映像内での視点の位置と位置の変化速度、変化加速度を合わせて、前記頭の動きを含む、前記特定の対象物に対する視点の接近速度およびその加速度あるいは離脱速度およびその加速度を算出することを特徴とする視認情景に対する視認者情感判定装置。
  4. 請求項1に記載の生理反応データにおいて生理反応データが瞳孔径の変化の場合において、視認対象が映像ディスプレイの場合、映像ディスプレイの輝度を変化させ、それに対応する視認者の瞳孔径を求め、「基本輝度と瞳孔径の関係データ」として蓄積する。
    視認者が目的の対象物を視認するときは、視認者の瞳孔径を計測すると同時に、輝度計により視認範囲を対象に輝度を計測する。
    映像ディスプレイを視認した時の瞳孔径の値から、蓄積した「基本輝度と瞳孔径の関係データ」の対象物視認時の輝度に相当する瞳孔径(明るさに反応する瞳孔径)の値を差し引くことにより、対象物だけに対する注目度に相当する瞳孔径を求めることを備えたことを特徴とする視認情景に対する視認者情感判定装置。
    なお、映像ディスプレイを除くその他の視認情景の場合は:
    輝度の代わり照度を適用し、輝度計の代わりに照度計を使い、「基本輝度と瞳孔径の関係データ」に相当する「基本照度と瞳孔径の関係データ」は、基本照度を変化させることのできる部屋を用意して瞳孔径を計測することで得ることができる。
    この場合、実際の対象物の計測時に、視認者の頭部に眼球測定装置と並べて照度計を装着して対象物の照度を計測する。
  5. 請求項4において、映像ディスプレイの場合、ディスプレイの輝度に比較して視点の輝度が無視できない映像においては、ディスプレイ上の視点のあるピクセルの赤(r)、緑(G)、青(B)の輝度への影響度をパラメータとして視点のあるピクセルの輝度を求め、視認者の瞳孔径から「ディスプレイ輝度と視点輝度と瞳孔径の基本関係データ」の視認時のピクセルの輝度に相当する瞳孔径(明るさに反応する瞳孔径)を差し引くことで、視認者の視点の注目度に相当する瞳孔径を得ることができることを特徴とする視認情景に対する視認者情感判定装置。
    なお、すでに存在する映像ディスプレイのピクセルの輝度を測定する計測器でピクセルの輝度を計測しても良い。
    なお、「ディスプレイ輝度と視点輝度と瞳孔径の基本関係データ」は段階的に変化させるディスプレイの明るさにおいて、1,7cmの円の輝度を最高(白)から最小(黒)に変化させた時のその円を視認した視認者の瞳孔径を測り、「ディスプレイ輝度と視点輝度と瞳孔径の基本関係データ」を算出し、蓄積しておく。
  6. 請求項4および5において、基本輝度と瞳孔径の関係データにおいて、瞳孔径の最大値(映像ディスプレイが最低の輝度)と瞳孔径が最小値(映像ディスプレイが最大の輝度)の間の瞳孔径の変化範囲と視認者が対象物を視認した時の対象物だけに対する注目度に相当する瞳孔径との比を、視認者の個人差を吸収した注目度とすることを特徴とする視認情景に対する視認者情感判定装置。
  7.  請求項1に記載の視認情景に対する視認者情感判定装置において、注目度が大きいと視認対象への興味・関心が大きいと判定する。また、前記生理反応データの変化に伴う速度および加速度は、前記視認者の注目度の拡大速度および加速度、あるいは、前記視認者の注目度の縮小速度および加速度であり、
     前記診断部は、前記拡大速度および加速度が大きいほど前記特定の対象物に興味・関心があると診断し、前記縮小速度および加速度が大きいほど前記特定の対象物に興味・関心がないと診断することを特徴とする視認情景に対する視認者情感判定装置。
  8.  請求項1から3および7のいずれか一項に記載の視認情景に対する視認者情感判定装置において、
     請求項1から3および7に記載の興味・関心度(情動度)と合わせて、
     視認者の顔の各部位の変化を計測し、その変化量により、興味・関心度の高い時および低い時の、顔の表情解析による怒り、恐怖、嫌悪、幸福(喜び)、悲しみ、驚きなどの視認者の感情度をあわせて判定することにより、視認対象に対する情動と感情を合わせた情感の度合い(情感度)を評価をすることを特徴とする視認情景に対する視認者情感判定装置。
     この顔の各部位の変化を測定することにより判定する感情度判定の技術はすでにある顔の表情判定システムとして確立しているものを用いることにする。
  9.  請求項1に記載の視認情景に対する視認者情感判定装置において、請求項目1の視認時の対象物は、実際の対象物を手で触りながら、または操作しながら視認する場合と、音声だけを聞いているとき、匂いをかいでいるとき、体のある部分が対象物と接触しているとき、食べているときの味覚を感じているとき、またはそれらの複数の刺激があったとき、
    およびイメージ想起のときの注目度および視点の動きと顔の各部位の動きを解析して、それらの刺激物を対象にした情感判定をすることを特徴とする視認者情感判定装置。
  10.  請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記特定の対象物は、商品(商品の中のある部分:商品名、製造会社名、賞味期限、注意書き、仕様、操作ボタン等の商品の一部を含む)であり、前記診断部は、前記視認者の前記商品に対する視認者の購買意欲度を診断することを特徴とする視認情景に対する視認者情感判定装置。
  11.  項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記特定の対象物は、学習対象であり、前記診断部は、前記視認者の前記学習対象に対する視認者の学習意欲度を診断することを特徴とする視認情景に対する視認者情感判定装置。
  12. 請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記特定の対象物は、映像コンテンツ製作者が、視聴者に期待するコンテンツ映像(音を含む。また、音だけの場合もある)で、各場面の興味・関心による注目度、および各基本感情の幸福(喜び)度、驚き度、悲しみ度、怒り度、恐怖度、嫌悪感度および興奮度のレベルを、コンテンツソフトの時間軸上に設定しておいた映像コンテンツであり、前記視認者は、前記映像コンテンツ視聴者であり、前記映像コンテンツ映写時に、視聴者の注目度および幸福(喜び)度、驚き度、悲しみ度、怒り度、恐怖度、嫌悪感度および興奮度の反応が、映像コンテンツ製作者の期待したレベルにどの程度達しているかを診断し、映像コンテンツの評価をすることを特徴とする視認情景に対する視認者情感判定装置。
  13. 請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記特定の視認対象は、テレビ、映像の特定画面、静止画、ポスター、雑誌の1ページのようなコンテンツの特定場面であり、前記視認者は、前記コンテンツの視認者であり、コンテンツの特定場面において、複数視聴者の注目視点の注目度分布を表示して、コンテンツ製作者の訴求点との一致の程度を判定することにより、コンテンツ特定画面の評価をすることを特徴とする視認情景に対する視認者情感判定装置。
  14.  請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記受信部は、2つのテレビ電話から、それぞれの通話者の映像と前記視認映像及び前記眼球運動映像を受信し、前記診断部は、一方の通話者から他方の通話者に対する興味および情感をそれぞれ診断し、さらに、一方の通話者から他方の通話者に対する興味および情感の診断結果を他方の通話者のテレビ電話または仲介者の受信装置に送信する送信部を備えていることを特徴とする視認情景に対する視認者情感判定装置。この代表的利用場面は相性診断である。
  15.  請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、言葉を話すことが困難な人、あるいは、動物であり、言葉を話すことが困難な人、あるいは動物のそのときの情感を判定することを特徴とする視認情景に対する視認者情感判定装置。
  16.   請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、本発明の視認者情感判定装置をロボットに組み込み、前記視認者は、感情を持つ人間であり、動物であり、視認対象は視認者の視認するすべてであり、ロボットの前記診断部から入力された視認者の情感の診断結果に基づいて、前記ロボットの前記視認者に対する適切な言動および動作を選択する選択部を備えていることを特徴とす
    る視認情景に対する視認者情感判定装置。
  17.   請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、犯罪容疑者であり、前記特定の対象物は、犯罪現場、犯罪用具、共犯者または被害者であり、対象物に対する犯罪容疑者の情感を判定して、犯罪捜査の参考とすることを特徴とする視認情景に対する視認者情感判定装置。
  18.  請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、自動車または飛行機等の交通機関の運転者であり、前記特定の対象物は、運転席から見える危険箇所のある映像コンテンツ、または運転シミュレータであったり、実際の運転時で視認するすべてであり、前記診断部から入力した診断結果を用い、注意すべきところで、注目して注意しているかどうかを判定し、危険運転状態であると診断された場合は、前記視認者に警告またはブレーキ等の適切な操作を行う機能を備えていることを特徴とする視認情景に対する視認者情感判定装置。特に運転時の不注意時(居眠り時)の判定での警告に有効である。
  19.  請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は労働者であり、前記特定の対象物は、危険箇所のある装置の操作映像コンテンツまたは操作シミュレータであったり、実際の操作時で視認するすべてであり、前記解析部は、前記視認者が応答装置での操作による応答データを用いて、応答遅延時間及び操作方法を解析し、前記診断部は、注目して注意しているかどうかを判定し、応答遅延時間及び操作方法に基づいて、注目すべき時に注意し、適切な操作をしていることを診断し、前記視認者の熟練度あるいは適正度を診断することを特徴とする視認情景に対する視認者情感判定装置。
  20.  請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、労働者であり、視認対象は危険箇所のある操作映像のコンテンツまたはシミュレータであり、前記診断部は、前記視認者の情感および応答データによる応答反応を診断して、視認者の当日の体調(精神的を含む)および就業への適性を判定することを特徴とする視認情景に対する視認者情感判定装置。
  21.  請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、運動選手であり、前記特定の対象物は、運動選手が運動する時に見る対象(野球のバッターなら投手の動きとボールの球筋、テニス選手なら相手の選手の動作とボールの球筋等)である。前記診断部は、前記視認者の熟練度あるいは適正度を診断することを特徴とする視認情景に対する視認者情感判定装置。
  22.  請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、ゲームプレイヤーであり、前記特定の対象物は、ゲーム機(ディスプレイを含む)である。前記診断部は、前記視認者の注目度の変化に基づく興味による注目度と表情および身体温度データにより、前記視認者の興奮度を診断することを特徴とする視認情景に対する視認者情感判定装置。また、視認者情感判定装置をゲーム機に組み込み、ゲームプレイヤーの情感と興奮度を診断し、プレイヤーに合った(情感が高く興奮度も高い)ゲームに誘導することを特徴とする視認情景に対する視認者情感判定装置。
  23.  請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、一般の人であり、前記特定の対象物は、空間の中に配列されている物であり、前記診断部は、前記視認者から見た前記特定の対象物の配置とデザインの適切性を診断する
    ことを特徴とする視認情景に対する視認者情感判定装置。
  24. 請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、視認対象は客に対する店員、受付者等であり、視認者はお客に相当する人で、店員、受付者の応対において、視認者の情感判定により、店員、受付者等の応対の良し悪しを判定することを特徴とする視認情景に対する視認者情感判定装置。
  25. 請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、一般のテレビ視聴者(映像コンテンツの受信者)であり、視認対象は放送、ネットワークまたは映像蓄積装置に接続したTVディスプレイ上に表示されるコンテンツであり、テレビ視聴時の視認者の興味・関心の高いコンテンツの分野を情感の解析により判定し、視認者のテレビ等視聴時に、視認者の興味・関心度の高いコンテンツを推薦することを特徴とする視認情景に対する視認者情感判定装置。
  26. 請求項1から3および7から9までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、一般のテレビ視聴者(映像コンテンツの受信者)であり、視認対象は放送、ネットワークまたは映像蓄積装置に接続したテレビ受信機(映像コンテンツの受信機)である。
    番組を視聴中に情感度の高い瞬間に受像機の中の視点のある対象物または人物を自動的にマークし、後にネットワークを通して、その品物または人物の情報を視認者に電子メールにて配信されてくるシステムで、後で、視認者の意思により商品の購入、人物への連絡ができることを特徴とする。
    ただし、受像機の中の視点のある対象物または人物を自動的にマークするに際して、情動(興味・関心度)が高くても、顔解析による感情度において嫌悪感度と怒り度、および条件により恐怖度が高いものを自動的に除くことを特徴とする視認情景に対する視認者情感判定装置。
PCT/JP2009/067659 2009-10-09 2009-10-09 視認情景に対する視認者情感判定装置 WO2011042989A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011535257A JP5445981B2 (ja) 2009-10-09 2009-10-09 視認情景に対する視認者情感判定装置
PCT/JP2009/067659 WO2011042989A1 (ja) 2009-10-09 2009-10-09 視認情景に対する視認者情感判定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/067659 WO2011042989A1 (ja) 2009-10-09 2009-10-09 視認情景に対する視認者情感判定装置

Publications (1)

Publication Number Publication Date
WO2011042989A1 true WO2011042989A1 (ja) 2011-04-14

Family

ID=43856481

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/067659 WO2011042989A1 (ja) 2009-10-09 2009-10-09 視認情景に対する視認者情感判定装置

Country Status (2)

Country Link
JP (1) JP5445981B2 (ja)
WO (1) WO2011042989A1 (ja)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015014834A (ja) * 2013-07-03 2015-01-22 株式会社Lassic 機械対話による感情推定システム及びそのプログラム
JP2015503414A (ja) * 2012-01-05 2015-02-02 ユニバーシティー コート オブ ザユニバーシティー オブ アバディーン 精神医学的評価用装置および方法
KR101490505B1 (ko) * 2014-07-08 2015-02-10 주식회사 테라클 관심도 생성 방법 및 장치
WO2015056742A1 (ja) 2013-10-17 2015-04-23 光一 菊池 視認対象効果度測定装置
JP2015516714A (ja) * 2012-03-08 2015-06-11 エンパイア テクノロジー ディベロップメント エルエルシー モバイルデバイスに関連付けられた体感品質の測定
WO2016143759A1 (ja) * 2015-03-06 2016-09-15 株式会社 脳機能研究所 感情推定装置及び感情推定方法
JP6042015B1 (ja) * 2016-06-07 2016-12-14 株式会社採用と育成研究社 オンライン面接評価装置、方法およびプログラム
WO2017057631A1 (ja) * 2015-10-01 2017-04-06 株式会社夏目綜合研究所 明暗、呼吸及び脈拍の影響を排除する視認者情感判定装置、視認者情感判定システム及びプログラム
EP2637078A4 (en) * 2010-11-02 2017-05-17 NEC Corporation Information processing system and information processing method
JP2017516140A (ja) * 2014-04-29 2017-06-15 マイクロソフト テクノロジー ライセンシング,エルエルシー 顔の表情のトラッキング
JP2017184996A (ja) * 2016-04-05 2017-10-12 渡 倉島 瞳孔径拡大による脳活動量判定装置およびプログラム
JP2018027267A (ja) * 2016-08-19 2018-02-22 Kddi株式会社 映像視聴者の状態推定装置、方法及びプログラム
CN108337539A (zh) * 2017-12-22 2018-07-27 新华网股份有限公司 一种比较观众反应的方法和装置
EP3496100A1 (en) * 2017-12-08 2019-06-12 Nokia Technologies Oy Method and apparatus for applying video viewing behavior
EP3496099A1 (en) * 2017-12-08 2019-06-12 Nokia Technologies Oy Method and apparatus for defining a storyline based on path probabilities
WO2020016969A1 (ja) * 2018-07-18 2020-01-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
WO2020194529A1 (ja) * 2019-03-26 2020-10-01 日本電気株式会社 興味判定装置、興味判定システム、興味判定方法及びプログラムが格納された非一時的なコンピュータ可読媒体
WO2021044540A1 (ja) * 2019-09-04 2021-03-11 日本電気株式会社 制御装置、制御方法及び記憶媒体
WO2022107288A1 (ja) * 2020-11-19 2022-05-27 日本電信電話株式会社 推定装置、推定方法、および、推定プログラム
JP7138998B1 (ja) * 2021-08-31 2022-09-20 株式会社I’mbesideyou ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022230156A1 (ja) * 2021-04-29 2022-11-03 株式会社I’mbesideyou 動画像分析システム
JP7481398B2 (ja) 2022-07-04 2024-05-10 ソフトバンク株式会社 判定装置、プログラム、及び判定方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113397544B (zh) * 2021-06-08 2022-06-07 山东第一医科大学附属肿瘤医院(山东省肿瘤防治研究院、山东省肿瘤医院) 一种病患情绪监测方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009508553A (ja) * 2005-09-16 2009-03-05 アイモーションズ−エモーション テクノロジー エー/エス 眼球性質を解析することで、人間の感情を決定するシステムおよび方法
JP2009116697A (ja) * 2007-11-07 2009-05-28 Sony Corp 情報提示装置、情報提示方法及びデータベース作成方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009508553A (ja) * 2005-09-16 2009-03-05 アイモーションズ−エモーション テクノロジー エー/エス 眼球性質を解析することで、人間の感情を決定するシステムおよび方法
JP2009116697A (ja) * 2007-11-07 2009-05-28 Sony Corp 情報提示装置、情報提示方法及びデータベース作成方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HIROSHI YAMADA ET AL.: "Ganmen Hyojo no Chikakuteki Handan Katei ni Kansuru Setsumei Model", JAPANESE PSYCHOLOGICAL REVIEW, vol. 4, no. 2, 2000, pages 245 - 255 *
WATARU KURASHIMA ET AL.: "Dokokei Hanno to Kao Hyojo Hanno no Yugo ni yoru Jokan Hyoka no Atarashii Teian", JOURNAL OF JAPANESE ACADEMY OF FACIAL STUDIES, vol. 9, no. 1, 5 October 2009 (2009-10-05), pages 206 *

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2637078A4 (en) * 2010-11-02 2017-05-17 NEC Corporation Information processing system and information processing method
JP2015503414A (ja) * 2012-01-05 2015-02-02 ユニバーシティー コート オブ ザユニバーシティー オブ アバディーン 精神医学的評価用装置および方法
US9507997B2 (en) 2012-03-08 2016-11-29 Empire Technology Development Llc Measuring quality of experience associated with a mobile device
KR101819791B1 (ko) 2012-03-08 2018-01-17 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 모바일 디바이스와 연관된 경험의 품질 측정
JP2015516714A (ja) * 2012-03-08 2015-06-11 エンパイア テクノロジー ディベロップメント エルエルシー モバイルデバイスに関連付けられた体感品質の測定
JP2015014834A (ja) * 2013-07-03 2015-01-22 株式会社Lassic 機械対話による感情推定システム及びそのプログラム
JPWO2015056742A1 (ja) * 2013-10-17 2017-03-09 株式会社夏目綜合研究所 視認対象効果度測定装置
WO2015056742A1 (ja) 2013-10-17 2015-04-23 光一 菊池 視認対象効果度測定装置
JP2017516140A (ja) * 2014-04-29 2017-06-15 マイクロソフト テクノロジー ライセンシング,エルエルシー 顔の表情のトラッキング
KR101490505B1 (ko) * 2014-07-08 2015-02-10 주식회사 테라클 관심도 생성 방법 및 장치
WO2016143759A1 (ja) * 2015-03-06 2016-09-15 株式会社 脳機能研究所 感情推定装置及び感情推定方法
JPWO2016143759A1 (ja) * 2015-03-06 2017-12-14 株式会社脳機能研究所 感情推定装置及び感情推定方法
WO2017057631A1 (ja) * 2015-10-01 2017-04-06 株式会社夏目綜合研究所 明暗、呼吸及び脈拍の影響を排除する視認者情感判定装置、視認者情感判定システム及びプログラム
EP3357424A4 (en) * 2015-10-01 2019-06-19 Natsume Research Institute, Co., Ltd. APPARATUS FOR DETERMINING THE EMOTION OF A SPECTATOR, WHICH ELIMINATES THE INFLUENCE OF BRIGHTNESS, BREATHING AND PULSE, SYSTEM FOR DETERMINING THE EMOTION OF A SPECTATOR, AND PROGRAM
CN108366764A (zh) * 2015-10-01 2018-08-03 株式会社夏目综合研究所 排除明暗、呼吸和脉搏的影响的观看者情绪判定装置、观看者情绪判定***和程序
JPWO2017057631A1 (ja) * 2015-10-01 2018-09-06 株式会社夏目綜合研究所 明暗、呼吸及び脈拍の影響を排除する視認者情感判定装置、視認者情感判定システム及びプログラム
JP2017184996A (ja) * 2016-04-05 2017-10-12 渡 倉島 瞳孔径拡大による脳活動量判定装置およびプログラム
JP6042015B1 (ja) * 2016-06-07 2016-12-14 株式会社採用と育成研究社 オンライン面接評価装置、方法およびプログラム
JP2018027267A (ja) * 2016-08-19 2018-02-22 Kddi株式会社 映像視聴者の状態推定装置、方法及びプログラム
EP3496099A1 (en) * 2017-12-08 2019-06-12 Nokia Technologies Oy Method and apparatus for defining a storyline based on path probabilities
US11195555B2 (en) 2017-12-08 2021-12-07 Nokia Technologies Oy Method and apparatus for defining a storyline based on path probabilities
WO2019110874A1 (en) * 2017-12-08 2019-06-13 Nokia Technologies Oy Method and apparatus for applying video viewing behavior
WO2019110873A1 (en) * 2017-12-08 2019-06-13 Nokia Technologies Oy Method and apparatus for defining a storyline based on path probabilities
CN111527495B (zh) * 2017-12-08 2023-08-11 诺基亚技术有限公司 用于应用视频观看行为的方法和装置
EP3496100A1 (en) * 2017-12-08 2019-06-12 Nokia Technologies Oy Method and apparatus for applying video viewing behavior
CN111527495A (zh) * 2017-12-08 2020-08-11 诺基亚技术有限公司 用于应用视频观看行为的方法和装置
US11188757B2 (en) 2017-12-08 2021-11-30 Nokia Technologies Oy Method and apparatus for applying video viewing behavior
CN108337539A (zh) * 2017-12-22 2018-07-27 新华网股份有限公司 一种比较观众反应的方法和装置
WO2020016969A1 (ja) * 2018-07-18 2020-01-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
WO2020194529A1 (ja) * 2019-03-26 2020-10-01 日本電気株式会社 興味判定装置、興味判定システム、興味判定方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JPWO2020194529A1 (ja) * 2019-03-26 2020-10-01
JP7207520B2 (ja) 2019-03-26 2023-01-18 日本電気株式会社 興味判定装置、興味判定システム、興味判定方法及びプログラム
US11887349B2 (en) 2019-03-26 2024-01-30 Nec Corporation Interest determination apparatus, interest determination system, interest determination method, and non-transitory computer readable medium storing program
WO2021044540A1 (ja) * 2019-09-04 2021-03-11 日本電気株式会社 制御装置、制御方法及び記憶媒体
WO2022107288A1 (ja) * 2020-11-19 2022-05-27 日本電信電話株式会社 推定装置、推定方法、および、推定プログラム
JP7444286B2 (ja) 2020-11-19 2024-03-06 日本電信電話株式会社 推定装置、推定方法、および、推定プログラム
WO2022230156A1 (ja) * 2021-04-29 2022-11-03 株式会社I’mbesideyou 動画像分析システム
JP7138998B1 (ja) * 2021-08-31 2022-09-20 株式会社I’mbesideyou ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2023032057A1 (ja) * 2021-08-31 2023-03-09 株式会社I’mbesideyou ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
JP7481398B2 (ja) 2022-07-04 2024-05-10 ソフトバンク株式会社 判定装置、プログラム、及び判定方法

Also Published As

Publication number Publication date
JPWO2011042989A1 (ja) 2013-02-28
JP5445981B2 (ja) 2014-03-19

Similar Documents

Publication Publication Date Title
JP5445981B2 (ja) 視認情景に対する視認者情感判定装置
JP2010094493A (ja) 視認情景に対する視認者情感判定装置
Foulsham et al. The where, what and when of gaze allocation in the lab and the natural environment
TWI741512B (zh) 駕駛員注意力監測方法和裝置及電子設備
CN107929007B (zh) 一种利用眼动追踪和智能评估技术的注意力和视觉能力训练***及方法
CN112034977B (zh) Mr智能眼镜内容交互、信息输入、应用推荐技术的方法
CA2545202C (en) Method and apparatus for calibration-free eye tracking
CN110349667B (zh) 结合调查问卷及多模态范式行为数据分析的孤独症评估***
CN103181180B (zh) 提示控制装置以及提示控制方法
EP2600331A1 (en) Head-mounted display based education and instruction
JP2017507400A (ja) 注視によるメディア選択及び編集のためのシステム並びに方法
US20170263017A1 (en) System and method for tracking gaze position
JP5921674B2 (ja) 動きガイド提示方法、そのシステム及び動きガイド提示装置
US20120194648A1 (en) Video/ audio controller
Hessels et al. Looking behavior and potential human interactions during locomotion
JP7066115B2 (ja) パブリックスピーキング支援装置、及びプログラム
KR20190048144A (ko) 발표 및 면접 훈련을 위한 증강현실 시스템
Chukoskie et al. Quantifying gaze behavior during real-world interactions using automated object, face, and fixation detection
JP7181293B2 (ja) 情報処理装置、情報処理方法、及びプログラム
Goudé et al. Real-time multi-map saliency-driven gaze behavior for non-conversational characters
TWM562459U (zh) 用於互動式線上教學的即時監控系統
WO2023037348A1 (en) System and method for monitoring human-device interactions
JP2010063621A (ja) 視認情景に対する視認者感性反応装置
KR102038413B1 (ko) 그레이디언트 벡터 필드와 칼만 필터를 이용한 온라인 강의 모니터링 방법
CN116133594A (zh) 基于声音的注意力状态评价

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09850260

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011535257

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09850260

Country of ref document: EP

Kind code of ref document: A1