WO2017169502A1 - 情報処理装置、情報処理方法及びコンピュータプログラム - Google Patents

情報処理装置、情報処理方法及びコンピュータプログラム Download PDF

Info

Publication number
WO2017169502A1
WO2017169502A1 PCT/JP2017/008382 JP2017008382W WO2017169502A1 WO 2017169502 A1 WO2017169502 A1 WO 2017169502A1 JP 2017008382 W JP2017008382 W JP 2017008382W WO 2017169502 A1 WO2017169502 A1 WO 2017169502A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
visual effect
thumbnail
mobile terminal
moving image
Prior art date
Application number
PCT/JP2017/008382
Other languages
English (en)
French (fr)
Inventor
香月 中村
知佳子 立石
森生 小俣
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/087,216 priority Critical patent/US10679677B2/en
Publication of WO2017169502A1 publication Critical patent/WO2017169502A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a computer program.
  • Patent Document 1 discloses a technology of an information presentation apparatus, an information presentation method, and a computer program that presents a user with a content file such as a still image or a moving image shot by a digital camera according to a file update date such as a shooting date. It is disclosed.
  • the present disclosure proposes a new and improved information processing apparatus, information processing method, and computer program capable of presenting what kind of atmosphere the content has before reproduction.
  • a visual effect for a screen on which content representative information is displayed is determined based on detection information detected when the content is generated, and the determined visual effect is combined with the representative information in the screen.
  • an information processing apparatus including a control unit to be displayed.
  • the visual effect on the screen on which the representative information of the content is displayed is determined based on the detection information detected when the content is generated, and the determined visual effect is combined with the representative information. And displaying on the screen.
  • An information processing method is provided.
  • the visual effect on the screen on which the representative information of the content is displayed on the computer system is determined based on the detection information detected when the content is generated, and the determined visual effect is There is provided a computer program for executing display on the screen together with representative information.
  • FIG. 3 is an explanatory diagram illustrating an external appearance example of an imaging apparatus 100 according to an embodiment of the present disclosure. It is explanatory drawing which shows the example of an external appearance of the imaging device 100 concerning the embodiment. It is explanatory drawing which shows the usage example of the imaging device 100 concerning the embodiment. It is explanatory drawing which shows the usage example of the imaging device 100 concerning the embodiment.
  • FIG. 11 is an explanatory diagram illustrating a state in which a moving image stored by the imaging apparatus 100 is transferred to the mobile terminal 200. It is explanatory drawing which shows the example of the screen which the portable terminal 200 displays. It is explanatory drawing which shows the example of the screen which the portable terminal 200 which concerns on the embodiment displays.
  • FIG. 12 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • FIG. 12 is explanatory drawing which shows the example of the reproduction area of the moving image at the time of carrying out highlight reproduction of the moving image displayed on a thumbnail.
  • 12 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • FIG. 12 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • FIG. It is explanatory drawing which shows the example which changes the visual effect which the portable terminal 200 gives to a thumbnail and a folder according to the condition of the imaging target of a moving image. It is explanatory drawing which shows the example which changes the visual effect which the portable terminal 200 gives to a thumbnail and a folder according to the condition of the imaging target of a moving image. It is explanatory drawing which shows the example which changes the visual effect which the portable terminal 200 gives to a thumbnail and a folder according to the condition of the imaging environment of a moving image.
  • FIG. 12 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • FIG. 12 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • FIG. 12 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • FIG. 12 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • FIG. 12 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • FIG. 12 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • FIG. 12 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • FIG. 12 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • First embodiment take-in control: example of using a 2-axis gyro sensor
  • Appearance example of imaging apparatus 1.2.
  • Example of use of imaging device 1.3.
  • Functional configuration example of imaging apparatus 1.4.
  • Example of functional configuration of portable terminal 1.5. Operation example of portable terminal Summary
  • Embodiment of the present disclosure [1.1. Appearance example of imaging device] First, an appearance example of an imaging device according to an embodiment of the present disclosure will be described. 1 and 2 are explanatory diagrams illustrating an appearance example of the imaging apparatus 100 according to the embodiment of the present disclosure.
  • FIG. 1 is a front perspective view of an imaging apparatus 100 according to an embodiment of the present disclosure.
  • FIG. 2 is a rear perspective view of the imaging apparatus 100 according to the embodiment of the present disclosure.
  • the imaging apparatus 100 includes an imaging unit 110 that captures an image (still image or moving image) that is an example of the content of the present disclosure on the front side, and detects that the photographer has looked into the hole 101 on the back side.
  • the eyepiece detection unit 120 is provided.
  • the eyepiece detection unit 120 may be configured with a camera, an infrared sensor, or the like, for example. When a camera is used as the eyepiece detection unit 120, the eyepiece detection unit 120 can detect not only the eyepiece to the imager's hole 101 but also the movement of the eyeball when the imager is in contact with the hole 101.
  • the imaging apparatus 100 may include a microphone for collecting sound when the imaging unit 110 captures a moving image.
  • the imaging apparatus 100 may include at least one of various sensors such as a positioning sensor, an acceleration sensor, a gyro sensor, a geomagnetic sensor, an illuminance sensor, a temperature sensor, an atmospheric pressure sensor, and a heart rate sensor.
  • the positioning sensor described above may specifically include, for example, a GNSS (Global Navigation Satellite System) receiver and / or a communication device.
  • the GNSS includes, for example, GPS (Global Positioning System), GLONASS (Global Navigation Satelite System), BDS (BeiDo Navigation Satelite System), QZSS (Quasi-Zethy, etc.).
  • the positioning sensor for example, wireless LAN, MIMO (Multi-Input Multi-Output), cellular communication (for example, position detection using a mobile base station, femtocell), or short-range wireless communication (for example, BLE (Bluetooth Low Energy). ), Bluetooth (registered trademark)) or the like to detect the position may be included.
  • MIMO Multi-Input Multi-Output
  • cellular communication for example, position detection using a mobile base station, femtocell
  • short-range wireless communication for example, BLE (Bluetooth Low Energy).
  • BLE Bluetooth Low Energy
  • Bluetooth registered trademark
  • the various sensors described above may not be provided in the imaging apparatus 100. In other words, the various sensors described above may be worn on the body of the person who takes an image using the imaging apparatus 100.
  • the imaging device 100 illustrated in FIGS. 1 and 2 is an example of the present disclosure, and the structure of the imaging device is not limited to the example.
  • the hole 101 shown in FIGS. 1 and 2 may not be provided in the imaging device as long as it can start imaging by detecting the eyepiece of the imager.
  • FIG. 3 and 4 are explanatory diagrams illustrating usage examples of the imaging apparatus 100 according to the embodiment of the present disclosure.
  • the imaging device 100 starts capturing a moving image by the imaging unit 110 when the imager looks into the hole 101.
  • the imaging apparatus 100 according to the present embodiment starts capturing a moving image by the imaging unit 110 when the photographer takes his eyes off the hole 101.
  • the eyepiece detection unit 120 detects whether the photographer has looked into the hole 101.
  • the imaging device 100 starts capturing a moving image using the imaging unit 110.
  • the imaging apparatus 100 ends the imaging of the moving image by the imaging unit 110.
  • the imaging device 100 stores therein a moving image captured in a period from the start to the end of imaging.
  • the imaging device 100 may store the sound collected during the period when the moving image is stored. Further, the imaging apparatus 100 may store the sensing data acquired by the sensor during the above period when storing the moving image and the eyepiece state of the photographer by the eyepiece detection unit 120.
  • the imaging device 100 has a configuration capable of transferring the stored moving image to another device such as a personal computer, a smartphone, or a tablet terminal.
  • the imaging apparatus 100 may transfer the stored moving image to another apparatus using NFC (Near Field Communication), for example.
  • NFC Near Field Communication
  • FIG. 5 is an explanatory diagram illustrating a state in which a moving image stored in the imaging apparatus 100 is transferred to the mobile terminal 200.
  • FIG. 5 shows an example of a state in which a moving image stored in the imaging apparatus 100 is transferred to the mobile terminal 200 by NFC.
  • the imaging apparatus 100 can transfer the stored moving image to the mobile terminal 200 via NFC in the vicinity of the mobile terminal 200.
  • the communication between the imaging device 100 and the portable terminal 200 is not limited to NFC.
  • wireless communication using the 2.4 GHz band based on the IEEE 802.15.1 standard may be used for communication between the imaging apparatus 100 and the mobile terminal 200, via a wireless LAN access point.
  • Wireless communication using the 2.4 GHz band or 5 GHz band may be used, and wired communication using USB (Universal Serial Bus) may be used.
  • USB Universal Serial Bus
  • the imaging device 100 is acquired by a sensor provided in the imaging device 100 or acquired by a photographer during a period from the start to the end of the moving image.
  • the sensing data and the eyepiece state of the photographer by the eyepiece detection unit 120 may be transferred.
  • the mobile terminal 200 acquires sensing data from the imaging device 100 in addition to the moving image, and an effect on the acquired moving image by using the sensing data and the eyepiece state by using the eyepiece detection unit 120. Can be set.
  • FIG. 6 is an explanatory diagram illustrating an example of a screen displayed on the mobile terminal 200.
  • thumbnails t1, t2, and t3 that are information representative of each moving image acquired from the imaging device 100, and information on the date when each moving image was captured are attached as a screen displayed on the mobile terminal 200.
  • An example of a screen on which the mobile terminal 200 displays the icon d1 is shown.
  • the screen illustrated in FIG. 6 is displayed, for example, when the user activates an application for reproducing an image captured by the imaging apparatus 100 on the mobile terminal 200.
  • the mobile terminal 200 can be operated by the user by causing the user to touch the screen shown in FIG. 6 with a finger or by bringing the finger or the like close to the screen.
  • the operations of causing the user to touch the screen with a finger or bringing the finger close to the screen are collectively referred to as “making the user touch the screen with the finger”, “ “Contact”.
  • the mobile terminal 200 when the user touches any one of the thumbnails t1, t2, and t3 with a finger or the like, the mobile terminal 200 reproduces a moving image corresponding to the thumbnail according to the contact. Further, for example, when the user touches the icon d1 with a finger or the like, the mobile terminal 200 continuously reproduces the moving images captured on the corresponding date according to the touch.
  • the portable terminal 200 reproduces a moving image with the effect that the imager is looking into the hole 101 when reproducing the moving image acquired from the imaging device 100.
  • FIG. 7 is an explanatory diagram illustrating an example of a screen displayed by the mobile terminal 200 according to the embodiment of the present disclosure.
  • FIG. 7 shows an example of a screen displayed on the mobile terminal 200 when a moving image acquired from the imaging device 100 is played back.
  • FIG. 7 shows a state in which a moving image having an effect that the photographer is looking into the hole 101 is being played on the mobile terminal 200.
  • the mobile terminal 200 can reproduce a moving image similar to the field of view of the imager who images using the imaging device 100.
  • the portable terminal 200 may change the effect given to the moving image using the sensing data acquired from the imaging device 100 or the eyepiece state of the photographer.
  • the portable terminal 200 can detect the concentration state of the moving image imager with respect to the subject by using the sensing data and the eyepiece state of the imager.
  • the concentration state refers to a state in which the photographer's interest or interest in the subject being imaged is increasing.
  • the mobile terminal 200 can change the effect given to the moving image according to the concentration state of the photographer.
  • the mobile terminal 200 is where the section where the imager is concentrated (concentrated section) with respect to the viewer of the moving image. Can be presented in an easy-to-understand manner. The effect that the mobile terminal 200 gives to a moving image will be described in detail later with an example.
  • FIG. 8 is an explanatory diagram illustrating a functional configuration example of the imaging apparatus 100 according to the embodiment of the present disclosure.
  • a functional configuration example of the imaging apparatus 100 according to the embodiment of the present disclosure will be described with reference to FIG.
  • the imaging apparatus 100 includes an imaging unit 110, an eyepiece detection unit 120, an output unit 130, a sensor unit 140, a storage unit 150, and a communication unit 160. And an operation unit 170 and a control unit 180.
  • the imaging unit 110 is a camera module that captures an image, which includes a focus lens, an imaging device, an A / D converter, and the like.
  • the imaging unit 110 captures an actual space using an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and generates a captured image.
  • CCD charge coupled device
  • CMOS complementary metal oxide semiconductor
  • a series of captured images generated by the imaging unit 110 constitutes an image that reflects a real space.
  • the imaging apparatus 100 may include a microphone for collecting sound when the moving image is captured by the imaging unit 110.
  • the eyepiece detection unit 120 detects an eyepiece to the hole 101 of the photographer.
  • the eyepiece detection unit 120 can be configured with, for example, a camera, an infrared sensor, or the like. When a camera is used as the eyepiece detection unit 120, the eyepiece detection unit 120 can detect not only the eyepiece to the imager's hole 101 but also the movement of the eyeball when the imager is in contact with the hole 101.
  • the output unit 130 outputs the state of the imaging device 100.
  • the output unit 130 may include, for example, an LED (Light Emitting Diode) or a speaker.
  • the state of the imaging device 100 output by the output unit 130 includes, for example, a power on / off state of the imaging device 100, a state of a remaining battery (not shown), and the like.
  • the sensor unit 140 acquires the state of the imaging device 100 and the state of the photographer who captures a moving image using the imaging device 100.
  • the sensor unit 140 at least one of various sensors such as a positioning sensor, an acceleration sensor, a gyro sensor, a geomagnetic sensor, an illuminance sensor, a temperature sensor, an atmospheric pressure sensor, and a heart rate sensor can be selected.
  • the storage unit 150 is configured by a storage medium such as a semiconductor memory, for example, and stores a program and data for processing by the imaging apparatus 100.
  • the data stored by the storage unit 150 may include, for example, a moving image captured by the imaging unit 110, sensor data output by the sensor unit 140, and data of an eyepiece state of the imager detected by the eyepiece detection unit 120.
  • the storage unit 150 may store information that is used as a material for determining whether or not the moving image is captured by the imaging device 100 in the mobile terminal 200, together with the moving image captured by the imaging unit 110.
  • information may be, for example, a flag indicating that the image is a moving image captured by the imaging apparatus 100, or may be information on the model name of the imaging apparatus 100.
  • the communication unit 160 is a communication interface that mediates communication between the imaging device 100 and other devices.
  • the communication unit 160 supports an arbitrary wireless communication protocol or wired communication protocol, and establishes a communication connection with another device.
  • the communication unit 160 may include an antenna coil for performing communication with the mobile terminal 200 using NFC.
  • the operation unit 170 is an input device used for operating the imaging apparatus 100.
  • the operation unit 170 can be configured to include, for example, a button for switching power on and off.
  • the control unit 180 corresponds to a processor such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor).
  • the control unit 180 executes a program stored in the storage unit 150. For example, when the eyepiece detection unit 120 detects an eyepiece in the hole 101 of the photographer, the imaging unit 110 starts capturing a moving image, and detects the eyepiece. When the unit 120 no longer detects the eyepiece in the hole 101 of the imager, the imaging of the moving image by the imaging unit 110 can be terminated.
  • a processor such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor).
  • the control unit 180 executes a program stored in the storage unit 150. For example, when the eyepiece detection unit 120 detects an eyepiece in the hole 101 of the photographer, the imaging unit 110 starts capturing a moving image, and detects the eyepiece. When the unit 120 no longer detects the eyepiece in the hole 101 of the imager, the imaging of the moving image by the imaging unit 110 can be terminated.
  • the control unit 180 stores the moving image captured by the imaging unit 110 in the storage unit 150. Further, the control unit 180 causes the storage unit 150 to store the sensing data output from the sensor unit 140 during the period in which the imaging unit 110 is capturing a moving image.
  • the imaging unit 110, the eyepiece detection unit 120, the output unit 130, the sensor unit 140, the storage unit 150, the communication unit 160, the operation unit 170, and the control unit 180 described above are connected to each other inside the imaging device 100 via a bus. .
  • the imaging apparatus 100 has the configuration as illustrated in FIG. 8, so that the imaging device 100 starts capturing a moving image in response to the eye taking the eye in the hole 101 and stores the moving image in the storage unit 150. I can do it.
  • the imaging apparatus 100 may execute a calibration and a test function at the time of initial setting.
  • the imaging apparatus 100 can reduce the elements causing the above-described differences, such as how to hold each user, by executing calibration and a test function at the time of initial setting.
  • FIG. 9 is an explanatory diagram illustrating a functional configuration example of the mobile terminal 200 according to the embodiment of the present disclosure.
  • a functional configuration example of the mobile terminal 200 according to the embodiment of the present disclosure will be described with reference to FIG.
  • the mobile terminal 200 includes a display unit 210, an output unit 220, a storage unit 230, a communication unit 240, an operation unit 250, a control unit 260, , Including.
  • Display unit 210 displays characters, images, and other information based on control by control unit 260.
  • the display unit 210 is a display module including a display such as an LCD or an OLED.
  • the display unit 210 is used to display a moving image captured by the imaging device 100, for example.
  • the display unit 210 is not necessarily a part of the mobile terminal 200.
  • a display device connected to the mobile terminal 200 by wire or wireless may be handled as the display unit 210.
  • a function of projecting information on a wall surface or the like may be provided.
  • the output unit 220 outputs voice or light based on the control by the control unit 260.
  • the output unit 220 may be configured to include devices such as speakers and LEDs, for example.
  • the storage unit 230 is configured by a storage medium such as a semiconductor memory, for example, and stores a program and data for processing by the mobile terminal 200.
  • the data stored by the storage unit 230 may include, for example, moving images captured by the imaging device 100, sensor data, and data on the eyepiece of the photographer acquired from the imaging device 100.
  • the communication unit 240 is a communication interface that mediates communication between the mobile terminal 200 and other devices.
  • the communication unit 240 supports an arbitrary wireless communication protocol or wired communication protocol, and establishes a communication connection with another device.
  • the communication unit 240 may include an antenna coil for performing communication with the imaging apparatus 100 using NFC.
  • the operation unit 250 is an input device used for a user to operate the mobile terminal 200 or input information to the mobile terminal 200.
  • the operation unit 250 may include, for example, a touch sensor that detects a user touch on the screen of the display unit 210.
  • the touch sensor is desirably capable of detecting two or more contacts, but is not limited to one capable of detecting two or more contacts.
  • the operation unit 250 may include a pointing device such as a mouse or a touchpad.
  • the operation unit 250 may include other types of input devices such as a keyboard, a keypad, a button, or a switch.
  • the control unit 260 corresponds to a processor such as a CPU or a DSP.
  • the control unit 260 displays on the display unit 210 a list screen that displays thumbnail images of moving images acquired from the imaging device 100, folders storing a plurality of moving images, and the like. Then, the control unit 260 gives a visual effect to the thumbnail images and folders when displaying the list screen on the display unit 210. Furthermore, when displaying the list screen on the display unit 210, the control unit 260 changes the visual effect to be given to the thumbnail image and the folder by using various information obtained when the moving image is captured.
  • the control unit 260 When displaying the list screen on the display unit 210, the control unit 260 gives a visual effect such that ink oozes out around the thumbnail image or inside the folder. Then, the control unit 260, for example, a visual image that the ink to be applied to the thumbnail image or folder exudes according to the situation of the imaging target of the moving image, the situation of the environment at the time of imaging, the situation of the photographer at the time of imaging, etc. Change the content of the effect. For example, if the imaging target of the moving image moves around violently, the control unit 260 provides a visual effect that scatters ink around the thumbnail image. For example, the control unit 260 may extract a color in accordance with the duration of the moving image corresponding to the thumbnail image, and set the color of the ink that has spread around the thumbnail image as the extracted color.
  • the portable terminal 200 has such a configuration, and can easily display what kind of moving images are stored on the content list screen.
  • FIG. 10 is a flowchart illustrating an operation example of the mobile terminal 200 according to the embodiment of the present disclosure.
  • FIG. 10 shows that after the mobile terminal 200 starts an application that displays a thumbnail of captured moving images captured using the imaging device 100 and a folder for storing moving images as a list of contents. It is a flow until it gives a visual effect to a folder and a thumbnail.
  • an operation example of the mobile terminal 200 according to the embodiment of the present disclosure will be described with reference to FIG.
  • step S101 When the mobile terminal 200 starts an application in response to a user operation (step S101), the mobile terminal 200 analyzes the content of the moving image corresponding to the folder or thumbnail to be displayed (step S102).
  • the process of step S102 is executed by the control unit 260, for example.
  • the mobile terminal 200 analyzes and acquires the state of the imaging target of the moving image captured using the imaging device 100, the environment at the time of imaging, and the situation of the photographer at the time of imaging as the content of the moving image.
  • step S102 When the content of the moving image corresponding to the folder or thumbnail to be displayed is analyzed in step S102, the mobile terminal 200 subsequently gives a visual effect to the folder or thumbnail according to the content of the moving image obtained by the analysis. Are displayed (step S103).
  • the process of step S103 is executed by the control unit 260, for example.
  • the mobile terminal 200 can display on the content list screen in an easy-to-understand manner what kind of moving images are stored by executing such operations.
  • FIG. 11 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • FIG. 11 shows an example of a screen displayed on the display unit 210 when the moving image displayed on the thumbnail t2 is highlighted and reproduced (a part of the moving image is extracted and reproduced). .
  • the image displayed on the thumbnail t2 changes between the left side and the right side in FIG. This indicates that the moving image displayed on the thumbnail t2 is highlighted.
  • FIG. 12 is an explanatory diagram illustrating an example of a moving image playback section when the mobile terminal 200 performs highlight playback of a moving image displayed on the thumbnail t2.
  • the example shown in FIG. 12 shows an example in which the mobile terminal 200 performs highlight reproduction of a predetermined section from the beginning of a 10 minute moving image, a predetermined section around 5 minutes, and a predetermined section up to 10 minutes. ing.
  • the mobile terminal 200 can present the contents of the moving image corresponding to the thumbnail t2 to the user in an easy-to-understand manner by extracting and playing a part of the moving image corresponding to the thumbnail t2. .
  • FIG. 13 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • FIG. 13 shows an example of a screen that the portable terminal 200 displays on the display unit 210 when changing the ink bleeding method around the thumbnail t2 according to the content of the moving image corresponding to the thumbnail t2. .
  • the mobile terminal 200 when the moving image corresponding to the thumbnail t2 is an object that does not move, such as a flower, or an object that moves less, such as a sleeping cat, the mobile terminal 200 is displayed on the right side of FIG. As shown in the figure, a visual effect that ink is gradually blurred around the thumbnail t2 is displayed on the display unit 210.
  • the mobile terminal 200 displays the thumbnail t2 as shown on the right side of FIG. The image is displayed on the display unit 210 with a visual effect that scatters ink around the screen.
  • the mobile terminal 200 supports the user with the thumbnail t2 by changing how the ink around the thumbnail t2 is blotted according to the content of the moving image corresponding to the thumbnail t2.
  • the contents of moving images can be presented in an easy-to-understand manner.
  • FIG. 14 is an explanatory diagram illustrating an example of a screen displayed on the display unit 210 by the mobile terminal 200.
  • FIG. 14 shows an example of a screen displayed on the display unit 210 when the mobile terminal 200 changes the color of ink around the thumbnail t2 according to highlight reproduction of the moving image corresponding to the thumbnail t2. .
  • the portable terminal 200 changes the color of the ink around the thumbnail t2 so that the user can
  • the contents of the moving image corresponding to t2 can be presented in an easily understandable manner.
  • FIGS. 15A and 15B change the visual effects that the mobile terminal 200 gives to the thumbnails and folders according to the situation of the moving image capturing target. It is explanatory drawing which shows an example.
  • the mobile terminal 200 increases the speed at which ink around the thumbnail spreads, increases the number of times of switching during highlight reproduction, The intensity of movement of the subject may be expressed by shortening the time.
  • the mobile terminal 200 slows down the ink bleeding speed around the thumbnail, reduces the number of switching times during highlight reproduction, You can show how little the subject moves by lengthening the time.
  • the mobile terminal 200 may represent the size of the area of the subject in the moving image by widening the range of ink bleeding around the thumbnail.
  • the mobile terminal 200 may represent the small area of the subject in the moving image by narrowing the range of ink bleeding around the thumbnail.
  • the portable terminal 200 may represent the size of the area of the subject in the image based on the size of the thumbnail, not the size of the ink bleeding range.
  • the mobile terminal 200 may indicate that the subject in the moving image is moving by greatly moving the ink bleeding around the thumbnail.
  • the main subject in the image does not move or if it moves little, the mobile terminal 200 moves the ink around the thumbnail to a small extent or does not move at all. It may represent that the subject in the moving image has little or no movement.
  • the mobile terminal 200 may represent the difference in the subject in the moving image by the difference in the content displayed around the thumbnail, not the movement of the ink bleeding around the thumbnail.
  • the mobile terminal 200 may display an image such as a footprint around the thumbnail.
  • the main subject in the moving image is a plant
  • the mobile terminal 200 may display an image such as a petal around the thumbnail.
  • the mobile terminal 200 increases the number of ink colors around the thumbnail so that the moving image is an image capturing a distant view. It may be expressed.
  • the mobile terminal 200 may indicate that the moving image is an image of the foreground by reducing the number of ink colors around the thumbnail. .
  • the mobile terminal 200 may indicate that the blur of the main subject in the moving image is strong by increasing the blur of the ink around the thumbnail.
  • the mobile terminal 200 weakens the blur of the main subject in the moving image by reducing the blur of the ink around the thumbnail, or It may indicate that it is not blurred.
  • FIGS. 16A, 16B, and 17 change the visual effects that the mobile terminal 200 gives to the thumbnails and folders according to the situation of the moving image imaging environment. It is explanatory drawing which shows an example.
  • the mobile terminal 200 may indicate that the weather at the time of moving image capturing is good by changing the color of the ink around the thumbnail to red, for example.
  • the mobile terminal 200 may indicate that the weather at the time of moving image capturing is bad, for example, by making the color of ink around the thumbnail blue.
  • the weather information at the time of capturing a moving image may be added as metadata of the moving image at the time of image capturing by the image capturing apparatus 100.
  • the mobile terminal 200 analyzes the moving image, the image capturing date and time and the image capturing location Using this information, the weather information may be searched and acquired on the Internet or the like.
  • the mobile terminal 200 may represent the difference in weather not by the color of the ink around the thumbnail but by the difference in animation. For example, when the weather at the time of capturing a moving image is clear, the mobile terminal 200 may display an animation such as the sun around the thumbnail. Further, for example, when the weather at the time of capturing a moving image is rain, the mobile terminal 200 may display an animation such as raining around the thumbnail. Further, for example, when the weather at the time of capturing a moving image is snow, the mobile terminal 200 may display an animation such as snowing around the thumbnail.
  • the mobile terminal 200 increases the speed of ink spreading around the thumbnail, brightens the color around the thumbnail, or darkens the color around the thumbnail. By doing so, the humidity level at the time of capturing a moving image may be expressed.
  • the mobile terminal 200 slows the ink bleeding speed around the thumbnail, darkens the color around the thumbnail, or reduces the color around the thumbnail.
  • the humidity level at the time of capturing a moving image may be represented.
  • Information on the humidity at the time of capturing a moving image may be given as metadata of the moving image at the time of image capturing by the image capturing apparatus 100, and when the mobile terminal 200 analyzes the moving image, the image capturing date and time and the image capturing location Using this information, the humidity information may be searched and acquired on the Internet or the like.
  • the mobile terminal 200 when the temperature at the time of capturing a moving image is high, the mobile terminal 200 makes the color around the thumbnail red, or displays an animation in which a flame spreads greatly around the thumbnail. You may represent the height of the temperature at the time of imaging of a moving image. The portable terminal 200 may change the range of the flame in proportion to the temperature when displaying an animation such that the flame spreads greatly around the thumbnail. On the other hand, when the temperature at the time of capturing a moving image is low, the mobile terminal 200 displays the animation in which the color around the thumbnail is blue or the ice is spread around the thumbnail, You may represent the low temperature at the time of imaging of a moving image.
  • the portable terminal 200 may change the range of the ice in proportion to the temperature when displaying an animation in which the ice is spread around the thumbnail.
  • the temperature information at the time of capturing a moving image may be given as moving image metadata at the time of image capturing by the image capturing apparatus 100, and when the mobile terminal 200 analyzes the moving image, the image capturing date and time and the image capturing location. Using this information, temperature information may be searched and acquired on the Internet or the like.
  • the mobile terminal 200 displays an animation like an equalizer around the thumbnail and then increases the number of bars of the equalizer or increases the movement. By doing so, it may indicate that the surrounding sound was loud when the moving image was captured.
  • the mobile terminal 200 displays an animation like an equalizer around the thumbnail and then reduces the number of bars of the equalizer or moves the mobile device 200. By making it smaller, it may represent that the surrounding sound at the time of capturing a moving image was low.
  • the mobile terminal 200 displays an animation in which smoke is emitted around the thumbnail and then increases the amount of smoke or moves the movement. By increasing the size, it may be indicated that the surrounding air volume at the time of capturing the moving image is large.
  • the mobile terminal 200 displays an animation in which smoke is emitted around the thumbnail and then reduces the amount of smoke or moves It may be expressed that the surrounding air volume is small at the time of capturing a moving image by reducing or not moving.
  • the mobile terminal 200 may acquire information on the ambient air volume when capturing a moving image from the presence or absence of wind noise of the sound collected when the image capturing apparatus 100 captures the image.
  • the information on the wind speed and the direction of the wind may be searched and acquired on the Internet or the like.
  • the mobile terminal 200 displays an animation in which the periphery of the thumbnail is shining, and then widens the brightness of the thumbnail or displays a bright color. By displaying the image, it may be indicated that the surrounding brightness at the time of capturing the moving image is large. On the other hand, if the surrounding brightness is dark at the time of capturing a moving image, the mobile terminal 200 displays an animation in which the periphery of the thumbnail is shining, and then narrows the width of the glow or uses a dark color. By displaying the image, it may be indicated that the surrounding brightness was dark when the moving image was captured.
  • the mobile terminal 200 may acquire information on ambient brightness at the time of capturing a moving image from the value of the illuminance sensor acquired at the time of image capturing by the image capturing apparatus 100. May be used to search and obtain information on the presence or absence of sunshine on the Internet or the like.
  • the mobile terminal 200 may indicate that the moving image capturing time is long by slowing the speed of the ink displayed around the thumbnail.
  • the mobile terminal 200 may indicate that the moving image capturing time is short by increasing the speed at which the ink displayed around the thumbnail spreads.
  • the mobile terminal 200 may change the range in which the ink is blurred according to the length of the imaging time.
  • FIG. 17 shows a visual effect in which ink is blurred only in a part around the thumbnail when the imaging time is short, and a visual effect in which ink is blurred all around the thumbnail when the imaging time is long. An example in which an effect is given is shown.
  • the mobile terminal 200 displays the thumbnails corresponding to the moving image so that the order of the thumbnails is increased or overlapped with other thumbnails. It may represent that the altitude of the moving image capturing location is long.
  • the mobile terminal 200 displays the thumbnails corresponding to the moving image in a lower order or overlapped with other thumbnails. It may indicate that the altitude of the moving image capturing location is low.
  • altitude information at the time of capturing a moving image may be obtained from an atmospheric pressure sensor or the like at the time of image capturing by the image capturing apparatus 100. Information obtained from the atmospheric pressure sensor or the like may be given as metadata of a moving image at the time of imaging with the imaging device 100.
  • FIG. 18 shows an example of changing the visual effect that the mobile terminal 200 gives to thumbnails and folders according to the situation at the time of imaging of the moving image photographer. It is explanatory drawing shown.
  • the mobile terminal 200 increases the ink bleeding speed around the thumbnail, or switches during highlight reproduction.
  • the intensity of the movement of the subject may be expressed by increasing the number of times or shortening the time until switching.
  • the mobile terminal 200 slows the ink bleeding speed around the thumbnail or switches during highlight reproduction. By reducing the number of times or lengthening the time until switching, it may be possible to express the movement of the subject.
  • the mobile terminal 200 may increase the amount of particle expression around the thumbnail to represent the amount of sweat of the photographer.
  • the mobile terminal 200 may reduce the amount of particle expression around the thumbnail to represent less sweat of the photographer.
  • the mobile terminal 200 displays a visual effect such as a pulse around the thumbnail, and then accelerates the movement to increase the speed of the photographer's pulse. You may represent.
  • the mobile terminal 200 displays a visual effect such as a pulse around the thumbnail, and then slows the movement to delay the pulse of the photographer. You may represent.
  • the mobile terminal 200 displays a visual effect such as a pulse around the thumbnail. It is also possible to display the excitement state of the photographer by displaying the image, speeding up its movement, or displaying a dazzling visual effect and then strengthening the effect.
  • the mobile terminal 200 looks like a pulse around the thumbnail.
  • the biological information may include information such as heart rate, body temperature, sweating, blood pressure, sweating, pulse, breathing, blinking, eye movement, pupil diameter, brain wave, and the like.
  • the mobile terminal 200 may display the high degree of interest and concentration of the photographer by slowing the ink bleeding speed around the thumbnail.
  • the portable terminal 200 may increase the speed at which the ink spreads around the thumbnail to indicate the degree of interest and concentration of the photographer.
  • the mobile terminal 200 may change the visual effect given to the thumbnail or the folder according to the user's action state.
  • the user's action state may include, for example, a stationary state, a walking state, a running state, stairs climbing, a bicycle, driving an automobile or other moving objects.
  • FIG. 19 is an explanatory diagram illustrating an example of a visual effect that the mobile terminal 200 gives to a folder.
  • FIG. 19 shows that the color of the ink displayed in the icon d1 changes with the time series of the moving images stored in the icon d1.
  • the mobile terminal 200 changes the color of the ink displayed in the icon d1 along with the time series of the moving images stored in the icon d1, so that what kind of atmosphere of the moving image appears in the icon d1. Whether it is included can be presented to the user in an easy-to-understand manner.
  • FIG. 20 is an explanatory diagram illustrating an example of a visual effect that the mobile terminal 200 gives to a folder.
  • FIG. 20 shows a state in which the thumbnail displayed in the icon d1 changes with the time series of the moving images stored in the icon d1.
  • the mobile terminal 200 changes the thumbnail displayed in the icon d1 in this way along with the time series of the moving images stored in the icon d1, so that the moving image of what atmosphere is included in the icon d1. Can be presented to the user in an easy-to-understand manner.
  • the mobile terminal 200 may add a visual effect that causes ink to be smeared in the icon d1 as described above.
  • FIG. 21 is an explanatory diagram showing an example of a visual effect that the mobile terminal 200 gives to a folder.
  • FIG. 21 shows an example in which the mobile terminal 200 changes the number of ink colors to be smeared in the icon d1 according to the number of moving images stored in the icon d1.
  • the mobile terminal 200 changes the number of ink colors to be displayed in the icon d1 in accordance with the number of moving images stored in the icon d1, and thus how much the moving image is in the icon d1. Whether it is included can be presented to the user in an easy-to-understand manner.
  • FIG. 22 is an explanatory diagram illustrating an example of a visual effect that the mobile terminal 200 gives to a folder.
  • FIG. 22 shows an example in which the mobile terminal 200 changes the effect when the user taps the icon d1 according to the number of moving images stored in the icon d1.
  • the mobile terminal 200 may add a visual effect that spreads a ripple in the icon d1.
  • the mobile terminal 200 spreads a ripple quickly when the user taps the icon d1, and is included in the icon d1. If the number of moving images is large, the ripple may be spread slowly when the user taps the icon d1.
  • the mobile terminal 200 changes the effect displayed on the icon d1 in this way according to the number of moving images stored in the icon d1, thereby determining how much moving images are included in the icon d1. Can be presented in an easy-to-understand manner.
  • FIG. 23 is an explanatory diagram illustrating an example of a visual effect that the mobile terminal 200 gives to a folder.
  • FIG. 23 shows an example in which the mobile terminal 200 changes the effect when the user touches and scrolls the icon d1 according to the number of moving images stored in the icon d1.
  • the mobile terminal 200 may change the scrolling speed according to the number of moving images included in the icon d1, for example.
  • the mobile terminal 200 may add an effect that makes the user feel a weight by vibration when the number of moving images included in the icon d1 is large.
  • FIG. 24 is an explanatory diagram illustrating an example of a visual effect that the mobile terminal 200 gives to the list screen.
  • FIG. 24 shows an example in which the mobile terminal 200 gives a visual effect that allows the user to see the end when the user scrolls to the end of the list screen.
  • the reference sign s11 in FIG. 24 is a visual effect that the mobile terminal 200 gives to the list screen, and indicates a blur that allows the end of the list screen to be recognized.
  • the mobile terminal 200 can provide the user with a visual effect so that the end portion of the list screen can be understood, so that the user can easily understand that further scrolling in the upward direction cannot be performed.
  • the mobile terminal 200 may give a visual effect such that when the user scrolls to the end of the list screen, the list screen bounces according to the scrolling momentum.
  • FIG. 25 is an explanatory diagram showing an example of visual effects that the mobile terminal 200 gives to the list screen.
  • FIG. 25 shows an example in which the portable terminal 200 displays a message that prompts the user to add a new moving image when the user scrolls to the end of the list screen.
  • FIG. 26 is an explanatory diagram showing an example of visual effects that the mobile terminal 200 gives to the list screen.
  • FIG. 25 shows an example in which the mobile terminal 200 gives a visual effect that is caught when the user scrolls to the end of the list screen. In this way, when the user scrolls to the end of the list screen, the mobile terminal 200 is not a visual effect that the list screen bounces, but a visual that the list screen is caught on the end and cannot be scrolled further. An effect may be given.
  • FIG. 27 is an explanatory diagram showing an example of visual effects that the mobile terminal 200 gives to the list screen.
  • FIG. 27 shows an example of the visual effect that the mobile terminal 200 gives when the user long-presses a thumbnail. For example, when the user long presses a certain thumbnail, the mobile terminal 200 may widen the ink bleeding range according to the long press.
  • FIG. 28 is an explanatory diagram showing an example of visual effects that the mobile terminal 200 gives to the list screen.
  • FIG. 28 shows an example of a visual effect that the mobile terminal 200 gives when the user presses and holds a place that is neither a thumbnail nor a folder. For example, when the user presses and holds a location that is neither a thumbnail nor a folder, the mobile terminal 200 oozes out the same color as the color of the ink of the thumbnail at a close position from the location where the user presses and holds in response to the long press. You may make it make it.
  • the mobile terminal 200 can give various visual effects to the list screen in accordance with a user operation. For example, when the user performs a swipe operation to the left and right while the mobile terminal 200 displays the list screen, the mobile terminal 200 may change the number of thumbnails displayed on the list screen.
  • a mobile terminal 200 is provided that can easily display whether a moving image is stored on a content list screen.
  • each step in the processing executed by each device in this specification does not necessarily have to be processed in chronological order in the order described as a sequence diagram or flowchart.
  • each step in the processing executed by each device may be processed in an order different from the order described as the flowchart, or may be processed in parallel.
  • a computer system in which a single computer or a plurality of computers performs a series of processes for causing hardware such as a CPU, ROM, and RAM incorporated in each device to exhibit functions equivalent to the configuration of each device described above. It is also possible to create a program to be executed in. A storage medium storing the computer program can also be provided. In addition, by configuring each functional block shown in the functional block diagram with hardware or a hardware circuit, a series of processing can be realized with hardware or hardware circuit.
  • each functional block shown in the functional block diagram used in the above description may be realized by a server device connected via a network such as the Internet.
  • the configuration of each functional block shown in the functional block diagram used in the above description may be realized by a single device or a system in which a plurality of devices cooperate.
  • a system in which a plurality of devices are linked may include, for example, a combination of a plurality of server devices, a combination of a server device and a terminal device, or the like.
  • a control unit that determines a visual effect on a screen on which content representative information is displayed based on detection information detected when the content is generated, and displays the determined visual effect on the screen together with the representative information;
  • An information processing apparatus (2) The information processing apparatus according to (1), wherein the control unit gives a visual effect to at least the periphery of the thumbnail of the content as representative information of the content. (3) The information processing apparatus according to (2), wherein the control unit gives a visual effect around a thumbnail of the content according to the content. (4) The information processing apparatus according to (2) or (3), wherein the control unit gives a visual effect around a thumbnail of the content according to a situation in which the content is generated.
  • control unit provides a visual effect around a thumbnail of the content based on a subject included in the content.
  • control unit provides a visual effect around a thumbnail of the content based on information on a generation location of the content.
  • control unit gives a visual effect around a thumbnail of the content based on a state of a user who generated the content.
  • the control unit provides a visual effect around the thumbnail of the content based on the user's biometric information detected at a timing corresponding to the timing of generating the content.
  • the information processing apparatus described in 1. The control unit provides a visual effect around the thumbnail of the content based on information on a user's action state detected at a timing corresponding to the timing of generating the content. (4) to (8) The information processing apparatus according to any one of the above. (10) The information processing apparatus according to any one of (1) to (9), wherein the control unit gives a visual effect to at least the inside of inclusion content including one or more of the contents as representative information of the contents. (11) The information processing apparatus according to (10), wherein the control unit changes a visual effect according to a content included in the included content. (12) The information processing apparatus according to (10) or (11), wherein the control unit changes a visual effect according to the number of contents included in the included content.
  • Imaging device 101 Hole 110: Imaging part 120: Eyepiece detection part 130: Output part 140: Sensor part 150: Storage part 160: Communication part 170: Operation part 180: Control part 200: Portable terminal 210: Display part 220: Output unit 230: storage unit 240: communication unit 250: operation unit 260: control unit d1: icon t1: thumbnail t2: thumbnail t3: thumbnail s11: blur

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】どのような雰囲気を持ったコンテンツであるかを再生前に提示することが可能な情報処理装置を提供する。 【解決手段】コンテンツの代表情報が表示される画面に対する視覚効果を、該コンテンツの生成時に検出される検出情報に基づいて決定し、決定した前記視覚効果を前記代表情報と併せて前記画面に表示させる制御部を備える、情報処理装置が提供される。

Description

情報処理装置、情報処理方法及びコンピュータプログラム
 本開示は、情報処理装置、情報処理方法及びコンピュータプログラムに関する。
 例えば特許文献1には、デジタルカメラで撮影された静止画像や動画などのコンテンツ・ファイルを撮影日などのファイル更新日時に応じてユーザに提示する情報提示装置、情報提示方法及びコンピュータプログラムの技術が開示されている。
特開2008-263457号公報
 しかし、コンテンツのサムネイルや、コンテンツが格納されたフォルダを見ただけでは、そのコンテンツやフォルダに格納されたコンテンツが、どのような雰囲気を持ったコンテンツであるかどうかを、再生前に知ることが出来なかった。
 そこで、本開示では、どのような雰囲気を持ったコンテンツであるかを再生前に提示することが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提案する。
 本開示によれば、コンテンツの代表情報が表示される画面に対する視覚効果を、該コンテンツの生成時に検出される検出情報に基づいて決定し、決定した前記視覚効果を前記代表情報と併せて前記画面に表示させる制御部を備える、情報処理装置が提供される。
 また本開示によれば、コンテンツの代表情報が表示される画面に対する視覚効果を、該コンテンツの生成時に検出される検出情報に基づいて決定することと、決定した前記視覚効果を前記代表情報と併せて前記画面に表示させることと、を含む、情報処理方法が提供される。
 また本開示によれば、コンピュータシステムに、コンテンツの代表情報が表示される画面に対する視覚効果を、該コンテンツの生成時に検出される検出情報に基づいて決定することと、決定した前記視覚効果を前記代表情報と併せて前記画面に表示させることと、を実行させる、コンピュータプログラムが提供される。
 以上説明したように本開示によれば、どのような雰囲気を持ったコンテンツであるかを再生前に提示することが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提供することが出来る。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施の形態に係る撮像装置100の外観例を示す説明図である。 同実施の形態に係る撮像装置100の外観例を示す説明図である。 同実施の形態に係る撮像装置100の使用例を示す説明図である。 同実施の形態に係る撮像装置100の使用例を示す説明図である。 撮像装置100が記憶した動画像を携帯端末200に転送する様子を示す説明図である。 携帯端末200が表示する画面の例を示す説明図である。 同実施の形態に係る携帯端末200が表示する画面の例を示す説明図である。 同実施の形態に係る撮像装置100の機能構成例を示す説明図である。 同実施の形態に係る携帯端末200の機能構成例を示す説明図である。 同実施の形態に係る携帯端末200の動作例を示す流れ図である。 携帯端末200が表示部210に表示する画面の例を示す説明図である。 サムネイルに表示される動画像をハイライト再生する際の動画像の再生区間の例を示す説明図である。 携帯端末200が表示部210に表示する画面の例を示す説明図である。 携帯端末200が表示部210に表示する画面の例を示す説明図である。 動画像の撮像対象の状況に応じて、携帯端末200がサムネイルやフォルダに与える視覚効果を変える例を示す説明図である。 動画像の撮像対象の状況に応じて、携帯端末200がサムネイルやフォルダに与える視覚効果を変える例を示す説明図である。 動画像の撮像環境の状況に応じて、携帯端末200がサムネイルやフォルダに与える視覚効果を変える例を示す説明図である。 動画像の撮像環境の状況に応じて、携帯端末200がサムネイルやフォルダに与える視覚効果を変える例を示す説明図である。 動画像の撮像環境の状況に応じて、携帯端末200がサムネイルやフォルダに与える視覚効果を変える例を示す説明図である。 動画像の撮像者の撮像時の状況に応じて、携帯端末200がサムネイルやフォルダに与える視覚効果を変える例を示す説明図である。 携帯端末200が表示部210に表示する画面の例を示す説明図である。 携帯端末200が表示部210に表示する画面の例を示す説明図である。 携帯端末200が表示部210に表示する画面の例を示す説明図である。 携帯端末200が表示部210に表示する画面の例を示す説明図である。 携帯端末200が表示部210に表示する画面の例を示す説明図である。 携帯端末200が表示部210に表示する画面の例を示す説明図である。 携帯端末200が表示部210に表示する画面の例を示す説明図である。 携帯端末200が表示部210に表示する画面の例を示す説明図である。 携帯端末200が表示部210に表示する画面の例を示す説明図である。 携帯端末200が表示部210に表示する画面の例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施の形態(取込制御:2軸ジャイロセンサ使用の例)
  1.1.撮像装置の外観例
  1.2.撮像装置の使用例
  1.3.撮像装置の機能構成例
  1.4.携帯端末の機能構成例
  1.5.携帯端末の動作例
 2.まとめ
 <1.本開示の実施の形態>
 [1.1.撮像装置の外観例]
 まず、本開示の実施の形態に係る撮像装置の外観例を説明する。図1及び図2は、本開示の実施の形態に係る撮像装置100の外観例を示す説明図である。
 図1は、本開示の実施の形態に係る撮像装置100の正面斜視図である。また図2は、本開示の実施の形態に係る撮像装置100の背面斜視図である。撮像装置100は、正面側に、本開示のコンテンツの一例である画像(静止画像または動画像)を撮像する撮像部110を備え、背面側に、撮像者が穴101を覗いたことを検出するための接眼検出部120を備えている。
 接眼検出部120は、例えばカメラや赤外線センサ等で構成されうる。接眼検出部120としてカメラが用いられると、接眼検出部120は、撮像者の穴101への接眼だけでなく、撮像者が穴101に接眼している際の眼球の動作を検出できる。なお図1及び図2には図示しないが、撮像装置100は、撮像部110による動画像の撮像時に併せて音声を集音するためのマイクを備えていても良い。
 撮像装置100は、内部に測位センサ、加速度センサ、ジャイロセンサ、地磁気センサ、照度センサ、温度センサ、気圧センサ、心拍センサなどの様々なセンサの中から少なくともいずれかのセンサを備えていても良い。なお、上述の測位センサとしては、例えば具体的には、GNSS(Global Navigation Satellite System)受信機、および/または通信装置などを含みうる。GNSSは、例えばGPS(Global Positioning System)、GLONASS(Global Navigation Satellite System)、BDS(BeiDou Navigation Satellite System)、QZSS(Quasi-Zenith Satellites System)、またはGalileoなどを含みうる。また測位センサとしては、例えば、無線LAN、MIMO(Multi-Input Multi-Output)、セルラー通信(例えば携帯基地局を使った位置検出、フェムトセル)、または近距離無線通信(例えばBLE(Bluetooth Low Energy)、Bluetooth(登録商標))などの技術を利用して位置を検出するものが含まれうる。
 なお、上述した様々なセンサは、撮像装置100に設けられていなくても良い。すなわち、上述した様々なセンサは、撮像装置100を用いて撮像する撮像者の身体に身に付けられていても良い。
 もちろん、図1、2で示した撮像装置100は本開示の一例で有り、撮像装置の構造は係る例に限定されるものではない。撮像者の接眼を検知して撮像を開始できるものであれば、図1、2で示した穴101が撮像装置に設けられていなくても良い。
 [1.2.撮像装置の使用例]
 続いて、本開示の実施の形態に係る撮像装置の使用例を説明する。図3及び図4は、本開示の実施の形態に係る撮像装置100の使用例を示す説明図である。
 本実施の形態にかかる撮像装置100は、図3に示したように、撮像者が穴101を覗くと撮像部110による動画像の撮像を開始する。また本実施の形態にかかる撮像装置100は、図4に示したように、撮像者が穴101から目を離すと撮像部110による動画像の撮像を開始する。
 撮像者が穴101を覗いたかどうかは接眼検出部120が検出する。撮像者が穴101を覗いたことを接眼検出部120が検出すると、撮像装置100は、撮像部110による動画像の撮像を開始する。また、撮像者が穴101を覗かなくなったことを接眼検出部120が検出すると、撮像装置100は、撮像部110による動画像の撮像を終了する。
 撮像装置100は、撮像開始から終了までの期間で撮像された動画像を内部に記憶する。撮像装置100は、動画像を記憶する際に上記期間で集音された音声を含めて記憶しても良い。また撮像装置100は、動画像を記憶する際に上記期間でセンサが取得したセンシングデータや、接眼検出部120による撮像者の接眼状態を含めて記憶しても良い。
 撮像装置100は、記憶した動画像を、他の装置、例えば、パーソナルコンピュータ、スマートフォン、タブレット端末に転送することが可能な構成を有する。撮像装置100は、記憶した動画像を、例えば、NFC(Near Field Communication;近距離無線通信)を用いて他の装置に転送してもよい。
 図5は、撮像装置100が記憶した動画像を携帯端末200に転送する様子を示す説明図である。図5には、撮像装置100が記憶した動画像をNFCによって携帯端末200に転送する様子の例が示されている。撮像装置100は、図5に示したように携帯端末200と近接して、記憶した動画像をNFCに携帯端末200に転送することが出来る。
 もちろん、撮像装置100と携帯端末200との間の通信はNFCに限定されるものでは無い。撮像装置100と携帯端末200との間の通信に、例えば、IEEE 802.15.1規格に基づいた、2.4GHz帯を使用した無線通信が用いられても良く、無線LANのアクセスポイントを介した2.4GHz帯または5GHz帯を使用した無線通信が用いられても良く、USB(Universal Serial Bus)による有線通信が用いられても良い。
 なお撮像装置100は、動画像を携帯端末200に転送する際に、当該動画像の撮像開始から終了までの期間で撮像装置100に備えられた、または撮像者が身に付けたセンサが取得したセンシングデータや、接眼検出部120による撮像者の接眼状態を含めて転送しても良い。携帯端末200は、撮像装置100から動画像に加えてセンシングデータや、接眼検出部120による撮像者の接眼状態を取得することで、当該センシングデータや接眼状態を用いて、取得した動画像に対するエフェクトを設定することが可能となる。
 図6は、携帯端末200が表示する画面の例を示す説明図である。図6には、携帯端末200が表示する画面として、撮像装置100から取得した各動画像を代表する情報であるサムネイルt1、t2、t3、及び各動画像が撮像された日付の情報が付されたアイコンd1を、携帯端末200が表示している画面の例が示されている。図6に示した画面は、例えば、撮像装置100で撮像された画像を再生するためのアプリケーションを、ユーザが携帯端末200で起動させた際に表示される。
 携帯端末200は、図6に示した画面を、ユーザに指等で触らせたり、画面に指等を近接させたりすることで、ユーザに操作させることが出来る。なお、ユーザに画面を指等で触らせたり、画面に指等を近接させたりする動作のことを、以下ではまとめて「ユーザに指等で画面を触らせる」「ユーザに指等を画面に接触させる」等と説明する。
 例えば、ユーザがサムネイルt1、t2、t3のいずれかを指などで触ると、携帯端末200は、その接触に応じてそれらのサムネイルに対応する動画像を再生する。また例えば、ユーザがアイコンd1を指などで触ると、携帯端末200は、その接触に応じて、対応する日付において撮像された動画像を連続して再生する。
 携帯端末200は、撮像装置100から取得した動画像の再生の際に、撮像者が穴101を覗いているような効果を与えて動画像を再生する。
 図7は、本開示の実施の形態に係る携帯端末200が表示する画面の例を示す説明図である。図7に示したのは、撮像装置100から取得した動画像を再生する際に、携帯端末200が表示する画面の例である。
 図7には、撮像者が穴101を覗いているような効果が与えられた動画像が携帯端末200で再生されている状態が示されている。このように撮像者が穴101を覗いているような効果を与えることで、携帯端末200は、撮像装置100を用いて撮像する撮像者の視界と同様の動画像を再生することが出来る。
 携帯端末200は、撮像装置100から取得したセンシングデータや撮像者の接眼状態を用いて、動画像に与える効果を変更してもよい。携帯端末200は、センシングデータや撮像者の接眼状態を用いることで、動画像の撮像者の、被写体に対する集中状態を検出することが出来る。なお集中状態とは、撮像している被写体に対する、撮像者の興味や関心等が高まっている状態のことをいう。
 すなわち、携帯端末200は、撮像者の集中状態に応じて、動画像に与える効果を変更することが出来る。撮像者の集中状態に応じて、動画像に与える効果を変更することで、携帯端末200は、動画像の閲覧者に対して、撮像者が集中している区間(集中区間)がどこであるかを分かりやすく提示することが可能となる。携帯端末200が動画像に与える効果については、後に例を挙げて詳述する。
 [1.3.撮像装置の機能構成例]
 続いて、本開示の実施の形態に係る撮像装置の機能構成例を説明する。図8は、本開示の実施の形態に係る撮像装置100の機能構成例を示す説明図である。以下、図8を用いて本開示の実施の形態に係る撮像装置100の機能構成例について説明する。
 図8に示したように、本開示の実施の形態に係る撮像装置100は、撮像部110と、接眼検出部120と、出力部130と、センサ部140と、記憶部150と、通信部160と、操作部170と、制御部180と、を含んで構成される。
 撮像部110は、フォーカスレンズや撮像素子、A/D変換器等からなる、画像を撮像するカメラモジュールである。撮像部110は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部110により生成される一連の撮像画像は、実空間を映す映像を構成する。なお撮像装置100は、撮像部110による動画像の撮像時に併せて音声を集音するためのマイクを備えていても良い。
 接眼検出部120は、撮像者の穴101への接眼を検出する。接眼検出部120は、例えばカメラや赤外線センサ等で構成されうる。接眼検出部120としてカメラが用いられると、接眼検出部120は、撮像者の穴101への接眼だけでなく、撮像者が穴101に接眼している際の眼球の動作を検出できる。
 出力部130は、撮像装置100の状態を出力する。出力部130は、例えばLED(Light Emitting Diode;発光ダイオード)やスピーカなどを含んで構成されうる。出力部130が出力する撮像装置100の状態としては、例えば、撮像装置100の電源のオン、オフ状態や、バッテリ(図示せず)の残量の状態などがある。
 センサ部140は、撮像装置100の状態や、撮像装置100を使用して動画像を撮像する撮像者の状態を取得する。センサ部140は、測位センサ、加速度センサ、ジャイロセンサ、地磁気センサ、照度センサ、温度センサ、気圧センサ、心拍センサなどの様々なセンサの中から少なくとも一つが選択されうる。
 記憶部150は、例えば半導体メモリ等の記憶媒体により構成され、撮像装置100による処理のためのプログラム及びデータを記憶する。記憶部150により記憶されるデータは、例えば、撮像部110が撮像する動画像、センサ部140が出力するセンサデータ、接眼検出部120が検出する撮像者の接眼状態のデータを含み得る。
 また記憶部150は、撮像部110が撮像する動画像と併せて、携帯端末200において、撮像装置100が撮像した動画像であるかどうかの判断の材料となる情報を記憶しても良い。そのような情報としては、例えば撮像装置100で撮像された動画像である旨のフラグであってもよく、撮像装置100の機種名の情報であってもよい。
 通信部160は、撮像装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部160は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。例えば通信部160は、上述したように、NFCによる携帯端末200との間の通信を行うためのアンテナコイルを備えていても良い。
 操作部170は、撮像装置100を操作するために使用される入力デバイスである。操作部170は、例えば電源のオン、オフを切り換えるためのボタンなどを含んで構成されうる。
 制御部180は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部180は、記憶部150に記憶されるプログラムを実行することにより、例えば接眼検出部120が撮像者の穴101への接眼を検出すると撮像部110による動画像の撮像を開始し、接眼検出部120が撮像者の穴101への接眼を検出しなくなると撮像部110による動画像の撮像を終了することができる。
 制御部180は、撮像部110が撮像した動画像を記憶部150に記憶させる。また、制御部180は、撮像部110が動画像を撮像している期間においてセンサ部140が出力するセンシングデータを記憶部150に記憶させる。
 上述した撮像部110、接眼検出部120、出力部130、センサ部140、記憶部150、通信部160、操作部170、及び制御部180は、撮像装置100の内部でバスによって相互に接続される。
 撮像装置100は、図8に示したような構成を有することで、撮像者が穴101へ接眼させたことに応じて動画像の撮像を開始し、記憶部150に動画像を記憶することが出来る。
 撮像装置100の穴101を実際に覗いて見える画には、効き目の左右の違いや、撮像装置100の持ち方の癖などに起因して、ユーザによって差があるのは避けられない。従って、撮像部110で撮像された画像に対して画像処理を行っても、正確さや精度に問題が出てくると考えられる。そこで、撮像装置100は、初期設定時に、キャリブレーションやテスト機能を実行してもよい。撮像装置100は、初期設定時に、キャリブレーションやテスト機能を実行することで、ユーザごとの持ち方の癖等の、上述した差異を引き起こす要素を減らせることが出来る。
 以上、図8を用いて本開示の実施の形態に係る撮像装置100の機能構成例について説明した。続いて、本開示の実施の形態に係る携帯端末200の機能構成例について説明する。
 [1.4.携帯端末の機能構成例]
 図9は、本開示の実施の形態に係る携帯端末200の機能構成例を示す説明図である。以下、図9を用いて本開示の実施の形態に係る携帯端末200の機能構成例について説明する。
 図9に示したように、本開示の実施の形態に係る携帯端末200は、表示部210と、出力部220と、記憶部230と、通信部240と、操作部250と、制御部260と、を含んで構成される。
 表示部210は、制御部260での制御に基づいて文字、画像その他の情報を表示する。表示部210は、例えば、LCDまたはOLEDなどのディスプレイを含む表示モジュールである。表示部210は、例えば、撮像装置100が撮像した動画像を表示するために使用される。なお、表示部210は、必ずしも携帯端末200の一部でなくてもよい。例えば、携帯端末200と有線又は無線で接続される表示装置が表示部210として扱われてもよい。また例えば、携帯端末200自体に情報を表示する機能に加え、または、携帯端末200自体へ情報を表示する機能の代わりに、例えば壁面などに情報を投影する機能を有しても良い。
 出力部220は、制御部260での制御に基づいて音声や光などを出力する。出力部220は、例えば、スピーカ、LEDなどのデバイスを含んで構成されうる。
 記憶部230は、例えば半導体メモリ等の記憶媒体により構成され、携帯端末200による処理のためのプログラム及びデータを記憶する。記憶部230により記憶されるデータは、例えば、撮像装置100から取得した、撮像装置100が撮像した動画像、センサデータ、撮像者の接眼状態のデータを含み得る。
 通信部240は、携帯端末200による他の装置との間の通信を仲介する通信インタフェースである。通信部240は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。例えば通信部240は、上述したように、NFCによる撮像装置100との間の通信を行うためのアンテナコイルを備えていても良い。
 操作部250は、ユーザが携帯端末200を操作し又は携帯端末200へ情報を入力するために使用される入力デバイスである。操作部250は、例えば、表示部210の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。当該タッチセンサは、2点以上の接触を検知可能であることが望ましいが、2点以上の接触を検知可能なものに限定されるものではない。その代わりに(又はそれに加えて)、操作部250は、マウスまたはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、操作部250は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
 制御部260は、CPU又はDSPなどのプロセッサに相当する。制御部260は、撮像装置100から取得した動画像のサムネイル画像や、複数の動画像が格納されるフォルダなどを表示する一覧画面を表示部210に表示する。そして、制御部260は、一覧画面を表示部210に表示する際に、サムネイル画像やフォルダに視覚効果を与える。さらに、制御部260は、一覧画面を表示部210に表示する際に、動画像が撮像された時点で得られた様々な情報を用いて、サムネイル画像やフォルダに与える視覚効果を変更する。
 詳細は後述するが、一例を挙げれば以下の通りである。制御部260は、一覧画面を表示部210に表示する際に、サムネイル画像の周囲やフォルダの内側に、インクが滲み出すような視覚効果を与える。そして、制御部260は、例えば、動画像の撮像対象の状況、撮像時の環境の状況、撮像時の撮像者の状況等に応じて、サムネイル画像やフォルダに与える、インクが滲み出すような視覚効果の内容を変更する。制御部260は、例えば、動画像の撮像対象が激しく動き回るものであれば、サムネイル画像の周囲にインクを飛び散らすような視覚効果を与える。制御部260は、また例えば、そのサムネイル画像に対応する動画像のデュレーションに合わせて色を抽出し、サムネイル画像の周囲に滲み出しているインクの色を、その抽出した色としてもよい。
 本開示の実施の形態に係る携帯端末200は、係る構成を有することで、どのような動画像が保存されているのかを分かりやすくコンテンツの一覧画面に表示することが出来る。
 以上、本開示の実施の形態に係る携帯端末200の機能構成例について説明した。続いて、本開示の実施の形態に係る携帯端末200の動作例について説明する。
 [1.5.携帯端末の動作例]
 図10は、本開示の実施の形態に係る携帯端末200の動作例を示す流れ図である。図10に示したのは、携帯端末200がコンテンツの一覧として、撮像装置100を用いて撮像された撮像された動画像のサムネイルや、動画像を格納するフォルダを表示するアプリケーションを起動してから、フォルダやサムネイルに視覚効果を与えるまでの流れである。以下、図10を用いて本開示の実施の形態に係る携帯端末200の動作例について説明する。
 携帯端末200は、ユーザの操作に応じてアプリケーションを起動すると(ステップS101)、表示するフォルダやサムネイルに対応する動画像の内容を解析する(ステップS102)。ステップS102の処理は例えば制御部260が実行する。携帯端末200は、動画像の内容として、撮像装置100を用いて撮像された動画像の撮像対象の状況、撮像時の環境の状況、撮像時の撮像者の状況を解析して取得する。
 上記ステップS102で、表示するフォルダやサムネイルに対応する動画像の内容を解析すると、続いて携帯端末200は、その解析によって得られた動画像の内容に応じて、フォルダやサムネイルに視覚効果を与えて表示する(ステップS103)。ステップS103の処理は例えば制御部260が実行する。
 本開示の実施の形態に係る携帯端末200は、係る動作を実行することで、どのような動画像が保存されているのかを分かりやすくコンテンツの一覧画面に表示することが出来る。
 続いて、図面を参照しながら携帯端末200が表示部210に表示する画面の具体例を説明する。
 (1)サムネイルに動画像をハイライト再生する
 図11は、携帯端末200が表示部210に表示する画面の例を示す説明図である。図11に示したのは、サムネイルt2に表示される動画像をハイライト再生する(動画像の一部分を抜き取って再生する)際に、携帯端末200が表示部210に表示する画面の例である。図11の左側と右側とで、サムネイルt2に表示されている画像が変化している。これは、サムネイルt2に表示される動画像がハイライト再生されていることを示している。
 図12は、携帯端末200がサムネイルt2に表示される動画像をハイライト再生する際の動画像の再生区間の例を示す説明図である。図12に示した例では、10分の動画像のうち、先頭から所定の区間、5分頃の所定の区間、10分までの所定の区間を携帯端末200がハイライト再生する例が示されている。図12に示したように、携帯端末200は、サムネイルt2に対応する動画像の一部分を抜き取って再生することで、ユーザに対して、そのサムネイルt2に対応する動画像の内容を分かりやすく提示できる。
 (2)サムネイルの周囲のインクの滲ませ方を変える
 図13は、携帯端末200が表示部210に表示する画面の例を示す説明図である。図13に示したのは、サムネイルt2に対応する動画像の内容に応じてサムネイルt2の周囲のインクの滲ませ方を変える際に、携帯端末200が表示部210に表示する画面の例である。
 例えば、サムネイルt2に対応する動画像において撮像されているのが、花などの動きの無い物や、寝ている猫などの動きが少ない物である場合、携帯端末200は、図13の右側に示したように、サムネイルt2の周囲にインクがじんわりと滲んでいるような視覚効果を与えて表示部210に表示する。一方、例えば、サムネイルt2に対応する動画像において撮像されているのが、激しく走り回る猫のような動きの激しい物である場合、携帯端末200は、図13の右側に示したように、サムネイルt2の周囲にインクを飛び散らすような視覚効果を与えて表示部210に表示する。
 図13に示したように、サムネイルt2に対応する動画像の内容に応じてサムネイルt2の周囲のインクの滲ませ方を変えることで、携帯端末200は、ユーザに対して、そのサムネイルt2に対応する動画像の内容を分かりやすく提示できる。
 (3)サムネイルの周囲の色を動画像の再生と共に変える
 図14は、携帯端末200が表示部210に表示する画面の例を示す説明図である。図14に示したのは、サムネイルt2に対応する動画像のハイライト再生に応じてサムネイルt2の周囲のインクの色を変える際に、携帯端末200が表示部210に表示する画面の例である。
 図14に示したように、サムネイルt2に対応する動画像の一部分を抜き取って再生する際に、サムネイルt2の周囲のインクの色を変えることで、携帯端末200は、ユーザに対して、そのサムネイルt2に対応する動画像の内容を分かりやすく提示できる。
 (4)その他、動画像の撮像対象の状況に応じた視覚効果の例
 図15A、図15Bは、動画像の撮像対象の状況に応じて、携帯端末200がサムネイルやフォルダに与える視覚効果を変える例を示す説明図である。
 例えば、動画像における主要な被写体の速度の値が大きい場合、携帯端末200は、サムネイルの周りのインクの滲む速度を速くしたり、ハイライト再生の際の切り替え回数を多くしたり、切り替えまでの時間を短くしたりすることで、被写体の動きの激しさを表しても良い。一方、動画像における主要な被写体の速度の値が小さい場合、携帯端末200は、サムネイルの周りのインクの滲む速度を遅くしたり、ハイライト再生の際の切り替え回数を少なくしたり、切り替えまでの時間を長くしたりすることで、被写体の動きの少なさを表しても良い
 例えば、動画像における主要な被写体の面積の値が大きい場合、携帯端末200は、サムネイルの周りのインクの滲みの範囲を広くすることで、動画像における被写体の面積の大きさを表しても良い。一方、画像における主要な被写体の面積の値が小さい場合、携帯端末200は、サムネイルの周りのインクの滲みの範囲を狭くすることで、動画像における被写体の面積の小ささを表しても良い。なお、携帯端末200は、インクの滲みの範囲の大小では無く、サムネイルの大きさの大小によって、画像における被写体の面積の大小を表しても良い。
 例えば、動画像における主要な被写体が動く物であれば、携帯端末200は、サムネイルの周りのインクの滲みを大きく動かすことで、動画像における被写体に動きがあることを表しても良い。一方、画像における主要な被写体が動かない物や、動いたとしてもその動きが少ない物であれば、携帯端末200は、サムネイルの周りのインクの滲みを小さく動かしたり、全く動かさなかったりすることで、動画像における被写体に動きが少ない、または無いことを表しても良い。なお、携帯端末200は、サムネイルの周りのインクの滲みの動きでは無く、サムネイルの周囲に表示する内容の違いによって、動画像における被写体の違いを表しても良い。例えば図15Bに示したように、動画像における主要な被写体がペットであれば、携帯端末200は足跡のような画像をサムネイルの周囲に表示してもよい。また例えば、図15Bに示したように、動画像における主要な被写体が植物であれば、携帯端末200は花びらのような画像をサムネイルの周囲に表示してもよい。
 例えば、動画像が風景のように遠景を撮像したものであれば、携帯端末200は、サムネイルの周りのインクの色の数を多くすることで、動画像が遠景を撮像した物であることを表しても良い。一方、動画像が近景を撮像したものであれば、携帯端末200は、サムネイルの周りのインクの色の数を少なくすることで、動画像が近景を撮像した物であることを表しても良い。
 例えば、動画像における主要な被写体のボケが強い場合は、携帯端末200は、サムネイルの周りのインクのボケを強くすることで、動画像における主要な被写体のボケが強いことを表しても良い。一方、動画像における主要な被写体のボケが弱い、またはボケていない場合は、携帯端末200は、サムネイルの周りのインクのボケを弱くすることで、動画像における主要な被写体のボケが弱い、またはボケていないことを表しても良い。
 (5)動画像の撮像環境の状況に応じた視覚効果の例
 図16A、図16B、17は、動画像の撮像環境の状況に応じて、携帯端末200がサムネイルやフォルダに与える視覚効果を変える例を示す説明図である。
 例えば、動画像の撮像時における天候が良かった場合は、携帯端末200は、サムネイルの周りのインクの色を赤くする等して、動画像の撮像時における天候が良かったことを表しても良い。一方、動画像の撮像時における天候が悪かった場合は、携帯端末200は、サムネイルの周りのインクの色を青くする等して、動画像の撮像時における天候が悪かったことを表しても良い。なお、動画像の撮像時のおける天候の情報は、撮像装置100での撮像時に動画像のメタデータとして付与されても良く、携帯端末200が動画像を解析する際に、撮像日時や撮像場所の情報を用いて、インターネット等で天気の情報を検索して取得しても良い。
 なお、携帯端末200は、サムネイルの周りのインクの色では無く、アニメーションの違いによって天候の違いを表しても良い。例えば、動画像の撮像時における天候が晴れであった場合は、携帯端末200は、サムネイルの周りに太陽のようなアニメーションを表示しても良い。また例えば、動画像の撮像時における天候が雨であった場合は、携帯端末200は、サムネイルの周りに雨が降っているようなアニメーションを表示しても良い。また例えば、動画像の撮像時における天候が雪であった場合は、携帯端末200は、サムネイルの周りに雪が降っているようなアニメーションを表示しても良い。
 例えば、動画像の撮像時における湿度が高かった場合は、携帯端末200は、サムネイルの周りのインクの滲む速度を速くしたり、サムネイルの周りの色を明るくしたり、サムネイルの周りの色を濃くしたりすることで、動画像の撮像時における湿度の高さを表しても良い。一方、動画像の撮像時における湿度が低かった場合、携帯端末200は、サムネイルの周りのインクの滲む速度を遅くしたり、サムネイルの周りの色を暗くしたり、サムネイルの周りの色を薄くしたりすることで、動画像の撮像時における湿度の高さを表しても良い。なお、動画像の撮像時のおける湿度の情報は、撮像装置100での撮像時に動画像のメタデータとして付与されても良く、携帯端末200が動画像を解析する際に、撮像日時や撮像場所の情報を用いて、インターネット等で湿度の情報を検索して取得しても良い。
 例えば、動画像の撮像時における温度が高かった場合は、携帯端末200は、サムネイルの周りの色を赤くしたり、サムネイルの周りに炎が大きく燃え広がるようなアニメーションを表示したりすることで、動画像の撮像時における温度の高さを表しても良い。携帯端末200は、炎が大きく燃え広がるようなアニメーションをサムネイルの周りに表示する際には、温度に比例して炎の範囲を変化させても良い。一方、動画像の撮像時における温度が低かった場合は、携帯端末200は、サムネイルの周りの色を青くしたり、サムネイルの周りに氷が張っているようなアニメーションを表示したりすることで、動画像の撮像時における温度の低さを表しても良い。携帯端末200は、氷が張っているようなアニメーションをサムネイルの周りに表示する際には、温度に比例して氷の範囲を変化させても良い。なお、動画像の撮像時のおける温度の情報は、撮像装置100での撮像時に動画像のメタデータとして付与されても良く、携帯端末200が動画像を解析する際に、撮像日時や撮像場所の情報を用いて、インターネット等で温度の情報を検索して取得しても良い。
 例えば、動画像の撮像時における周囲の音が大きかった場合は、携帯端末200は、サムネイルの周りにイコライザのようなアニメーションを表示した上で、そのイコライザのバーの数を増やしたり、動きを大きくしたりすることで、動画像の撮像時における周囲の音が大きかったことを表してもよい。一方、動画像の撮像時における周囲の音が小さかった場合は、携帯端末200は、サムネイルの周りにイコライザのようなアニメーションを表示した上で、そのイコライザのバーの数を少なくしたり、動きを小さくしたりすることで、動画像の撮像時における周囲の音が小さかったことを表してもよい。
 例えば、動画像の撮像時における周囲の風量が大きかった場合は、携帯端末200は、サムネイルの周りに煙が出ているようなアニメーションを表示した上で、その煙の量を増やしたり、動きを大きくしたりすることで、動画像の撮像時における周囲の風量が大きかったことを表してもよい。一方、動画像の撮像時における周囲の風量が小さかった場合は、携帯端末200は、サムネイルの周りに煙が出ているようなアニメーションを表示した上で、その煙の量を少なくしたり、動きを小さく、または動かなくしたりすることで、動画像の撮像時における周囲の風量が小さかったことを表してもよい。なお、携帯端末200は、動画像の撮像時のおける周囲の風量の情報を、撮像装置100での撮像時に集音された音の風切り音の有無から取得しても良く、撮像日時や撮像場所の情報を用いて、インターネット等で風速、風向きの情報を検索して取得しても良い。
 例えば、動画像の撮像時における周囲の明るさが大きかった場合は、携帯端末200は、サムネイルの周りが光っているようなアニメーションを表示した上で、その光彩の幅を広げたり、明るい色で表示したりすることで、動画像の撮像時における周囲の明るさが大きかったことを表してもよい。一方、動画像の撮像時における周囲の明るさが暗かった場合は、携帯端末200は、サムネイルの周りが光っているようなアニメーションを表示した上で、その光彩の幅を狭めたり、暗い色で表示したりすることで、動画像の撮像時における周囲の明るさが暗かったことを表してもよい。なお、携帯端末200は、動画像の撮像時のおける周囲の明るさの情報を、撮像装置100での撮像時に取得された照度センサの値から取得しても良く、撮像日時や撮像場所の情報を用いて、インターネット等で日照の有無の情報を検索して取得しても良い。
 例えば、動画像の撮像時間が長かった場合は、携帯端末200は、サムネイルの周りに表示されるインクの滲む速度を遅くすることで、動画像の撮像時間が長かったことを表してもよい。一方、動画像の撮像時間が短かった場合は、携帯端末200は、サムネイルの周りに表示されるインクの滲む速度を速くすることで、動画像の撮像時間が短かったことを表してもよい。なお、携帯端末200は、撮像時間の長さに応じてインクが滲んでいる範囲を変化させても良い。図17には、撮像時間が短いとサムネイルの周囲の一部のみにインクが滲んでいるような視覚効果が与えられ、撮像時間が長いとサムネイルの周囲の全てにインクが滲んでいるような視覚効果が与えられている例が示されている。
 例えば、動画像の撮像場所の高度が高かった場合は、携帯端末200は、その動画像に対応するサムネイルの並び順を上げたり、他のサムネイルの上に重なったりするように表示することで、動画像の撮像場所の高度が長かったことを表してもよい。一方、動画像の撮像場所の高度が低かった場合は、携帯端末200は、その動画像に対応するサムネイルの並び順を下げたり、他のサムネイルの下に重なったりするように表示することで、動画像の撮像場所の高度が低かったことを表してもよい。なお、動画像の撮像時のおける高度の情報は、撮像装置100での撮像時に気圧センサ等から得られてもよい。そして、その気圧センサ等から得られた情報が、動画像のメタデータとして撮像装置100での撮像時に付与されても良い。
 (6)動画像の撮像者の状況に応じた視覚効果の例
 図18は、動画像の撮像者の撮像時の状況に応じて、携帯端末200がサムネイルやフォルダに与える視覚効果を変える例を示す説明図である。
 例えば、動画像の撮像者の目線の動きや、撮像装置100の移動速度の値が大きい場合、携帯端末200は、サムネイルの周りのインクの滲む速度を速くしたり、ハイライト再生の際の切り替え回数を多くしたり、切り替えまでの時間を短くしたりすることで、被写体の動きの激しさを表しても良い。一方、動画像の撮像者の目線の動きや、撮像装置100の移動速度の値が小さい場合、携帯端末200は、サムネイルの周りのインクの滲む速度を遅くしたり、ハイライト再生の際の切り替え回数を少なくしたり、切り替えまでの時間を長くしたりすることで、被写体の動きの少なさを表しても良い
 例えば、動画像の撮像時に撮像者の発汗が多かった場合、携帯端末200は、サムネイルの周りのパーティクル表現の量を多くして、撮像者の発汗の多さを表してもよい。一方、動画像の撮像時に撮像者の発汗が少なかった場合、携帯端末200は、サムネイルの周りのパーティクル表現の量を少なくして、撮像者の発汗の少なさを表してもよい。
 例えば、動画像の撮像時に撮像者の脈拍が速かった場合、携帯端末200は、サムネイルの周りに脈拍のような視覚効果を表示した上で、その動きを速くして、撮像者の脈拍の速さを表してもよい。一方、動画像の撮像時に撮像者の脈拍が遅かった場合、携帯端末200は、サムネイルの周りに脈拍のような視覚効果を表示した上で、その動きを遅くして、撮像者の脈拍の遅さを表してもよい。
 例えば、生体情報を取得するセンサのセンシングデータから、動画像の撮像時に撮像者の感情が興奮状態にあったことが分かった場合、携帯端末200は、サムネイルの周りに脈拍のような視覚効果を表示した上で、その動きを速くしたり、とげとげしい視覚効果を表示した上で、その効果を強くしたりして、撮像者の興奮状態を表してもよい。一方、生体情報を取得するセンサのセンシングデータから、動画像の撮像時に撮像者の感情が悲しい状態や憂鬱な状態にあったことが分かった場合、携帯端末200は、サムネイルの周りに脈拍のような視覚効果を表示した上で、その動きを遅くしたり、とげとげしい視覚効果を表示した上で、その効果を弱くしたりして、撮像者の悲しい状態や憂鬱な状態を表してもよい。なお、生体情報には、心拍、体温、発汗、血圧、発汗、脈拍、呼吸、瞬目、眼球運動、瞳孔径の大きさ、脳波等の情報が含まれうる。
 例えば、動画像の撮像時に撮像者と撮像装置100との距離が短かったり、視線が動かなくなったりするなどして、撮像者が被写体に深い興味を示していたり、被写体への集中度合いが高かったりした場合、携帯端末200は、サムネイルの周りへのインクの滲む速度を遅くして、撮像者の興味度や集中度合いの高さを表してもよい。一方、動画像の撮像時に撮像者と撮像装置100との距離が長かったり、視線がキョロキョロ動いていたりするなどして、撮像者が被写体にあまり興味を示していなかったり、被写体への集中度合いが低かったりした場合、携帯端末200は、サムネイルの周りへのインクの滲む速度を速くして、撮像者の興味度や集中度合いの低さを表してもよい。また例えば、携帯端末200は、ユーザの行動状態に応じてサムネイルやフォルダに与える視覚効果を変化させても良い。ユーザの行動状態には、例えば、静止状態、歩行状態、走行状態、階段昇降、自転車、自動車その他の移動体の運転、などが含まれうる。
 (7)フォルダに対する視覚効果の例
 続いて、複数の動画像を格納するフォルダに対する視覚効果の例を示す。なお、このフォルダは、本開示の包含コンテンツの一例である。図19は、携帯端末200がフォルダに与える視覚効果の例を示す説明図である。図19に示したのは、アイコンd1の中に表示されるインクの色が、アイコンd1に格納される動画像の時系列と共に変化している様子である。携帯端末200は、このようにアイコンd1の中に表示するインクの色を、アイコンd1に格納される動画像の時系列と共に変化させることで、アイコンd1の中にどのような雰囲気の動画像が含まれているかをユーザに分かりやすく提示することが出来る。
 図20は、携帯端末200がフォルダに与える視覚効果の例を示す説明図である。図20に示したのは、アイコンd1の中に表示されるサムネイルが、アイコンd1に格納される動画像の時系列と共に変化している様子である。携帯端末200は、このようにアイコンd1の中に表示するサムネイルを、アイコンd1に格納される動画像の時系列と共に変化させることで、アイコンd1の中にどのような雰囲気の動画像が含まれているかをユーザに分かりやすく提示することが出来る。なお携帯端末200は、アイコンd1の中にサムネイルを表示する際に、上述したようにアイコンd1の中にインクを滲ませるような視覚効果を加えても良い。
 図21は、携帯端末200がフォルダに与える視覚効果の例を示す説明図である。図21に示したのは、アイコンd1に格納される動画像の数に応じて、アイコンd1の中に滲ませるインクの色の数を携帯端末200が変化させる例である。携帯端末200は、このようにアイコンd1の中に表示するインクの色の数を、アイコンd1に格納される動画像の数に応じて変化させることで、アイコンd1の中に動画像がどの程度含まれているかをユーザに分かりやすく提示することが出来る。
 図22は、携帯端末200がフォルダに与える視覚効果の例を示す説明図である。図22に示したのは、アイコンd1に格納される動画像の数に応じて、ユーザがアイコンd1をタップした際のエフェクトを携帯端末200が変化させる例である。ユーザがアイコンd1をタップした際に、携帯端末200は、アイコンd1の中で波紋を広げるような視覚効果を加えても良い。その際、携帯端末200は、例えば、アイコンd1の中に含まれている動画像の数が少ないと、ユーザがアイコンd1をタップした際に波紋を速く広げ、アイコンd1の中に含まれている動画像の数が多いと、ユーザがアイコンd1をタップした際に波紋を遅く広げるようにしてもよい。もちろん、アイコンd1の中に含まれている動画像の数と、波紋の広がる速度との関係は反対でも良い。携帯端末200は、このようにアイコンd1に表示するエフェクトを、アイコンd1に格納される動画像の数に応じて変化させることで、アイコンd1の中に動画像がどの程度含まれているかをユーザに分かりやすく提示することが出来る。
 図23は、携帯端末200がフォルダに与える視覚効果の例を示す説明図である。図23に示したのは、アイコンd1に格納される動画像の数に応じて、ユーザがアイコンd1にタッチしてスクロールさせた際のエフェクトを携帯端末200が変化させる例である。ユーザがアイコンd1にタッチしてスクロールさせた際、携帯端末200は、例えば、アイコンd1の中に含まれている動画像の数に応じてスクロールの速度を変化させてもよい。また携帯端末200は、例えば、アイコンd1の中に含まれている動画像の数が多いと、振動で重みを感じさせたりするようなエフェクトを加えても良い。
 (8)その他、一覧画面に対する視覚効果の例
 続いて、一覧画面に対する視覚効果の例を示す。図24は、携帯端末200が一覧画面に与える視覚効果の例を示す説明図である。図24に示したのは、一覧画面の端部までユーザがスクロールさせた際に、その端部が分かるような視覚効果を携帯端末200が与える例である。図24の符号s11は、携帯端末200が一覧画面に与える視覚効果で有り、一覧画面の端部が分かるような滲みを指す。このように、携帯端末200は一覧画面の端部が分かるような視覚効果を与えることで、ユーザに、上方向へのそれ以上のスクロールは出来ないことを分かりやすく示すことが出来る。
 なお、携帯端末200は、一覧画面の端部までユーザがスクロールさせた際に、そのスクロールの勢いに応じて一覧画面がバウンドするような視覚効果を与えても良い。
 図25は、携帯端末200が一覧画面に与える視覚効果の例を示す説明図である。図25に示したのは、一覧画面の端部までユーザがスクロールさせた際に、ユーザに新たな動画像の追加を促すメッセージを携帯端末200が表示する例である。
 図26は、携帯端末200が一覧画面に与える視覚効果の例を示す説明図である。図25に示したのは、一覧画面の端部までユーザがスクロールさせた際に、引っかかるような視覚効果を携帯端末200が与える例である。このように、一覧画面の端部までユーザがスクロールさせた際に、携帯端末200は一覧画面がバウンドするような視覚効果ではなく、一覧画面が端部に引っかかってそれ以上スクロール出来ないような視覚効果を与えても良い。
 図27は、携帯端末200が一覧画面に与える視覚効果の例を示す説明図である。図27に示したのは、ユーザがサムネイルを長押しした際に携帯端末200が与える視覚効果の例である。例えば、ユーザがあるサムネイルを長押しすると、携帯端末200は、その長押しに応じてインクの滲む範囲を広げるようにしてもよい。
 図28は、携帯端末200が一覧画面に与える視覚効果の例を示す説明図である。図28に示したのは、ユーザがサムネイルでもフォルダでも無い場所を長押しした際に携帯端末200が与える視覚効果の例である。例えば、ユーザがサムネイルでもフォルダでも無い場所を長押しすると、携帯端末200は、その長押しに応じて、近い位置にあるサムネイルのインクの色と同じ色を、ユーザが長押しした場所から滲み出させるようにしてもよい。
 その他にも、携帯端末200は、ユーザの操作に応じて一覧画面に対して様々な視覚効果を与えうる。例えば、携帯端末200が一覧画面を表示した状態で、ユーザが左右にスワイプ操作を行うと、携帯端末200は、一覧画面に表示するサムネイルの個数を変化させても良い。
 <2.まとめ>
 以上説明したように本開示の実施の形態によれば、サムネイルやフォルダに、そのサムネイルに対応するコンテンツやフォルダに格納されているコンテンツの解析結果に基づいた視覚効果を与えることで、どのような動画像が保存されているのかを分かりやすくコンテンツの一覧画面に表示することが出来る携帯端末200が提供される。
 本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
 また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるための、単体のコンピュータまたは複数のコンピュータが一連の処理を行うコンピュータシステムで実行されるプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアまたはハードウェア回路で構成することで、一連の処理をハードウェアまたはハードウェア回路で実現することもできる。
 また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの一部又は全部は、たとえばインターネット等のネットワークを介して接続されるサーバ装置で実現されてもよい。また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの構成は、単独の装置で実現されてもよく、複数の装置が連携するシステムで実現されても良い。複数の装置が連携するシステムには、例えば複数のサーバ装置の組み合わせ、サーバ装置と端末装置との組み合わせ等が含まれ得る。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 コンテンツの代表情報が表示される画面に対する視覚効果を、該コンテンツの生成時に検出される検出情報に基づいて決定し、決定した前記視覚効果を前記代表情報と併せて前記画面に表示させる制御部を備える、情報処理装置。
(2)
 前記制御部は、前記コンテンツの代表情報として、該コンテンツのサムネイルの少なくとも周囲に視覚効果を与える、前記(1)に記載の情報処理装置。
(3)
 前記制御部は、前記コンテンツの内容に応じて該コンテンツのサムネイルの周囲に視覚効果を与える、前記(2)に記載の情報処理装置。
(4)
 前記制御部は、前記コンテンツが生成された状況に応じて、該コンテンツのサムネイルの周囲に視覚効果を与える、前記(2)または(3)に記載の情報処理装置。
(5)
 前記制御部は、前記コンテンツに含まれる被写体に基づいて、該コンテンツのサムネイルの周囲に視覚効果を与える、前記(4)に記載の情報処理装置。
(6)
 前記制御部は、前記コンテンツの生成場所の情報に基づいて、該コンテンツのサムネイルの周囲に視覚効果を与える、前記(4)または(5)に記載の情報処理装置。
(7)
 前記制御部は、前記コンテンツを生成したユーザの状態に基づいて、該コンテンツのサムネイルの周囲に視覚効果を与える、前記(4)~(6)のいずれかに記載の情報処理装置。
(8)
 前記制御部は、前記コンテンツを生成するタイミングに対応するタイミングで検出されるユーザの生体情報に基づいて、該コンテンツのサムネイルの周囲に視覚効果を与える、前記(4)~(7)のいずれかに記載の情報処理装置。
(9)
 前記制御部は、前記コンテンツを生成するタイミングに対応するタイミングで検出されるユーザの行動状態の情報に基づいて、該コンテンツのサムネイルの周囲に視覚効果を与える、前記(4)~(8)のいずれかに記載の情報処理装置。
(10)
 前記制御部は、前記コンテンツの代表情報として、1以上の前記コンテンツを包含する包含コンテンツの少なくとも内部に視覚効果を与える、前記(1)~(9)のいずれかに記載の情報処理装置。
(11)
 前記制御部は、前記包含コンテンツに包含されているコンテンツの内容に応じて視覚効果を変化させる、前記(10)に記載の情報処理装置。
(12)
 前記制御部は、前記包含コンテンツに包含されているコンテンツの数に応じて視覚効果を変化させる、前記(10)または(11)に記載の情報処理装置。
(13)
 前記制御部は、前記視覚効果として、コンテンツの代表情報の周囲に所定の色を表示させる、前記(1)~(10)のいずれかに記載の情報処理装置。
(14)
 前記制御部は、前記コンテンツの内容に応じて前記所定の色の表示を変化させる、前記(13)に記載の情報処理装置。
(15)
 前記制御部は、前記コンテンツの動き量に応じて前記所定の色を変化させる、前記(13)に記載の情報処理装置。
(16)
 前記制御部は、前記コンテンツの内容に応じて染める色を変化させる、前記(11)~(13)のいずれかに記載の情報処理装置。
(17)
 前記制御部は、前記コンテンツの代表情報の中で該コンテンツが再生されると、該再生に応じて前記所定の色を変化させる、前記(11)に記載の情報処理装置。
(18)
 前記制御部は、前記代表情報に対するユーザの操作が行われた際に該代表情報に前記視覚効果を付与する、前記(1)~(17)のいずれかに記載の情報処理装置。
(19)
 コンテンツの代表情報が表示される画面に対する視覚効果を、該コンテンツの生成時に検出される検出情報に基づいて決定することと、
 決定した前記視覚効果を前記代表情報と併せて前記画面に表示させることと、
を含む、情報処理方法。
(20)
 コンピュータシステムに、
 コンテンツの代表情報が表示される画面に対する視覚効果を、該コンテンツの生成時に検出される検出情報に基づいて決定することと、
 決定した前記視覚効果を前記代表情報と併せて前記画面に表示させることと、
を実行させる、コンピュータプログラム。
100  :撮像装置
101  :穴
110  :撮像部
120  :接眼検出部
130  :出力部
140  :センサ部
150  :記憶部
160  :通信部
170  :操作部
180  :制御部
200  :携帯端末
210  :表示部
220  :出力部
230  :記憶部
240  :通信部
250  :操作部
260  :制御部
d1   :アイコン
t1   :サムネイル
t2   :サムネイル
t3   :サムネイル
s11  :滲み

Claims (20)

  1.  コンテンツの代表情報が表示される画面に対する視覚効果を、該コンテンツの生成時に検出される検出情報に基づいて決定し、決定した前記視覚効果を前記代表情報と併せて前記画面に表示させる制御部を備える、情報処理装置。
  2.  前記制御部は、前記コンテンツの代表情報として、該コンテンツのサムネイルの少なくとも周囲に視覚効果を与える、請求項1に記載の情報処理装置。
  3.  前記制御部は、前記コンテンツの内容に応じて該コンテンツのサムネイルの周囲に視覚効果を与える、請求項2に記載の情報処理装置。
  4.  前記制御部は、前記コンテンツが生成された状況に応じて、該コンテンツのサムネイルの周囲に視覚効果を与える、請求項2に記載の情報処理装置。
  5.  前記制御部は、前記コンテンツに含まれる被写体に基づいて、該コンテンツのサムネイルの周囲に視覚効果を与える、請求項4に記載の情報処理装置。
  6.  前記制御部は、前記コンテンツの生成場所の情報に基づいて、該コンテンツのサムネイルの周囲に視覚効果を与える、請求項4に記載の情報処理装置。
  7.  前記制御部は、前記コンテンツを生成したユーザの状態に基づいて、該コンテンツのサムネイルの周囲に視覚効果を与える、請求項4に記載の情報処理装置。
  8.  前記制御部は、前記コンテンツを生成するタイミングに対応するタイミングで検出されるユーザの生体情報に基づいて、該コンテンツのサムネイルの周囲に視覚効果を与える、請求項4に記載の情報処理装置。
  9.  前記制御部は、前記コンテンツを生成するタイミングに対応するタイミングで検出されるユーザの行動状態の情報に基づいて、該コンテンツのサムネイルの周囲に視覚効果を与える、請求項4に記載の情報処理装置。
  10.  前記制御部は、前記コンテンツの代表情報として、1以上の前記コンテンツを包含する包含コンテンツの少なくとも内部に視覚効果を与える、請求項1に記載の情報処理装置。
  11.  前記制御部は、前記包含コンテンツに包含されているコンテンツの内容に応じて視覚効果を変化させる、請求項10に記載の情報処理装置。
  12.  前記制御部は、前記包含コンテンツに包含されているコンテンツの数に応じて視覚効果を変化させる、請求項10に記載の情報処理装置。
  13.  前記制御部は、前記視覚効果として、コンテンツの代表情報の周囲に所定の色を表示させる、請求項1に記載の情報処理装置。
  14.  前記制御部は、前記コンテンツの内容に応じて前記所定の色の表示を変化させる、請求項13に記載の情報処理装置。
  15.  前記制御部は、前記コンテンツの動き量に応じて前記所定の色の表示を変化させる、請求項14に記載の情報処理装置。
  16.  前記制御部は、前記コンテンツの内容に応じて前記所定の色を変化させる、請求項13に記載の情報処理装置。
  17.  前記制御部は、前記コンテンツの代表情報の中で該コンテンツが再生されると、該再生に応じて前記所定の色を変化させる、請求項13に記載の情報処理装置。
  18.  前記制御部は、前記代表情報に対するユーザの操作が行われた際に該代表情報に前記視覚効果を付与する、請求項1に記載の情報処理装置。
  19.  コンテンツの代表情報が表示される画面に対する視覚効果を、該コンテンツの生成時に検出される検出情報に基づいて決定することと、
     決定した前記視覚効果を前記代表情報と併せて前記画面に表示させることと、
    を含む、情報処理方法。
  20.  コンピュータシステムに、
     コンテンツの代表情報が表示される画面に対する視覚効果を、該コンテンツの生成時に検出される検出情報に基づいて決定することと、
     決定した前記視覚効果を前記代表情報と併せて前記画面に表示させることと、
    を実行させる、コンピュータプログラム。
PCT/JP2017/008382 2016-03-31 2017-03-02 情報処理装置、情報処理方法及びコンピュータプログラム WO2017169502A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/087,216 US10679677B2 (en) 2016-03-31 2017-03-02 Information processing device and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-070592 2016-03-31
JP2016070592 2016-03-31

Publications (1)

Publication Number Publication Date
WO2017169502A1 true WO2017169502A1 (ja) 2017-10-05

Family

ID=59962992

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/008382 WO2017169502A1 (ja) 2016-03-31 2017-03-02 情報処理装置、情報処理方法及びコンピュータプログラム

Country Status (2)

Country Link
US (1) US10679677B2 (ja)
WO (1) WO2017169502A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100314A (ja) * 2007-10-17 2009-05-07 Sony Corp 電子機器、コンテンツ分類方法及びそのプログラム
JP2009188899A (ja) * 2008-02-08 2009-08-20 Sony Corp 画像の撮影装置、その表示装置および画像データの管理システム
JP2010026975A (ja) * 2008-07-24 2010-02-04 Nikon Corp 情報処理装置および情報処理プログラム
WO2010032402A1 (ja) * 2008-09-16 2010-03-25 パナソニック株式会社 データ表示装置、集積回路、データ表示方法、データ表示プログラム及び記録媒体
JP2011119832A (ja) * 2009-12-01 2011-06-16 Jvc Kenwood Holdings Inc 画像表示装置および画像表示方法
JP2013149160A (ja) * 2012-01-20 2013-08-01 Canon Inc 情報処理装置、その制御方法、およびプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006236244A (ja) * 2005-02-28 2006-09-07 Toshiba Corp 顔認証装置および入退場管理装置
JP5131509B2 (ja) * 2005-11-30 2013-01-30 Nltテクノロジー株式会社 画像表示装置、該画像表示装置に用いられる駆動回路及び駆動方法
JP4356762B2 (ja) 2007-04-12 2009-11-04 ソニー株式会社 情報提示装置及び情報提示方法、並びにコンピュータ・プログラム
JP5022105B2 (ja) * 2007-05-29 2012-09-12 富士フイルム株式会社 カメラの表示制御装置及び方法
JP4544332B2 (ja) * 2008-04-07 2010-09-15 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP2009277177A (ja) * 2008-05-19 2009-11-26 Fujifilm Corp 画像レイアウト装置、記録媒体および画像レイアウト方法
JP5493456B2 (ja) * 2009-05-01 2014-05-14 ソニー株式会社 画像処理装置、画像処理方法、プログラム
KR101686913B1 (ko) * 2009-08-13 2016-12-16 삼성전자주식회사 전자기기에서 이벤트 서비스 제공 방법 및 장치
JP5703720B2 (ja) * 2010-04-16 2015-04-22 キヤノンマーケティングジャパン株式会社 文書情報を表示する情報処理装置とその処理方法及びプログラム
US9635428B2 (en) * 2010-12-03 2017-04-25 At&T Intellectual Property I, L.P. System and methods to test media devices
US8854491B2 (en) * 2011-06-05 2014-10-07 Apple Inc. Metadata-assisted image filters
JP5917054B2 (ja) * 2011-09-12 2016-05-11 キヤノン株式会社 撮像装置、画像データ処理方法、およびプログラム
US9304669B2 (en) * 2012-05-15 2016-04-05 Capso Vision Inc. System and method for displaying annotated capsule images
JP2013242710A (ja) * 2012-05-21 2013-12-05 Sony Corp ユーザインターフェイス、情報表示方法およびプログラム
JP6192264B2 (ja) * 2012-07-18 2017-09-06 株式会社バンダイ 携帯端末装置、端末プログラム、拡張現実感システム、および衣類
US10282088B2 (en) * 2012-12-06 2019-05-07 Samsung Electronics Co., Ltd. Configuration of application execution spaces and sub-spaces for sharing data on a mobile tough screen device
JP5751270B2 (ja) * 2013-03-21 2015-07-22 カシオ計算機株式会社 撮像装置、撮像制御方法及びプログラム
US9880727B2 (en) * 2013-05-29 2018-01-30 Microsoft Technology Licensing, Llc Gesture manipulations for configuring system settings
US9689493B2 (en) * 2013-05-31 2017-06-27 GM Global Technoloogy Operations LLC System and method for minimal draindown in CVT
US9529509B1 (en) * 2013-09-27 2016-12-27 Google Inc. Item selection
EP2879047A3 (en) * 2013-11-28 2015-12-16 LG Electronics Inc. Mobile terminal and controlling method thereof
US20150294687A1 (en) * 2014-04-11 2015-10-15 Hipstamatic, LLC Automatic Transitions, Wipes and Fades, In A Common Video Recording/Playback Device
US9813601B2 (en) * 2014-05-06 2017-11-07 Urugus S.A. Imaging device for scenes in apparent motion
US9773350B1 (en) * 2014-09-16 2017-09-26 SilVR Thread, Inc. Systems and methods for greater than 360 degree capture for virtual reality
US9712751B2 (en) * 2015-01-22 2017-07-18 Apple Inc. Camera field of view effects based on device orientation and scene content
US9705936B2 (en) * 2015-04-24 2017-07-11 Mersive Technologies, Inc. System and method for interactive and real-time visualization of distributed media
KR101678861B1 (ko) * 2015-07-28 2016-11-23 엘지전자 주식회사 이동단말기 및 그 제어방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100314A (ja) * 2007-10-17 2009-05-07 Sony Corp 電子機器、コンテンツ分類方法及びそのプログラム
JP2009188899A (ja) * 2008-02-08 2009-08-20 Sony Corp 画像の撮影装置、その表示装置および画像データの管理システム
JP2010026975A (ja) * 2008-07-24 2010-02-04 Nikon Corp 情報処理装置および情報処理プログラム
WO2010032402A1 (ja) * 2008-09-16 2010-03-25 パナソニック株式会社 データ表示装置、集積回路、データ表示方法、データ表示プログラム及び記録媒体
JP2011119832A (ja) * 2009-12-01 2011-06-16 Jvc Kenwood Holdings Inc 画像表示装置および画像表示方法
JP2013149160A (ja) * 2012-01-20 2013-08-01 Canon Inc 情報処理装置、その制御方法、およびプログラム

Also Published As

Publication number Publication date
US10679677B2 (en) 2020-06-09
US20190122702A1 (en) 2019-04-25

Similar Documents

Publication Publication Date Title
WO2021000803A1 (zh) 一种控制屏幕小窗口的方法及相关设备
CN112738408B (zh) 图像修改器的选择性识别和排序
JP6574937B2 (ja) 通信システム、制御方法、および記憶媒体
CN108700982B (zh) 信息处理设备、信息处理方法以及程序
CN114270302A (zh) 一种屏幕截取方法及相关设备
CN105122181B (zh) 用于基于情景的自然用户接口输入的技术
CN107370887B (zh) 一种表情生成方法及移动终端
CN111443884A (zh) 投屏方法、装置和电子设备
CN112532865B (zh) 慢动作视频拍摄方法及电子设备
CN109379641A (zh) 一种字幕生成方法和装置
WO2021244457A1 (zh) 一种视频生成方法及相关装置
CN114390139B (zh) 一种电子设备在来电时呈现视频的方法、电子设备和存储介质
CN109660728B (zh) 一种拍照方法及装置
CN109257649B (zh) 一种多媒体文件生成方法及终端设备
CN110196646A (zh) 一种信息输入方法及移动终端
JPWO2018142756A1 (ja) 情報処理装置及び情報処理方法
US9841879B1 (en) Adjusting graphical characteristics for indicating time progression
KR102155521B1 (ko) 카메라를 구비하는 전자 장치의 부가 정보 획득 방법 및 장치
CN110113666A (zh) 一种多媒体文件播放方法、装置、设备及存储介质
CN111698564A (zh) 信息推荐方法、装置、设备及存储介质
CN112632445A (zh) 网页播放方法、装置、设备及存储介质
CN110024369A (zh) 一种拍照方法、装置及终端设备
CN112131438A (zh) 一种信息生成的方法、信息展示的方法及装置
CN109804340A (zh) 用于页面显示的方法、装置、图形用户界面及移动终端
US9905033B1 (en) Adjusting graphical characteristics for recognition interfaces

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17774047

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17774047

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP