WO2013118417A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2013118417A1
WO2013118417A1 PCT/JP2012/083820 JP2012083820W WO2013118417A1 WO 2013118417 A1 WO2013118417 A1 WO 2013118417A1 JP 2012083820 W JP2012083820 W JP 2012083820W WO 2013118417 A1 WO2013118417 A1 WO 2013118417A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
information processing
processing apparatus
common
display object
Prior art date
Application number
PCT/JP2012/083820
Other languages
English (en)
French (fr)
Inventor
悠介 宮沢
松一郎 守屋
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201280068847.2A priority Critical patent/CN104081327A/zh
Priority to EP12868252.3A priority patent/EP2813935A4/en
Priority to US14/372,905 priority patent/US9460535B2/en
Priority to JP2013557389A priority patent/JP6011551B2/ja
Publication of WO2013118417A1 publication Critical patent/WO2013118417A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/34Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators for rolling or scrolling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/16Indexing scheme for image data processing or generation, in general involving adaptation to the client's capabilities

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • the size of the display screen that displays information is limited. When a large amount of information is to be displayed on this display screen, a part of the information may be displayed. For example, by combining a scroll operation, an enlargement operation, a reduction operation, and the like, the user can browse information while changing a displayed area of the information.
  • Patent Document 1 discloses a playback apparatus that switches between a content list screen and a screen that displays detailed information of currently played content.
  • the acquisition unit that acquires the common display object that is displayed in common before and after the display state change, and the display position of the common display object on the display screen after the operation to change the display state
  • An information processing apparatus includes a layout determining unit that determines based on the direction of the operation, and an image generating unit that generates a display image including the common display object at the determined display position.
  • the common display object that is displayed in common before and after the change of the display state is obtained, and the display position of the common display object on the display screen after the operation for changing the display state is determined.
  • an information processing method including determining based on the direction of the operation and generating a display image including the common display object at the determined display position.
  • the computer acquires the common display object that is displayed in common before and after the change of the display state, and the common display object on the display screen after the operation for changing the display state
  • the information processing apparatus has a layout determining unit that determines the display position based on the operation direction and an image generating unit that generates a display image including the common display object at the determined display position.
  • a program is provided.
  • FIG. 3 is an explanatory diagram illustrating an appearance example of an information processing apparatus according to first and second embodiments of the present disclosure.
  • FIG. 4 is an explanatory diagram illustrating an example of content used by an information processing apparatus according to first and second embodiments of the present disclosure.
  • FIG. 4 is an explanatory diagram for describing an overview of functions of the information processing apparatus according to the first embodiment of the present disclosure;
  • FIG. It is explanatory drawing which shows the example of arrangement
  • FIG. 4 is an explanatory diagram illustrating a relationship between a display area and a size of a common display object in the information processing apparatus according to the embodiment.
  • FIG. It is explanatory drawing about the display position determination process of the common display object in the information processing apparatus which concerns on the embodiment.
  • It is explanatory drawing which shows an example of the animation expression in the change of a display area in the information processing apparatus which concerns on the embodiment.
  • It is a flowchart which shows the operation example of the information processing apparatus which concerns on the same embodiment.
  • FIG. 3 is a block diagram illustrating a hardware configuration of an information processing apparatus according to first and second embodiments of the present disclosure. It is explanatory drawing which shows an example of the display method in which screen switching generate
  • First embodiment (example of displaying a partial area of content) 1-1.
  • Example of operation Second Embodiment (Example in which objects in content are arranged and a display screen is generated) 2-1.
  • FIG. 1 is an explanatory diagram illustrating an appearance example of the information processing apparatus according to the first and second embodiments of the present disclosure.
  • FIG. 2 is an explanatory diagram illustrating an example of content used by the information processing apparatus according to the first and second embodiments of the present disclosure.
  • FIG. 3 is an explanatory diagram for describing an overview of functions of the information processing apparatus according to the first embodiment of the present disclosure.
  • FIG. 4 is an explanatory diagram illustrating an arrangement example of common display objects displayed by the information processing apparatus according to the embodiment.
  • FIG. 21 is an explanatory diagram illustrating an example of a display method in which screen switching occurs.
  • the information processing apparatus 100 is a display control apparatus having a display device or a function of controlling display of an external display device.
  • the information processing apparatus 100 may be an information processing apparatus such as a PC (Personal Computer), a home video processing apparatus (DVD recorder, VCR, etc.), a PDA (Personal Digital Assistant), a home game machine, or a home appliance. Good.
  • the information processing apparatus 100 may be an information processing apparatus such as a mobile phone, a PHS (Personal Handyphone System), a portable music playback device, a portable video processing device, and a portable game device.
  • the information processing apparatus 100 is assumed to be a mobile phone having a touch panel on the front surface.
  • the information processing apparatus 100a has a function of displaying content 40 as shown in FIG. 2 on the display screen, for example. At this time, the information processing apparatus 100a can display a part of the content 40 on the display screen. Here, the information processing apparatus 100a can determine the display area of the content 40 in accordance with a user operation. The information processing apparatus 100a may move the display area by an amount corresponding to the user operation. Alternatively, the information processing apparatus 100a can set a plurality of display areas in the content 40 in advance, and can select and display one of the display areas according to the direction of the user operation. For example, as illustrated in FIG. 3, the content 40 may be set with a first display area 41, a second display area 42, a third display area 43, and a fourth display area 44. These display areas are preferably set at positions in the content 40 where information can be easily viewed. With such a configuration, the load for the user to browse information can be reduced. A common display object 50 described in detail later may be selected from the objects included in the content 40.
  • FIG. 1 An example of the arrangement of common display objects is shown in FIG.
  • the common display object 51 that is the upper left part of the common display object 50 is included in the display image.
  • the user who refers to the common display object 51 can recognize that the common display object 51 is only displayed as a part of the object. Further, since it is possible to recognize that the right part of the object is missing, it is possible to grasp that the first display area 41 is the left part in the content 40.
  • the second display area 42 is the lower left part of the content 40, and therefore, the common display object 52 that is the lower left part of the common display object 50 is included in the display image.
  • a user who refers to the common display object 52 can recognize that the common display object 52 is a part of the object. Further, since the right part of the object is missing, it can be recognized that the second display area 42 is the left part in the content 40. Further, when the state transitions from the state 1 to the state 2, the common display object 50 is displayed even during the transition. For this reason, it is intuitively recognized that the state 2 is the lower part of the state 1.
  • the common display object 53 which is the lower central part of the common display object 50, is included in the display image.
  • the fourth display area 44 is the lower right part of the content 40, and therefore the common display object 54 that is the lower right part of the common display object 50 is included in the display image.
  • the information processing apparatus 100a can determine the layout so that when the entire display area included in the content 40 is displayed, the entire portion of the common display object 50 is displayed.
  • a method of switching between a list display and a detailed display as shown in FIG. 21 is conceivable.
  • the user can recognize the position of the detailed information with respect to the whole without switching the display.
  • FIG. 5 is a block diagram showing a functional configuration of the information processing apparatus according to the embodiment.
  • FIG. 6 is an explanatory diagram illustrating an example of a display area changing operation and an animation direction determination method of the information processing apparatus according to the embodiment.
  • FIG. 7 is an explanatory diagram illustrating another example of the display area changing operation and the animation direction determination method of the information processing apparatus according to the embodiment.
  • FIG. 8 is an explanatory diagram illustrating a relationship between the display area and the size of the common display object in the information processing apparatus according to the embodiment.
  • FIG. 9 is an explanatory diagram illustrating the display position determination process for the common display object in the information processing apparatus according to the embodiment.
  • FIG. 10 is an explanatory diagram illustrating an example of an animation expression when the display area is changed in the information processing apparatus according to the embodiment.
  • FIG. 11 is an explanatory diagram illustrating another example of the animation expression when the display area is changed in the information processing apparatus according to the embodiment.
  • the information processing apparatus 100 a includes a content acquisition unit 105, a common display object determination unit 110, an operation information acquisition unit 115, a layout determination unit 120 a, and a display image generation unit 125.
  • the display unit 130 is mainly included.
  • the content acquisition unit 105 has a function of acquiring content to be displayed on the display screen.
  • the content acquisition unit 105 may acquire content stored in the information processing apparatus 100a.
  • the content acquisition unit 105 may acquire content from an external device connected via a network.
  • the common display object determination unit 110 has a function of determining the common display object 50 to be displayed in common even when the display area is changed in content display. If the common display object information is included in the content, the common display object determination unit 110 may determine the common display object according to the information by referring to the information. Further, the common display object determination unit 110 may determine a common display object from among the objects included in the content, based on the feature amount information obtained by analyzing the object included in the content.
  • the operation information acquisition unit 115 may include, for example, an input unit for a user to input information, an input control circuit that generates an input signal based on the input, and the like.
  • the input unit include a touch panel, a mouse, a keyboard, a button, a microphone, a switch, and a lever.
  • the layout determination unit 120a uses the content acquired by the content acquisition unit 105 to include information on the common display object determined by the common display object determination unit 110 and operation information acquired by the operation information acquisition unit 115.
  • a function of determining a layout of a display image based on Hereinafter, an example of the animation expression accompanying the determination of the display area, the layout of the common display object, and the change of the display area will be described.
  • the layout determining unit 120a determines a layout by cutting out a partial area of the content 40 and superimposing a common display object on the cut-out display area. For example, as shown in FIG. 6, the user operates the display screen with the operating tool F while the first display area 41 is displayed. When the moving distance is equal to or greater than a certain distance, the layout determining unit 120a can determine the animation direction from the direction of the moving locus between the certain distances. The layout determining unit 120a can set the second display area 42 in the animation direction in the content 40 as a display area to be displayed next.
  • FIG. 7 another example of animation direction and display area determination is shown.
  • the animation direction is determined based on this movement trajectory.
  • the layout determining unit 120a can set the third display area 43 positioned in the animation direction in the content 40 as a display area to be displayed next.
  • the layout determining unit 120a can determine the size at which the common display object 50 is displayed based on the size ratio between the display area and the content 40. For example, the larger the proportion of the display area in the content 40, the larger the size of the common display object 50 displayed. For example, the ratio of the first display area 41 to the content 40 is larger than the ratio of the second display area 42 to the content 40. Therefore, the layout determining unit 120a may make the size of the common display object 50a superimposed on the first display area 41 larger than the size of the common display object 50b superimposed on the second display area 42.
  • the position where the common display object 50 is superimposed on the image of the display area may be determined based on the positional relationship between the center C of the content 40 and the center of each display area, for example.
  • the positional relationship between the center C of the content 40 and the center C ⁇ b> 1 of the first display area 41 specifically, the content viewed from the center C ⁇ b> 1 of the first display area 41.
  • the position where the common display object 50 is displayed is determined based on the direction of the center C of 40 and the distance between the center C1 of the first display area 41 and the center C of the content 40.
  • the upper left partial area of the common display object 50 is superimposed on the lower right portion of the first display area 41 in the first display area 41 that is the upper left partial area of the content 40.
  • the position where the common display object 50 is displayed is determined based on the positional relationship between the center C of the content 40 and the center C2 of the second display area 42.
  • the lower left partial area of the common display object 50 is superimposed on the upper right portion of the second display area 42 in the second display area 42 that is the lower left partial area of the content 40.
  • animation expression that accompanies a change in the display area. For example, as shown in FIG. 10, by displaying a part of C during the transition from A to B, the user can recognize that C exists during the transition from A to B.
  • animation expressions used here include enlargement / reduction and overshoot.
  • the layout determining unit 120a causes the display area 412 to be displayed during the transition from the first display area 41 to the second display area 42 to include the C information.
  • the layout determining unit 120a causes the display area 423 to be displayed during the transition from the second display area 42 to the third display area 43 to include C information.
  • an animation expression corresponding to the attribute of the object to be displayed can be used.
  • a button object having a function of voting for an object indicating coordination included in the content 40 is displayed.
  • the button object should use an animation expression that does not change the display position, such as fade, so that the positional relationship between the button and the item associated with the button does not become ambiguous and the possibility of erroneous operation is reduced. Is preferred.
  • translation + scale change instead of fading to maintain continuity such as image objects.
  • translation is not preferable as an animation expression used for a text object because of a high visual load on the user.
  • the display image generation unit 125 has a function of generating a display image according to the layout determined by the layout determination unit 120a.
  • the display image generation unit 125 can supply the generated display image to the display unit 130.
  • the display unit 130 has a function of providing the user with the display image generated by the display image generation unit 125.
  • the display unit 130 includes a display device and a display control unit that controls contents to be displayed on the display device.
  • the present technology is not limited to such an example.
  • the display unit 130 may be a display control unit that controls display on an external display device.
  • the display device for example, a liquid crystal display (LCD) device, an organic light emitting diode (OLED) display device, or the like may be used.
  • each component described above may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component.
  • the functions of each component such as a ROM (Read Only Memory) or a RAM (Random Access Memory) that stores a control program in which processing units such as a CPU (Central Processing Unit) implement these functions are described.
  • the control program may be read from the storage medium, and the program may be interpreted and executed. Therefore, it is possible to appropriately change the configuration to be used according to the technical level at the time of carrying out the present embodiment.
  • An example of the hardware configuration of the information processing apparatus 100a will be described in detail later.
  • a computer program for realizing each function of the information processing apparatus 100a according to the present embodiment as described above can be created and installed in a personal computer or the like.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • FIG. 12 is a flowchart illustrating an operation example of the information processing apparatus according to the embodiment.
  • step S105 it is first determined from the operation information 115 whether or not a touch operation is being performed. If it is determined that the touch operation is being performed, it is next determined whether or not the animation direction has already been defined (S105). If it is determined in step S105 that the animation direction has not yet been defined, it is then determined whether a drag operation has been performed for a certain distance or more (S110). When a drag operation is performed for a certain distance or longer, the animation direction is defined based on the trajectory of the drag operation (S115).
  • step S105 if it is determined in step S105 that the animation direction has already been defined, the animation is updated according to the touch movement amount (S120).
  • step S100 determines whether the touch operation is not being performed. If it is determined in step S100 that the touch operation is not being performed, it is then determined whether an animation is being performed (S125). If it is determined in step S125 that the animation is not in progress, it is then determined whether or not the finger as the operating tool F has been raised (S130). If it is determined that the finger has been raised, it is next determined whether or not a drag operation has been performed for a certain distance or more (S135).
  • step S135 If it is determined in step S135 that the drag operation has been performed for a certain distance or longer, the animation is then started (S140). On the other hand, if it is determined in step S125 that the animation is being performed, the animation is updated (S145). Then, it is determined whether or not the display is finished (S150). The above process is repeated until the display is completed.
  • Second Embodiment> [2-1. Overview]
  • a part of the displayed content 40 is cut out and a display image is generated.
  • the position of the display area to be recognized by the user is a position in the content 40, and the layout of the content 40 is determined in advance.
  • the information processing apparatus 100b described in the second embodiment selects an object to be displayed from the objects included in the content 40 and newly generates a screen.
  • the common display object 50 indicates the positional relationship with the display area displayed immediately before.
  • FIG. 13 is a block diagram illustrating a functional configuration of an information processing device according to the second embodiment of the present disclosure.
  • FIG. 14 is an explanatory diagram illustrating an example of a layout generated by the information processing apparatus according to the embodiment.
  • FIG. 15 is an explanatory diagram for determining the animation direction of the information processing apparatus according to the embodiment.
  • FIG. 16 is an explanatory diagram for limiting the type of information to be displayed according to the operation direction of the information processing apparatus according to the embodiment.
  • FIG. 17 is an explanatory diagram of a common display area displayed by the information processing apparatus according to the embodiment.
  • FIG. 18 is an explanatory diagram of a layout generation method in the information processing apparatus according to the embodiment.
  • the information processing apparatus 100b includes a content acquisition unit 105, a common display object determination unit 110, an operation information acquisition unit 115, a display object determination unit 117, a layout determination unit 120b, a display image generation unit 125, and a display unit 130. And mainly.
  • the information processing apparatus 100b further includes a display object determination unit 117 in addition to the configuration of the information processing apparatus 100a according to the first embodiment.
  • a description will be mainly given of portions different from the information processing apparatus 100a.
  • the display object determination unit 117 has a function of determining a display object from the content acquired by the content acquisition unit 105.
  • the display object determination unit 117 can determine a display object from objects that are not yet displayed among objects included in the content, for example.
  • the layout determining unit 120b has a function of determining a layout including the position and size for displaying the display object determined by the display object determining unit 117 in addition to the position and size for displaying the common display object 50.
  • the animation is updated according to the drag operation and displayed in the display area 62 to be displayed next.
  • the position and size of the display object and the common display object are determined.
  • an object including the characters “THE PANTS COLLECTION” is used as the common display object 50.
  • the layout determining unit 120b can determine the layout of the display area 62 and generate a display screen.
  • the layout determining unit 120b can determine the layout based on the operation information acquired by the operation information acquiring unit 115. For example, as shown in FIG. 15, the drag operation is started in the display area. When this drag operation is performed over a certain distance, the animation direction is defined based on this trajectory. When a drag operation is performed beyond a certain distance, the animation is advanced by the distance obtained by orthogonally projecting this locus in the defined animation direction.
  • restrictions may be added to the displayed information depending on the operation direction.
  • the direction in which the operation direction for displaying the currently displayed information is extended may be defined as the direction for displaying the next information (next object).
  • the direction orthogonal to the operation direction may be defined as a direction for displaying parallel information for the currently displayed object.
  • the parallel information may be detailed information of items included in the currently displayed object, for example.
  • FIG. 17 shows a common display area that is displayed in common when the display area 61 transitions to the display area 62.
  • the common display object 50 is included.
  • the user can recognize the positional relationship between the display area 61 and the display area 62.
  • the screen to be displayed next is not determined in advance, but is generated according to the operation, but the determined positional relationship is maintained. That is, after an operation of transition from the display area 61 to the display area 62 is performed and the screen of the display area 62 is displayed, when an operation that transitions in the opposite direction to the above operation is detected, the display area 61 is displayed again. .
  • the animation direction is determined based on the drag operation.
  • a display object to be displayed next is determined.
  • the display position of the display object is determined based on the drag operation amount and the like. And the position where a common display area becomes a fixed area is defined. And the position where this common display area becomes a fixed area is defined.
  • the scale and position of the object are adjusted so that the information of the display object in the display area 62 is maximized. At this time, the adjustment may be performed by rotating the object. Further, the transmittance of the object may be changed according to the progress of the animation.
  • FIG. 19 is a flowchart illustrating an operation example of the information processing apparatus according to the embodiment.
  • step S100 it is first determined from the operation information 115 whether or not a touch operation is being performed (S100). If it is determined that the touch operation is being performed, it is next determined whether or not the animation direction has already been defined (S105). If it is determined in step S105 that the animation direction has not yet been defined, it is then determined whether a drag operation has been performed for a certain distance or more (S110). When a drag operation is performed for a certain distance or longer, the animation direction is defined based on the trajectory of the drag operation (S115).
  • step S105 if it is determined in step S105 that the animation direction has already been defined, the animation is updated according to the touch movement amount (S120).
  • step S100 determines whether the touch operation is not being performed. If it is determined in step S100 that the touch operation is not being performed, it is then determined whether an animation is being performed (S125). If it is determined in step S125 that the animation is not in progress, it is then determined whether or not the finger as the operating tool F has been raised (S130). If it is determined that the finger has been raised, it is next determined whether or not a drag operation has been performed for a certain distance or more (S135).
  • step S135 If it is determined in step S135 that the drag operation has been performed for a certain distance or more, an object to be displayed next is determined (S137). Next, the animation is started (S140). On the other hand, if it is determined in step S125 that the animation is being performed, the animation is updated (S145). Then, it is determined whether or not the display is finished (S150). The above process is repeated until the display is completed.
  • FIG. 20 is a block diagram illustrating a hardware configuration of the information processing apparatus according to the first and second embodiments of the present disclosure.
  • the information processing apparatus 100 includes, for example, a telephone network antenna 817, a telephone processing unit 819, a GPS antenna 821, a GPS processing unit 823, a WiFi antenna 825, a WiFi processing unit 827, and a geomagnetic sensor.
  • acceleration sensor 831 acceleration sensor 831, gyro sensor 833, barometric pressure sensor 835, imaging unit 837, CPU (Central Processing Unit) 839, ROM (Read Only Memory) 841, RAM (Random Access Memory) 843, An operation unit 847, a display unit 849, a decoder 851, a speaker 853, an encoder 855, a microphone 857, and a storage unit 859 are included.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An operation unit 847 a display unit 849, a decoder 851, a speaker 853, an encoder 855, a microphone 857, and a storage unit 859 are included.
  • the hardware configuration shown here is an example, and some of the components may be omitted. It goes without saying that constituent elements other than those shown here may be further included.
  • the telephone network antenna 817 is an example of an antenna having a function of wirelessly connecting to a mobile phone network for calls and communication.
  • the telephone network antenna 817 can supply a telephone signal received via the mobile telephone network to the telephone processing unit 819.
  • the telephone processing unit 819 has a function of performing various signal processing on signals transmitted and received by the telephone network antenna 817.
  • the telephone processing unit 819 can perform various kinds of signal processing on the audio signal input through the microphone 857 and encoded by the encoder 855, and can supply the processed signal to the telephone network antenna 817. Further, the telephone processing unit 819 can perform various kinds of signal processing on the audio signal supplied from the telephone network antenna 819 and supply the processed signal to the decoder 851.
  • the GPS antenna 821 is an example of an antenna that receives a signal from a positioning satellite.
  • the GPS antenna 821 can receive GPS signals from a plurality of GPS satellites, and inputs the received GPS signals to the GPS processing unit 823.
  • the GPS processing unit 823 is an example of a calculation unit that calculates position information based on a signal received from a positioning satellite.
  • the GPS processing unit 823 calculates current position information based on a plurality of GPS signals input from the GPS antenna 821, and outputs the calculated position information.
  • the GPS processing unit 823 calculates the position of each GPS satellite from the orbit data of the GPS satellite, and performs the information processing from each GPS satellite based on the difference time between the transmission time and the reception time of the GPS signal.
  • Each distance to the device 100 is calculated.
  • the current three-dimensional position can be calculated based on the calculated position of each GPS satellite and the distance from each GPS satellite to the information processing apparatus 100.
  • the orbit data of the GPS satellite used here may be included in, for example, a GPS signal.
  • the orbit data of the GPS satellite may be acquired from an external server via the communication antenna 825.
  • the WiFi antenna 825 is an antenna having a function of transmitting / receiving a communication signal with, for example, a wireless LAN (Local Area Network) communication network according to the Wifi specification.
  • the WiFi antenna 825 can supply the received signal to the communication processing unit 827.
  • the WiFi processing unit 827 has a function of performing various signal processing on the signal supplied from the WiFi antenna 825.
  • the WiFi processing unit 827 can supply a digital signal generated from the supplied analog signal to the CPU 839.
  • the geomagnetic sensor 829 is a sensor that detects geomagnetism as a voltage value.
  • the geomagnetic sensor 829 may be a three-axis geomagnetic sensor that detects geomagnetism in the X-axis direction, the Y-axis direction, and the Z-axis direction.
  • the geomagnetic sensor 829 can supply the detected geomagnetic data to the CPU 839.
  • the acceleration sensor 831 is a sensor that detects acceleration as a voltage value.
  • the acceleration sensor 831 may be a three-axis acceleration sensor that detects acceleration along the X-axis direction, acceleration along the Y-axis direction, and acceleration along the Z-axis direction.
  • the acceleration sensor 831 can supply the detected acceleration data to the CPU 839.
  • the gyro sensor 833 is a kind of measuring instrument that detects the angle and angular velocity of an object.
  • the gyro sensor 833 may be a three-axis gyro sensor that detects a speed (angular speed) at which the rotation angle around the X axis, the Y axis, and the Z axis changes as a voltage value.
  • the gyro sensor 833 can supply the detected angular velocity data to the CPU 839.
  • the atmospheric pressure sensor 835 is a sensor that detects ambient atmospheric pressure as a voltage value.
  • the atmospheric pressure sensor 835 can detect the atmospheric pressure at a predetermined sampling frequency and supply the detected atmospheric pressure data to the CPU 839.
  • the imaging unit 837 has a function of capturing a still image or a moving image via a lens in accordance with the control of the CPU 839.
  • the imaging unit 837 may store the captured image in the storage unit 859.
  • the CPU 839 functions as an arithmetic processing unit and a control unit, and controls overall operations in the information processing apparatus 100 according to various programs.
  • the CPU 839 may be a microprocessor.
  • the CPU 839 can realize various functions according to various programs.
  • the ROM 841 can store programs used by the CPU 839, operation parameters, and the like.
  • the RAM 843 can temporarily store programs used in the execution of the CPU 839, parameters that change as appropriate during the execution, and the like.
  • the operation unit 847 has a function of generating an input signal for performing a desired operation.
  • the operation unit 847 includes, for example, an input unit for inputting information such as a touch sensor, a mouse, a keyboard, a button, a microphone, a switch, and a lever, an input control circuit that generates an input signal based on the input, and outputs the input signal to the CPU 839. May be configured.
  • the display unit 849 is an example of an output device, and may be a display device such as a liquid crystal display (LCD) device or an organic light emitting diode (OLED) display device.
  • the display portion 849 can provide information by displaying a screen.
  • the decoder 851 has a function of performing decoding and analog conversion of input data under the control of the CPU 839.
  • the decoder 851 can perform decoding and analog conversion of audio data input via the telephone network antenna 817 and the telephone processing unit 819 and output the audio signal to the speaker 853, for example.
  • the decoder 851 can perform decoding and analog conversion of audio data input via the WiFi antenna 825 and the WiFi processing unit 827, for example, and output the audio signal to the speaker 853.
  • the speaker 853 can output audio based on the audio signal supplied from the decoder 851.
  • the encoder 855 has a function of performing digital conversion and encoding of input data in accordance with the control of the CPU 839.
  • the encoder 855 can perform digital conversion and encoding of the audio signal input from the microphone 857 and output audio data.
  • the microphone 857 can collect sound and output it as a sound signal.
  • the storage unit 859 is a data storage device, and includes a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, and a deletion device that deletes data recorded on the storage medium.
  • a storage medium for example, nonvolatile memory such as flash memory, MRAM (Magnetoresistive Random Access Memory), FeRAM (Ferroelectric Random Access Memory), PRAM (Phase change Random Access Memory), and EEPROM (Electronically Erasable and Programmable Read Only Memory).
  • a magnetic recording medium such as an HDD (Hard Disk Drive) may be used.
  • the transition of the display screen has been described as an example, but it goes without saying that the scope of application of the present technology is not limited to the example shown here.
  • the display screen may be changed in more stages.
  • the common display object 50 is displayed at least at a position indicating a positional relationship with the display screen displayed immediately before.
  • the information processing apparatus 100 that is a client device performs processing such as generation of a display image.
  • the technical scope of the present disclosure is not limited to such an example.
  • Some of the functions of the information processing apparatus 100 may be performed on a server connected to the client device via a network.
  • Such a server performs processing such as content analysis, layout generation, or display image generation in accordance with an instruction transmitted from the client device, and transmits a display image or a display control signal to the client device. Can do.
  • Such embodiments are also included in the technical scope of the present disclosure.
  • An acquisition unit that acquires a common display object that is commonly displayed before and after the display state is changed;
  • a layout determining unit that determines the display position of the common display object on the display screen after the operation to change the display state based on the direction of the operation;
  • An image generation unit for generating a display image including the common display object at the determined display position;
  • An information processing apparatus comprising: (2) The information processing apparatus according to (1), wherein the image generation unit generates the display image including a part of the common display object.
  • the image generation unit generates the display image using the selected content,
  • the layout determining unit determines the size of the common display object based on a ratio of a part of the content included in the display screen after the operation to the content, (1) to (3)
  • the information processing apparatus according to any one of the above.
  • a common display object determination unit for determining the common display object from objects included in the selected content The information processing apparatus according to any one of (1) to (4), further including: (6)
  • the common display object determining unit determines the common display object from an object including characters;
  • the image generation unit generates part of the selected content and generates the display image by superimposing the common display object.
  • the information processing apparatus according to any one of (1) to (6).
  • the layout determining unit determines a size of the common display object to be superimposed based on a ratio of the part of the content included in the display screen after the operation to the content; The information processing apparatus according to (7).
  • the layout determination unit determines a layout by reconfiguring an arrangement of objects included in the selected content, and dynamically generates a layout after the operation; The information processing apparatus according to any one of (1) to (6).
  • the layout determining unit restricts the content of information displayed in the next operation direction based on the operation direction.
  • the information processing apparatus according to (9).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 画面を切替えずに現在表示している情報の位置を知ることができる情報処理装置、情報処理方法、及びプログラムを提供する。情報処理装置は、表示状態の変更前後において共通して表示される共通表示オブジェクトを取得する取得部と、前記表示状態を変更する操作後の表示画面上における前記共通表示オブジェクトの表示位置を、前記操作の方向に基づいて決定するレイアウト決定部と、決定された前記表示位置に前記共通表示オブジェクトを含む表示画像を生成する画像生成部と、を有する。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
 情報を表示させる表示画面の大きさには限りがある。この表示画面に多くの情報を表示させようとする場合に、情報の一部を表示させることがある。例えばスクロール操作、拡大操作、縮小操作などを組合わせて、ユーザは情報のうち表示される領域を変更しながら情報を閲覧することができる。
 ところが、詳細な情報を見ようとすると情報の全体像を把握することが困難となり、現在閲覧している情報が全体のうちどの部分に該当するかを知ることが難しい。このため、例えば特許文献1には、コンテンツのリスト画面と現在再生されているコンテンツの詳細情報を表示する画面とを切替えて表示する再生装置が開示されている。
特開2007-149313号公報
 しかし、俯瞰性を得るために画面の切替が発生すると、ユーザ操作の負荷が増大してしまう。
 上記事情に鑑みれば、画面を切替えずに現在表示している情報の位置を知ることができることが望ましい。
 本開示によれば、表示状態の変更前後において共通して表示される共通表示オブジェクトを取得する取得部と、上記表示状態を変更する操作後の表示画面上における上記共通表示オブジェクトの表示位置を、上記操作の方向に基づいて決定するレイアウト決定部と、決定された上記表示位置に上記共通表示オブジェクトを含む表示画像を生成する画像生成部と、を有する情報処理装置が提供される。
 また、本開示によれば、表示状態の変更前後において共通して表示される共通表示オブジェクトを取得することと、上記表示状態を変更する操作後の表示画面上における上記共通表示オブジェクトの表示位置を、上記操作の方向に基づいて決定することと、決定された上記表示位置に上記共通表示オブジェクトを含む表示画像を生成することと、を含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータを、表示状態の変更前後において共通して表示される共通表示オブジェクトを取得する取得部と、上記表示状態を変更する操作後の表示画面上における上記共通表示オブジェクトの表示位置を、上記操作の方向に基づいて決定するレイアウト決定部と、決定された上記表示位置に上記共通表示オブジェクトを含む表示画像を生成する画像生成部と、を有する情報処理装置として機能させるためのプログラムが提供される。
 以上説明したように本開示によれば、画面を切替えずに現在表示している情報の位置を知ることができる。
本開示の第1及び第2の実施形態に係る情報処理装置の外観例を示す説明図である。 本開示の第1及び第2の実施形態に係る情報処理装置が用いるコンテンツの一例を示す説明図である。 本開示の第1の実施形態に係る情報処理装置の機能の概要を説明するための説明図である。 同実施形態に係る情報処理装置が表示する共通表示オブジェクトの配置例を示す説明図である。 同実施形態に係る情報処理装置の機能構成を示すブロック図である。 同実施形態に係る情報処理装置の表示領域変更操作とアニメーション方向の決定方法の一例についての説明図である。 同実施形態に係る情報処理装置の表示領域変更操作とアニメーション方向の決定方法の他の一例についての説明図である。 同実施形態に係る情報処理装置において表示領域と共通表示オブジェクトのサイズとの間の関係について示す説明図である。 同実施形態に係る情報処理装置における共通表示オブジェクトの表示位置決定処理についての説明図である。 同実施形態に係る情報処理装置において表示領域の変更におけるアニメーション表現の一例を示す説明図である。 同実施形態に係る情報処理装置において表示領域の変更におけるアニメーション表現の他の一例を示す説明図である。 同実施形態に係る情報処理装置の動作例を示すフローチャートである。 本開示の第2の実施形態に係る情報処理装置の機能構成を示すブロック図である。 同実施形態に係る情報処理装置の生成するレイアウトの一例を示す説明図である。 同実施形態に係る情報処理装置のアニメーション方向の決定についての説明図である。 同実施形態に係る情報処理装置の操作方向に応じた表示する情報の種類の制限についての説明図である。 同実施形態に係る情報処理装置の表示する共通表示領域についての説明図である。 同実施形態に係る情報処理装置におけるレイアウト生成方法についての説明図である。 同実施形態に係る情報処理装置の動作例を示すフローチャートである。 本開示の第1及び第2の実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。 画面の切替が発生する表示方法の一例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施形態(コンテンツの一部領域を表示する例)
  1-1.概要
  1-2.構成
  1-3.動作例
 2.第2の実施形態(コンテンツ中のオブジェクトを配置し表示画面を生成する例)
  2-1.概要
  2-2.構成
  2-3.動作例
 3.ハードウェア構成例
<1.第1の実施形態>
 [1-1.概要]
 まず、図1~図3、及び図21を参照して、本開示の第1の実施形態に係る情報処理装置の機能の概要について説明する。図1は、本開示の第1及び第2の実施形態に係る情報処理装置の外観例を示す説明図である。図2は、本開示の第1及び第2の実施形態に係る情報処理装置が用いるコンテンツの一例を示す説明図である。図3は、本開示の第1の実施形態に係る情報処理装置の機能の概要を説明するための説明図である。図4は、同実施形態に係る情報処理装置が表示する共通表示オブジェクトの配置例を示す説明図である。図21は、画面の切替が発生する表示方法の一例を示す説明図である。
 以下、本明細書及び図面において、本開示の第1の実施形態に係る情報処理装置100a及び第2の実施形態に係る情報処理装置100bに共通する事項について述べるときには、情報処理装置100と称する。
 情報処理装置100は、表示装置を有する又は外部の表示装置の表示を制御する機能を有する表示制御装置である。情報処理装置100は、例えばPC(Personal Computer)、家庭用映像処理装置(DVDレコーダ、ビデオデッキなど)、PDA(Personal Digital Assistants)、家庭用ゲーム機器、家電機器などの情報処理装置であってもよい。また、情報処理装置100は、携帯電話、PHS(Personal Handyphone System)、携帯用音楽再生装置、携帯用映像処理装置、携帯用ゲーム機器などの情報処理装置であってもよい。以下、ここでは情報処理装置100は前面にタッチパネルを有する携帯電話とする。
 この情報処理装置100aは、例えば図2に示すようなコンテンツ40を表示画面上に表示させる機能を有する。このとき情報処理装置100aは、コンテンツ40の一部を表示画面上に表示させることができる。ここで情報処理装置100aは、ユーザ操作に応じてコンテンツ40のうちの表示領域を決定することができる。情報処理装置100aは、ユーザ操作に応じた量だけ表示領域を移動させてもよい。あるいは情報処理装置100aは、予めコンテンツ40中の表示領域を複数設定しておき、ユーザ操作の方向に応じていずれかの表示領域を選択して表示させることもできる。例えば図3に示されるように、コンテンツ40には、第1表示領域41と、第2表示領域42と、第3表示領域43と、第4表示領域44とが設定されていてよい。これらの表示領域は、コンテンツ40中において情報の閲覧性が高い位置に設定されることが望ましい。このような構成により、ユーザが情報を閲覧するための負荷を低減することができる。またコンテンツ40に含まれるオブジェクトから、後に詳述される共通表示オブジェクト50が選択されてよい。
 なお、本開示においては、これらの表示領域がコンテンツ40全体のうちどの部分に当たるかが共通表示オブジェクトを用いて示される。共通表示オブジェクトの配置例が図4に示される。例えば第1表示領域41を表示する状態1では、第1表示領域41はコンテンツ40中の左上部分であるため、共通表示オブジェクト50の左上部分である共通表示オブジェクト51が表示画像に含まれる。この共通表示オブジェクト51を参照したユーザは、共通表示オブジェクト51がオブジェクトの一部しか表示されていないことを認識することができる。また、オブジェクトの右部分が欠けていることを認識することができるため、第1表示領域41がコンテンツ40中の左部分であることを把握できる。
 また第2表示領域42を表示する状態2では、第2表示領域42はコンテンツ40中の左下部分であるため、共通表示オブジェクト50の左下部分である共通表示オブジェクト52が表示画像に含まれる。この共通表示オブジェクト52を参照したユーザは、共通表示オブジェクト52がオブジェクトの一部であることを認識することができる。また、オブジェクトの右部分が欠けていることから、第2表示領域42がコンテンツ40中の左部分であることを認識することができる。さらに状態1から状態2に遷移した場合に、遷移途中においても共通表示オブジェクト50が表示されている。このため、直感的に状態2が状態1の下部分であることが認識される。
 また第3表示領域43を表示する状態3では、第3表示領域43はコンテンツ40中の中央下部であるため、共通表示オブジェクト50の中央下部分である共通表示オブジェクト53が表示画像に含まれる。
 また第4表示領域44を表示する状態4では、第4表示領域44はコンテンツ40中の右下部であるため、共通表示オブジェクト50の右下部である共通表示オブジェクト54が表示画像に含まれる。
 このとき情報処理装置100aは、コンテンツ40に含まれる表示領域が全て表示されると共通表示オブジェクト50の全部分が表示されるようにレイアウトを決定することができる。
 例えば俯瞰性のために、図21に示されるように一覧表示と詳細表示とを切替えて表示させる方法が考えられる。しかし本開示の方法によれば、表示を切替えることなく全体に対する詳細情報の位置をユーザに認識させることができる。
 このような情報処理装置100aの構成について、次に詳述される。
 [1-2.構成]
 次に図5~図11を参照しながら、本開示の第1の実施形態に係る情報処理装置100aの機能構成について説明する。図5は、同実施形態に係る情報処理装置の機能構成を示すブロック図である。図6は、同実施形態に係る情報処理装置の表示領域変更操作とアニメーション方向の決定方法の一例についての説明図である。図7は、同実施形態に係る情報処理装置の表示領域変更操作とアニメーション方向の決定方法の他の一例についての説明図である。図8は、同実施形態に係る情報処理装置において表示領域と共通表示オブジェクトのサイズとの間の関係について示す説明図である。図9は、同実施形態に係る情報処理装置における共通表示オブジェクトの表示位置決定処理についての説明図である。図10は、同実施形態に係る情報処理装置において表示領域の変更におけるアニメーション表現の一例を示す説明図である。図11は、同実施形態に係る情報処理装置において表示領域の変更におけるアニメーション表現の他の一例を示す説明図である。
 図5を参照すると、本実施形態に係る情報処理装置100aは、コンテンツ取得部105と、共通表示オブジェクト決定部110と、操作情報取得部115と、レイアウト決定部120aと、表示画像生成部125と、表示部130とを主に有する。
 (コンテンツ取得部105)
 コンテンツ取得部105は、表示画面上に表示させるコンテンツを取得する機能を有する。コンテンツ取得部105は、情報処理装置100a内部に記憶されたコンテンツを取得してもよい。或いはコンテンツ取得部105は、ネットワークを介して接続される外部の装置からコンテンツを取得してもよい。
 (共通表示オブジェクト決定部110)
 共通表示オブジェクト決定部110は、コンテンツの表示において、表示領域が変更されても共通して表示される共通表示オブジェクト50を決定する機能を有する。共通表示オブジェクト決定部110は、コンテンツに共通表示オブジェクトの情報が含まれる場合には、当該情報を参照することによって、この情報に従って共通表示オブジェクトを決定してもよい。また共通表示オブジェクト決定部110は、コンテンツに含まれるオブジェクトを解析することによって得られる特徴量情報に基づいて、コンテンツに含まれるオブジェクトの中から共通表示オブジェクトを決定してもよい。
 (操作情報取得部115)
 操作情報取得部115は、例えばユーザが情報を入力するための入力部と、入力に基づいて入力信号を生成する入力制御回路などを含んでよい。例えば入力部の一例としては、タッチパネル、マウス、キーボード、ボタン、マイク、スイッチ、及びレバーなどが挙げられる。
 (レイアウト決定部120a)
 レイアウト決定部120aは、コンテンツ取得部105により取得されたコンテンツを用いて、共通表示オブジェクト決定部110により決定された共通表示オブジェクトの情報と、操作情報取得部115により取得される操作情報と、に基づいて表示画像のレイアウトを決定する機能を有する。以下、表示領域の決定、共通表示オブジェクトのレイアウト、及び表示領域の変更に伴うアニメーション表現の一例について説明する。
 本実施形態においては、レイアウト決定部120aは、コンテンツ40の一部領域を切り出し、切り出した表示領域上に共通表示オブジェクトを重畳することによってレイアウトを決定する。例えば図6に示されるように、第1表示領域41が表示されている状態においユーザが操作体Fにより表示画面上を操作する。この移動距離が一定距離以上となると、レイアウト決定部120aは、この一定距離間の移動軌跡の方向からアニメーション方向を決定することができる。レイアウト決定部120aは、コンテンツ40においてこのアニメーション方向上にある第2表示領域42を次に表示する表示領域とすることができる。
 次に図7を参照すると、アニメーション方向と表示領域決定の他の一例が示される。図7の矢印に示されるように操作体Fが移動したとき、この移動軌跡に基づいてアニメーション方向が決定される。そして、レイアウト決定部120aは、コンテンツ40においてこのアニメーション方向上に位置する第3表示領域43を次に表示する表示領域とすることができる。
 また、図8に示されるように、レイアウト決定部120aは、表示領域とコンテンツ40との大きさの比率に基づいて共通表示オブジェクト50が表示される大きさを決定することができる。例えば表示領域がコンテンツ40中に占める割合が大きいほど、表示される共通表示オブジェクト50の大きさを大きくすることができる。例えば第1表示領域41がコンテンツ40に占める割合は、第2表示領域42がコンテンツ40に占める割合よりも大きい。そこでレイアウト決定部120aは、第1表示領域41に重畳される共通表示オブジェクト50aの大きさを、第2表示領域42に重畳される共通表示オブジェクト50bの大きさよりも大きくしてよい。
 また、共通表示オブジェクト50を表示領域の画像に重畳する位置は、例えばコンテンツ40の中心Cと、各表示領域の中心との位置関係に基づいて決定されてよい。例えば図9を参照すると、第1表示領域41に関しては、コンテンツ40の中心Cと第1表示領域41の中心C1との位置関係、具体的には第1表示領域41の中心C1から見たコンテンツ40の中心Cの方向、及び第1表示領域41の中心C1とコンテンツ40の中心Cとの間の距離に基づいて共通表示オブジェクト50の表示される位置が決定される。かかる方法により、コンテンツ40の左上の一部領域である第1表示領域41には、共通表示オブジェクト50の左上の一部領域が第1表示領域41中の右下部分に重畳される。
 また同様に、第2表示領域42に関しては、コンテンツ40の中心Cと第2表示領域42の中心C2との位置関係に基づいて、共通表示オブジェクト50の表示される位置が決定される。かかる方法により、コンテンツ40の左下の一部領域である第2表示領域42には、共通表示オブジェクト50の左下の一部領域が第2表示領域42の右上部分に重畳される。
 次に表示領域の変更に伴うアニメーション表現の一例について説明する。例えば図10に示されるように、AからBに遷移する途中で、Cの一部を表示させることによって、Cが存在することをAからBへの遷移の途中にユーザに認識させることができる。ここで用いられるアニメーション表現の一例としては、拡大縮小、オーバーシュートなどが挙げられる。この場合、レイアウト決定部120aは、第1表示領域41から第2表示領域42に遷移する途中に表示する表示領域412がCの情報を含むようにする。
 また図11においても同様に、AからBに遷移する途中でCの一部を表示させることによって、Cが存在することをAからBへの遷移の途中にユーザに認識させることができる。この場合、レイアウト決定部120aは、第2表示領域42から第3表示領域43に遷移する途中に表示する表示領域423がCの情報を含むようにする。
 なお、アニメーション表現においては、表示するオブジェクトの属性に応じたアニメーション表現を用いることもできる。例えばコンテンツ40に含まれる、コーディネートを示すオブジェクトに対して投票する機能を有するボタンオブジェクトが表示されることが考えられる。このときボタンオブジェクトは、ボタンと対応づけられるアイテムとの位置関係が不明確とならないように、また誤操作の可能性を低減するために、フェードなど表示位置の変更を伴わないアニメーション表現が用いられることが好ましい。
 また、イメージオブジェクトなど連続性を保つためにフェードではなく平行移動+スケール変化が用いられることが望ましい。またテキストオブジェクトは、視認性を保つことが重要である。このため、α値を落としながらの平行移動、又はフェードが用いられることが望ましい。例えば平行移動は、ユーザの視覚的な負荷が高いためテキストオブジェクトに用いるアニメーション表現としては好ましくない。
 (表示画像生成部125)
 表示画像生成部125は、レイアウト決定部120aにより決定されたレイアウトに従って表示画像を生成する機能を有する。表示画像生成部125は、生成した表示画像を表示部130に供給することができる。
 (表示部130)
 表示部130は、表示画像生成部125により生成された表示画像をユーザに提供する機能を有する。ここでは表示部130は、表示装置と表示装置に表示させる内容を制御する表示制御部を有する。しかし本技術はかかる例に限定されない。例えば表示部130は、外部の表示装置の表示を制御する表示制御部であってもよい。表示装置としては、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイ装置などが用いられてよい。
 以上、本実施形態に係る情報処理装置100aの機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU(Central Processing Unit)などの演算装置がこれらの機能を実現する処理手順を記述した制御プログラムを記憶したROM(Read Only Memory)やRAM(Random Access Memory)などの記憶媒体から制御プログラムを読出し、そのプログラムを解釈して実行することにより行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。なおこの情報処理装置100aのハードウェア構成の一例については、後に詳述される。
 なお、上述のような本実施形態に係る情報処理装置100aの各機能を実現するためのコンピュータプログラムを作成し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
 [1-3.動作例]
 次に図12を参照しながら、本開示の第1の実施形態に係る情報処理装置100の動作例について説明する。図12は、同実施形態に係る情報処理装置の動作例を示すフローチャートである。
 図12を参照すると、まず操作情報115により、タッチ操作中であるか否かが判断される(S100)。ここでタッチ操作中であると判断された場合には、次にアニメ方向がすでに定義されているか否かが判断される(S105)。ステップS105の判断においてアニメ方向がまだ定義されていないと判断された場合には、次に一定距離以上ドラッグ操作が行われたか否かが判断される(S110)。そして一定距離以上ドラッグ操作が行われると、このドラッグ操作の軌跡に基づいてアニメ方向が定義される(S115)。
 そして一方、ステップS105の判断においてアニメ方向がすでに定義されていると判断された場合には、タッチ移動量に応じてアニメーションが更新される(S120)。
 また一方、ステップS100においてタッチ操作中ではないと判断された場合には、次にアニメーション中であるか否かが判断される(S125)。ステップS125の判断においてアニメーション中ではないと判断された場合には、次に操作体Fである指がUpされたか否かが判断される(S130)。そして指がUpされたと判断された場合には次に一定距離以上ドラッグ操作が行われているか否かが判断される(S135)。
 ステップS135において一定距離以上ドラッグ操作が行われたと判断されると、次にアニメーションが開始される(S140)。そして一方、ステップS125においてアニメーション中であると判断された場合には、アニメーションの更新が行われる(S145)。そして、表示が終了されたか否かが判断される(S150)。表示が終了されるまで、上述の処理は繰り返される。
<2.第2の実施形態>
 [2-1.概要]
 第1の実施形態においては、表示されるコンテンツ40のうちの一部を切り出して表示画像が生成された。この場合にユーザに認識させる表示領域の位置はコンテンツ40中の位置であり、コンテンツ40のレイアウトは予め決まっていた。これに対して第2の実施形態で説明する情報処理装置100bは、コンテンツ40に含まれるオブジェクトから表示させるオブジェクトを選択して新たに画面を生成する。この場合には、全体のレイアウトが予め決まっていないため、共通表示オブジェクト50は、直前に表示されていた表示領域との位置関係を示す。
 [2-2.構成]
 次に図13~図18を参照しながら、本開示の第2の実施形態に係る情報処理装置100bの機能構成について説明する。図13は、本開示の第2の実施形態に係る情報処理装置の機能構成を示すブロック図である。図14は、同実施形態に係る情報処理装置の生成するレイアウトの一例を示す説明図である。図15は、同実施形態に係る情報処理装置のアニメーション方向の決定についての説明図である。図16は、同実施形態に係る情報処理装置の操作方向に応じた表示する情報の種類の制限についての説明図である。図17は、同実施形態に係る情報処理装置の表示する共通表示領域についての説明図である。図18は、同実施形態に係る情報処理装置におけるレイアウト生成方法についての説明図である。
 図13を参照すると、本開示の第2の実施形態に係る情報処理装置100bの構成が示される。情報処理装置100bは、コンテンツ取得部105と、共通表示オブジェクト決定部110と、操作情報取得部115と、表示オブジェクト決定部117と、レイアウト決定部120bと、表示画像生成部125と、表示部130とを主に有する。情報処理装置100bは、第1の実施形態に係る情報処理装置100aの構成に加えて、表示オブジェクト決定部117をさらに有する。以下、情報処理装置100aと異なる箇所について主に説明する。
 (表示オブジェクト決定部117)
 表示オブジェクト決定部117は、コンテンツ取得部105の取得したコンテンツから表示オブジェクトを決定する機能を有する。表示オブジェクト決定部117は、例えばコンテンツに含まれるオブジェクトのうち未だ表示されていないオブジェクトから表示オブジェクトを決定することができる。
 (レイアウト決定部120b)
 レイアウト決定部120bは、共通表示オブジェクト50を表示する位置及び大きさに加えて、表示オブジェクト決定部117により決定された表示オブジェクトを表示する位置及び大きさを含めたレイアウトを決定する機能を有する。
 例えば図14に示されるように表示領域61が表示されている状態においてドラッグ操作が検出されると、このドラッグ操作に応じてアニメーションが更新されると共に、次に表示される表示領域62において表示される表示オブジェクトと、共通表示オブジェクトの位置及び大きさが決定される。ここでは、「THE PANTS COLLECTION」という文字を含むオブジェクトが共通表示オブジェクト50として用いられる。なお、上述の通りこの表示領域61と表示領域62との位置関係は予め決まったものではない。操作体Fによる操作が検出されると、レイアウト決定部120bは、この表示領域62のレイアウトを決定して表示画面を生成することができる。
 なお、レイアウト決定部120bは、操作情報取得部115により取得される操作情報に基づいてレイアウトを決定することができる。例えば図15に示されるように、表示領域内でドラッグ操作が開始される。そしてこのドラッグ操作が一定距離以上なされると、この軌跡に基づいてアニメーション方向が定義される。そして、一定距離を超えてドラッグ操作がなされると、この軌跡を定義されたアニメーション方向へ正射影した距離分だけアニメーションが進められる。
 また、操作方向によって、表示される情報に制限が加えられてもよい。例えば現在表示されている情報を表示するための操作方向を延伸した方向は、次の情報(次のオブジェクト)を表示するための方向であると定義されてもよい。また上記操作方向と直交する方向は、現在表示されているオブジェクトに対する並列情報を表示するための方向であると定義されてもよい。ここで並列情報とは、例えば現在表示されているオブジェクトに含まれるアイテムの詳細情報であってよい。
 また図17には、表示領域61から表示領域62に遷移するときに共通して表示される共通表示領域が示される。ここには共通表示オブジェクト50が含まれる。この共通表示領域によって、ユーザは表示領域61と表示領域62との位置関係を認識することができる。なお、本実施形態においては次に表示される画面は予め位置関係が決まったものではなく操作に応じて生成されることとしたが、一度決められた位置関係は保持される。すなわち、表示領域61から表示領域62に遷移する操作を行って表示領域62の画面が表示された後に、上記操作と逆方向へ遷移する操作が検出されると、再び表示領域61が表示される。
 ここで図18に示されるように、表示領域61から表示領域62に遷移するとき、ドラッグ操作に基づいてアニメーション方向が決定される。ドラッグ操作が検出されると、次に表示される表示オブジェクトが決定される。この表示オブジェクトの表示位置は、ドラッグ操作量などに基づいて決められる。そして、共通表示領域が一定の面積となる位置が定義される。そしてこの共通表示領域が一定の面積になる位置が定義される。そしてこの表示領域62における表示オブジェクトの情報が最大化されるように、オブジェクトのスケール及び位置が調整される。なおこのとき、オブジェクトを回転することにより調整が行われてもよい。また、アニメーションの進行に応じてオブジェクトの透過率が変更されてもよい。
 [2-3.動作例]
 次に図19を参照しながら、本開示の第2の実施形態に係る情報処理装置100bの動作例について説明する。図19は、同実施形態に係る情報処理装置の動作例を示すフローチャートである。
 図19を参照すると、まず操作情報115により、タッチ操作中であるか否かが判断される(S100)。ここでタッチ操作中であると判断された場合には、次にアニメ方向がすでに定義されているか否かが判断される(S105)。ステップS105の判断においてアニメ方向がまだ定義されていないと判断された場合には、次に一定距離以上ドラッグ操作が行われたか否かが判断される(S110)。そして一定距離以上ドラッグ操作が行われると、このドラッグ操作の軌跡に基づいてアニメ方向が定義される(S115)。
 そして一方、ステップS105の判断においてアニメ方向がすでに定義されていると判断された場合には、タッチ移動量に応じてアニメーションが更新される(S120)。
 また一方、ステップS100においてタッチ操作中ではないと判断された場合には、次にアニメーション中であるか否かが判断される(S125)。ステップS125の判断においてアニメーション中ではないと判断された場合には、次に操作体Fである指がUpされたか否かが判断される(S130)。そして指がUpされたと判断された場合には次に一定距離以上ドラッグ操作が行われているか否かが判断される(S135)。
 ステップS135において一定距離以上ドラッグ操作が行われたと判断されると、次に表示されるオブジェクトが決定される(S137)。そして、次にアニメーションが開始される(S140)。そして一方、ステップS125においてアニメーション中であると判断された場合には、アニメーションの更新が行われる(S145)。そして、表示が終了されたか否かが判断される(S150)。表示が終了されるまで、上述の処理は繰り返される。
<3.ハードウェア構成例>
 以上、本開示の第1及び第2の実施形態に係る情報処理装置100の機能について説明してきた。ここではこれらの機能を実現するための情報処理装置100のハードウェア構成例について図20を参照しながら説明する。図20は、本開示の第1及び第2の実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。
 ここで、情報処理装置100の構成の一例について説明する。図20を参照すると、情報処理装置100は、例えば、電話網アンテナ817と、電話処理部819と、GPSアンテナ821と、GPS処理部823と、Wifiアンテナ825と、Wifi処理部827と、地磁気センサ829と、加速度センサ831と、ジャイロセンサ833と、気圧センサ835と、撮像部837と、CPU(Central Processing Unit)839と、ROM(Read Only Memory)841と、RAM(Random Access Memory)843と、操作部847と、表示部849と、デコーダ851と、スピーカ853と、エンコーダ855と、マイク857と、記憶部859とを有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよいことは言うまでもない。
(電話網アンテナ817)
 電話網アンテナ817は、通話及び通信用の携帯電話網と無線で接続する機能を有するアンテナの一例である。電話網アンテナ817は、携帯電話網を介して受信される通話信号を電話処理部819に供給することができる。
(電話処理部819)
 電話処理部819は、電話網アンテナ817により送受信される信号に対する各種の信号処理を行う機能を有する。電話処理部819は、例えばマイク857を介して入力され、エンコーダ855によりエンコードされた音声信号に対して各種の信号処理を行い、電話網アンテナ817に供給することができる。また電話処理部819は、電話網アンテナ819から供給される音声信号に対して各種の信号処理を行い、デコーダ851に供給することができる。
(GPSアンテナ821)
 GPSアンテナ821は、測位衛星からの信号を受信するアンテナの一例である。GPSアンテナ821は、複数のGPS衛星からのGPS信号を受信することができ、受信したGPS信号をGPS処理部823に入力する。
(GPS処理部823)
 GPS処理部823は、測位衛星から受信された信号に基づいて位置情報を算出する算出部の一例である。GPS処理部823は、GPSアンテナ821から入力された複数のGPS信号に基づいて現在の位置情報を算出し、算出した位置情報を出力する。具体的には、GPS処理部823は、GPS衛星の軌道データからそれぞれのGPS衛星の位置を算出し、GPS信号の送信時刻と受信時刻との差分時間に基づいて、各GPS衛星から当該情報処理装置100までの距離をそれぞれ算出する。そして、算出された各GPS衛星の位置と、各GPS衛星から当該情報処理装置100までの距離とに基づいて、現在の3次元位置を算出することができる。なお、ここで用いられるGPS衛星の軌道データは、例えばGPS信号に含まれていてもよい。或いは、GPS衛星の軌道データは、通信アンテナ825を介して外部のサーバから取得されてもよい。
(Wifiアンテナ825)
 Wifiアンテナ825は、例えば無線LAN(Local Area Network)通信網との通信信号をWifiの仕様に従って送受信する機能を有するアンテナである。Wifiアンテナ825は、受信した信号を通信処理部827に供給することができる。
(Wifi処理部827)
 Wifi処理部827は、Wifiアンテナ825から供給された信号に各種の信号処理を行う機能を有する。Wifi処理部827は、供給されたアナログ信号から生成したデジタル信号をCPU839に供給することができる。
(地磁気センサ829)
 地磁気センサ829は、地磁気を電圧値として検出するセンサである。地磁気センサ829は、X軸方向、Y軸方向、及びZ軸方向の地磁気をそれぞれ検出する3軸地磁気センサであってよい。地磁気センサ829は、検出した地磁気データをCPU839に供給することができる。
(加速度センサ831)
 加速度センサ831は、加速度を電圧値として検出するセンサである。加速度センサ831は、X軸方向に沿った加速度、Y軸方向に沿った加速度、及びZ軸方向に沿った加速度をそれぞれ検出する3軸加速度センサであってよい。加速度センサ831は、検出した加速度データをCPU839に供給することができる。
(ジャイロセンサ833)
 ジャイロセンサ833は、物体の角度や角速度を検出する計測器の一種である。このジャイロセンサ833は、X軸、Y軸、及びZ軸周りの回転角の変化する速度(角速度)を電圧値として検出する3軸ジャイロセンサであってよい。ジャイロセンサ833は、検出した角速度データをCPU839に供給することができる。
(気圧センサ835)
 気圧センサ835は、周囲の気圧を電圧値として検出するセンサである。気圧センサ835は、気圧を所定のサンプリング周波数で検出し、検出した気圧データをCPU839に供給することができる。
(撮像部837)
 撮像部837は、CPU839の制御に従い、レンズを介して静止画像又は動画像を撮影する機能を有する。撮像部837は、撮影した画像を記憶部859に記憶させてもよい。
(CPU839)
 CPU839は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置100内の動作全般を制御する。またCPU839は、マイクロプロセッサであってもよい。このCPU839は、各種プログラムに従って様々な機能を実現することができる。
(ROM841,RAM843)
 ROM841は、CPU839が使用するプログラムや演算パラメータ等を記憶することができる。RAM843は、CPU839の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶することができる。
(操作部847)
 操作部847は、所望の操作をするための入力信号を生成する機能を有する。操作部847は、例えばタッチセンサ、マウス、キーボード、ボタン、マイク、スイッチ及びレバーなど情報を入力するための入力部と、入力に基づいて入力信号を生成し、CPU839に出力する入力制御回路などから構成されてよい。
(表示部849)
 表示部849は、出力装置の一例であり、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイ装置などの表示装置であってよい。表示部849は、画面を表示することにより情報を提供することができる。
(デコーダ851,スピーカ853)
 デコーダ851は、CPU839の制御に従い、入力されたデータのデコード及びアナログ変換などを行う機能を有する。デコーダ851は、例えば電話網アンテナ817及び電話処理部819を介して入力された音声データのデコード及びアナログ変換などを行い、音声信号をスピーカ853に出力することができる。またデコーダ851は、例えばWifiアンテナ825及びWifi処理部827を介して入力された音声データのデコード及びアナログ変換などを行い、音声信号をスピーカ853に出力することができる。スピーカ853は、デコーダ851から供給される音声信号に基づいて音声を出力することができる。
(エンコーダ855,マイク857)
 エンコーダ855は、CPU839の制御に従い、入力されたデータのデジタル変換及びエンコードなどを行う機能を有する。エンコーダ855は、マイク857から入力される音声信号のデジタル変換及びエンコードなどを行い、音声データを出力することができる。マイク857は、音声を集音し、音声信号として出力することができる。
(記憶部859)
 記憶部859は、データ格納用の装置であり、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。ここで記憶媒体としては、例えばフラッシュメモリ、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)、PRAM(Phase change Random Access Memory)、及びEEPROM(Electronically Erasable and Programmable Read Only Memory)などの不揮発性メモリや、HDD(Hard Disk Drive)などの磁気記録媒体などが用いられてよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記第2の実施形態では、表示画面の遷移を一例を挙げて説明したが、本技術の適用範囲は、ここで示した例に限定されないことは言うまでもない。例えばさらに多段階で表示画面が遷移されてもよい。この場合であっても、少なくとも直前に表示された表示画面との位置関係を示す位置に共通表示オブジェクト50は表示される。
 また上記実施形態では、クライアント機器である情報処理装置100において表示画像の生成などの処理が行われることとしたが、本開示の技術的範囲はかかる例に限定されない。上記情報処理装置100の機能の一部は、クライアント機器とネットワークを介して接続されるサーバー上において行われてもよい。このようなサーバーは、クライアント機器から送信された指示に応じて、例えばコンテンツの解析、レイアウトの生成、又は表示画像の生成などの処理を行い、表示画像又は表示制御信号をクライアント機器に送信することができる。このような実施の形態についても本開示の技術的範囲に含まれる。
 尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 表示状態の変更前後において共通して表示される共通表示オブジェクトを取得する取得部と、
 前記表示状態を変更する操作後の表示画面上における前記共通表示オブジェクトの表示位置を、前記操作の方向に基づいて決定するレイアウト決定部と、
 決定された前記表示位置に前記共通表示オブジェクトを含む表示画像を生成する画像生成部と、
を備える、情報処理装置。
(2)
 前記画像生成部は、前記共通表示オブジェクトの一部分を含む前記表示画像を生成する、前記(1)に記載の情報処理装置。
(3)
 前記表示画像に含まれる前記共通表示オブジェクトの前記一部分は、前記操作の前記方向に基づいて決定される、前記(2)に記載の情報処理装置。
(4)
 前記画像生成部は、選択されたコンテンツを用いて前記表示画像を生成し、
 前記レイアウト決定部は、前記操作後の前記表示画面に含まれる前記コンテンツ中の一部分が前記コンテンツに占める割合に基づいて、前記共通表示オブジェクトの大きさを決定する、前記(1)~(3)のいずれかに記載の情報処理装置。
(5)
 選択されたコンテンツに含まれるオブジェクトから前記共通表示オブジェクトを決定する共通表示オブジェクト決定部、
をさらに備える、前記(1)~(4)のいずれかに記載の情報処理装置。
(6)
 前記共通表示オブジェクト決定部は、文字を含むオブジェクトから前記共通表示オブジェクトを決定する、
前記(5)に記載の情報処理装置。
(7)
 前記画像生成部は、選択されたコンテンツの一部を切り出し、前記共通表示オブジェクトを重畳することにより前記表示画像を生成する、
前記(1)~(6)のいずれかに記載の情報処理装置。
(8)
 前記レイアウト決定部は、前記操作後の前記表示画面に含まれる前記コンテンツの前記一部が前記コンテンツに占める割合に基づいて、重畳する前記共通表示オブジェクトの大きさを決定する、
前記(7)に記載の情報処理装置。
(9)
 前記レイアウト決定部は、選択されたコンテンツに含まれるオブジェクトの配置を再構成することによりレイアウトを決定して、前記操作後のレイアウトを動的に生成する、
前記(1)~(6)のいずれかに記載の情報処理装置。
(10)
 前記レイアウト決定部は、前記操作の方向に基づいて、次の操作方向に表示される情報の内容を制限する、
前記(9)に記載の情報処理装置。
(11)
 表示状態の変更前後において共通して表示される共通表示オブジェクトを取得することと、
 前記表示状態を変更する操作後の表示画面上における前記共通表示オブジェクトの表示位置を、前記操作の方向に基づいて決定することと、
 決定された前記表示位置に前記共通表示オブジェクトを含む表示画像を生成することと、
を含む、情報処理方法。
(12)
 コンピュータを、
 表示状態の変更前後において共通して表示される共通表示オブジェクトを取得する取得部と、
 前記表示状態を変更する操作後の表示画面上における前記共通表示オブジェクトの表示位置を、前記操作の方向に基づいて決定するレイアウト決定部と、
 決定された前記表示位置に前記共通表示オブジェクトを含む表示画像を生成する画像生成部と、
を備える、情報処理装置として機能させるためのプログラム。
 100  情報処理装置
 105  コンテンツ取得部
 110  共通表示オブジェクト決定部
 115  操作情報取得部
 117  表示オブジェクト決定部
 120  レイアウト決定部
 125  表示画像生成部
 130  表示部
 
 

Claims (12)

  1.  表示状態の変更前後において共通して表示される共通表示オブジェクトを取得する取得部と、
     前記表示状態を変更する操作後の表示画面上における前記共通表示オブジェクトの表示位置を、前記操作の方向に基づいて決定するレイアウト決定部と、
     決定された前記表示位置に前記共通表示オブジェクトを含む表示画像を生成する画像生成部と、
    を備える、情報処理装置。
  2.  前記画像生成部は、前記共通表示オブジェクトの一部分を含む前記表示画像を生成する、請求項1に記載の情報処理装置。
  3.  前記表示画像に含まれる前記共通表示オブジェクトの前記一部分は、前記操作の前記方向に基づいて決定される、請求項2に記載の情報処理装置。
  4.  前記画像生成部は、選択されたコンテンツを用いて前記表示画像を生成し、
     前記レイアウト決定部は、前記操作後の前記表示画面に含まれる前記コンテンツ中の一部分が前記コンテンツに占める割合に基づいて、前記共通表示オブジェクトの大きさを決定する、請求項1に記載の情報処理装置。
  5.  選択されたコンテンツに含まれるオブジェクトから前記共通表示オブジェクトを決定する共通表示オブジェクト決定部、
    をさらに備える、請求項1に記載の情報処理装置。
  6.  前記共通表示オブジェクト決定部は、文字を含むオブジェクトから前記共通表示オブジェクトを決定する、
    請求項5に記載の情報処理装置。
  7.  前記画像生成部は、選択されたコンテンツの一部を切り出し、前記共通表示オブジェクトを重畳することにより前記表示画像を生成する、
    請求項1に記載の情報処理装置。
  8.  前記レイアウト決定部は、前記操作後の前記表示画面に含まれる前記コンテンツの前記一部が前記コンテンツに占める割合に基づいて、重畳する前記共通表示オブジェクトの大きさを決定する、
    請求項7に記載の情報処理装置。
  9.  前記レイアウト決定部は、選択されたコンテンツに含まれるオブジェクトの配置を再構成することによりレイアウトを決定して、前記操作後のレイアウトを動的に生成する、
    請求項1に記載の情報処理装置。
  10.  前記レイアウト決定部は、前記操作の方向に基づいて、次の操作方向に表示される情報の内容を制限する、
    請求項9に記載の情報処理装置。
  11.  表示状態の変更前後において共通して表示される共通表示オブジェクトを取得することと、
     前記表示状態を変更する操作後の表示画面上における前記共通表示オブジェクトの表示位置を、前記操作の方向に基づいて決定することと、
     決定された前記表示位置に前記共通表示オブジェクトを含む表示画像を生成することと、
    を含む、情報処理方法。
  12.  コンピュータを、
     表示状態の変更前後において共通して表示される共通表示オブジェクトを取得する取得部と、
     前記表示状態を変更する操作後の表示画面上における前記共通表示オブジェクトの表示位置を、前記操作の方向に基づいて決定するレイアウト決定部と、
     決定された前記表示位置に前記共通表示オブジェクトを含む表示画像を生成する画像生成部と、
    を備える、情報処理装置として機能させるためのプログラム。
     
     
PCT/JP2012/083820 2012-02-10 2012-12-27 情報処理装置、情報処理方法、及びプログラム WO2013118417A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201280068847.2A CN104081327A (zh) 2012-02-10 2012-12-27 信息处理装置、信息处理方法及程序
EP12868252.3A EP2813935A4 (en) 2012-02-10 2012-12-27 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
US14/372,905 US9460535B2 (en) 2012-02-10 2012-12-27 Information processing device, information processing method, and program
JP2013557389A JP6011551B2 (ja) 2012-02-10 2012-12-27 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012027027 2012-02-10
JP2012-027027 2012-02-10

Publications (1)

Publication Number Publication Date
WO2013118417A1 true WO2013118417A1 (ja) 2013-08-15

Family

ID=48947201

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/083820 WO2013118417A1 (ja) 2012-02-10 2012-12-27 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US9460535B2 (ja)
EP (1) EP2813935A4 (ja)
JP (1) JP6011551B2 (ja)
CN (1) CN104081327A (ja)
WO (1) WO2013118417A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU350038S (en) * 2013-02-22 2013-08-01 Samsung Electronics Co Ltd Display screen with icon for an electronic device
USD732062S1 (en) * 2013-02-22 2015-06-16 Samsung Electronics Co., Ltd. Display screen or a portion thereof with graphical user interface
USD732063S1 (en) * 2013-02-22 2015-06-16 Samsung Electronics Co., Ltd. Display screen or a portion thereof with graphical user interface
USD731523S1 (en) * 2013-11-08 2015-06-09 Microsoft Corporation Display screen with graphical user interface
USD808405S1 (en) 2016-03-31 2018-01-23 Lovelooks, Inc. Computer display panel with graphical user interface comprising a set of images for a fashion gallery
USD789963S1 (en) * 2016-03-31 2017-06-20 Lovelooks, Inc. Computer display panel with graphical user interface
USD808404S1 (en) 2016-03-31 2018-01-23 Lovelooks, Inc. Computer display panel with graphical user interface comprising a set of images for fashion ensemble planning
USD886117S1 (en) 2017-01-05 2020-06-02 Hulu, LLC Display screen or portion thereof with graphical user interface
USD862487S1 (en) * 2017-01-05 2019-10-08 Hulu, LLC Display screen or portion thereof with graphical user interface
JP7129248B2 (ja) * 2018-07-05 2022-09-01 フォルシアクラリオン・エレクトロニクス株式会社 情報制御装置、及び表示変更方法
USD916802S1 (en) * 2018-10-23 2021-04-20 Yoox Net-A-Porter Group Spa Display screen with graphical user interface
USD927548S1 (en) * 2019-05-07 2021-08-10 Salesforce.Com, Inc. Display screen or portion thereof with icon
USD965633S1 (en) * 2019-08-16 2022-10-04 Subfiber OÜ Display screen or portion thereof with an animated graphical user interface
USD1029035S1 (en) * 2021-09-26 2024-05-28 Beijing Xiaomi Mobile Software Co., Ltd. Display screen with transitional graphical user interface
USD984475S1 (en) * 2021-12-14 2023-04-25 Cana Technology, Inc. Display screen or portion thereof with animated graphical user interface

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003186594A (ja) * 2001-12-21 2003-07-04 Matsushita Electric Ind Co Ltd 情報配信システム
JP2006318210A (ja) * 2005-05-12 2006-11-24 Matsushita Electric Ind Co Ltd 携帯端末装置とその表示方法
JP2007080298A (ja) * 2006-12-25 2007-03-29 Kyocera Corp 携帯端末装置
JP2007149313A (ja) 2005-10-26 2007-06-14 Sony Corp 再生装置、関連情報通知方法および関連情報通知プログラム
JP2012003579A (ja) * 2010-06-18 2012-01-05 Ecs:Kk 2次元図表の表示プログラムおよび2次元図表の表示装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6232527A (ja) * 1985-08-06 1987-02-12 Hitachi Ltd 表示画面制御方式
US5339391A (en) * 1990-05-14 1994-08-16 Microelectronics And Computer Technology Corporation Computer display unit with attribute enhanced scroll bar
JPH0827700B2 (ja) * 1990-12-31 1996-03-21 インターナショナル・ビジネス・マシーンズ・コーポレイション コンピュータ表示制御システム
US6803931B1 (en) * 1999-11-04 2004-10-12 Kendyl A. Roman Graphical user interface including zoom control box representing image and magnification of displayed image
WO2009062109A1 (en) * 2007-11-08 2009-05-14 Linkstorm Apparatuses, methods and systems for hierarchical multidimensional information interfaces
US20090158181A1 (en) * 2007-12-18 2009-06-18 Mellmo Llc User interface method and apparatus to navigate a document file
JP2013077936A (ja) * 2011-09-30 2013-04-25 Casio Comput Co Ltd 画像再生装置、画像再生方法及びプログラム
KR20160039453A (ko) * 2014-10-01 2016-04-11 엘지전자 주식회사 이동 단말기 및 그것의 제어방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003186594A (ja) * 2001-12-21 2003-07-04 Matsushita Electric Ind Co Ltd 情報配信システム
JP2006318210A (ja) * 2005-05-12 2006-11-24 Matsushita Electric Ind Co Ltd 携帯端末装置とその表示方法
JP2007149313A (ja) 2005-10-26 2007-06-14 Sony Corp 再生装置、関連情報通知方法および関連情報通知プログラム
JP2007080298A (ja) * 2006-12-25 2007-03-29 Kyocera Corp 携帯端末装置
JP2012003579A (ja) * 2010-06-18 2012-01-05 Ecs:Kk 2次元図表の表示プログラムおよび2次元図表の表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2813935A4

Also Published As

Publication number Publication date
JP6011551B2 (ja) 2016-10-19
JPWO2013118417A1 (ja) 2015-05-11
EP2813935A1 (en) 2014-12-17
US9460535B2 (en) 2016-10-04
EP2813935A4 (en) 2015-12-02
US20150009231A1 (en) 2015-01-08
CN104081327A (zh) 2014-10-01

Similar Documents

Publication Publication Date Title
JP6011551B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN108022279B (zh) 视频特效添加方法、装置及智能移动终端
JP5892239B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6065369B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9414125B2 (en) Remote control device
US10416785B2 (en) Information processing apparatus, information processing method, and program
JP5935267B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2013054470A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6090173B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR101036280B1 (ko) 수동 조작 도구를 이용한 3차원 메뉴 시스템
CN108024073B (zh) 视频编辑方法、装置及智能移动终端
KR20150009199A (ko) 객체 편집을 위한 전자 장치 및 방법
JP4403336B2 (ja) 電子地図表示装置、ナビゲーション装置、記憶媒体、および電子地図表示方法
JP5247907B1 (ja) データ取得装置、データ取得システム、データ取得装置の制御方法、及びプログラム
JP5475163B2 (ja) データ取得装置、データ取得システム、データ取得装置の制御方法、及びプログラム
CN101853069A (zh) 输入设备和方法、信息处理设备和方法及信息处理***

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12868252

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14372905

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2013557389

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2012868252

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE