WO2020045126A1 - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2020045126A1
WO2020045126A1 PCT/JP2019/032132 JP2019032132W WO2020045126A1 WO 2020045126 A1 WO2020045126 A1 WO 2020045126A1 JP 2019032132 W JP2019032132 W JP 2019032132W WO 2020045126 A1 WO2020045126 A1 WO 2020045126A1
Authority
WO
WIPO (PCT)
Prior art keywords
objects
control unit
information processing
track
group
Prior art date
Application number
PCT/JP2019/032132
Other languages
English (en)
French (fr)
Inventor
辻 実
徹 知念
光行 畠中
優樹 山本
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/269,242 priority Critical patent/US11368806B2/en
Priority to JP2020539355A priority patent/JP7491216B2/ja
Priority to EP19856267.0A priority patent/EP3846501A4/en
Priority to CN201980054349.4A priority patent/CN112585999A/zh
Priority to BR112021003091-3A priority patent/BR112021003091A2/pt
Priority to KR1020217003812A priority patent/KR102680422B1/ko
Publication of WO2020045126A1 publication Critical patent/WO2020045126A1/ja
Priority to US17/844,483 priority patent/US11849301B2/en
Priority to US18/505,985 priority patent/US20240073639A1/en
Priority to JP2024010939A priority patent/JP2024042045A/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/295Spatial effects, musical uses of multiple audio channels, e.g. stereo
    • G10H2210/305Source positioning in a soundscape, e.g. instrument positioning on a virtual soundstage, stereo panning or related delay or reverberation changes; Changing the stereo width of a musical source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/106Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
    • G10H2220/111Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters for graphical orchestra or soundstage control, e.g. on-screen selection or positioning of instruments in a virtual orchestra, using movable or selectable musical instrument icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Definitions

  • the present technology relates to an information processing apparatus, a method, and a program, and more particularly, to an information processing apparatus, a method, and a program that enable more efficient editing.
  • object audio data is composed of a waveform signal for the audio object and meta information indicating localization information of the audio object represented by a relative position from a listening position serving as a predetermined reference.
  • the waveform signal of the audio object is rendered into a signal having a desired number of channels by VBAP (Vector Based Amplitude Panning) based on the meta information and reproduced (for example, see Non-Patent Documents 1 and 2). .
  • VBAP Vector Based Amplitude Panning
  • object-based audio it is possible to arrange audio objects in various directions in a three-dimensional space when producing audio content.
  • Non-Patent Document 3 For example, in Dolby Atoms Panner plus-in for Pro Tools (see Non-Patent Document 3, for example), it is possible to specify the position of an audio object on a 3D graphic user interface. According to this technology, a sound image of a sound of an audio object can be localized in an arbitrary direction in a three-dimensional space by designating a position on an image of a virtual space displayed on a user interface as a position of an audio object. .
  • the localization of the sound image with respect to the conventional two-channel stereo is adjusted by a method called panning. For example, by changing the proportion of the predetermined audio track to the left and right two channels by the user interface, it is determined at which position in the horizontal direction the sound image is to be localized.
  • editing such as changing the position in the space of the audio object, that is, the sound image localization position, and adjusting the gain of the waveform signal of the audio object can be performed for each audio object.
  • An information processing apparatus selects and groups a plurality of objects existing in a predetermined space, and maintains a relative positional relationship of the grouped objects in the space.
  • a control unit configured to change positions of the plurality of objects as they are.
  • An information processing method or a program selects and groups a plurality of objects existing in a predetermined space, and determines a relative positional relationship of the grouped objects in the space. Changing the positions of the plurality of objects while maintaining them.
  • a plurality of objects existing in a predetermined space are selected and grouped, and the relative positional relationship of the grouped objects in the space is maintained.
  • the positions of the plurality of objects are changed.
  • FIG. 2 is a diagram illustrating a configuration example of an information processing apparatus. It is a figure showing an example of an edit screen.
  • FIG. 4 is a diagram illustrating an example of a POV image. It is a flowchart explaining a grouping process.
  • FIG. 6 is a diagram illustrating movement of a grouped object.
  • FIG. 6 is a diagram illustrating movement of a grouped object.
  • FIG. 6 is a diagram illustrating movement of a grouped object.
  • FIG. 3 is a diagram illustrating an L / R pair.
  • FIG. 3 is a diagram illustrating an L / R pair.
  • FIG. 3 is a diagram illustrating an L / R pair.
  • FIG. 3 is a diagram illustrating an L / R pair.
  • FIG. 3 is a diagram illustrating an L / R pair.
  • FIG. 3 is a diagram illustrating an L / R pair.
  • FIG. 11 is a diagram for describing change of object position information in units of offset amount.
  • FIG. 11 is a diagram for describing change of object position information in units of offset amount.
  • FIG. 11 is a diagram for describing change of object position information in units of offset amount.
  • FIG. 11 is a diagram for describing change of object position information in units of offset amount.
  • It is a flowchart explaining an offset moving process.
  • FIG. 9 is a diagram illustrating an interpolation process of object position information.
  • FIG. 9 is a diagram illustrating an interpolation process of object position information.
  • FIG. 9 is a diagram illustrating an interpolation process of object position information.
  • It is a flowchart explaining an interpolation method selection process.
  • FIG. 4 is a diagram illustrating an example of a POV image.
  • FIG. 3 is a diagram illustrating mute setting and solo setting.
  • FIG. 3 is a diagram illustrating mute setting and solo setting.
  • FIG. 3 is a diagram illustrating mute setting and solo setting. It is a flowchart explaining a setting process.
  • FIG. 3 is a diagram for describing import of an audio file. It is a figure showing the example of a track type selection screen. It is a figure showing an example of an edit screen. It is a figure showing the example of a track type selection screen. It is a figure showing an example of an edit screen.
  • FIG. 4 is a diagram illustrating an example of a POV image. It is a flowchart explaining an import process.
  • FIG. 14 is a diagram illustrating a configuration example of a computer.
  • the present technology groups a plurality of objects and changes the positions of the plurality of objects while maintaining the relative positional relationship of the grouped objects in a three-dimensional space, thereby enabling more efficient editing. Is to be able to do.
  • the object refers to any object that can provide position information indicating a position in space, such as an audio object that is a sound source or an image object that is a subject on an image. It may be something.
  • an audio object is also simply referred to as an object.
  • FIG. 1 is a diagram illustrating a configuration example of an embodiment of an information processing apparatus to which the present technology is applied.
  • the information processing apparatus 11 shown in FIG. 1 includes an input unit 21, a recording unit 22, a control unit 23, a display unit 24, a communication unit 25, and a speaker unit 26.
  • the input unit 21 includes a switch, a button, a mouse, a keyboard, a touch panel provided on the display unit 24, and the like, and supplies a signal corresponding to an input operation of a user who is a content creator to the control unit 23.
  • the recording unit 22 is composed of, for example, a non-volatile memory such as a hard disk, and records various data such as audio content data supplied from the control unit 23, and supplies the recorded data to the control unit 23. I do. Note that the recording unit 22 may be a removable recording medium that is removable from the information processing apparatus 11.
  • the control unit 23 is realized by, for example, a processor or the like, and controls the operation of the entire information processing apparatus 11.
  • the control unit 23 has a position determination unit 41 and a display control unit 42.
  • the position determining unit 41 determines the position of each object in space, that is, the sound image localization position of the sound of each object, based on the signal supplied from the input unit 21.
  • the display control unit 42 controls the display unit 24 to control the display of images and the like on the display unit 24.
  • the display unit 24 includes, for example, a liquid crystal display panel, and displays various images under the control of the display control unit 42.
  • the communication unit 25 includes, for example, a communication interface and communicates with an external device via a wired or wireless communication network such as the Internet. For example, the communication unit 25 receives data transmitted from an external device and supplies the data to the control unit 23, or transmits data supplied from the control unit 23 to the external device.
  • the speaker unit 26 includes, for example, speakers of each channel of a speaker system having a predetermined channel configuration, and reproduces (outputs) the sound of the content based on the audio signal supplied from the control unit 23.
  • the information processing device 11 can function as an editing device that implements editing of object-based audio content including at least object data of a plurality of objects.
  • the audio content data may include data that is not object data, specifically, channel audio data composed of audio signals of each channel.
  • the audio content may be a single content such as music without a video or the like, but it is assumed here that the audio content includes a corresponding video content. That is, the audio signal of the audio content is video data composed of a still image or a moving image (video), that is, an audio signal accompanying the video data of the video content.
  • video a moving image
  • the audio content corresponding to the video content is the audio of the live video.
  • Each object data included in the audio content data includes an audio signal which is a waveform signal of the sound of the object, and meta information of the object.
  • the meta information includes, for example, object position information indicating the position of the object in a reproduction space that is a three-dimensional space, gain information indicating the gain of the audio signal of the object, and priority information indicating the priority of the object. include.
  • the object position information indicating the position of the object is represented by polar coordinates based on the position of the listener who listens to the sound of the audio content in the reproduction space (hereinafter, also referred to as the listening position). Let it be represented.
  • the object position information includes a horizontal angle, a vertical angle, and a radius.
  • the object position information is represented by polar coordinates.
  • the present invention is not limited to this, and any type of object position information such as absolute position information represented by absolute coordinates may be used.
  • the horizontal angle is the horizontal angle (Azimuth) indicating the position of the object in the horizontal direction (left-right direction) as viewed from the listening position
  • the vertical angle is the position of the object in the vertical direction (vertical direction) as viewed from the listening position. Is an angle in the vertical direction (Elevation).
  • the radius is a distance (Radius) from the listening position to the object.
  • the coordinates as the object position information are represented as (Azimuth, Elevation, Radius).
  • rendering based on the audio signal of each object is performed by VBAP or the like such that the sound image of the sound of the object is located at the position indicated by the object position information.
  • one object data that is, an audio signal of one object is treated as one audio track.
  • the channel audio data a plurality of audio signals constituting the channel audio data are handled as one audio track.
  • the audio track is simply referred to as a track.
  • audio content data includes object data of many objects such as tens or hundreds.
  • a plurality of objects when editing audio content, a plurality of objects can be grouped so that editing can be performed more efficiently. That is, a plurality of selected objects can be grouped so that a plurality of objects selected from a plurality of objects existing in the reproduction space can be handled as one group.
  • the object position information is changed while the relative positional relationship of the objects is maintained in the reproduction space.
  • the information processing apparatus 11 can edit the object position information in groups, that is, specify (change) the sound image localization position of the object.
  • the number of operations for specifying the object position information can be significantly reduced as compared with the case where the object position information is edited for each object. Therefore, according to the information processing apparatus 11, it is possible to more efficiently and easily edit audio contents.
  • priority information and gain information may be edited in units of groups.
  • the priority information of all other objects belonging to the same group as the predetermined object also has the same value as the priority information of the predetermined object. Be changed. Note that the priority information of the objects belonging to the same group may be changed while maintaining the relative relationship between the priorities.
  • the gain information of a predetermined object when the gain information of a predetermined object is specified, the gain information of all other objects belonging to the same group as the predetermined object is also changed. At this time, the gain information of all the objects belonging to the group is changed while the relative magnitude relation of the gain information is maintained.
  • the display control unit 42 causes the display unit 24 to display an editing screen on which a time waveform of an audio signal of each track is displayed as a display screen of the content production tool.
  • the display control unit 42 also causes the display unit 24 to display a POV image that is a viewpoint shot (Point-of-View-Shot) from the listening position or a position near the listening position as a display screen of the content production tool.
  • a viewpoint shot Point-of-View-Shot
  • the editing screen and the POV image may be displayed in different windows, or may be displayed in the same window.
  • the editing screen is a screen (image) for designating or changing object position information, gain information, and priority information for each track of audio content, for example.
  • the POV image is a 3D graphic image imitating the reproduction space, that is, an image of the reproduction space viewed from a listening position of the listener or a position near the listener.
  • the display control unit 42 causes the display unit 24 to display the editing screen ED11 shown in FIG.
  • the editing screen ED11 includes a track area in which information about a track is displayed, and a timeline area in which a time waveform of an audio signal, object position information, gain information, and priority information of the track are displayed. It is provided for each track.
  • an area TR11 on the left side in the figure on the edit screen ED11 is a track area for one track
  • an area TM11 provided adjacent to the right side in the figure on the area TR11 is This is a timeline area of the track corresponding to the area TR11.
  • Each track area is provided with a group display area, an object name display area, and a coordinate system selection area.
  • the group display area is an area where information indicating a track, that is, a group to which an object corresponding to the track belongs is displayed.
  • the area GP11 on the left side of the drawing in the area TR11 is a group display area
  • the character (number) “1” in the area GP11 is information indicating a group to which the object (track) belongs, that is, Indicates the group ID. The user can instantly grasp the group to which the object belongs by looking at the group ID displayed in the group display area.
  • the information indicating the group that is, the information for identifying the group is not limited to the group ID represented by a numeral, but may be any other information such as characters or color information.
  • the track areas of the objects (tracks) belonging to the same group are displayed in the same color.
  • colors representing those groups are predetermined, and when the input unit 21 is operated and a group of objects is selected (designated) by the user, the display control unit 42 sets the track area of the object to The object is displayed in a color representing the selected group.
  • the upper four track areas in the figure on the edit screen ED11 are displayed in the same color, and the user belongs to the same group of four objects (tracks) corresponding to those track areas. It can be grasped instantly.
  • a color defined for a group including a plurality of objects that is, a color representing a group will be particularly referred to as a group color.
  • the object name display area is an area for displaying an object name, which is given to a track, that is, an object corresponding to the track and indicates the name (name) of the object.
  • the area OB11 is an object name display area, and in this example, the character “Kick” displayed in the area OB11 is the object name.
  • the object name “Kick” represents a bass drum constituting a drum (drum set), that is, a so-called kick. Therefore, the user can instantly grasp that the object is a kick by looking at the object name “Kick”.
  • the group ID of the object whose object name is displayed in the object name display area, “OH_L”, “OH_R”, and “Snare” is “1”, which is the same as the group ID of the object “Kick”.
  • the object “OH_L” is a sound object picked up by an overhead microphone provided on the left side above the head of the drum player.
  • the object “OH_R” is a sound object picked up by an overhead microphone provided on the right side of the head of the drum player, and the object “Snare” is a snare drum constituting the drum.
  • the relative positional relationship of objects such as kicks and snare drums that make up a drum (drum set) does not change. Therefore, if the objects are grouped and the object position information is changed while maintaining the relative positional relationship, the object position information of another object can be changed simply by changing the object position information of one object. Information can be changed appropriately.
  • the coordinate system selection area is an area for selecting a coordinate system of the object position information at the time of editing.
  • an arbitrary one can be selected from a plurality of coordinate systems in a drop-down list format.
  • the area PS11 is a coordinate system selection area.
  • a character “Polar” indicating the polar coordinate system which is the selected coordinate system is displayed in the area PS11.
  • the object position information is edited with the coordinates of the coordinate system selected in the coordinate system selection area, and then the object position information is converted into coordinates expressed in the polar coordinate system, and the object position of the meta information is converted.
  • the information may be used as the information, or the coordinates of the coordinate system selected in the coordinate system selection area may be used as it is as the object position information of the meta information.
  • the user When specifying (selecting) a group of objects corresponding to a track, for example, the user operates the input unit 21 to display the group selection window GW11.
  • the user designates a group display area of a desired track by using a pointer or a cursor, thereby selecting a target track and displaying a menu for grouping. Let it.
  • a menu including a menu item ME11 displaying the character “Group” and a menu item ME12 displaying the character “L / R pair” is displayed as a menu for grouping. .
  • the menu item ME11 is selected when displaying a group selection window GW11 for designating a group ID of an object corresponding to a track selected by a pointer, a cursor, or the like.
  • the menu item ME12 is selected (operated) when an object corresponding to the track selected by the pointer or the cursor is set as an L / R pair described later.
  • the group selection window GW11 is displayed superimposed on the editing screen ED11.
  • group selection window GW11 On the group selection window GW11, a plurality of group icons representing groups that can be selected and a cursor CS11 for selecting any one of the group icons are displayed.
  • the group icon has a square shape, and the group ID is displayed in the group icon.
  • the group icon GA11 represents a group whose group ID is “1”, and the group ID “1” is displayed in the group icon GA11.
  • Each group icon is displayed in a group color.
  • the user operates the input unit 21 to move the cursor CS11, and selects a desired group icon, thereby selecting a group to which the object corresponding to the track belongs.
  • the POV image P11 is displayed in a predetermined window.
  • a wall of a room or the like which is a playback space viewed from slightly behind the listening position O, is displayed.At a position in front of the listener in the room, a screen SC11 on which video of video content is superimposed is displayed. Are located.
  • the reproduction space viewed from the vicinity of the actual listening position O is reproduced almost as it is.
  • drums, electric guitars, acoustic guitars, and performers of those musical instruments are displayed as subjects in the video of the video content.
  • the performer PL11 of the drum As the performers of each instrument, the performer PL11 of the drum, the performer PL12 of the electric guitar, the performer PL13 of the first acoustic guitar, and the performer of the second acoustic guitar
  • the player PL14 is displayed.
  • Each object ball also displays characters indicating the object name of the object corresponding to the object ball.
  • an object name “Kick” is displayed on the object ball BL11
  • the object ball BL11 is an object corresponding to the track in the area TR11 in FIG. 2, more specifically, a reproduction space of the object.
  • Represents the position within The object ball BL11 is displayed at the position indicated by the object position information of the object “Kick” on the POV image P11.
  • the object name “OH_L” is displayed on the object ball BL12, and it can be seen that the object ball BL12 represents the object “OH_L”.
  • the object name “OH_R” is displayed on the object ball BL13
  • the object name “Snare” is displayed on the object ball BL14.
  • the object balls of the objects belonging to the same group are displayed in the same color.
  • the object balls of the grouped objects are displayed in the group color of the group to which those objects belong.
  • objects belonging to the group indicated by the group ID “1” on the editing screen ED11 shown in FIG. 2 and having object names “Kick”, “OH_L”, “OH_R”, and “Snare” The object balls BL11 to BL14 are displayed in the same color. In particular, for these objects, the object balls BL11 to BL14 and the track area on the edit screen ED11 are displayed in the group color of the group indicated by the group ID “1”.
  • the user can easily grasp which objects belong to the same group on the editing screen ED11 and the POV image P11. Further, the user can easily grasp which object ball corresponds to which track between the edit screen ED11 and the POV image P11.
  • the object balls BL15 to BL19 of objects that are not particularly grouped, that is, do not belong to the group are displayed in a predetermined color, that is, a color different from any group color.
  • the user operates the input unit 21 while viewing the editing screen ED11 and the POV image P11, and inputs the coordinates of the object position information for each track, or directly operates and moves the position of the object ball to thereby obtain a sound image.
  • the location can be specified. By doing so, the user can easily determine (designate) an appropriate localization position of the sound image.
  • the user can change the viewing direction in the POV image P11 to an arbitrary direction by operating the input unit 21.
  • the display control unit 42 displays the image in the reproduction space in the viewing direction after the change as the POV image P11.
  • the viewpoint position of the POV image P11 is set to a position near the listening position O, the listening position O is always displayed in the area on the near side in the POV image P11. Thereby, even when the viewpoint position is different from the listening position O, the user viewing the POV image P11 can easily determine which position of the displayed POV image P11 is the image having the viewpoint position. You can figure out.
  • speakers are displayed on the front left and front right of the listening position O on the POV image P11. These speakers are assumed to be the speakers of each channel constituting a speaker system used at the time of reproducing the audio content.
  • the group selection window GW11 is displayed on the editing screen ED11, and the objects are grouped by specifying the group ID for each track.
  • the group selection window is displayed with one or a plurality of object balls selected on the POV image P11, and the objects are grouped by specifying the group ID. You may do so.
  • a plurality of groups may be grouped to form a large group including the plurality of groups.
  • a large group including the plurality of groups.
  • Such a large group is particularly useful when it is desired to change the object position information of each object while temporarily maintaining the relative positional relationship between the objects of a plurality of groups.
  • the grouping of the large group can be released, and subsequent editing can be performed on an individual group basis.
  • step S11 the control unit 23 receives designation of an object to be grouped and a group by an input operation on the input unit 21.
  • the user operates the input unit 21 to designate (select) a group display area of a track corresponding to a desired object to be grouped from the editing screen ED11 shown in FIG. specify.
  • the control unit 23 specifies the specified object based on the signal supplied from the input unit 21.
  • the user specifies the group by moving the cursor CS11 and specifying the group icon.
  • the display control unit 42 of the control unit 23 causes the display unit 24 to display the group selection window GW11 based on the signal supplied from the input unit 21. Identify the specified group based on.
  • step S12 the control unit 23 groups the objects so that the object specified in step S11 belongs to the group specified in step S11, and generates group information.
  • the group information is information indicating which object belongs to which group, and includes a group ID and information indicating an object belonging to the group indicated by the group ID.
  • the information indicating the object may be an object ID or the like for identifying the object itself, or may be information indicating a track such as a track ID for indirectly identifying the object.
  • the control unit 23 supplies the generated group information to the recording unit 22 as necessary, and causes the recording unit 22 to record. If the group information is already recorded in the recording unit 22, the control unit 23 adds the group information of the designated group to the group information of the designated group so that the information indicating the newly designated object is added. Update information.
  • step S13 the display control unit 42 updates the display of the edit screen and the POV image already displayed on the display unit 24 based on the newly generated or updated group information.
  • the display control unit 42 controls the display unit 24 to display the track areas of the objects belonging to the same group among the track areas on the editing screen ED11 in the group color of the group as shown in FIG.
  • the display control unit 42 controls the display unit 24 to display the object balls of the objects belonging to the same group among the object balls in the POV image P11 in the group color of the group as shown in FIG. This makes it possible to easily determine objects belonging to the same group, that is, objects having high relevance.
  • the information processing apparatus 11 groups the objects such that the object specified by the input operation on the input unit 21 belongs to the specified group.
  • the information processing apparatus 11 can edit information on the objects such as object position information in units of groups.
  • the display unit 24 displays an editing screen ED21 and a POV image P21. Note that, here, only a part of the editing screen ED21 is shown for easy viewing of the drawing.
  • the track area and the timeline area are displayed for the track of the vocal object whose object name is “Vo” and the track of the electric guitar object whose object name is “EG”.
  • the area TR21 is a track area for a vocal object track
  • the area TM21 is a timeline area for a vocal object track.
  • the area TR21 in addition to the area GP21 that is a group display area, the area OB21 that is an object name display area, and the area PS21 that is a coordinate system selection area, a track color display area TP21, a mute button MU21, Also, a solo button SL21 is displayed.
  • the track color display area TP21 is an area where a track color number is displayed.
  • the track color number is information indicating a track color, which is a color for identifying a track, which can be assigned to each track.
  • the information processing apparatus 11 can select whether to display the object ball on the POV image in a group color or in a track color.
  • the user can designate a track color for each track by operating the input unit 21 and operating the track color display area on the editing screen ED21. That is, for example, the user displays a track color selection window similar to the group selection window GW11 shown in FIG. 2, and selects a track color of the track by selecting a track color number from the track color selection window.
  • the number “3” written in the track color display area TP21 indicates a track color number
  • the track color display area TP21 is displayed in the track color indicated by the track color number.
  • an arbitrary track color can be selected for each track.
  • different track colors can be selected (designated) for tracks corresponding to two objects belonging to the same group.
  • the same track color can be selected for tracks corresponding to two objects belonging to different groups.
  • the mute button MU21 is a button that is operated when performing a later-described mute setting
  • the solo button SL21 is a button that is operated when performing a later-described solo setting.
  • an area TM21 which is a timeline area for a track of a vocal object includes a time waveform L21 of a track, that is, an audio signal of the object, and a polygonal line L22 representing a horizontal angle, a vertical angle, and a radius of the time series of the object. To the polygonal line L24 are displayed.
  • the points on the polygonal line L22, polygonal line L23, and polygonal line L24 represent edit points at which the horizontal angle, vertical angle, and radius of the object position information at a certain time (timing) can be specified.
  • the editing point may be set at a predetermined time, or may be set at a time designated by the user. Further, the user may be able to delete the editing point.
  • the user can play the sound of the rendered audio content and edit while listening to the played sound.
  • the editing screen ED21 displays the sound of the audio content.
  • the object ball of each object is displayed based on the object position information at the time (timing) indicated by the reproduction cursor TC21.
  • the same group ID “3” is displayed in the group display area of the track corresponding to the vocal and electric guitar objects, and the objects belong to the same group. You can see that.
  • the object ball BL15 of the electric guitar object and the object ball BL16 of the vocal object are displayed in the same group color.
  • the reproduction cursor TC21 is located at the time “13197”.
  • the user instructs to change the object position information by operating the input unit 21 to move the position of the edit point, move the object ball, or directly input the changed object position information. I do. That is, the changed object position information is input.
  • the position determining unit 41 converts the object position information of the vocal object at the time “20227” according to the signal supplied from the input unit 21 in response to the user's operation to the coordinates ( ⁇ 22.5, 1.36393,1)
  • the position determining unit 41 refers to the group information recorded in the recording unit 22 to specify other objects belonging to the same group as the vocal object whose object position information has been changed.
  • the electric guitar object is specified as an object belonging to the same group as the vocal object.
  • the position determining unit 41 changes (determines) the object position information of the electric guitar objects belonging to the same group identified in this way so that the relative positional relationship with the vocal objects is maintained. At this time, the object position information of the electric guitar object is determined based on the coordinates (-22.5, 1.36393, 1) which are the changed object position information of the vocal object.
  • the object position information of the electric guitar object at the time “20227” is the coordinates ( ⁇ 20.452, ⁇ 3.79667, 1).
  • the display control unit 42 controls the display unit 24 to move those objects to the position indicated by the changed object position information. Move the object ball.
  • the object ball BL16 of the vocal object belonging to the same group and the object ball BL15 of the electric guitar object move in the rightward direction in the figure while maintaining the relative positional relationship of these objects. Has been moved to.
  • the position determination unit 41 converts the object position information of the vocal object at the time “27462” into the coordinates ( ⁇ 56, 1.36393,1)
  • the position determining unit 41 changes (determines) the object position information of the electric guitar object belonging to the same group as the vocal object so that the relative positional relationship with the vocal object is maintained.
  • the object position information of the electric guitar object at the time “27462” is the coordinates ( ⁇ 53.952, ⁇ 3.79667, 1).
  • the display control unit 42 controls the display unit 24 to move the object balls of the objects to the position indicated by the changed object position information. To move.
  • the object ball BL16 of the vocal object belonging to the same group and the object ball BL15 of the electric guitar object maintain the relative positional relationship between the objects, as compared with the case in FIG. Has also been moved to the right in the figure.
  • the user needs to input the changed object position information of the vocal object.
  • the changed object position information is used for the electric guitar objects belonging to the same group as the vocal object. No input of information is required.
  • the object position information of all other objects belonging to the same group as the object is automatically collected without any instruction from the user. Be changed.
  • the user does not need to input and change the object position information of every object.
  • the object position information of all the objects belonging to the same group can be edited more efficiently and easily.
  • FIGS. 6 and 7 illustrate an example in which, when the object position information of the vocal object is changed, the object position information of the electric guitar objects belonging to the same group is changed in accordance with the change.
  • the object position information of the electric guitar object is changed in accordance with the change.
  • step S41 the control unit 23 receives an object whose object position information is to be changed and a designation of the object position information after the change of the object.
  • the user designates an object to be changed by operating the input unit 21 and selecting a track area or the like on the editing screen, and the control unit 23 designates the designated object based on the signal supplied from the input unit 21. Identify the object that was created.
  • the user operates the input unit 21 to input an input such as moving the position of the edit point of the horizontal angle, the vertical angle, and the radius that constitute the object position information displayed in the timeline area of the edit screen.
  • an input such as moving the position of the edit point of the horizontal angle, the vertical angle, and the radius that constitute the object position information displayed in the timeline area of the edit screen.
  • step S42 the control unit 23 specifies an object belonging to the same group as the object specified in step S41 with reference to the group information recorded in the recording unit 22.
  • step S43 the position determining unit 41 changes (updates) the object position information of the specified object based on the signal supplied from the input unit 21 in response to the operation of specifying the changed object position information.
  • ⁇ Position determining unit 41 also changes the object position information of all the other objects belonging to the same group specified in step S42 according to the change of the object position information of the specified object. At this time, the object position information is changed so that the relative positional relationship between all objects belonging to the group is maintained (held).
  • step S44 the display control unit 42 controls the display unit 24, updates the edit screen and the POV image displayed on the display unit 24 according to the change in the object position information in step S43, and moves the object. The process ends.
  • the display control unit 42 updates the display of the horizontal angle, the vertical angle, and the position of the radius constituting the object position information in the timeline area of the editing screen, and moves the position of the object ball on the POV image.
  • the object position information is changed in this manner, the object has been moved in the reproduction space.
  • the information processing apparatus 11 when changing the object position information of one object, changes not only the object but also the object position information of all other objects belonging to the same group as the object. At this time, the information processing device 11 changes the object position information of all the objects belonging to the same group so that the relative positional relationship is maintained before and after the change.
  • the reference plane referred to here is, for example, a median plane including a straight line parallel to the front direction viewed from the listening position O.
  • two objects to be arranged symmetrically with respect to the reference plane may be designated as objects constituting an L / R pair.
  • 2Two objects that form an L / R pair constitute one group.
  • an instruction to change the object position information of one of the two objects is given, not only the object position information of one object but also the other object is symmetrical with respect to the reference plane in the reproduction space. The object position information of the object is also changed.
  • FIG. 9 shows a part of the editing screen ED31 displayed on the display unit 24.
  • the editing screen ED31 displays a track area and a timeline area for each of two tracks.
  • the area TR31 is a track area of a track corresponding to an ambience object arranged on the front left side when viewed from the listening position O and having the object name “Amb_L”.
  • the area TR32 is a track area of a track corresponding to an ambience object located on the front right side when viewed from the listening position O, whose object name is “Amb_R”.
  • the menu item ME11 and the menu item ME12 and the group selection window GW11 are displayed in a state where the area TR32, that is, the track corresponding to the object “Amb_R” is selected (specified).
  • the group icon whose group ID is “9” is designated (selected) by the cursor CS11. Therefore, the object “Amb_R” belongs to the group whose group ID is “9” and is an object forming an L / R pair.
  • the group ID “9” is displayed in the group display area in the area TR31 also for the track corresponding to the object “Amb_L”.
  • the object “Amb_L” and the object “Amb_R” belong to the group whose group ID is “9”, and are objects forming an L / R pair.
  • the group information includes a group ID, information indicating an object belonging to the group, and an L / R pair flag.
  • a value “1” of the L / R pair flag indicates that two objects belonging to the group are L / R pairs
  • a value “0” of the L / R pair flag indicates that a plurality of objects belonging to the group are L / R pairs. It is not a / R pair.
  • the group corresponding to the group information including the L / R pair flag whose value is “1” always includes two objects. In other words, only when one group is composed of two objects, it is possible to designate those two objects as an L / R pair. Therefore, it can be said that the L / R pair indicates one characteristic of the group.
  • the object position information of those objects is changed according to the operation of the user, for example, as shown in FIGS. You. 10 to 12, parts corresponding to those in FIG. 9 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the display unit 24 is in a state where the editing screen ED31 and the POV image P31 are displayed.
  • the area TR31 that is the track area of the object “Amb_L” and the area TR32 that is the track area of the object “Amb_R” are represented by the group color of the group to which those objects belong to the group ID “9”. Is displayed. In the timeline area on the editing screen ED31, the reproduction cursor TC31 is located at time “0”.
  • the position determining unit 41 determines the object position information of the object “Amb_L” at time “0” to be coordinates (30, 0, 1). At the same time, the position determining unit 41 determines the object position information of the object “Amb_R” at time “0” so that the position of the object “Amb_R” in the reproduction space is symmetric with respect to the position of the object “Amb_L” and the reference plane. To determine. In other words, the object position information of the object “Amb_R” is changed.
  • the object position information of the object “Amb_R” at the time “0” is the coordinates ( ⁇ 30, 0, 1).
  • the display control unit 42 based on the determined object position information. To update the display of the POV image P31.
  • the object ball BL31 of the object “Amb_L” is displayed at a position corresponding to the coordinates (30, 0, 1) on the POV image P31.
  • the object name “Amb_L” is displayed on the object ball BL31, and the object ball BL31 is displayed in the group color of the group whose group ID is “9”.
  • the object ball BL32 of the object “Amb_R” is displayed at the position corresponding to the coordinates ( ⁇ 30, 0, 1) on the POV image P31.
  • a plane including the listening position O and a straight line parallel to the depth direction in the drawing is the reference plane, and the object balls BL31 and BL32 are symmetrical with respect to the reference plane. Is located in the position.
  • the position determining unit 41 converts the object position information of the object “Amb_R” at the time “20000” into the coordinates ( ⁇ 56.5,0, 1).
  • the display control unit 42 controls the display unit 24 based on the coordinates (56.5,0,1) and the coordinates (-56.5,0,1) as the changed object position information, and updates the display of the POV image P31. I do.
  • the object ball BL31 is moved to a position corresponding to the coordinates (56.5,0,1) on the POV image P31
  • the object ball BL32 is moved to a position corresponding to the coordinates (-56.5,0,1) on the POV image P31.
  • these object balls BL31 and BL32 are arranged at symmetrical positions with respect to the reference plane, as in the case of FIG.
  • the user operates the input unit 21 from the state illustrated in FIG. 11 and specifies the coordinates (110, 25, 1) as the object position information of the object “Amb_L” at the time “40000” as illustrated in FIG. I do.
  • the position determination unit 41 converts the object position information of the object “Amb_R” at the time “40000” into the coordinates ( ⁇ 110, 25, 1). 1).
  • the display control unit 42 controls the display unit 24 based on the coordinates (110, 25, 1) and the coordinates (-110, 25, 1) as the changed object position information, and updates the display of the POV image P31. I do.
  • the object ball BL31 is moved to a position corresponding to the coordinates (110, 25, 1) on the POV image P31
  • the object ball BL32 is moved to a position corresponding to the coordinates (-110, 25, 1) on the POV image P31.
  • Moved to These object balls BL31 and BL32 are located at symmetrical positions with respect to the reference plane even after the movement, as in the case of FIG. 10 and FIG.
  • the position determination unit 41 changes the object position information of the object “Amb_L” accordingly.
  • L / R pairs can be set (set) as group characteristics.
  • the object position of the other object is automatically set without any instructions. Information is also changed.
  • the two objects forming the L / R pair are arranged at positions symmetrical with respect to the reference plane, the user can easily set a symmetrical sound image position.
  • step S71 When the grouping process is started, the process of step S71 is performed. However, the process of step S71 is the same as the process of step S11 in FIG. However, in step S71, the user appropriately designates an L / R pair by operating a menu item for designating the L / R pair on the editing screen.
  • step S72 the control unit 23 determines whether or not there are two objects specified as the objects to be grouped based on the signal supplied from the input unit 21.
  • step S72 If it is determined in step S72 that not two objects, that is, three or more objects are grouped, then the process proceeds to step S75.
  • step S73 the control unit 23 determines whether or not the two objects to be grouped are an L / R pair. For example, when two objects are grouped, if an L / R pair is specified by operating the menu item ME12 shown in FIG. 9, it is determined that the L / R pair is set.
  • step S74 the control unit 23 sets the value of the L / R pair flag of the group to which the two objects to be grouped belong to “1”. That is, an L / R pair flag whose value is “1” is generated.
  • step S74 After the process in step S74 is performed, the process proceeds to step S76.
  • step S73 determines whether the pair is an L / R pair. If it is determined in step S73 that the pair is not an L / R pair, then the process proceeds to step S75.
  • step S75 If it is determined in step S73 that an L / R pair is not to be set, or if it is determined in step S72 that the number of designated objects is not two, the process of step S75 is performed.
  • step S75 the control unit 23 sets the value of the L / R pair flag of the group to which the plurality of objects to be group belongs to “0”. That is, an L / R pair flag whose value is “0” is generated.
  • step S75 After the process in step S75 is performed, the process proceeds to step S76.
  • step S76 the control unit 23 includes a group ID, information indicating an object belonging to the group, and the L / R pair flag generated in step S74 or S75 according to the user's designation operation in step S71. Generate group information.
  • the information processing apparatus 11 performs grouping according to an input operation on the input unit 21 and generates group information including an L / R pair flag.
  • object position information and the like can be edited more efficiently in group units.
  • the user can arrange the object at a symmetrical position only by specifying the position of one of the objects.
  • step S43 when the object is an object that forms an L / R pair, in step S43, the two objects that are made into the L / R pair are symmetrical with respect to the reference plane so that the two objects are left and right. Is changed. That is, the object position information of the two objects is changed while maintaining the left-right symmetric relationship between the two objects. Therefore, also in this case, the user can perform editing more efficiently and easily.
  • a plurality of edit points are selected by specifying a change range including a plurality of edit points arranged in the time direction, and the positions (coordinates) of the plurality of edit points are selected. Value) can be simultaneously offset (changed) by a predetermined change amount.
  • the coordinate value of a plurality of editing points included in the designated change range that is, the change amount for simultaneously changing the horizontal angle, the vertical angle, and the radius by one operation will be particularly referred to as an offset amount.
  • the editing points included in the change range are particularly referred to as selected editing points.
  • FIG. 14 to FIG. 17 a case where edit points at a plurality of different times are simultaneously selected by designating a change range, and the coordinate values of the selected edit points are changed by an offset amount.
  • FIGS. 14 to 17 parts corresponding to each other are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the polygonal line L41, polygonal line L42, and polygonal line L43 in the area TM41, which is the timeline area, represent the horizontal angle, vertical angle, and radius of the time series of the object “Amb_L”.
  • the edit point EP41 indicating the horizontal angle at each of the time “20000”, the time “25000”, the time “30000”, and the time “35000” is provided on the polygonal line L41 indicating the horizontal angle forming the object position information.
  • -1 to editing points EP41-4 are provided.
  • the edit points EP41-1 to EP41-4 are also simply referred to as edit points EP41 unless it is necessary to particularly distinguish them.
  • the edit points EP42-1 to EP42-4 indicating the vertical angles at the time ⁇ 20000 '', the time ⁇ 25000 '', the time ⁇ 30000 '', and the time ⁇ 35000 '' are provided. I have. In the following, the editing points EP42-1 to EP42-4 are also simply referred to as the editing point EP42 unless it is necessary to particularly distinguish them.
  • edit points EP43-1 to EP43-4 indicating the radius at each of the time “20000”, the time “25000”, the time “30000”, and the time “35000” are provided. .
  • the edit points EP43-1 to EP43-4 are also simply referred to as edit points EP43 unless it is particularly necessary to distinguish them.
  • FIG. A frame W41 indicating the change range as shown is displayed.
  • a range including the four edit points EP42-1 to EP42-4 on the polygonal line L42 is surrounded by a frame W41, and the range surrounded by the frame W41 is designated as a change range.
  • a range including only one edit point EP42 can be designated as a change range, or a range including edit points of different types (coordinate components) such as a horizontal angle and a vertical angle is designated as a change range. It is also possible. That is, for example, a range including a plurality of edit points EP41, edit points EP42, and edit points EP43 can be designated as a change range.
  • an edit point of another coordinate component at the same time as the edit point is also selected as included in the change range. Is also good.
  • a method of designating a change range that is, a method of designating an edit point to be included in the change range is, for example, by pressing a control key of a keyboard and operating a mouse to designate each edit point by clicking with a pointer. Any method may be used.
  • the display control unit 42 controls the display unit 24 to display, for example, an offset screen OF41 shown in FIG. 16 on the edit screen ED41.
  • the offset screen OF41 is displayed so as to be superimposed on the area TM41, which is the timeline area of the edit screen ED41.
  • the offset screen OF41 is provided with an offset display area OFT41 indicating an offset amount when the position of the selected edit point in the time direction is moved, that is, when the time of the selected edit point is changed.
  • an offset display area OFT41 indicating an offset amount when the position of the selected edit point in the time direction is moved, that is, when the time of the selected edit point is changed.
  • a character “100” indicating the time offset amount of the selected edit point (hereinafter also referred to as a time offset amount in particular) is displayed.
  • buttons BT41-1 and BT41-2 for moving the position of the selected edit point in the time direction by the time offset amount “100”.
  • the button BT41-1 and the button BT41-2 will be simply referred to as the button BT41 unless it is particularly necessary to distinguish them.
  • the offset screen OF41 is provided with an offset display area OFT42 for changing the horizontal angle indicated by the selected edit point, that is, indicating the offset amount when the position of the selected edit point is moved.
  • an offset display area OFT42 for changing the horizontal angle indicated by the selected edit point, that is, indicating the offset amount when the position of the selected edit point is moved.
  • a character “10” indicating a horizontal angle offset amount (hereinafter also referred to as a horizontal angle offset amount in particular) is displayed.
  • a button BT42 for moving the horizontal angle which is the value of the selected edit point, that is, the vertical position in the figure of the selected edit point by a horizontal angle offset amount ⁇ 10 ''. -1 and a button BT42-2 are provided.
  • the position of the selected edit point moves upward by a horizontal angle offset amount “10” in the figure. That is, the horizontal angle of the object position information increases by the horizontal angle offset amount “10”.
  • buttons BT42-1 and the button BT42-2 will be simply referred to as the button BT42 unless it is particularly necessary to distinguish them.
  • the offset screen OF41 is provided with an offset display area OFT43 indicating an offset amount when changing the vertical angle indicated by the selected edit point, that is, moving the position of the selected edit point.
  • an offset display area OFT43 indicating an offset amount when changing the vertical angle indicated by the selected edit point, that is, moving the position of the selected edit point.
  • a character “10” indicating a vertical angle offset amount (hereinafter also referred to as a vertical angle offset amount in particular) is displayed.
  • a button BT43 for moving the vertical angle which is the value of the selected edit point, that is, the vertical position in the figure of the selected edit point by the vertical angle offset amount ⁇ 10 ''. -1 and a button BT43-2 are provided.
  • the position of the selected edit point moves upward by a vertical angle offset amount “10” in the figure. That is, the vertical angle of the object position information increases by the vertical angle offset amount “10”.
  • the button BT43-1 and the button BT43-2 will be simply referred to as the button BT43 unless it is particularly necessary to distinguish them.
  • the offset screen OF41 is provided with an offset display area OFT44 that indicates an offset amount when the radius indicated by the selected edit point is changed, that is, when the position of the selected edit point is moved.
  • an offset display area OFT44 In the offset display area OFT44, a character “0.1” indicating a radius offset amount (hereinafter also referred to as a radius offset amount in particular) is displayed.
  • a button BT44-1 for moving the radius that is the value of the selected edit point, that is, the vertical position in the drawing of the selected edit point by a radius offset amount “0.1”.
  • a button BT44-2 for moving the radius that is the value of the selected edit point, that is, the vertical position in the drawing of the selected edit point by a radius offset amount “0.1”.
  • the position of the selected edit point moves upward by a radius offset amount “0.1” in the figure. That is, the radius of the object position information increases by the radius offset amount “0.1”.
  • the button BT44-1 and the button BT44-2 will be simply referred to as the button BT44 unless it is particularly necessary to distinguish them.
  • the user may operate the input unit 21 so that the numerical value in the offset display area OFT41 to the offset display area OFT44, that is, the offset amount can be changed to an arbitrary value.
  • the user when the range surrounded by the frame W41 is designated as the change range and the offset screen OF41 is displayed, the user operates the input unit 21 to operate the button BT41 provided on the offset screen OF41. And operate the buttons BT42, BT43, BT44.
  • the user can instruct a change in units of offset amount for each component of the object position information. That is, the user can operate the user interface called the offset screen OF41 to move the selected edit point relative to other edit points.
  • the coordinates as object position information of the state shown in FIG. 15, that is, the time “20000”, the time “25000”, the time “30000”, and the time “35000” are (56.5, 0, 1), (65.0, It is assumed that the button BT43-1 is operated five times in the state of (0,1), (35.0,0,1), and (90.0,0,1). That is, it is assumed that the user has performed an operation of increasing the vertical angle indicated by each of the four edit points EP42, which are the selected edit points, by 50 degrees.
  • the position determining unit 41 determines, based on the signal supplied from the input unit 21, the time “20000”, the time “25000”, and the time “20000” of the object “Amb_L” corresponding to the selected edit point.
  • the vertical angle of the object position information at “30000” and time “35000” is increased by 50.
  • the coordinates of the object “Amb_L” at time “20000”, time “25000”, time “30000”, and time “35000” as the object position information are (56.5,50,1), (65.0,50,1) ), (35.0,50,1), and (90.0,50,1).
  • the user can simultaneously change the object position information at four times by the vertical angle offset amount only by operating the button BT43.
  • the display control unit 42 controls the display unit 24 to update the display on the edit screen ED41.
  • the display control unit 42 displays the edit screen ED41 such that the edit points EP42-1 to EP42-4 move upward in the figure as compared to the case illustrated in FIG. Let me update.
  • the position determination unit 41 increases the time of the object position information of the object “Amb_L” corresponding to the selected edit point by 1000 based on the signal supplied from the input unit 21.
  • the coordinates of the object “Amb_L” at time “21000”, time “26000”, time “31000”, and time “36000” as the object position information are (56.5,50,1), (65.0,50,1) ), (35.0,50,1) and (90.0,50,1).
  • the display control unit 42 controls the display unit 24 to update the display on the edit screen ED41. That is, the display control unit 42 updates the display of the edit screen ED41 so that the edit points EP41 to EP43 move to the right in the figure as compared to the case illustrated in FIG. 16 as illustrated in FIG.
  • a plurality of editing points included in the change range can be collectively changed by an offset amount, thereby making it easier and more efficient to edit a plurality of object position information having different times than one by one. It can be performed.
  • the object position information of a plurality of times of one object is collectively changed by the offset amount
  • the object position information of the plurality of times of the other object is also changed. Is done.
  • the position determining unit 41 offsets the object position information at the time A1 and the time A2 of the object “Amb_L” and the object “Amb_R” while maintaining the relative positional relationship between the object “Amb_L” and the object “Amb_R”. Change in quantity units.
  • step S101 the control unit 23 receives designation of an object whose object position information is to be changed and a change range of the object.
  • the user operates the input unit 21 to directly specify one or more edit points displayed in the timeline area of the edit screen, or to specify an area including one or more edit points.
  • the control unit 23 specifies an object specified as a change target and a change range specified for the object, that is, a selected edit point at which coordinate values are simultaneously changed.
  • step S102 the display control unit 42 controls the display unit 24 to superimpose and display the offset screen on the timeline area of the editing screen displayed on the display unit 24. Thereby, for example, the offset screen OF41 shown in FIG. 16 is displayed.
  • step S103 the control unit 23 accepts an operation of changing the position of the selected edit point by operating the offset screen, that is, an input of a coordinate value change amount.
  • the user operates the input unit 21 to input a change amount for changing the selected edit point in units of the offset amount.
  • the user instructs to change the coordinate value by operating the button BT41, the button BT42, the button BT43, and the button BT44.
  • step S104 based on the signal supplied from the input unit 21, the position determination unit 41 simultaneously changes the value of the selected edit point included in the change range of the designated object, that is, the object position information, in offset amount units. .
  • step S104 the object position information at one or a plurality of times is simultaneously changed by a change amount designated by the user in units of an offset amount.
  • the position determination unit 41 forms the object position information at the time corresponding to the selected edit point. Increase the vertical angle by 10 degrees.
  • step S105 the control unit 23 determines whether the object to be changed belongs to a group based on the object whose object position information is to be changed and the group information recorded in the recording unit 22. . In other words, it is determined whether there is another object belonging to the same group as the object to be changed.
  • step S105 If it is determined in step S105 that the object does not belong to the group, that is, that no other object belongs to the same group, the process proceeds to step S107.
  • step S105 determines whether there is another object belonging to the group, that is, there is another object belonging to the same group. If it is determined in step S105 that there is another object belonging to the group, that is, there is another object belonging to the same group, the process proceeds to step S106.
  • step S106 the position determining unit 41 changes the object position information of all other objects belonging to the same group as the object to be changed.
  • the position determining unit 41 determines the object positions of the other objects according to the change of the object position information of the object to be changed so that the relative positional relationship in the reproduction space of all the objects belonging to the group is maintained. Change information in units of offset amount.
  • the object to be changed is an object of an L / R pair
  • the object to be changed is subjected to L / R pairing so that the two objects forming the L / R pair are symmetrical with respect to the reference plane.
  • the object position information of another object forming the R pair is changed.
  • step S107 When the object position information of another object is changed, the process proceeds to step S107.
  • step S105 If it is determined in step S105 that it does not belong to the group, or if the process of step S106 is performed, then the process of step S107 is performed, and the offset moving process ends. Note that the processing in step S107 is the same as the processing in step S44 in FIG. 8, and a description thereof will be omitted.
  • the information processing apparatus 11 simultaneously changes the object position information corresponding to one or a plurality of edit points included in the change range in units of offset amount. By doing so, the number of user operations can be reduced as compared with the case where the position of the edit point, that is, the coordinate value is changed one by one, and editing can be performed more efficiently and easily.
  • the information processing apparatus 11 basically holds object position information, that is, meta information for a time at which an edit point exists, and does not hold meta information for a time at which there is no edit point.
  • ⁇ Circle around (2) ⁇ As shown in FIG. 19, for example, it is general that two adjacent editing points are selected, and the coordinate value at each time between the editing points is obtained by linear interpolation.
  • the horizontal angle (object position information) at the time at which the edit point EP51-1 is located and the time at which the edit point EP51-2 adjacent to the edit point EP51-1 is located Is held in the information processing apparatus 11.
  • the horizontal angle of the time between those edit points EP51-1 and EP51-2 is not held, the horizontal angle of those times is determined by the coordinate value at the edit point EP51-1 and the edit value. It is obtained by linear interpolation based on the coordinate value at the point EP51-2.
  • the edit point EP51-1 and the edit point EP51-2 will be simply referred to as the edit point EP51 unless it is particularly necessary to distinguish them.
  • interpolation method interpolation method
  • the information processing apparatus 11 can select an interpolation method for each of the components constituting the object position information for each section between edit points adjacent to each other.
  • the user operates the input unit 21 and performs an operation such as selecting a section between two adjacent editing points in the timeline area of the editing screen ED51, thereby performing interpolation.
  • the method selection screen SG51 can be displayed.
  • the operation for displaying the interpolation method selection screen SG51 may be any operation such as a click operation.
  • a section between the editing point EP51-1 and the editing point EP51-2 is designated, and the interpolation method of the horizontal angle in the section can be selected on the interpolation method selection screen SG51.
  • the interpolation method selection screen SG51 is provided with menu items ME51 to ME54 operated when designating each of the four different interpolation methods as the interpolation method.
  • the interpolation method is specified by specifying one of them.
  • the menu item ME51 indicates linear interpolation
  • the menu item ME52 indicates cosine interpolation which is interpolation using a cosine function.
  • the menu item ME53 has the same coordinate value continuously from the start to immediately before the end of the section to be interpolated, and an interpolation for realizing a rectangular coordinate value change such that the coordinate value rapidly changes immediately before the end of the section.
  • the method is shown.
  • the menu item ME54 shows an interpolation method for realizing a rectangular coordinate value change such that the coordinate value changes suddenly immediately after the start of the section to be interpolated and thereafter becomes the same coordinate value until the end of the section. I have.
  • each menu item a straight line, a curve, or a polygonal line representing a change in coordinate value when an interpolation process is performed by an interpolation method corresponding to the menu item is drawn, and the user can intuitively see only the menu item. It is possible to grasp the interpolation method. For example, a cosine curve is drawn in the menu item ME52 indicating cosine interpolation, and the user can intuitively understand that the interpolation method is cosine interpolation.
  • the interpolation method is not limited to the method described with reference to FIG. 20, but may be any other method such as an interpolation method using another quadratic function or the like.
  • the position determination unit 41 performs cosine interpolation according to the signal supplied from the input unit 21.
  • the position determining unit 41 determines a position between the edit point EP51-1 and the edit point EP51-2.
  • the horizontal angle at each time is obtained by cosine interpolation using a cosine function.
  • the cosine interpolation may be performed on the vertical angle and the radius at the same time as the horizontal angle in the section where the cosine interpolation is performed. . That is, when one interpolation method such as cosine interpolation is specified for one section, the horizontal angle, the vertical angle, and the radius of the object position information in that section are interpolated by the specified interpolation method. Is also good.
  • the display of the edit screen ED51 is updated as shown in FIG. 21, for example.
  • the portions corresponding to those in FIG. 19 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the section between the edit points EP51-1 and EP51-2 where cosine interpolation has been performed is drawn not by a straight line but by a cosine curve.
  • the coordinate values between the editing points can be interpolated by the interpolation method determined by the initial setting, for example, linear interpolation.
  • a line (a straight line, a curve, a polygonal line) connecting two adjacent editing points is subjected to linear interpolation defined by the initial setting.
  • the section line may be displayed in a different color from the line.
  • a line connecting the edit points with a different color for each selected interpolation method may be displayed. In this way, the user can instantaneously determine which interpolation method has been designated.
  • step S131 the control unit 23 receives designation of two editing points displayed on the timeline area of the editing screen.
  • the control unit 23 specifies an edit point that is a start position and an end position of a section to be selected as an interpolation method based on a signal supplied from the input unit 21 in response to a user operation.
  • step S132 the display control unit 42 controls the display unit 24 to superimpose and display the interpolation method selection screen on the timeline area of the editing screen. Thereby, for example, the interpolation method selection screen SG51 shown in FIG. 20 is displayed.
  • step S133 the control unit 23 selects an interpolation method for a section between the two editing points specified in step S131 based on a signal supplied from the input unit 21 in response to a user operation, and the selection result Is generated.
  • the control unit 23 supplies the interpolation method designation information generated in this way to the recording unit 22.
  • step S134 the recording unit 22 records the interpolation method designation information supplied from the control unit 23 as a part of the audio content data.
  • the display control unit 42 controls the display unit 24 to update the display of the editing screen.
  • the line of the section to be processed that is, the line connecting the two editing points, is displayed in a shape and color corresponding to the interpolation method indicated by the interpolation method designation information.
  • step S135 the position determination unit 41 performs an interpolation process at each time when the object position information is not held, and generates object position information of all objects.
  • the position determining unit 41 performs an interpolation process for each component of the object position information by an interpolation method indicated by the interpolation method designation information recorded in the recording unit 22 based on the held object position information at another time. I do.
  • the interpolation method selection processing ends. Then, after that, data of the audio content is output as appropriate, and rendering is performed based on the data of the audio content.
  • the information processing apparatus 11 generates and records interpolation method designation information indicating the interpolation method designated for each section for each component constituting the object position information. Then, the information processing device 11 performs an interpolation process by the interpolation method indicated by the interpolation method designation information, and obtains the object position information at each time. By doing so, the movement (movement) of the object can be represented more accurately. That is, the degree of freedom in expressing the movement of the object can be increased, and various sound image expressions can be realized.
  • a track color number is displayed in the track color display area, and each track color display area is displayed in a predetermined track color for the track color number.
  • the information processing apparatus 11 can select whether to display the object ball on the POV image in the group color or the track color.
  • the display control unit 42 uses the track color at the timing of updating the display of the POV image, such as step S13 in FIG. 4 or step S44 in FIG.
  • the display by the display unit 24 is controlled so that the object ball is displayed.
  • a track color can be individually specified for an object, that is, a track
  • the user can easily identify each track by looking at the track color. In particular, even when the number of objects constituting the audio content is large, the user can easily determine which object ball corresponds to which track.
  • FIG. 5 has described an example in which the track color display area and the group display area are displayed in each track area.
  • the track color display area may be displayed in the track area, but the group display area may not be displayed.
  • the edit screen ED61 displays track areas of 11 tracks and timeline areas of those tracks.
  • the object names here are “Kick”, “OH_L”, “OH_R”, “Snare”, “Vo”, “EG”, “Cho”, “AG1”, “AG2”, “Amb_L”, and “Amb_R” ,
  • the track area and the timeline area of each of the eleven objects are displayed.
  • a track color display area is provided in the track area of each object, and a track color number is displayed in the track color display area. Also, each track color display area is displayed in a predetermined track color for the track color number.
  • the area TR61 is a track area of the track of the object “Kick”.
  • an area OB61 which is an object name display area
  • a track color display area TP61 are provided in the area TR61.
  • the object name “Kick” is displayed in the area OB61
  • the track color number “1” is displayed in the track color display area TP61.
  • the entire area TR61 including the track color display area TP61 is displayed in the track color defined for the track color number “1”.
  • a track color number “1” is assigned to a track of four objects. Is specified. Also, a track color number "3" is designated for the object “Vo” corresponding to the vocals of the electric guitar player and the object "EG” of the electric guitar.
  • a track color number "6" is designated for the object “Cho” corresponding to the chorus by the acoustic guitar player and the object "AG1" of the acoustic guitar.
  • the track color number “22” is designated for the object “AG2” of another acoustic guitar. Further, a track color number “9” is designated for the object “Amb_L” and the object “Amb_R” corresponding to the ambience.
  • the display unit 24 displays, for example, a POV image P61 shown in FIG. 24, parts corresponding to those in FIG. 3 or FIG. 10 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the object balls BL11 to BL14 of the objects constituting the drum whose object names are “Kick”, “OH_L”, “OH_R”, and “Snare”, correspond to the track color number “1”.
  • the track color is displayed in “blue”.
  • the object ball BL17 of the object "AG1” and the object ball BL18 of the object “Cho” are displayed in the track color "green” corresponding to the track color number "6", and the object ball BL19 of the object “AG2” is displayed in the track.
  • the track color “dark blue” corresponding to the color number “22” is displayed.
  • the display control unit 42 sets the object ball of each object to the track color number based on the track color number specified (selected) for the track of each object. Display in color.
  • the object ball is displayed in the group color or the track color has been described, but the object ball may be displayed in the group color and the track color.
  • the display control unit 42 displays the center portion of the object ball in the track color, and displays the remaining portion, that is, the portion of the object ball outside the portion displayed in the track color, in the group color.
  • the user can instantaneously determine which track corresponds to the object corresponding to each object ball and which group the object belongs to.
  • the object ball may be displayed not only in colors such as the group color and the track color, but also in a display format determined for the information identifying the track corresponding to the group or the track color number, or a combination thereof. .
  • the object ball may be displayed in a shape determined for the group.
  • the edit screen is provided with a mute button for performing mute setting and a solo button for performing solo setting.
  • the mute setting is to mute the sound of the specified object when playing back the audio content at the time of editing the audio content, that is, to not play (output) the sound of the object.
  • designation as an object to be muted is also referred to as turning on a mute setting, and a state in which the mute setting is turned on is also referred to as a mute state.
  • the object ball of the object is not displayed on the POV image. That is, the mute setting for the object is also reflected on the object ball on the POV image.
  • the object data of the muted object may not be included in the audio content data.
  • the solo setting means that when editing audio content, only the sound of the specified object is played (output) and the sound of other objects is muted when the audio content is played. is there.
  • designating the object as a sound reproduction object is also referred to as turning on the solo setting, and a state in which the solo setting is turned on is also referred to as a solo state.
  • the object ball of the object is displayed on the POV image, and the other objects in the non-solo state are not displayed. That is, the solo setting for the object is also reflected on the object ball on the POV image.
  • the audio content data only the object data of the object in the solo state may be included in the audio content data.
  • the mute setting and the solo setting are such that when one setting is made, the other setting is invalidated. That is, for example, when the mute setting is performed, the solo setting is released, and when the solo setting is performed, the mute setting is released.
  • the mute setting and solo setting are performed in this way, and the object ball of a muted object that does not play sound is hidden, and only the object ball of the object playing sound is displayed on the POV image to improve usability. Can be done.
  • a muted object is an object that is not currently being watched by the user
  • an unmuted object is an object that is being watched by the user.
  • the user can easily grasp the transition of the position of the object of interest and the like. Thereby, the usability of the content creation tool can be improved.
  • FIGS. 25 to 27 parts corresponding to those in FIG. 5 or FIG. 24 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • FIGS. 25 to 27 parts corresponding to each other are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the mute buttons of all the object tracks including the mute button MU21 for the track of the object "Vo” and the mute button MU22 for the track of the object "EG" are not operated. ing. That is, none of the objects is in the mute state.
  • the solo buttons of all the object tracks including the solo button SL21 for the track of the object “Vo” and the solo button SL22 for the track of the object “EG” are not operated. That is, the solo state is not set for any object.
  • the POV image P71 has object names "Kick”, “OH_L”, “OH_R”, “Snare”, “EG”, “Vo”, “AG1”, “Cho”, “AG2”, “Amb_L”,
  • object balls BL11 to BL19, an object ball BL31, and an object ball BL32 of each object that is “Amb_R” are displayed.
  • the user operates the input unit 21 and operates the mute button MU21 and the mute button MU22 on the edit screen ED21 by clicking or the like, thereby turning on the mute setting of the object “Vo” and the object “EG”.
  • the operated mute button MU21 and mute button MU22 are displayed in colors different from those before the operation.
  • the mute button of the object for which the mute setting is not turned on is displayed in the same color as before the mute setting is performed, and the mute button of the object for which the mute setting is turned on is displayed before the mute setting is performed. Will be displayed in a different color.
  • the display control unit 42 controls the display unit 24 to update the display of the POV image P71 so that the POV image P71 shown on the right side in the drawing of FIG. 26 is displayed on the display unit 24.
  • the object balls of other objects that are not muted that is, the object balls BL11 to BL14, the object balls BL17 to BL19, the object balls BL31, and the object balls BL32 are displayed on the POV image P71. It is still standing.
  • the user operates the input unit 21 and operates the solo button SL21 and the solo button SL22 on the edit screen ED21 by clicking or the like, so that the object “Vo” and the object “EG” are Assume that the solo setting is turned on. That is, it is assumed that the object “Vo” and the object “EG” are in the solo state.
  • the operated solo button SL21 and the operated solo button SL22 are displayed in a color different from that before the operation, as shown in FIG. 27, for example.
  • the solo button of the object without the solo setting is displayed in the same color as before the solo setting is made, and the mute button of the object with the solo setting turned on is set before the solo setting is made. Will be displayed in a different color.
  • the display control unit 42 controls the display unit 24 to update the display of the POV image P71 so that the POV image P71 shown on the right side in the drawing of FIG. 27 is displayed on the display unit 24.
  • the display of the object ball of another object which has been displayed but is not in the solo state has been erased and is in a non-display state. That is, in the POV image P71 in FIG. 27, the object balls BL11 to BL14, the object balls BL17 to BL19, the object balls BL31, and the object balls BL32 are not displayed.
  • the user can visually determine which track corresponding to the object is in the mute state or the solo state. Can be easily understood. Thereby, usability can be improved.
  • step S161 the control unit 23 determines whether the mute button on the edit screen has been operated based on the signal supplied from the input unit 21.
  • control unit 23 determines that the mute button has been operated.
  • step S161 If it is determined in step S161 that the mute button has not been operated, the process of step S162 is not performed, and the process proceeds to step S163.
  • step S162 when it is determined in step S161 that the mute button has been operated, in step S162, the control unit 23 sets the object (track) specified by the user's operation on the mute button to the mute state.
  • the control unit 23 sets the object “Vo” to the mute state.
  • the control unit 23 releases the mute state of the object “Vo”.
  • step S161 If it is determined in step S161 that the mute button has not been operated, or if the process of step S162 is performed, the process of step S163 is performed.
  • step S163 the control unit 23 determines whether the solo button on the edit screen has been operated based on the signal supplied from the input unit 21. For example, when an operation such as a click is performed on the solo button SL21 or the solo button SL22 illustrated in FIG. 25, the control unit 23 determines that the solo button has been operated.
  • step S163 If it is determined in step S163 that the solo button has not been operated, the process of step S164 is not performed, and then the process proceeds to step S165.
  • step S164 the control unit 23 places the object (track) specified by the user's operation on the solo button in the solo state.
  • the control unit 23 puts the object “Vo” into the solo state.
  • the control unit 23 cancels the solo state of the object “Vo”.
  • step S165 After the solo setting is performed according to the operation of the solo button, the process proceeds to step S165.
  • control unit 23 may cause all other objects belonging to the same group as the object to be in the mute state or the solo state. .
  • the control unit 23 specifies whether the object to be processed belongs to the group by referring to the group information, and performs mute setting or solo setting in either the object unit or the group unit according to the specification result. Decide what to do.
  • step S165 the display control unit 42 sets the display unit 24 in accordance with the mute setting or the solo setting by the control unit 23. Control and update the edit screen and POV image display.
  • the display control unit 42 changes the display format of the mute button in the track area of the muted object on the editing screen, and removes the object ball of the muted object on the POV image. And display it.
  • the information processing apparatus 11 performs mute setting and solo setting according to the operation of the mute button and the solo button, and reflects the set contents on the editing screen and the display of the POV image. By doing so, the user can easily grasp which object (track) is in the mute state or the solo state, and the usability can be improved.
  • the audio file to be imported may be an audio file recorded in the recording unit 22, an audio file received by the communication unit 25, an audio file read from an external removable recording medium, or the like.
  • the import can be performed by a drag-and-drop operation or the like as shown in FIG.
  • the edit screen ED81 and a window WD81 displaying a list of audio files recorded in the recording unit 22 are displayed on the display unit 24.
  • the user operates the input unit 21 to drag an audio file in the window WD81 as shown by an arrow Q11 and drop the audio file on the editing screen ED81 to import the audio file. Can be instructed.
  • the operation for designating the audio file to be imported and instructing the import is not limited to the drag-and-drop operation, but may be any other operation such as selecting (specifying) a desired audio file from a file menu. Is also good.
  • control unit 23 acquires an audio file specified by the user from the recording unit 22 and captures the acquired audio file as data constituting the audio content being edited. .
  • an audio file in WAV format with the file name “Congas.wav” is imported as audio content data.
  • the control unit 23 may develop the audio file on the edit screen ED81 as an audio signal constituting object data. . That is, the control unit 23 may add the audio file as the audio signal of the object data to the data of the audio content.
  • the specified audio file may be a multi-channel audio signal file such as a two-channel audio signal, that is, a multi-channel file. In such a case, it is necessary to specify whether to import the specified audio file as object data for the number of channels or as channel audio data.
  • the display control unit 42 controls the display unit 24, and causes the display unit 24 to display, for example, a track type selection screen CO81 shown in FIG.
  • the track type selection screen CO81 is provided with three buttons BT81 to BT83.
  • the button BT81 is a button operated when importing a specified audio file as object data, that is, as an object track.
  • the button BT82 is a button operated when importing a specified audio file as channel audio data, that is, as a channel track.
  • the button BT83 is a button operated when canceling the import of the specified audio file.
  • the track type selection screen CO81 also displays a check box CB81 operated when importing a specified audio file as object data by adding object position information indicating a specific position.
  • the specified multi-channel file is a two-channel audio signal file, so the text message “set 2ch WAV (s) with L / R position (Azimuth 30 / -30) "is displayed. “L / R position (Azimuth + 30 / -30)” in this text message indicates that horizontal angles “30” and “-30” are given as object position information. By looking at such a display, the user can easily grasp what kind of object position information is given to the object newly added by the import.
  • a check box for specifying whether to import a specified audio file that is, audio signals of a plurality of channels constituting a multi-channel file as object data of a plurality of objects belonging to the same group, and a track type selection screen. It may be displayed on the CO81.
  • the specified audio file is a multi-channel file including two-channel audio signals
  • a check box may also be displayed on the track type selection screen CO81.
  • control unit 23 develops the audio file as tracks of a plurality of objects according to the number of channels of the specified audio file.
  • the control unit 23 reads, from the recording unit 22 or the like, an audio signal of each channel constituting the specified multi-channel file, and reads the audio signal as object data of each object. take in. That is, each of the audio signals of the plurality of channels is set as each of the audio signals of the plurality of objects. As a result, new objects for the number of channels of the multi-channel file are generated.
  • the display control unit 42 controls the display unit 24 according to the execution of the import, and updates the editing screen and the display of the POV image.
  • the updated editing screen ED81 is as shown in FIG. 31, for example. Note that, in FIG. 31, portions corresponding to those in FIG. 29 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the control unit 23 imports the object “Congas-0” and the object “Congas-1”. Two objects have been created.
  • the display of the edit screen ED81 is updated so that a track area and a timeline area are provided for each track corresponding to these objects.
  • the area TR81 and the area TM81 of the edit screen ED81 are the track area and the timeline area of the track of the object “Congas-0”.
  • the area TR82 and the area TM82 are the track area and the timeline area of the track of the object “Congas-1”.
  • the position information may be used as object position information to generate object meta information.
  • a predetermined position such as a position in front of the listening position O is set as a position of the object in the reproduction space.
  • the same object position information is assigned to each of the plurality of objects.
  • the specified audio file may be a multi-channel file having a specific number of channels, such as 2 channels, 6 channels, and 8 channels.
  • the two-channel audio signals constituting the audio file are often left and right channels, that is, an L-channel audio signal and an R-channel audio signal. .
  • the coordinates (Azimuth, Elevation, Radius), which are the positions of the general left and right (LR) channel arrangements, are set as the object position information indicating the position in the reproduction space. (30,0,1) and (-30,0,1) may be added.
  • the position indicated by the coordinates (30,0,1) and the position indicated by the coordinates (-30,0,1) are left-right symmetric positions in the reproduction space with respect to the above-described reference plane. .
  • the coordinates (Azimuth, Elevation, Radius) (30,0, 30) are used as the object position information of the six objects corresponding to those channels. 1), (-30,0,1), (0,0,1), (0, -30,0), (110,0,1), and (-110,0,1) Can be considered.
  • the audio file has eight channels, for example, coordinates (30, 0, 1), (-30, 0, 1), (0, 0, 1), (0, -30,0), (110,0,1), (-110,0,1), (30,30,1), (-30,30,1) Conceivable.
  • a check box CB81 is provided on the track type selection screen CO81 so that object position information indicating a specific position in the playback space can be added as an initial value to an object newly added by import in this way. Is provided.
  • the control unit 23 converts the audio file into a plurality of objects according to the number of channels of the specified audio file. Unfold as a truck.
  • control unit 23 converts the audio signal of each channel constituting the specified two-channel audio file into the audio signal of each object to be newly added. Capture as a signal.
  • ⁇ Position determining unit 41 further gives coordinates (30, 0, 1) as object position information to the object corresponding to the L channel among the two newly added objects. Similarly, the position determining unit 41 assigns coordinates (-30, 0, 1) as object position information to the object corresponding to the R channel among the two newly added objects.
  • the display control unit 42 controls the display unit 24 according to the execution of the import, and updates the editing screen and the display of the POV image.
  • FIGS. 29 and 32 when the button BT81 is operated to import a two-channel audio file, the edited editing screen and POV image are updated as shown in FIGS. 33 and 34, respectively. Become. In FIG. 33, portions corresponding to those in FIG. 29 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the display of the edit screen ED81 is updated so that a track area and a timeline area are provided for each track corresponding to these objects.
  • the area TR91 and the area TM91 of the edit screen ED81 are the track area and the timeline area of the track of the object “Congas-L”.
  • the object position information of each time of the object “Congas-L” is The coordinates are (30,0,1).
  • the area TR92 and the area TM92 are a track area and a timeline area of the track of the object “Congas-R”.
  • the object position information at each time of the object “Congas-R” is represented by coordinates ( ⁇ 30,0). , 1).
  • the display control unit 42 causes the display unit 24 to display a POV image P91 shown in FIG. 34 as a POV image corresponding to the editing screen ED81 shown in FIG.
  • the object ball BL91 indicating the position of the object “Congas-L” is arranged on the left front side in the figure when viewed from the listening position O, and the object “Congas” is positioned on the right front in the figure when viewed from the listening position O.
  • the object ball BL92 indicating the position of "-R” is arranged.
  • the audio file to be imported is a file of a specific number of channels
  • a specific position is added as an initial value to an object to be newly added by import according to a user's instruction. Work for inputting the data can be reduced. Thereby, editing can be performed more efficiently and easily.
  • objects when importing an audio file, objects may be grouped or L / R pairs may be formed.
  • the import process is started when an import is instructed by an operation such as drag and drop on a desired audio file as shown in FIG. 29, for example.
  • step S191 the control unit 23 determines whether or not the audio file instructed to be imported is a multi-channel file based on the signal supplied from the input unit 21.
  • step S192 If it is determined in step S191 that the file is not a multi-channel file, that is, if import of a monaural audio file is instructed, the process of step S192 is performed.
  • step S192 the control unit 23 imports the specified audio file as one object data.
  • the control unit 23 takes in one audio signal constituting a monaural audio file instructed to be imported as object data of one newly added object, that is, an audio signal of the object. At this time, the control unit 23 appropriately assigns object position information, gain information, priority information, and the like at a predetermined position to the audio signal to generate meta information, and generates an object including the meta information and the audio signal. Generate data.
  • step S199 After the object data is added in this manner, the process proceeds to step S199.
  • step S191 if it is determined in step S191 that the file is a multi-channel file, the display control unit 42 causes the display unit 24 to display a track type selection screen in step S193.
  • the track type selection screen CO81 shown in FIG. 30 is displayed. Then, the user operates the input unit 21 to appropriately operate the check box CB81, the button BT81, and the like on the track type selection screen CO81.
  • step S194 the control unit 23 determines whether to import as object data based on a signal supplied from the input unit 21 in response to a user operation on the track type selection screen.
  • control unit 23 determines in step S194 that the data is to be imported as object data.
  • step S194 When it is determined in step S194 that the import is not performed as the object data, that is, when the user instructs the import as the channel audio data, the process proceeds to step S195.
  • step S195 the control unit 23 imports the specified audio file as one channel audio data.
  • audio signals of a plurality of channels are taken in as one-channel audio data, that is, data of one track. After the channel audio data is thus added, the process proceeds to step S199.
  • step S194 determines whether the data is to be imported as object data. If it is determined in step S194 that the data is to be imported as object data, the process of step S196 is performed.
  • step S196 the control unit 23 imports the specified audio file as object data of a number of objects corresponding to the number of channels of the audio file.
  • control unit 23 takes in audio signals of a plurality of channels constituting an audio file instructed to be imported as audio signals constituting object data of a plurality of objects corresponding to those channels. That is, objects for the number of channels of the audio file are generated, and the objects are added to the audio content.
  • step S197 the position determining unit 41 determines whether to assign a specific position in the reproduction space to the object generated in step S196.
  • step S197 when the button BT81 is operated in a state where a check mark is displayed in the check box CB81 on the track type selection screen CO81, it is determined in step S197 that a specific position is given.
  • step S197 If it is determined in step S197 that a specific position is not to be assigned, the process of step S198 is not performed, and the process proceeds to step S199.
  • the position determining unit 41 assigns a predetermined position such as a front position in the reproduction space to the object newly added in the process of step S196.
  • the position determination unit 41 generates meta information including object position information indicating a predetermined position for each of the plurality of newly added objects, and sets the meta information as object data including the meta information and the audio signal. .
  • the same position is assigned to all the newly added plural objects.
  • step S198 the position determining unit 41 determines, for each of the objects newly added in the process of step S196, the reproduction space. Give a specific position within
  • the position determining unit 41 For each of the plurality of newly added objects, the position determining unit 41 generates meta information including object position information indicating a specific position different for each object, and generates an object including meta information and an audio signal. Data.
  • a position indicated by coordinates (30, 0, 1) is given to one object as in the above-described example, and An object is given a position indicated by coordinates (-30, 0, 1).
  • different positions are given to each object here, such as symmetrical positions.
  • the specific position given to each object is a position determined for each channel of the audio file instructed to be imported. That is, a specific position corresponding to the number of channels of the audio file to be imported is given to the object.
  • the control unit 23 may group the object.
  • the grouping may be performed according to a user's instruction, or when a plurality of new objects are added at the same time without a user's instruction, the objects are unconditionally grouped. May be performed. Further, when the number of newly added objects is two, the two objects may be used as an L / R pair according to a user's instruction or the like.
  • control unit 23 When grouping is performed, the control unit 23 performs a process of grouping a plurality of objects not having a position in the reproduction space and assigning a position in the reproduction space to the plurality of grouped objects. It can be said that it is performed.
  • reproduction is performed on these two objects so that the two objects have a positional relationship symmetrical with respect to a predetermined reference plane in the reproduction space.
  • a position in the space can be given.
  • step S198 If a specific position is given to the object in step S198, then the process proceeds to step S199.
  • step S192, S195, or S198 has been performed, or if it is determined in step S197 that a specific position is not to be provided, the processing of step S199 is performed.
  • step S199 the display control unit 42 controls the display unit 24 according to the import of the audio file, updates the edit screen and the POV image displayed on the display unit 24, and ends the import processing.
  • step S199 the editing screen and the display of the POV image are updated as shown in FIG. 31, FIG. 33, and FIG.
  • the information processing apparatus 11 imports an audio file according to a user operation on the number of channels of the audio file and the track type selection screen, and adds new object data and the like.
  • Example of computer configuration By the way, the above-described series of processing can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in a computer.
  • the computer includes a computer incorporated in dedicated hardware, a general-purpose personal computer that can execute various functions by installing various programs, and the like.
  • FIG. 36 is a block diagram illustrating a configuration example of hardware of a computer that executes the series of processes described above by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the input / output interface 505 is further connected to the bus 504.
  • An input unit 506, an output unit 507, a recording unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
  • the input unit 506 includes a keyboard, a mouse, a microphone, an image sensor, and the like.
  • the output unit 507 includes a display, a speaker, and the like.
  • the recording unit 508 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 509 includes a network interface and the like.
  • the drive 510 drives a removable recording medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads the program recorded in the recording unit 508 into the RAM 503 via the input / output interface 505 and the bus 504 and executes the program. Is performed.
  • the program executed by the computer (CPU 501) can be provided by being recorded on a removable recording medium 511 as a package medium or the like, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by attaching the removable recording medium 511 to the drive 510. Further, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in the ROM 502 or the recording unit 508 in advance.
  • the program executed by the computer may be a program in which processing is performed in chronological order in the order described in this specification, or may be performed in parallel or at a necessary timing such as when a call is made. It may be a program that performs processing.
  • the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and processed jointly.
  • each step described in the above-described flowchart can be executed by a single device, or can be shared and executed by a plurality of devices.
  • one step includes a plurality of processes
  • the plurality of processes included in the one step can be executed by one device or can be shared and executed by a plurality of devices.
  • the present technology may have the following configurations.
  • a plurality of objects existing in a predetermined space are selected and grouped, and positions of the plurality of objects are changed while maintaining a relative positional relationship of the grouped objects in the space.
  • An information processing device including a control unit.
  • the control unit groups a plurality of the objects having no position in the space and assigns a position in the space to the grouped objects. .
  • the control unit changes the positions of the two objects in the space while maintaining a left-right symmetric relationship with respect to a predetermined plane in the space.
  • the control unit groups the two objects that do not have a position in the space, and the two grouped objects have a positional relationship that is left-right symmetric with respect to a predetermined plane in the space.
  • the information processing apparatus according to (1), wherein a position in the space is assigned to the two objects.
  • the information processing device according to (1), wherein the control unit groups a plurality of the objects having positions in the space.
  • the control unit is configured to, based on a position of the object at a predetermined time and a position of the object at another time different from the predetermined time, determine the position of the object at a time between the predetermined time and the other time.
  • the information processing apparatus according to any one of (1) to (5), wherein the position is obtained by an interpolation process.
  • the information processing device according to any one of (1) to (13), wherein the object is an audio object.
  • the information processing device is A plurality of objects existing in a predetermined space are selected and grouped, and positions of the plurality of objects are changed while maintaining a relative positional relationship of the grouped objects in the space. Information processing method.
  • a plurality of objects existing in a predetermined space are selected and grouped, and positions of the plurality of objects are changed while maintaining a relative positional relationship of the grouped objects in the space.
  • ⁇ 11 ⁇ information processing device ⁇ 21 ⁇ input unit, ⁇ 23 ⁇ control unit, ⁇ 24 ⁇ display unit, ⁇ 41 ⁇ position determination unit, ⁇ 42 ⁇ display control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Stereophonic System (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本技術は、より効率よく編集を行うことができるようにする情報処理装置および方法、並びにプログラムに関する。 情報処理装置は、所定の空間内に存在する複数のオブジェクトを選択してグループ化し、グループ化された複数のオブジェクトの空間内における相対的な位置関係を維持したまま複数のオブジェクトの位置を変更する制御部を備える。本技術は情報処理装置に適用することができる。

Description

情報処理装置および方法、並びにプログラム
 本技術は、情報処理装置および方法、並びにプログラムに関し、特に、より効率よく編集を行うことができるようにした情報処理装置および方法、並びにプログラムに関する。
 近年、オブジェクトベースのオーディオ技術が注目されている。
 オブジェクトベースオーディオでは、オーディオオブジェクトに対する波形信号と、所定の基準となる聴取位置からの相対位置により表されるオーディオオブジェクトの定位情報を示すメタ情報とによりオブジェクトオーディオのデータが構成されている。
 そして、オーディオオブジェクトの波形信号が、メタ情報に基づいて例えばVBAP(Vector Based Amplitude Panning)により所望のチャンネル数の信号にレンダリングされて再生される(例えば、非特許文献1および非特許文献2参照)。
 オブジェクトベースオーディオでは、オーディオコンテンツの制作において、オーディオオブジェクトを3次元空間内の様々な方向に配置することが可能である。
 例えばDolby Atoms Panner plus-in for Pro Tools(例えば非特許文献3参照)では、3Dグラフィックのユーザインターフェース上においてオーディオオブジェクトの位置を指定することが可能である。この技術では、ユーザインターフェース上に表示された仮想空間の画像上の位置をオーディオオブジェクトの位置として指定することで、オーディオオブジェクトの音の音像を3次元空間内の任意の方向に定位させることができる。
 一方、従来の2チャンネルステレオに対する音像の定位は、パニングと呼ばれる手法により調整されている。例えば所定のオーディオトラックに対する、左右の2チャンネルへの按分比率をユーザインターフェースによって変更することで、音像を左右方向のどの位置に定位させるかが決定される。
ISO/IEC 23008-3 Information technology - High efficiency coding and media delivery in heterogeneous environments - Part 3: 3D audio Ville Pulkki, "Virtual Sound Source Positioning Using Vector Base Amplitude Panning", Journal of AES, vol.45, no.6, pp.456-466, 1997 Dolby Laboratories, Inc., "Authoring for Dolby Atmos(R) Cinema Sound Manual"、[online]、[平成30年8月1日検索]、インターネット< https://www.dolby.com/us/en/technologies/dolby-atmos/authoring-for-dolby-atmos-cinema-sound-manual.pdf >
 ところで、オブジェクトベースのオーディオでは、オーディオオブジェクトごとに、オーディオオブジェクトの空間内の位置、つまり音像定位位置を変更したり、オーディオオブジェクトの波形信号のゲインを調整したりといった編集が可能である。
 しかしながら、実際のオブジェクトベースのオーディオコンテンツの制作においては多数のオーディオオブジェクトが扱われるため、それらのオーディオオブジェクトの位置調整やゲイン調整等の編集には時間がかかってしまう。
 例えばオーディオオブジェクトごとに空間内の位置を指定して、各オーディオオブジェクトの音像の定位位置を決定する作業は面倒であった。
 このようなことから、オーディオコンテンツを制作する際に、オーディオオブジェクトに関する編集を効率よく行うことのできる方法が望まれている。
 本技術は、このような状況に鑑みてなされたものであり、より効率よく編集を行うことができるようにするものである。
 本技術の一側面の情報処理装置は、所定の空間内に存在する複数のオブジェクトを選択してグループ化し、グループ化された前記複数の前記オブジェクトの前記空間内における相対的な位置関係を維持したまま前記複数の前記オブジェクトの位置を変更する制御部を備える。
 本技術の一側面の情報処理方法またはプログラムは、所定の空間内に存在する複数のオブジェクトを選択してグループ化し、グループ化された前記複数の前記オブジェクトの前記空間内における相対的な位置関係を維持したまま前記複数の前記オブジェクトの位置を変更するステップを含む。
 本技術の一側面においては、所定の空間内に存在する複数のオブジェクトが選択されてグループ化され、グループ化された前記複数の前記オブジェクトの前記空間内における相対的な位置関係が維持されたまま前記複数の前記オブジェクトの位置が変更される。
情報処理装置の構成例を示す図である。 編集画面の例を示す図である。 POV画像の例を示す図である。 グループ化処理を説明するフローチャートである。 グループ化されたオブジェクトの移動について説明する図である。 グループ化されたオブジェクトの移動について説明する図である。 グループ化されたオブジェクトの移動について説明する図である。 オブジェクト移動処理を説明するフローチャートである。 L/Rペアについて説明する図である。 L/Rペアについて説明する図である。 L/Rペアについて説明する図である。 L/Rペアについて説明する図である。 グループ化処理を説明するフローチャートである。 オフセット量単位でのオブジェクト位置情報の変更について説明する図である。 オフセット量単位でのオブジェクト位置情報の変更について説明する図である。 オフセット量単位でのオブジェクト位置情報の変更について説明する図である。 オフセット量単位でのオブジェクト位置情報の変更について説明する図である。 オフセット移動処理を説明するフローチャートである。 オブジェクト位置情報の補間処理について説明する図である。 オブジェクト位置情報の補間処理について説明する図である。 オブジェクト位置情報の補間処理について説明する図である。 補間方法選択処理を説明するフローチャートである。 編集画面の例を示す図である。 POV画像の例を示す図である。 ミュート設定とソロ設定について説明する図である。 ミュート設定とソロ設定について説明する図である。 ミュート設定とソロ設定について説明する図である。 設定処理を説明するフローチャートである。 オーディオファイルのインポートについて説明する図である。 トラック種別選択画面の例を示す図である。 編集画面の例を示す図である。 トラック種別選択画面の例を示す図である。 編集画面の例を示す図である。 POV画像の例を示す図である。 インポート処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈情報処理装置の構成例〉
 本技術は、複数のオブジェクトをグループ化し、グループ化した複数のオブジェクトの3次元空間内における相対的な位置関係を維持したまま、それらの複数のオブジェクトの位置を変更することで、より効率よく編集を行うことができるようにするものである。
 なお、ここでいうオブジェクトとは、音源等であるオーディオオブジェクトや、画像上の被写体である画像オブジェクトなど、空間内の位置を示す位置情報を付与することが可能なオブジェクトであれば、どのようなものであってもよい。
 以下では、具体的な例としてオブジェクトがオーディオオブジェクトである場合について説明を行う。また、以下では、オーディオオブジェクトを単にオブジェクトとも称することとする。
 図1は、本技術を適用した情報処理装置の一実施の形態の構成例を示す図である。
 図1に示す情報処理装置11は入力部21、記録部22、制御部23、表示部24、通信部25、およびスピーカ部26を有している。
 入力部21は、スイッチやボタン、マウス、キーボード、表示部24に重畳して設けられたタッチパネルなどからなり、コンテンツの制作者であるユーザの入力操作に応じた信号を制御部23に供給する。
 記録部22は、例えばハードディスクなどの不揮発性のメモリからなり、制御部23から供給されたオーディオコンテンツのデータ等の各種のデータを記録したり、記録しているデータを制御部23に供給したりする。なお、記録部22は、情報処理装置11に対して着脱可能なリムーバブル記録媒体であってもよい。
 制御部23は、例えばプロセッサ等により実現され、情報処理装置11全体の動作を制御する。制御部23は、位置決定部41および表示制御部42を有している。
 位置決定部41は、入力部21から供給された信号に基づいて、各オブジェクトの空間内の位置、すなわち各オブジェクトの音の音像定位位置を決定する。表示制御部42は、表示部24を制御して、表示部24における画像等の表示を制御する。
 表示部24は、例えば液晶表示パネルなどからなり、表示制御部42の制御に従って各種の画像等を表示する。
 通信部25は、例えば通信インターフェースなどからなり、インターネット等の有線または無線の通信網を介して外部の装置と通信する。例えば通信部25は、外部の装置から送信されてきたデータを受信して制御部23に供給したり、制御部23から供給されたデータを外部の装置に送信したりする。
 スピーカ部26は、例えば所定のチャンネル構成のスピーカシステムの各チャンネルのスピーカからなり、制御部23から供給されたオーディオ信号に基づいてコンテンツの音を再生(出力)する。
〈オブジェクトのグループ化について〉
 情報処理装置11は、少なくとも複数のオブジェクトのオブジェクトデータからなる、オブジェクトベースのオーディオコンテンツの編集を実現する編集装置として機能することができる。
 なお、オーディオコンテンツのデータには、オブジェクトデータではないデータ、具体的には各チャンネルのオーディオ信号からなるチャンネルオーディオデータが含まれるようにしてもよい。
 また、オーディオコンテンツは、映像等が付随しない音楽等の単体のコンテンツであっても勿論よいが、ここではオーディオコンテンツには、対応するビデオコンテンツも存在するものとする。すなわち、オーディオコンテンツのオーディオ信号は、静止画像または動画像(映像)からなるビデオデータ、つまりビデオコンテンツのビデオデータに付随するオーディオ信号であるものとする。例えばビデオコンテンツがライブ映像である場合には、そのビデオコンテンツに対応するオーディオコンテンツは、ライブ映像の音声などとされる。
 オーディオコンテンツのデータに含まれる各オブジェクトデータは、オブジェクトの音の波形信号であるオーディオ信号と、オブジェクトのメタ情報とからなる。
 また、メタ情報には、例えば3次元空間である再生空間内におけるオブジェクトの位置を示すオブジェクト位置情報と、オブジェクトのオーディオ信号のゲインを示すゲイン情報と、オブジェクトの優先度を示す優先度情報とが含まれている。
 さらに、この実施の形態では、オブジェクトの位置を示すオブジェクト位置情報は、再生空間内におけるオーディオコンテンツの音を聴取する聴取者の位置(以下、聴取位置とも称する)を基準とする極座標系の座標により表されるとする。
 すなわち、オブジェクト位置情報は水平角度、垂直角度、および半径からなる。なお、ここではオブジェクト位置情報が極座標により表される例について説明するが、これに限らずオブジェクト位置情報は絶対座標により表される絶対位置情報など、どのようなものであってもよい。
 水平角度は、聴取位置から見たオブジェクトの水平方向(左右方向)の位置を示す水平方向の角度(Azimuth)であり、垂直角度は、聴取位置から見たオブジェクトの垂直方向(上下方向)の位置を示す垂直方向の角度(Elevation)である。また、半径は、聴取位置からオブジェクトまでの距離(Radius)である。以下では、オブジェクト位置情報としての座標を(Azimuth,Elevation,Radius)と表すこととする。
 例えばオーディオコンテンツの再生時には、オブジェクトの音の音像がオブジェクト位置情報により示される位置に定位するように、VBAP等により各オブジェクトのオーディオ信号に基づくレンダリングが行われる。
 また、オーディオコンテンツの編集時には、基本的には1つのオブジェクトデータ、つまり1つのオブジェクトのオーディオ信号が1つのオーディオトラックとして扱われる。これに対して、チャンネルオーディオデータについては、そのチャンネルオーディオデータを構成する複数のオーディオ信号が1つのオーディオトラックとして扱われる。なお、以下では、オーディオトラックを単にトラックとも称することとする。
 通常、オーディオコンテンツのデータには、数十や数百など多数のオブジェクトのオブジェクトデータが含まれている。
 そこで情報処理装置11では、オーディオコンテンツの編集時に、より効率よく編集を行うことができるように複数のオブジェクトをグループ化できるようになされている。すなわち、再生空間内に存在する複数のオブジェクトのなかから選択した複数個のオブジェクトを1つのグループとして扱うことができるように、選択した複数個のオブジェクトをグループ化できるようになされている。
 情報処理装置11では、グループ化された複数のオブジェクト、つまり同じグループに属す複数のオブジェクトについては、再生空間内においてそれらのオブジェクトの相対的な位置関係が維持されたままオブジェクト位置情報が変更される。
 このようにすることで、情報処理装置11ではオーディオコンテンツの編集時に、グループ単位でオブジェクト位置情報の編集、つまりオブジェクトの音像定位位置の指定(変更)を行うことができる。この場合、オブジェクトごとにオブジェクト位置情報を編集する場合と比較して、オブジェクト位置情報を指定する操作の回数を大幅に削減することができる。したがって情報処理装置11によれば、より効率よく簡単にオーディオコンテンツの編集を行うことができる。
 なお、ここではオブジェクト位置情報がグループ単位で編集される例について説明するが、優先度情報やゲイン情報もグループ単位で編集されるようにしてもよい。
 そのような場合、例えば所定のオブジェクトの優先度情報が指定されると、その所定のオブジェクトと同じグループに属す他の全てのオブジェクトの優先度情報も、所定のオブジェクトの優先度情報と同じ値に変更される。なお、同じグループに属すオブジェクトの優先度の相対的な関係が維持されたまま、それらのオブジェクトの優先度情報が変更されるようにしてもよい。
 また、例えば所定のオブジェクトのゲイン情報が指定されると、その所定のオブジェクトと同じグループに属す他の全てのオブジェクトのゲイン情報も変更される。このとき、グループに属す全オブジェクトのゲイン情報の相対的な大小関係が維持されたまま、それらの全オブジェクトのゲイン情報が変更される。
 以下、オーディオコンテンツの編集時におけるオブジェクトのグループ化と、グループ化されたオブジェクトのオブジェクト位置情報の指定(変更)について、より具体的に説明する。
 例えばオーディオコンテンツの編集時には、表示制御部42はコンテンツ制作ツールの表示画面として、各トラックのオーディオ信号の時間波形が表示される編集画面を表示部24に表示させる。また、表示制御部42は、コンテンツ制作ツールの表示画面として、聴取位置または聴取位置近傍の位置からの視点ショット(Point of View Shot)であるPOV画像も表示部24に表示させる。なお、編集画面とPOV画像は、互いに異なるウィンドウに表示されてもよいし、同じウィンドウに表示されてもよい。
 編集画面は、例えばオーディオコンテンツの各トラックについてオブジェクト位置情報やゲイン情報、優先度情報を指定したり変更したりするための画面(画像)である。また、POV画像は再生空間を模した3Dグラフィックの画像、すなわち聴取者の聴取位置、または聴取者近傍の位置から見た再生空間の画像である。
 なお、ここでは説明を簡単にするため、再生空間内における位置、つまりオブジェクト位置情報が予め付与されているオブジェクトのオブジェクトデータからなるオーディオコンテンツの編集が行われるものとする。
 一例として、例えば表示制御部42は、表示部24に図2に示す編集画面ED11を表示させる。
 この例では、編集画面ED11にはトラックに関する情報が表示されるトラック領域と、そのトラックについてのオーディオ信号の時間波形、オブジェクト位置情報、ゲイン情報、および優先度情報が表示されるタイムライン領域とがトラックごとに設けられている。
 具体的には、例えば編集画面ED11における図中、左側にある領域TR11は1つのトラックについてのトラック領域となっており、その領域TR11の図中、右側に隣接して設けられた領域TM11は、領域TR11に対応するトラックのタイムライン領域となっている。
 また、各トラック領域には、グループ表示領域と、オブジェクト名表示領域と、座標系選択領域とが設けられている。
 グループ表示領域はトラック、すなわちトラックに対応するオブジェクトが属すグループを示す情報が表示される領域である。
 例えば領域TR11では、領域TR11内の図中、左側にある領域GP11がグループ表示領域となっており、領域GP11内の文字(数字)「1」はオブジェクト(トラック)が属すグループを示す情報、すなわちグループIDを示している。ユーザはグループ表示領域に表示されるグループIDを見ることで、瞬時にオブジェクトが属しているグループを把握することができる。
 なお、グループを示す情報、つまりグループを識別するための情報は数字で表されるグループIDに限らず文字や色情報など、他のどのような情報であってもよい。
 さらに編集画面ED11では、同じグループに属すオブジェクト(トラック)のトラック領域は、同じ色で表示されている。例えばグループごとに、それらのグループを表す色が予め定められており、入力部21が操作されてオブジェクトのグループがユーザにより選択(指定)されると、表示制御部42はオブジェクトのトラック領域を、そのオブジェクトに対して選択されたグループを表す色で表示させる。
 図2の例では、編集画面ED11における図中、上側の4つのトラック領域が同じ色で表示されており、ユーザはそれらのトラック領域に対応する4つのオブジェクト(トラック)が同じグループに属していることを瞬時に把握することができる。なお、以下、複数のオブジェクトからなるグループに対して定められている色、つまりグループを表す色を特にグループカラーとも称することとする。
 オブジェクト名表示領域はトラック、すなわちトラックに対応するオブジェクトに対して付与された、そのオブジェクトの名前(名称)を示すオブジェクト名が表示される領域である。
 例えば領域TR11では、領域OB11がオブジェクト名表示領域となっており、この例では領域OB11内に表示された文字「Kick」がオブジェクト名となっている。このオブジェクト名「Kick」は、ドラム(ドラムセット)を構成するバスドラム、すなわち、いわゆるキックを表している。したがって、ユーザはオブジェクト名「Kick」を見ることで、オブジェクトがキックであることを瞬時に把握することができる。
 なお、以下では、オブジェクトがどのようなオブジェクト名のものであるかを明確にしたい場合には、オブジェクト名が「Kick」であるオブジェクトを、オブジェクト「Kick」と記すなど、オブジェクトという単語の後にオブジェクト名を付加して記すこととする。
 編集画面ED11では、オブジェクト名表示領域にオブジェクト名「OH_L」、「OH_R」、および「Snare」が表示されたオブジェクトのグループIDが、オブジェクト「Kick」のグループIDと同じ「1」となっている。
 オブジェクト「OH_L」は、ドラムの演奏者の頭上左側に設けられたオーバーヘッドマイクロホンにより収音された音のオブジェクトである。また、オブジェクト「OH_R」は、ドラムの演奏者の頭上右側に設けられたオーバーヘッドマイクロホンにより収音された音のオブジェクトであり、オブジェクト「Snare」はドラムを構成するスネアドラムである。
 このようにオブジェクト名が「Kick」、「OH_L」、「OH_R」、および「Snare」である各オブジェクトはドラムを構成するものであるので、それらのオブジェクトはグループIDが「1」である同じグループに纏められている。
 通常、ドラム(ドラムセット)を構成するキックやスネアドラムなどのオブジェクトの相対的な位置関係は変化しない。そのため、それらのオブジェクトを同じグループとし、相対的な位置関係を維持したままオブジェクト位置情報が変更されるようにすれば、1つのオブジェクトのオブジェクト位置情報を変更するだけで、他のオブジェクトのオブジェクト位置情報も適切に変更することができる。
 座標系選択領域は、編集時におけるオブジェクト位置情報の座標系を選択するための領域である。例えば座標系選択領域では、ドロップダウンリスト形式により複数の座標系のなかから任意のものを選択できるようになっている。
 領域TR11では、領域PS11が座標系選択領域となっており、この例では領域PS11内には選択された座標系である極座標系を示す文字「Polar」が表示されている。
 なお、ここでは極座標系が選択される例について説明する。しかし、例えば編集画面ED11上では座標系選択領域で選択された座標系の座標でオブジェクト位置情報が編集され、その後、オブジェクト位置情報が極座標系で表された座標に変換されてメタ情報のオブジェクト位置情報とされてもよいし、座標系選択領域で選択された座標系の座標がそのままメタ情報のオブジェクト位置情報とされてもよい。
 また、トラックに対応するオブジェクトのグループを指定(選択)する場合、例えばユーザは入力部21を操作してグループ選択ウィンドウGW11を表示させる。
 具体的には、例えばグループを指定しようとする場合、ユーザはポインタやカーソル等により所望のトラックのグループ表示領域を指定することで、対象とするトラックを選択するとともにグループ化のためのメニューを表示させる。
 図2の例では、グループ化のためのメニューとして、文字「Group」が表示されたメニュー項目ME11と、文字「L/R pair」が表示されたメニュー項目ME12とからなるメニューが表示されている。
 メニュー項目ME11は、ポインタやカーソル等により選択状態となっているトラックに対応するオブジェクトのグループIDを指定するためのグループ選択ウィンドウGW11を表示させるときに選択される。これに対してメニュー項目ME12は、ポインタやカーソル等により選択状態となっているトラックに対応するオブジェクトを後述するL/Rペアとするときに選択(操作)される。
 ここでは、メニュー項目ME11が選択されたため、編集画面ED11に重畳されてグループ選択ウィンドウGW11が表示されている。
 グループ選択ウィンドウGW11上には、選択され得るグループを表す複数のグループアイコンと、それらのグループアイコンのうちの何れか1つを選択するためのカーソルCS11とが表示されている。
 この例ではグループアイコンは四角形状となっており、そのグループアイコン内にはグループIDが表示されている。例えばグループアイコンGA11はグループIDが「1」であるグループを表しており、グループアイコンGA11内にはグループID「1」が表示されている。また、各グループアイコンはグループカラーで表示されている。
 ユーザは、入力部21を操作することでカーソルCS11を移動させ、所望のグループアイコンを選択することで、トラックに対応するオブジェクトが属すグループを選択する。
 また、表示部24には、例えば編集画面ED11に対応するPOV画像として図3に示す画像が表示される。
 図3に示す例では所定のウィンドウにPOV画像P11が表示されている。POV画像P11では、聴取位置Oのやや後方から見た再生空間である部屋の壁等が表示されており、部屋における聴取者前方の位置には、ビデオコンテンツの映像が重畳表示されたスクリーンSC11が配置されている。POV画像P11では、実際の聴取位置O近傍から見た再生空間がほぼそのまま再現されている。
 スクリーンSC11上にはビデオコンテンツの映像内の被写体としてドラム、エレキギター、およびアコースティックギターと、それらの楽器の演奏者が表示されている。
 特に、この例ではスクリーンSC11上に各楽器の演奏者として、ドラムの演奏者PL11と、エレキギターの演奏者PL12と、1つ目のアコースティックギターの演奏者PL13と、2つ目のアコースティックギターの演奏者PL14とが表示されている。
 また、POV画像P11には、オブジェクトを表すマーク、より詳細にはオブジェクトの位置を表すマークであるオブジェクトボールBL11乃至オブジェクトボールBL19も表示されている。この例では、これらのオブジェクトボールBL11乃至オブジェクトボールBL19がスクリーンSC11上に位置している。
 各オブジェクトボールには、それらのオブジェクトボールに対応するオブジェクトのオブジェクト名を示す文字も表示されている。
 具体的には、例えばオブジェクトボールBL11には、オブジェクト名「Kick」が表示されており、このオブジェクトボールBL11は、図2の領域TR11のトラックに対応するオブジェクト、より詳細にはそのオブジェクトの再生空間内における位置を表している。オブジェクトボールBL11は、POV画像P11上においてオブジェクト「Kick」のオブジェクト位置情報により示される位置に表示される。
 また、オブジェクトボールBL12には、オブジェクト名「OH_L」が表示されており、このオブジェクトボールBL12はオブジェクト「OH_L」を表していることが分かる。
 同様にオブジェクトボールBL13にはオブジェクト名「OH_R」が表示されており、オブジェクトボールBL14にはオブジェクト名「Snare」が表示されている。
 POV画像P11においては、同じグループに属すオブジェクトのオブジェクトボールは同じ色で表示されている。換言すれば、グループ化されたオブジェクトのオブジェクトボールは、それらのオブジェクトが属すグループのグループカラーで表示される。
 ここでは、図2に示した編集画面ED11においてグループID「1」により示されるグループに属している、オブジェクト名が「Kick」、「OH_L」、「OH_R」、および「Snare」である各オブジェクトのオブジェクトボールBL11乃至オブジェクトボールBL14が同じ色で表示されている。特に、これらのオブジェクトについては、オブジェクトボールBL11乃至オブジェクトボールBL14と、編集画面ED11におけるトラック領域とがグループID「1」により示されるグループのグループカラーで表示されている。
 したがって、ユーザは編集画面ED11やPOV画像P11において、どのオブジェクトが同じグループに属しているかを簡単に把握することができる。また、ユーザは編集画面ED11とPOV画像P11との間で、どのオブジェクトボールがどのトラックに対応するものであるかも容易に把握することができる。
 さらに、図3では特にグループ化されていない、つまりグループに属していないオブジェクトのオブジェクトボールBL15乃至オブジェクトボールBL19については、予め定められた色、すなわち何れのグループカラーとも異なる色で表示されている。
 ユーザは編集画面ED11やPOV画像P11を見ながら入力部21を操作し、各トラックについてオブジェクト位置情報の座標を入力したり、オブジェクトボールの位置を直接操作して移動させたりすることで、音像の定位位置を指定することができる。このようにすることで、ユーザは適切な音像の定位位置を容易に決定(指定)することができる。
 なお、図3ではユーザは入力部21を操作することで、POV画像P11における視線方向を任意の方向に変更することができる。この場合、表示制御部42は変更後の視線方向の再生空間の画像をPOV画像P11として表示させる。
 このとき、POV画像P11の視点位置が聴取位置Oの近傍の位置とされた場合には、POV画像P11における手前側の領域には必ず聴取位置Oが表示されるようになされる。これにより、視点位置が聴取位置Oとは異なる場合であっても、POV画像P11を見ているユーザは、表示されているPOV画像P11がどの位置を視点位置とした画像であるかを容易に把握することができる。
 さらに、図3の例ではPOV画像P11上において、聴取位置Oの前方左側と前方右側にスピーカが表示されている。これらのスピーカは、ユーザが想定している、オーディオコンテンツ再生時に用いられるスピーカシステムを構成する各チャンネルのスピーカとなっている。
 また、この実施の形態では編集画面ED11においてグループ選択ウィンドウGW11を表示させ、トラックごとにグループIDを指定することによりオブジェクトのグループ化が行われる例について説明した。
 しかし、ユーザが入力部21を操作することにより、POV画像P11上において1または複数のオブジェクトボールを選択した状態でグループ選択ウィンドウを表示させ、グループIDを指定することによりオブジェクトのグループ化が行われるようにしてもよい。
 さらに、複数のグループをグループ化し、それらの複数のグループからなる大グループを形成することができるようにしてもよい。そのような場合、例えば大グループを単位としてオブジェクトのオブジェクト位置情報を変更することで、大グループに属す複数のオブジェクトの相対的な位置関係を維持したまま、各オブジェクト位置情報を同時に変更することができる。
 このような大グループは、一時的に複数のグループのオブジェクトの相対的な位置関係を維持したまま、各オブジェクトのオブジェクト位置情報を変更したいときに特に有用である。この場合、大グループが必要でなくなったときには、その大グループのグループ化を解除し、個々のグループを単位としてその後の編集を行うことができる。
〈グループ化処理の説明〉
 次に、以上において説明したオブジェクトのグループ化時に情報処理装置11により行われる動作について説明する。すなわち、以下、図4のフローチャートを参照して、情報処理装置11によるグループ化処理について説明する。なお、グループ化処理が開始される時点では、既に表示部24に編集画面が表示されている状態であるとする。
 ステップS11において、制御部23は入力部21に対する入力操作によるグループ化するオブジェクトとグループの指定を受け付ける。
 例えばユーザは、入力部21を操作して図2に示した編集画面ED11からグループ化しようとする所望のオブジェクトに対応するトラックのグループ表示領域を指定(選択)することにより、グループ化するオブジェクトを指定する。制御部23は、入力部21から供給された信号により、指定されたオブジェクトを特定する。
 また、ユーザは、グループ表示領域を指定することにより表示されたグループ選択ウィンドウGW11において、カーソルCS11を移動させてグループアイコンを指定することによりグループを指定する。
 このとき、制御部23の表示制御部42は、入力部21から供給された信号に基づいてグループ選択ウィンドウGW11を表示部24に表示させ、制御部23は、入力部21から供給された信号に基づいて指定されたグループを特定する。
 ステップS12において制御部23は、ステップS11で指定されたオブジェクトが、ステップS11で指定されたグループに属すようにオブジェクトのグループ化を行い、グループ情報を生成する。
 例えばグループ情報は、どのオブジェクトがどのグループに属しているかを示す情報であり、グループIDと、そのグループIDにより示されるグループに属すオブジェクトを示す情報とからなる。なお、オブジェクトを示す情報は、オブジェクトそのものを識別するオブジェクトID等であってもよいし、オブジェクトを間接的に識別するトラックID等のトラックを示す情報であってもよい。
 制御部23は、生成したグループ情報を必要に応じて記録部22に供給し、記録させる。なお、記録部22に既にグループ情報が記録されている場合には、制御部23は指定されたグループのグループ情報に対して、新たに指定されたオブジェクトを示す情報が追加されるようにそのグループ情報を更新する。
 このようにしてグループ情報を生成することにより、オブジェクトがグループ化されたことになる。
 ステップS13において表示制御部42は、新たに生成または更新されたグループ情報に基づいて、既に表示部24に表示されている編集画面およびPOV画像の表示を更新する。
 例えば表示制御部42は表示部24を制御して、図2に示したように編集画面ED11における各トラック領域のうち、同じグループに属すオブジェクトのトラック領域をそのグループのグループカラーで表示させる。
 同様に表示制御部42は表示部24を制御して、図3に示したようにPOV画像P11における各オブジェクトボールのうち、同じグループに属すオブジェクトのオブジェクトボールをそのグループのグループカラーで表示させる。これにより、同じグループに属すオブジェクト、すなわち関連性の高いオブジェクトを容易に判別することができる。
 以上のようにしてオブジェクトのグループ化が行われ、それに伴い編集画面やPOV画像の表示が更新されると、グループ化処理は終了する。
 以上のように情報処理装置11は、入力部21に対する入力操作により指定されたオブジェクトが、指定されたグループに属すようにオブジェクトのグループ化を行う。
 このようなグループ化を行うことで、グループ単位でオブジェクト位置情報等の編集を行うことができるようになり、より効率よく編集を行うことができる。
〈オブジェクト位置情報の編集について〉
 オブジェクトのグループ化が行われると、情報処理装置11ではグループを単位としてオブジェクト位置情報等のオブジェクトに関する情報の編集ができるようになる。
 具体的には、例えばグループ化された複数のオブジェクトについて、それらの複数のオブジェクトの相対的な位置関係を維持したまま、各オブジェクトのオブジェクト位置情報を変更することが可能である。
 例えば表示部24に図5に示す編集画面とPOV画像が表示されているとする。なお、図5において図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図5に示す例では表示部24には編集画面ED21とPOV画像P21とが表示されている。なお、ここでは図を見やすくするため編集画面ED21は一部のみが図示されている。
 編集画面ED21には、図2に示した場合と同様にトラック領域とタイムライン領域とがトラックごとに設けられている。
 すなわち、ここではオブジェクト名が「Vo」であるボーカルのオブジェクトのトラックと、オブジェクト名が「EG」であるエレキギターのオブジェクトのトラックについて、それぞれトラック領域とタイムライン領域が表示されている。
 例えば領域TR21は、ボーカルのオブジェクトのトラックについてのトラック領域であり、領域TM21はボーカルのオブジェクトのトラックについてのタイムライン領域である。
 この例では領域TR21内には、グループ表示領域である領域GP21、オブジェクト名表示領域である領域OB21、および座標系選択領域である領域PS21に加えて、さらにトラックカラー表示領域TP21、ミュートボタンMU21、およびソロボタンSL21も表示されている。
 ここで、トラックカラー表示領域TP21はトラックカラー番号が表示される領域である。トラックカラー番号は、トラックごとに付与することができる、トラックを識別するための色であるトラックカラーを示す情報である。
 後述するように情報処理装置11では、POV画像上のオブジェクトボールをグループカラーで表示させるか、またはトラックカラーで表示させるかを選択することができるようになっている。
 そのため、ユーザは入力部21を操作して編集画面ED21上のトラックカラー表示領域を操作することでトラックごとにトラックカラーを指定することができるようになっている。すなわち、例えばユーザは、図2に示したグループ選択ウィンドウGW11と同様のトラックカラー選択ウィンドウを表示させ、そのトラックカラー選択ウィンドウからトラックカラー番号を選択することにより、トラックのトラックカラーを選択する。
 例えばトラックカラー表示領域TP21内に記された数字「3」はトラックカラー番号を示しており、そのトラックカラー番号により示されるトラックカラーでトラックカラー表示領域TP21が表示される。
 なお、トラックごとに任意のトラックカラーを選択することができ、例えば同じグループに属す2つのオブジェクトに対応するトラックに対して、互いに異なるトラックカラーを選択(指定)することができる。また、例えば互いに異なるグループに属す2つのオブジェクトに対応するトラックに対して、同じトラックカラーを選択することも可能である。
 ミュートボタンMU21は後述するミュート設定を行うときに操作されるボタンであり、ソロボタンSL21は後述するソロ設定を行うときに操作されるボタンである。
 また、例えばボーカルのオブジェクトのトラックについてのタイムライン領域である領域TM21には、トラック、すなわちオブジェクトのオーディオ信号の時間波形L21と、オブジェクトの時系列の水平角度、垂直角度、および半径を表す折れ線L22乃至折れ線L24とが表示されている。
 特に折れ線L22、折れ線L23、および折れ線L24上の点は、その点のある時刻(タイミング)におけるオブジェクト位置情報の水平角度、垂直角度、および半径を指定することが可能となっている編集点を表している。この編集点は、予め定められた時刻が編集点とされるようにしてもよいし、ユーザにより指定された時刻が編集点とされるようにしてもよい。また、ユーザが編集点を削除することができるようにしてもよい。
 さらに各トラックの編集時には、ユーザはレンダリング後のオーディオコンテンツの音を再生し、その再生された音を聞きながら編集を行うことができるようになっており、編集画面ED21にはオーディオコンテンツの音の再生位置、つまり再生中の時刻を示す再生カーソルTC21も表示されている。POV画像P21では、再生カーソルTC21により示される時刻(タイミング)のオブジェクト位置情報基づいて、各オブジェクトのオブジェクトボールが表示される。
 図5に示す例では、ボーカルとエレキギターの各オブジェクトについて、それらのオブジェクトに対応するトラックのグループ表示領域に同じグループID「3」が表示されており、それらのオブジェクトが同じグループに属していることが分かる。
 そのため、POV画像P21においては、エレキギターのオブジェクトのオブジェクトボールBL15と、ボーカルのオブジェクトのオブジェクトボールBL16とが同じグループカラーで表示されている。
 また、図5に示す例では、再生カーソルTC21は時刻「13197」に位置している。
 この時刻においてボーカルのオブジェクトのオブジェクト位置情報が座標(Azimuth,Elevation,Radius)=(-5.62078,1.36393,1)であり、エレキギターのオブジェクトのオブジェクト位置情報が座標(-3.57278,-3.79667,1)であるとする。
 このような図5に示す状態から、例えば図6に示すようにユーザが入力部21を操作し、時刻「20227」におけるボーカルのオブジェクトのオブジェクト位置情報を変更したとする。なお、図6において図5における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 例えばユーザは、入力部21を操作して編集点の位置を移動させたり、オブジェクトボールを移動させたり、直接、変更後のオブジェクト位置情報を入力したりすることにより、オブジェクト位置情報の変更を指示する。すなわち、変更後のオブジェクト位置情報が入力される。
 図6の例では、ユーザは時刻「20227」におけるボーカルのオブジェクトの変更後のオブジェクト位置情報として座標(-22.5,1.36393,1)を指定したとする。
 すると、位置決定部41は、ユーザの操作に応じて入力部21から供給された信号に応じて、ボーカルのオブジェクトの時刻「20227」におけるオブジェクト位置情報を、ユーザにより指定された座標(-22.5,1.36393,1)に決定する。
 同時に位置決定部41は、記録部22に記録されているグループ情報を参照することで、オブジェクト位置情報を変更したボーカルのオブジェクトと同じグループに属している他のオブジェクトを特定する。ここでは、エレキギターのオブジェクトが、ボーカルのオブジェクトと同じグループのオブジェクトであると特定される。
 位置決定部41は、このようにして特定した同じグループに属すエレキギターのオブジェクトのオブジェクト位置情報を、ボーカルのオブジェクトとの相対的な位置関係が維持されるように変更(決定)する。このとき、ボーカルのオブジェクトの変更後のオブジェクト位置情報である座標(-22.5,1.36393,1)に基づいて、エレキギターのオブジェクトのオブジェクト位置情報が決定される。
 したがって、この例では時刻「20227」におけるエレキギターのオブジェクトのオブジェクト位置情報は、座標(-20.452,-3.79667,1)とされる。
 このようにしてグループ化されたオブジェクトのオブジェクト位置情報が変更(決定)されると、表示制御部42は表示部24を制御して、変更後のオブジェクト位置情報により示される位置へとそれらのオブジェクトのオブジェクトボールを移動させる。
 図6に示す例では、同グループに属すボーカルのオブジェクトのオブジェクトボールBL16と、エレキギターのオブジェクトのオブジェクトボールBL15とが、それらのオブジェクトの相対的な位置関係を維持したまま、図中、右方向に移動されている。
 さらに図6に示す状態から、例えば図7に示すようにユーザが入力部21を操作し、時刻「27462」におけるボーカルのオブジェクトのオブジェクト位置情報を変更したとする。なお、図7において図5における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図7の例では、ユーザは時刻「27462」におけるボーカルのオブジェクトの変更後のオブジェクト位置情報として座標(-56,1.36393,1)を指定したとする。
 すると、位置決定部41は、ユーザの操作に応じて入力部21から供給された信号に応じて、ボーカルのオブジェクトの時刻「27462」におけるオブジェクト位置情報を、ユーザにより指定された座標(-56,1.36393,1)に決定する。
 同時に位置決定部41は、ボーカルのオブジェクトと同じグループに属すエレキギターのオブジェクトのオブジェクト位置情報を、ボーカルのオブジェクトとの相対的な位置関係が維持されるように変更(決定)する。
 したがって、この例では時刻「27462」におけるエレキギターのオブジェクトのオブジェクト位置情報は座標(-53.952,-3.79667,1)とされる。
 このようにしてグループ化されたオブジェクトのオブジェクト位置情報が変更されると、表示制御部42は表示部24を制御して、変更後のオブジェクト位置情報により示される位置へとそれらのオブジェクトのオブジェクトボールを移動させる。
 図7に示す例では、同グループに属すボーカルのオブジェクトのオブジェクトボールBL16と、エレキギターのオブジェクトのオブジェクトボールBL15とが、それらのオブジェクトの相対的な位置関係を維持したまま、図6における場合よりもさらに図中、右方向に移動されている。
 図6や図7の例では、ユーザはボーカルのオブジェクトの変更後のオブジェクト位置情報を入力する必要はあるが、そのボーカルのオブジェクトと同じグループに属すエレキギターのオブジェクトについては、変更後のオブジェクト位置情報等の入力は必要としない。
 つまり、1つのオブジェクトのオブジェクト位置情報を変更するだけで、ユーザから見れば特に何も指示しなくても自動的に、そのオブジェクトと同じグループに属す他の全てのオブジェクトのオブジェクト位置情報も一括で変更される。換言すれば、ユーザはいちいち全てのオブジェクトのオブジェクト位置情報を入力して変更する作業を行わなくて済む。しかも、それらのオブジェクトの相対的な位置関係を維持したまま、適切にオブジェクト位置情報を変更することができる。
 以上のように同じグループに属す全オブジェクトのオブジェクト位置情報を、それらの相対的な位置関係を維持したまま変更することで、より効率よく簡単にオブジェクト位置情報の編集を行うことができる。
 なお、図6および図7では、ボーカルのオブジェクトのオブジェクト位置情報を変更するときに、その変更に合わせて同グループに属すエレキギターのオブジェクトのオブジェクト位置情報が変更される例について説明した。
 しかし、逆にユーザによりエレキギターのオブジェクトのオブジェクト位置情報が変更されたときには、その変更に応じてボーカルのオブジェクトのオブジェクト位置情報が変更される。
〈オブジェクト移動処理の説明〉
 ここで、図5乃至図7を参照して説明したようにオブジェクト位置情報を変更して、再生空間におけるオブジェクトの位置を移動させる場合に行われる処理について説明する。すなわち、以下、図8のフローチャートを参照して、情報処理装置11によるオブジェクト移動処理について説明する。なお、このオブジェクト移動処理が開始されるときには、少なくとも表示部24に編集画面が表示された状態となっている。
 ステップS41において制御部23は、オブジェクト位置情報の変更対象とするオブジェクトと、そのオブジェクトの変更後のオブジェクト位置情報の指定を受け付ける。
 例えばユーザは、入力部21を操作して編集画面上のトラック領域等を選択することにより変更対象とするオブジェクトを指定し、制御部23は入力部21から供給された信号に基づいて、指定されたオブジェクトを特定する。
 また、例えばユーザは入力部21を操作して、編集画面のタイムライン領域に表示されているオブジェクト位置情報を構成する水平角度や、垂直角度、半径の編集点の位置を移動させる等の入力を行うことで、変更後のオブジェクト位置情報を指定する。
 ステップS42において制御部23は、記録部22に記録されているグループ情報を参照して、ステップS41で指定されたオブジェクトと同じグループに属すオブジェクトを特定する。
 ステップS43において位置決定部41は、変更後のオブジェクト位置情報を指定する操作に応じて入力部21から供給された信号に基づいて、指定されたオブジェクトのオブジェクト位置情報を変更(更新)する。
 また位置決定部41は、指定されたオブジェクトのオブジェクト位置情報の変更に応じて、ステップS42で特定された同じグループに属す他の全てのオブジェクトのオブジェクト位置情報も変更する。このとき、グループに属す全オブジェクトの相対的な位置関係が維持(保持)されるように、オブジェクト位置情報が変更される。
 ステップS44において表示制御部42は、表示部24を制御して、ステップS43におけるオブジェクト位置情報の変更に応じて、表示部24に表示されている編集画面およびPOV画像の表示を更新し、オブジェクト移動処理は終了する。
 例えば表示制御部42は、編集画面のタイムライン領域におけるオブジェクト位置情報を構成する水平角度や、垂直角度、半径の位置の表示を更新するとともに、POV画像上のオブジェクトボールの位置を移動させる。このようにしてオブジェクト位置情報が変更されると、再生空間においてオブジェクトが移動されたことになる。
 以上のようにして情報処理装置11は、1つのオブジェクトのオブジェクト位置情報を変更するときには、そのオブジェクトだけでなく、そのオブジェクトと同じグループに属す他の全てのオブジェクトのオブジェクト位置情報も変更する。このとき情報処理装置11は、同じグループに属す全オブジェクトの相対的な位置関係が変更前後で維持されるように、それらのオブジェクトのオブジェクト位置情報を変更する。
 このように同じグループに属すオブジェクトのオブジェクト位置情報を、それらのオブジェクトの相対的な位置関係を維持したまま同時に変更することで、より効率よく編集を行うことができる。
〈L/Rペアについて〉
 ところで、ペアとなる2つのオブジェクトをグループ化する場合、それらの2つのオブジェクトの再生空間上における位置を、所定の基準となる基準面に対して左右対称に配置したいことがある。ここでいう基準面とは、例えば聴取位置Oから見た正面の方向と平行な直線を含む正中面である。
 例えばリバーブ成分、つまりアンビエンスなどについては、2つのアンビエンスをそれぞれペアとなるオブジェクトとし、それらのオブジェクトを基準面に対して左右対称に配置したいという要望も多い。
 そこで、基準面に対して左右対称に配置したい2つのオブジェクトを、L/Rペアを構成するオブジェクトとして指定することができるようにしてもよい。
 L/Rペアとなる2つのオブジェクトは1つのグループを構成する。そして、それらの2つのオブジェクトの一方のオブジェクト位置情報の変更が指示された場合には、再生空間において基準面に対して左右対称となるように、一方のオブジェクトのオブジェクト位置情報だけでなく他方のオブジェクトのオブジェクト位置情報も変更される。
 具体的には、例えばグループ化するオブジェクトをL/Rペアを構成するオブジェクトとして指定する場合、ユーザは図9に示すようにメニュー項目ME12を指定する操作を行う。なお、図9において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図9では、表示部24に表示された編集画面ED31の一部分が示されており、この例では編集画面ED31には、2つの各トラックについてのトラック領域とタイムライン領域とが表示されている。
 例えば領域TR31は、オブジェクト名が「Amb_L」である、聴取位置Oから見て正面左側に配置されるアンビエンスのオブジェクトに対応するトラックのトラック領域となっている。同様に、領域TR32は、オブジェクト名が「Amb_R」である、聴取位置Oから見て正面右側に配置されるアンビエンスのオブジェクトに対応するトラックのトラック領域となっている。
 さらに図9では、領域TR32、つまりオブジェクト「Amb_R」に対応するトラックが選択(指定)された状態で、メニュー項目ME11およびメニュー項目ME12と、グループ選択ウィンドウGW11が表示されている。
 このような状態でユーザが入力部21を操作して、L/Rペアとして指定するためのメニュー項目ME12を操作すると、メニュー項目ME12における文字「L/R pair」の図中、左側にチェックマークが表示される。これにより、オブジェクト「Amb_R」は、L/Rペアを構成するオブジェクトとされる。
 また、ここではグループ選択ウィンドウGW11において、カーソルCS11によってグループIDが「9」であるグループアイコンが指定(選択)されている。そのため、オブジェクト「Amb_R」は、グループIDが「9」であるグループに属し、かつL/Rペアを構成するオブジェクトとなる。
 図9の例では、オブジェクト「Amb_L」に対応するトラックについても、領域TR31内のグループ表示領域にはグループID「9」が表示されている。
 したがって、オブジェクト「Amb_L」とオブジェクト「Amb_R」はグループIDが「9」であるグループに属し、かつL/Rペアを構成するオブジェクトとなっていることが分かる。
 このように各オブジェクトに対して、所属するグループだけでなくL/Rペアとするか否かも指定することができる場合、各オブジェクトがL/Rペアを構成するオブジェクトであるか否かを示す情報であるL/Rペアフラグもグループ情報に含まれるようにすればよい。
 そのような場合、例えばグループ情報にはグループIDと、グループに属すオブジェクトを示す情報と、L/Rペアフラグとが含まれるようにされる。
 例えばL/Rペアフラグの値「1」は、グループに属す2つのオブジェクトはL/Rペアであることを示しており、L/Rペアフラグの値「0」は、グループに属す複数のオブジェクトはL/Rペアでないことを示している。
 特に、値が「1」であるL/Rペアフラグを含むグループ情報に対応するグループは、必ず2つのオブジェクトから構成されるようにされる。換言すれば、2つのオブジェクトによって1つのグループが構成されている場合にのみ、それらの2つのオブジェクトをL/Rペアとして指定することが可能である。したがってL/Rペアであることは、グループの1つの特性を示しているということができる。
 以上のようにオブジェクト「Amb_L」とオブジェクト「Amb_R」がL/Rペアとされた場合、それらのオブジェクトのオブジェクト位置情報は、ユーザの操作に応じて例えば図10乃至図12に示すように変更される。なお、図10乃至図12において図9における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 例えば図10に示す例では、表示部24には編集画面ED31とPOV画像P31とが表示された状態となっている。
 編集画面ED31では、オブジェクト「Amb_L」のトラック領域である領域TR31と、オブジェクト「Amb_R」のトラック領域である領域TR32とが、それらのオブジェクトが属すグループIDが「9」であるグループのグループカラーで表示されている。また、編集画面ED31上のタイムライン領域では、再生カーソルTC31は時刻「0」に位置している。
 このような状態において、ユーザが入力部21を操作し、時刻「0」におけるオブジェクト「Amb_L」のオブジェクト位置情報として座標(30,0,1)を指定したとする。
 すると位置決定部41は、時刻「0」におけるオブジェクト「Amb_L」のオブジェクト位置情報を座標(30,0,1)に決定する。同時に位置決定部41は、オブジェクト「Amb_R」の再生空間内における位置がオブジェクト「Amb_L」の位置と基準面に対して左右対称となるように、時刻「0」におけるオブジェクト「Amb_R」のオブジェクト位置情報を決定する。換言すれば、オブジェクト「Amb_R」のオブジェクト位置情報が変更される。
 ここでは、時刻「0」におけるオブジェクト「Amb_R」のオブジェクト位置情報は座標(-30,0,1)とされる。
 このようにして同一グループに属し、L/Rペアであるオブジェクト「Amb_L」とオブジェクト「Amb_R」のオブジェクト位置情報が決定されると、表示制御部42は、それらの決定されたオブジェクト位置情報に基づいてPOV画像P31の表示を更新する。
 ここでは、POV画像P31上における座標(30,0,1)に対応する位置には、オブジェクト「Amb_L」のオブジェクトボールBL31が表示されている。
 このオブジェクトボールBL31には、オブジェクト名「Amb_L」が表示されており、またオブジェクトボールBL31は、グループIDが「9」であるグループのグループカラーで表示されている。
 これに対して、POV画像P31上における座標(-30,0,1)に対応する位置には、オブジェクト「Amb_R」のオブジェクトボールBL32が表示されている。
 このオブジェクトボールBL32には、オブジェクト名「Amb_R」が表示されており、またオブジェクトボールBL32は、グループIDが「9」であるグループのグループカラーで表示されている。
 特に、ここでは聴取位置Oと、図中、奥行き方向に対して平行な直線とを含む平面が基準面とされており、オブジェクトボールBL31とオブジェクトボールBL32とが基準面に対して左右対称となる位置に配置されている。
 また、図10に示す状態から、図11に示すようにユーザが入力部21を操作し、時刻「20000」におけるオブジェクト「Amb_L」のオブジェクト位置情報として座標(56.5,0,1)を指定したとする。
 すると、位置決定部41はオブジェクト「Amb_L」のオブジェクト位置情報としての座標(56.5,0,1)に応じて、時刻「20000」におけるオブジェクト「Amb_R」のオブジェクト位置情報を座標(-56.5,0,1)とする。
 そして表示制御部42は、変更後のオブジェクト位置情報としての座標(56.5,0,1)および座標(-56.5,0,1)に基づいて表示部24を制御し、POV画像P31の表示を更新する。
 これにより、オブジェクトボールBL31はPOV画像P31上における座標(56.5,0,1)に対応する位置に移動され、オブジェクトボールBL32はPOV画像P31上における座標(-56.5,0,1)に対応する位置に移動される。これらのオブジェクトボールBL31およびオブジェクトボールBL32は、移動後においても図10における場合と同様に、基準面に対して左右対称の位置に配置された状態となっている。
 さらに、図11に示す状態から、図12に示すようにユーザが入力部21を操作し、時刻「40000」におけるオブジェクト「Amb_L」のオブジェクト位置情報として座標(110,25,1)を指定したとする。
 すると、位置決定部41はオブジェクト「Amb_L」のオブジェクト位置情報としての座標(110,25,1)に応じて、時刻「40000」におけるオブジェクト「Amb_R」のオブジェクト位置情報を座標(-110,25,1)とする。
 そして表示制御部42は、変更後のオブジェクト位置情報としての座標(110,25,1)および座標(-110,25,1)に基づいて表示部24を制御し、POV画像P31の表示を更新する。
 これにより、オブジェクトボールBL31はPOV画像P31上における座標(110,25,1)に対応する位置に移動され、オブジェクトボールBL32はPOV画像P31上における座標(-110,25,1)に対応する位置に移動される。これらのオブジェクトボールBL31およびオブジェクトボールBL32は、移動後においても図10や図11における場合と同様に、基準面に対して左右対称の位置に配置された状態となっている。
 なお、ここではL/Rペアであるオブジェクト「Amb_L」とオブジェクト「Amb_R」のうちのオブジェクト「Amb_L」のオブジェクト位置情報を指定したときに、それに合わせてオブジェクト「Amb_R」のオブジェクト位置情報を変更する例について説明した。しかし、逆にオブジェクト「Amb_R」のオブジェクト位置情報が指定されたときには、位置決定部41は、それに合わせてオブジェクト「Amb_L」のオブジェクト位置情報を変更する。
 以上のようにグループに属すオブジェクトが2つである場合、ユーザはそれらの2つのオブジェクトをL/Rペアとして指定することができる。換言すれば、グループの特性としてL/Rペアをセット(設定)することができる。
 L/Rペアの設定を行えば、L/Rペアの一方のオブジェクトのオブジェクト位置情報を変更するだけで、ユーザから見れば特に何も指示しなくても自動的に、他方のオブジェクトのオブジェクト位置情報も変更される。しかも、L/Rペアとなる2つのオブジェクトは、基準面に対して左右対称となる位置に配置されるようになるので、ユーザは左右対称の音像位置を容易に設定することができる。
〈グループ化処理の説明〉
 ここで、以上のようにL/Rペアを指定することができる場合に情報処理装置11により行われるグループ化処理について説明する。すなわち、以下、図13のフローチャートを参照して、情報処理装置11によるグループ化処理について説明する。
 グループ化処理が開始されると、ステップS71の処理が行われるが、このステップS71の処理は図4のステップS11の処理と同様であるので、その説明は省略する。但し、ステップS71では、ユーザは適宜、編集画面上においてL/Rペアとして指定するためのメニュー項目を操作することで、L/Rペアを指定する。
 ステップS72において制御部23は、入力部21から供給される信号に基づいて、グループ化するオブジェクトとして指定されたオブジェクトが2つであるか否かを判定する。
 ステップS72において2つでない、つまり3以上のオブジェクトがグループ化されると判定された場合、その後、処理はステップS75へと進む。
 これに対して、ステップS72において2つであると判定された場合、ステップS73において制御部23はグループ化する2つのオブジェクトをL/Rペアとするか否かを判定する。例えば2つのオブジェクトをグループ化するときに、図9に示したメニュー項目ME12が操作されてL/Rペアの指定が行われた場合、L/Rペアとすると判定される。
 ステップS73においてL/Rペアとすると判定された場合、ステップS74において制御部23は、グループ化する2つのオブジェクトが属すグループのL/Rペアフラグの値を「1」とする。すなわち、値が「1」であるL/Rペアフラグが生成される。
 ステップS74の処理が行われると、その後、処理はステップS76へと進む。
 一方、ステップS73においてL/Rペアとしないと判定された場合、その後、処理はステップS75に進む。
 ステップS73においてL/Rペアとしないと判定されたか、またはステップS72において、指定されたオブジェクトが2つでないと判定された場合、ステップS75の処理が行われる。
 ステップS75において制御部23は、グループ化する複数のオブジェクトが属すグループのL/Rペアフラグの値を「0」とする。すなわち、値が「0」であるL/Rペアフラグが生成される。
 ステップS75の処理が行われると、その後、処理はステップS76に進む。
 ステップS74またはステップS75においてL/Rペアフラグが生成されると、その後、ステップS76およびステップS77の処理が行われてグループ化処理は終了する。
 なお、これらのステップS76およびステップS77の処理は図4のステップS12およびステップS13の処理と同様であるので、その説明は省略する。但し、ステップS76では、制御部23はステップS71におけるユーザの指定操作に応じて、グループIDと、グループに属すオブジェクトを示す情報と、ステップS74またはステップS75で生成されたL/Rペアフラグとからなるグループ情報を生成する。
 以上のようにして情報処理装置11は、入力部21に対する入力操作に応じてグループ化を行い、L/Rペアフラグが含まれるグループ情報を生成する。
 このようにしてグループ化を行うことで、オブジェクト位置情報等をグループ単位で、より効率よく編集することができる。しかも、L/Rペアとされたオブジェクト対については、ユーザは一方のオブジェクトの位置を指定するだけで、左右対称の位置にオブジェクトを配置することができるようになる。
 また、図13を参照して説明したグループ化処理が行われる場合においても、オブジェクト位置情報の変更が指示されたときには、基本的には図8を参照して説明したオブジェクト移動処理と同様の処理が行われる。
 但し、この場合、オブジェクトがL/Rペアを構成するオブジェクトであるときには、ステップS43ではL/Rペアとされた2つのオブジェクトが基準面に対して左右対称となるように、それらの2つのオブジェクトのオブジェクト位置情報が変更される。すなわち、2つのオブジェクトが基準面に対して左右対称となる関係を維持したまま、それらのオブジェクトのオブジェクト位置情報が変更される。したがって、この場合においても、ユーザはより効率よく簡単に編集を行うことができる。
〈複数時刻のオブジェクト位置情報の同時編集について〉
 ところで、編集画面においてはユーザは時刻ごと、つまり編集点ごとにオブジェクト位置情報を構成する水平角度や、垂直角度、半径を指定(変更)することが可能である。
 さらに情報処理装置11では、オブジェクト位置情報を変更する場合、時間方向に並ぶ複数の編集点を含む変更範囲を指定することで複数の編集点を選択し、それらの複数の編集点の位置(座標値)を同時に所定の変更量ずつオフセット(変更)することができる。
 以下では、指定された変更範囲に含まれる複数の編集点の座標値、すなわち水平角度や、垂直角度、半径を1度の操作で同時に変更させる変更量を特にオフセット量と称することとする。また、変更範囲に含まれる編集点を特に選択編集点とも称することとする。
 ここで、図14乃至図17を参照して、変更範囲を指定することで互いに異なる複数の時刻の編集点を同時に選択し、それらの選択した編集点の座標値をオフセット量ずつ変更する場合の具体的な例について説明する。なお、図14乃至図17において互いに対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 まず、例えば図14に示すように、表示部24に表示されている編集画面ED41上にオブジェクト「Amb_L」のトラックについて、トラック領域である領域TR41と、タイムライン領域である領域TM41とが表示されているとする。
 図14では、タイムライン領域である領域TM41内の折れ線L41、折れ線L42、および折れ線L43は、オブジェクト「Amb_L」の時系列の水平角度、垂直角度、および半径を表している。
 特に、ここではオブジェクト位置情報を構成する水平角度を示す折れ線L41上には、時刻「20000」、時刻「25000」、時刻「30000」、および時刻「35000」のそれぞれにおける水平角度を示す編集点EP41-1乃至編集点EP41-4が設けられている。なお、以下、編集点EP41-1乃至編集点EP41-4を特に区別する必要のない場合、単に編集点EP41とも称する。
 同様に折れ線L42上には、時刻「20000」、時刻「25000」、時刻「30000」、および時刻「35000」のそれぞれにおける垂直角度を示す編集点EP42-1乃至編集点EP42-4が設けられている。なお、以下、編集点EP42-1乃至編集点EP42-4を特に区別する必要のない場合、単に編集点EP42とも称する。
 さらに、折れ線L43上には、時刻「20000」、時刻「25000」、時刻「30000」、および時刻「35000」のそれぞれにおける半径を示す編集点EP43-1乃至編集点EP43-4が設けられている。なお、以下、編集点EP43-1乃至編集点EP43-4を特に区別する必要のない場合、単に編集点EP43とも称する。
 いま、オブジェクト「Amb_L」についての時刻「20000」、時刻「25000」、時刻「30000」、および時刻「35000」の各時刻におけるオブジェクト位置情報としての座標が、それぞれ(Azimuth,Elevation,Radius)=(56.5,0,1)、(65.0,0,1)、(35.0,0,1)、および(90.0,0,1)であったとする。
 このような状態で、ユーザが入力部21を操作し、例えば入力部21としてのマウスによる範囲選択等の操作を行うことで、複数の編集点を含む範囲を変更範囲として選択すると、図15に示すような変更範囲を示す枠W41が表示される。
 この例では折れ線L42上にある4つの編集点EP42-1乃至編集点EP42-4を含む範囲が枠W41で囲まれており、この枠W41で囲まれた範囲が変更範囲として指定されている。
 なお、1つの編集点EP42のみが含まれる範囲を変更範囲として指定することも可能であるし、水平角度や垂直角度など、互いに異なる種別(座標成分)の編集点を含む範囲を変更範囲として指定することも可能である。すなわち、例えば複数の編集点EP41、編集点EP42、および編集点EP43を含む範囲を変更範囲として指定することもできる。
 その他、例えば所定時刻の編集点が変更範囲内に含まれているときには、その編集点と同じ時刻の他の座標成分の編集点も変更範囲内に含まれているものとして選択されるようにしてもよい。
 また、変更範囲の指定、すなわち変更範囲に含める編集点の指定の方法は、例えばキーボードのコントロールキーを押した状態で、マウスを操作することで各編集点をポインタによりクリック等で指定していくようにするなど、どのような方法であってもよい。
 変更範囲が指定されると、表示制御部42は表示部24を制御して、編集画面ED41上に、例えば図16に示すオフセット画面OF41を表示させる。
 図16に示す例では、編集画面ED41のタイムライン領域である領域TM41上に重畳されてオフセット画面OF41が表示されている。
 このオフセット画面OF41には、選択編集点の時間方向の位置を移動させる、つまり選択編集点の時刻を変更させるときのオフセット量を示すオフセット表示領域OFT41が設けられている。オフセット表示領域OFT41内には選択編集点の時刻のオフセット量(以下、特に時間オフセット量とも称する)を示す文字「100」が表示されている。
 また、オフセット画面OF41におけるオフセット表示領域OFT41の両端には、選択編集点の時間方向の位置を時間オフセット量「100」ずつ移動させるためのボタンBT41-1およびボタンBT41-2が設けられている。
 例えばユーザが入力部21を操作してボタンBT41-1を1度ずつ押していくたびに、選択編集点の時間方向の位置は未来方向に時間オフセット量「100」ずつ移動していく。つまり、オブジェクト位置情報の時刻が時間オフセット量「100」ずつ増加していく。
 逆に例えばユーザが入力部21を操作してボタンBT41-2を1度ずつ押していくたびに、選択編集点の時間方向の位置は過去方向に時間オフセット量「100」ずつ移動していく。つまり、オブジェクト位置情報の時刻が時間オフセット量「100」ずつ減少していく。なお、以下、ボタンBT41-1およびボタンBT41-2を特に区別する必要のない場合、単にボタンBT41とも称することとする。
 オフセット画面OF41には、選択編集点により示される水平角度を変更させる、つまり選択編集点の位置を移動させるときのオフセット量を示すオフセット表示領域OFT42が設けられている。オフセット表示領域OFT42内には水平角度のオフセット量(以下、特に水平角度オフセット量とも称する)を示す文字「10」が表示されている。
 オフセット画面OF41におけるオフセット表示領域OFT42の両端には、選択編集点の値である水平角度、つまり選択編集点の図中、上下方向の位置を水平角度オフセット量「10」ずつ移動させるためのボタンBT42-1およびボタンBT42-2が設けられている。
 例えばユーザが入力部21を操作してボタンBT42-1を1度ずつ押していくたびに、選択編集点の位置は図中、上方向に水平角度オフセット量「10」ずつ移動していく。つまり、オブジェクト位置情報の水平角度が水平角度オフセット量「10」ずつ増加していく。
 逆に例えばユーザが入力部21を操作してボタンBT42-2を1度ずつ押していくたびに、選択編集点の位置は図中、下方向に水平角度オフセット量「10」ずつ移動していく。つまり、オブジェクト位置情報の水平角度が水平角度オフセット量「10」ずつ減少していく。なお、以下、ボタンBT42-1およびボタンBT42-2を特に区別する必要のない場合、単にボタンBT42とも称することとする。
 オフセット画面OF41には、選択編集点により示される垂直角度を変更させる、つまり選択編集点の位置を移動させるときのオフセット量を示すオフセット表示領域OFT43が設けられている。オフセット表示領域OFT43内には垂直角度のオフセット量(以下、特に垂直角度オフセット量とも称する)を示す文字「10」が表示されている。
 オフセット画面OF41におけるオフセット表示領域OFT43の両端には、選択編集点の値である垂直角度、つまり選択編集点の図中、上下方向の位置を垂直角度オフセット量「10」ずつ移動させるためのボタンBT43-1およびボタンBT43-2が設けられている。
 例えばユーザが入力部21を操作してボタンBT43-1を1度ずつ押していくたびに、選択編集点の位置は図中、上方向に垂直角度オフセット量「10」ずつ移動していく。つまり、オブジェクト位置情報の垂直角度が垂直角度オフセット量「10」ずつ増加していく。
 逆に例えばユーザが入力部21を操作してボタンBT43-2を1度ずつ押していくたびに、選択編集点の位置は図中、下方向に垂直角度オフセット量「10」ずつ移動していく。つまり、オブジェクト位置情報の垂直角度が垂直角度オフセット量「10」ずつ減少していく。なお、以下、ボタンBT43-1およびボタンBT43-2を特に区別する必要のない場合、単にボタンBT43とも称することとする。
 オフセット画面OF41には、選択編集点により示される半径を変更させる、つまり選択編集点の位置を移動させるときのオフセット量を示すオフセット表示領域OFT44が設けられている。オフセット表示領域OFT44内には半径のオフセット量(以下、特に半径オフセット量とも称する)を示す文字「0.1」が表示されている。
 オフセット画面OF41におけるオフセット表示領域OFT44の両端には、選択編集点の値である半径、つまり選択編集点の図中、上下方向の位置を半径オフセット量「0.1」ずつ移動させるためのボタンBT44-1およびボタンBT44-2が設けられている。
 例えばユーザが入力部21を操作してボタンBT44-1を1度ずつ押していくたびに、選択編集点の位置は図中、上方向に半径オフセット量「0.1」ずつ移動していく。つまり、オブジェクト位置情報の半径が半径オフセット量「0.1」ずつ増加していく。
 逆に例えばユーザが入力部21を操作してボタンBT44-2を1度ずつ押していくたびに、選択編集点の位置は図中、下方向に半径オフセット量「0.1」ずつ移動していく。つまり、オブジェクト位置情報の半径が半径オフセット量「0.1」ずつ減少していく。なお、以下、ボタンBT44-1およびボタンBT44-2を特に区別する必要のない場合、単にボタンBT44とも称することとする。
 また、ユーザが入力部21を操作することで、オフセット表示領域OFT41乃至オフセット表示領域OFT44内の数値、すなわちオフセット量を任意の値に変更できるようにしてもよい。
 以上のように枠W41で囲まれた範囲が変更範囲として指定され、オフセット画面OF41が表示された状態となると、ユーザは入力部21を操作することで、オフセット画面OF41上に設けられたボタンBT41やボタンBT42、ボタンBT43、ボタンBT44を操作する。
 これにより、ユーザはオブジェクト位置情報の成分ごとに、オフセット量単位での変更を指示することができる。すなわち、ユーザはオフセット画面OF41というユーザインターフェースに対する操作を行い、選択編集点を他の編集点に対して相対移動させることができる。
 例えばユーザが図15に示した状態、つまり時刻「20000」、時刻「25000」、時刻「30000」、および時刻「35000」のオブジェクト位置情報としての座標が(56.5,0,1)、(65.0,0,1)、(35.0,0,1)、および(90.0,0,1)である状態で、ボタンBT43-1を5回操作したとする。すなわち、ユーザが選択編集点である4つの各編集点EP42により示される垂直角度を50度だけ増加させる操作を行ったとする。
 このような操作が行われると、位置決定部41は、入力部21から供給された信号に基づいて、選択編集点に対応するオブジェクト「Amb_L」の時刻「20000」、時刻「25000」、時刻「30000」、および時刻「35000」のオブジェクト位置情報の垂直角度を50だけ増加させる。
 これにより、オブジェクト「Amb_L」の時刻「20000」、時刻「25000」、時刻「30000」、および時刻「35000」のオブジェクト位置情報としての座標は(56.5,50,1)、(65.0,50,1)、(35.0,50,1)、および(90.0,50,1)に変更される。
 この例では、ユーザはボタンBT43を操作するだけで、4つの時刻のオブジェクト位置情報を同時に垂直角度オフセット量ずつ変更させることができる。
 このようにしてオブジェクト位置情報が変更されると、表示制御部42は表示部24を制御して編集画面ED41の表示を更新させる。すなわち、表示制御部42は、図16に示すように編集点EP42-1乃至編集点EP42-4が、図15に示した場合よりも図中、上側に移動するように編集画面ED41の表示を更新させる。
 さらに、この状態においてユーザがボタンBT41-1を10回操作したとする。すなわち、ユーザが選択編集点の時刻を1000だけ増加させる操作を行ったとする。
 このような操作が行われると、位置決定部41は、入力部21から供給された信号に基づいて選択編集点に対応するオブジェクト「Amb_L」のオブジェクト位置情報の時刻を1000だけ増加させる。
 すなわち、これまで時刻「20000」、時刻「25000」、時刻「30000」、および時刻「35000」のものであったオブジェクト「Amb_L」のオブジェクト位置情報を、時刻「21000」、時刻「26000」、時刻「31000」、および時刻「36000」のオブジェクト位置情報へと変更する。
 その結果、オブジェクト「Amb_L」の時刻「21000」、時刻「26000」、時刻「31000」、および時刻「36000」におけるオブジェクト位置情報としての座標が(56.5,50,1)、(65.0,50,1)、(35.0,50,1)、および(90.0,50,1)となる。
 同時に、これまで編集点があった時刻「20000」、時刻「25000」、時刻「30000」、および時刻「35000」には編集点はなくなり、それらの時刻のオブジェクト位置情報は、後述する補間処理により求められるようになる。
 なお、ここでは垂直角度の編集点EP42のみが選択編集点とされているが、編集点の時刻を変更する場合には、それらの編集点EP42と同時刻の編集点EP41および編集点EP43も選択編集点であるものとされてオブジェクト位置情報の時刻が変更される。
 このようにしてオブジェクト位置情報が変更されると、表示制御部42は表示部24を制御して編集画面ED41の表示を更新させる。すなわち、表示制御部42は、図17に示すように編集点EP41乃至編集点EP43が、図16に示した場合よりも図中、右側に移動するように編集画面ED41の表示を更新させる。
 以上のように変更範囲に含まれる複数の編集点をまとめてオフセット量ずつ変更できるようにすることで、時刻の異なる複数のオブジェクト位置情報を1つずつ編集する場合と比べて簡単に効率よく編集を行うことができる。
 なお、1つのオブジェクトの複数の時刻のオブジェクト位置情報をまとめてオフセット量ずつ変更した場合、そのオブジェクトと同じグループに属す他のオブジェクトがあるときには、他のオブジェクトの複数の時刻のオブジェクト位置情報も変更される。
 例えばオブジェクト「Amb_L」とオブジェクト「Amb_R」が同じグループに属しており、オフセット画面OF41に対する操作によってオブジェクト「Amb_L」の時刻A1と時刻A2のオブジェクト位置情報の変更が指示されたとする。
 この場合、位置決定部41は、オブジェクト「Amb_L」とオブジェクト「Amb_R」の相対的な位置関係を維持したまま、オブジェクト「Amb_L」およびオブジェクト「Amb_R」の時刻A1と時刻A2のオブジェクト位置情報をオフセット量単位で変更する。
〈オフセット移動処理の説明〉
 次に、以上において説明したオフセット画面に対する操作により、複数の異なる時刻のオブジェクト位置情報をまとめて同時に変更するときの情報処理装置11の動作について説明する。すなわち、以下、図18のフローチャートを参照して、情報処理装置11によるオフセット移動処理について説明する。
 ステップS101において制御部23は、オブジェクト位置情報の変更対象とするオブジェクトと、そのオブジェクトについての変更範囲の指定を受け付ける。
 例えばユーザは入力部21を操作して、編集画面のタイムライン領域に表示されている1または複数の編集点を直接指定したり、1または複数の編集点を含む領域を指定したりすることにより変更範囲を指定する。制御部23は入力部21から供給された信号に基づいて、変更対象として指定されたオブジェクトと、そのオブジェクトについて指定された変更範囲、つまり同時に座標値を変更する選択編集点を特定する。
 ステップS102において表示制御部42は、表示部24を制御して、表示部24に表示されている編集画面のタイムライン領域上にオフセット画面を重畳表示させる。これにより、例えば図16に示したオフセット画面OF41が表示される。
 ステップS103において制御部23は、オフセット画面に対する操作による選択編集点の位置の変更操作、つまり座標値の変更量の入力を受け付ける。
 オフセット画面が表示されるとユーザは入力部21を操作し、オフセット量単位で選択編集点を変更させる変更量を入力する。例えば図16に示した例では、ユーザはボタンBT41や、ボタンBT42、ボタンBT43、ボタンBT44を操作することにより座標値の変更を指示する。
 ステップS104において位置決定部41は、入力部21から供給された信号に基づいて、指定されたオブジェクトの変更範囲内に含まれる選択編集点の値、すなわちオブジェクト位置情報をオフセット量単位で同時に変更する。ステップS104では、1または複数の各時刻のオブジェクト位置情報が、オフセット量を単位とするユーザにより指定された変更量だけ同時に変更される。
 例えば図15に示した状態において、図16に示したボタンBT43-1がユーザにより1度だけ操作された場合には、位置決定部41は選択編集点に対応する時刻のオブジェクト位置情報を構成する垂直角度を10度だけ増加させる。
 ステップS105において制御部23は、オブジェクト位置情報の変更対象となっているオブジェクトと、記録部22に記録されているグループ情報に基づいて、変更対象のオブジェクトがグループに属しているか否かを判定する。換言すれば、変更対象のオブジェクトと同じグループに属している他のオブジェクトがあるか否かが判定される。
 ステップS105においてグループに属していない、つまり同じグループに属す他のオブジェクトがないと判定された場合、処理はステップS107に進む。
 これに対して、ステップS105においてグループに属している、つまり同じグループに属す他のオブジェクトがあると判定された場合、処理はステップS106に進む。
 ステップS106において位置決定部41は、変更対象のオブジェクトと同じグループに属す他の全てのオブジェクトのオブジェクト位置情報を変更する。このとき、位置決定部41は、グループに属す全オブジェクトの再生空間内における相対的な位置関係が維持されるように、変更対象のオブジェクトのオブジェクト位置情報の変更に応じて他のオブジェクトのオブジェクト位置情報をオフセット量単位で変更する。なお、変更対象のオブジェクトがL/Rペアのオブジェクトである場合には、L/Rペアとなる2つのオブジェクトが基準面に対して左右対称となるように、変更対象のオブジェクトに対してL/Rペアとなる他のオブジェクトのオブジェクト位置情報が変更される。
 他のオブジェクトのオブジェクト位置情報が変更されると、その後、処理はステップS107に進む。
 ステップS105においてグループに属していないと判定されたか、またはステップS106の処理が行われると、その後、ステップS107の処理が行われてオフセット移動処理は終了する。なお、ステップS107の処理は図8のステップS44の処理と同様であるので、その説明は省略する。
 以上のようにして情報処理装置11は、変更範囲に含まれる1または複数の編集点に対応するオブジェクト位置情報を同時にオフセット量単位で変更する。このようにすることで、編集点の位置、すなわち座標値を1つずつ変更する場合と比較してユーザの操作回数を低減させることができ、より効率よく簡単に編集を行うことができる。
〈オブジェクト位置情報の補間処理について〉
 ところで、情報処理装置11では基本的には編集点が存在する時刻についてオブジェクト位置情報、すなわちメタ情報が保持されており、編集点がない時刻のメタ情報は保持されていない。
 しかし、オーディオコンテンツのレンダリング時には全時刻のオブジェクト位置情報が必要となる。そこで情報処理装置11では、オーディオコンテンツのレンダリング時や、オーディオコンテンツの出力時に編集点のない時刻のオブジェクト位置情報が補間処理により求められる。
 例えば図19に示すように、2つの隣接する編集点を選択し、それらの編集点間の各時刻における座標値を線形補間により求めることが一般的である。
 図19では、編集画面ED51上にはオブジェクト名が「Vo」であるオブジェクトのトラックについて、時系列のオブジェクト位置情報を構成する水平角度、垂直角度、および半径を表す折れ線L51乃至折れ線L53が表示されている。
 例えば折れ線L51により示される時系列の水平角度に注目すると、編集点EP51-1がある時刻の水平角度(オブジェクト位置情報)と、その編集点EP51-1に隣接する編集点EP51-2がある時刻の水平角度とは情報処理装置11で保持されている。
 これに対して、それらの編集点EP51-1と編集点EP51-2の間にある時刻の水平角度は保持されていないので、それらの時刻の水平角度が編集点EP51-1における座標値と編集点EP51-2における座標値とに基づく線形補間により求められる。なお、以下、編集点EP51-1および編集点EP51-2を特に区別する必要のない場合、単に編集点EP51とも称することとする。
 線形補間が行われる場合、2つの編集点EP51の間では、オブジェクトの水平角度が一定の速度で変化する、つまり一定の角速度でオブジェクトが水平角方向に移動していることが前提となっている。換言すれば、水平角度が直線的に変化することは、オブジェクトが水平角方向に一定の角速度で移動していることを示している。
 しかしながら、オブジェクトは常に一定の角速度で移動するとは限らないので、オブジェクトの移動パターンに応じた複数の補間方法のなかからオブジェクト位置情報の補間処理の方法(補間方法)を選択することができると便利である。
 そこで情報処理装置11では、オブジェクト位置情報を構成する各成分について、互いに隣接する編集点間の区間ごとに補間方法を選択することができるようになっている。
 具体的には、例えば図20に示すようにユーザは入力部21を操作し、編集画面ED51のタイムライン領域において互いに隣接する2つの編集点間の区間を選択する等の操作を行うことで補間方法選択画面SG51を表示させることができる。
 なお、図20において図19における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。補間方法選択画面SG51を表示させるための操作は、クリック操作など、どのような操作であってもよい。
 図20の例では、編集点EP51-1と編集点EP51-2の間の区間が指定されており、補間方法選択画面SG51ではその区間における水平角度の補間方法を選択することができる。
 具体的には補間方法選択画面SG51には、補間方法として4つの異なる補間方法のそれぞれを指定するときに操作されるメニュー項目ME51乃至メニュー項目ME54が設けられており、ユーザはこれらのメニュー項目のうちの何れかを指定することで補間方法を指定する。
 例えばメニュー項目ME51は線形補間を示しており、メニュー項目ME52はコサイン関数を用いた補間であるコサイン補間を示している。
 また、メニュー項目ME53は補間対象の区間の開始から終了直前までは継続して同じ座標値をとり、区間の終了直前に急激に座標値が変化するような矩形状の座標値変化を実現する補間方法を示している。メニュー項目ME54は補間対象の区間の開始直後に急激に座標値が変化し、その後は区間の終了まで継続して同じ座標値となるような矩形状の座標値変化を実現する補間方法を示している。
 各メニュー項目では、それらのメニュー項目に対応する補間方法により補間処理を行ったときの座標値の変化を表す直線や曲線、折れ線が描かれており、ユーザはそのメニュー項目を見るだけで直感的に補間方法を把握することができるようになっている。例えばコサイン補間を示すメニュー項目ME52にはコサインカーブが描かれており、ユーザは補間方法がコサイン補間であることを直感的に把握することができる。
 なお、補間処理の方法(補間方法)は、図20で説明した方法に限らず、他の2次関数等を利用した補間方法など、他のどのような方法であってもよい。
 また、図20に示すように編集点EP51-1と編集点EP51-2の間の区間が指定されている状態で、ユーザが入力部21を操作することでメニュー項目ME52を選択(指定)すると、位置決定部41は入力部21から供給される信号に応じてコサイン補間を行う。
 すなわち、位置決定部41は編集点EP51-1により示される水平角度と、編集点EP51-2により示される水平角度とに基づいて、それらの編集点EP51-1から編集点EP51-2の間の各時刻の水平角度をコサイン関数を用いたコサイン補間により求める。なお、ここではオブジェクト位置情報のうちの水平角度のみがコサイン補間される例について説明したが、コサイン補間が行われる区間について水平角度と同時に垂直角度および半径についてもコサイン補間されるようにしてもよい。つまり、1つの区間についてコサイン補間等の1つの補間方法が指定された場合には、その区間におけるオブジェクト位置情報の水平角度、垂直角度、および半径について、指定された補間方法で補間が行われてもよい。
 以上のようにして補間処理としてコサイン補間が行われると、編集画面ED51の表示は、例えば図21に示すように更新される。なお、図21において図19における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図21に示す例では、コサイン補間が行われた編集点EP51-1と編集点EP51-2の間の区間が直線ではなくコサインカーブで描かれている。
 なお、特に補間方法が指定されない場合には初期設定で定められた補間方法、例えば線形補間などで編集点間の座標値が補間されるようにすることができる。
 また、この場合、初期設定とは異なる他の補間方法が選択された区間では、隣接する2つの編集点を結ぶライン(直線や曲線、折れ線)が初期設定で定められた線形補間が行われた区間のラインとは異なる色で表示されるようにしてもよい。その他、選択された補間方法ごとに異なる色で編集点を結ぶラインが表示されるようにしてもよい。このようにすることで、ユーザはどの補間方法を指定したかなどを瞬時に判別することができる。
〈補間方法選択処理の説明〉
 続いて、ユーザが編集点間の区間について補間方法を選択するときの情報処理装置11の動作について説明する。すなわち、以下、図22のフローチャートを参照して、情報処理装置11により行われる補間方法選択処理について説明する。なお、この補間方法選択処理が開始されるときには、表示部24に編集画面が表示された状態となっている。
 ステップS131において制御部23は編集画面のタイムライン領域上に表示された2つの編集点の指定を受け付ける。
 例えばユーザは、所望の区間に対して補間方法を選択する場合、入力部21を操作して2つの編集点を指定することにより、補間方法の選択対象となる区間を指定する。制御部23は、ユーザの操作に応じて入力部21から供給される信号に基づいて、補間方法の選択対象となる区間の開始位置および終了位置となる編集点を特定する。
 ステップS132において表示制御部42は、表示部24を制御して、編集画面のタイムライン領域上に補間方法選択画面を重畳して表示させる。これにより、例えば図20に示した補間方法選択画面SG51が表示される。
 補間方法選択画面が表示されると、ユーザは入力部21を操作して補間方法選択画面上の所望のメニュー項目を選択(指定)することで補間方法を指定する。
 ステップS133において制御部23は、ユーザの操作に応じて入力部21から供給された信号に基づいて、ステップS131で指定された2つの編集点の間の区間に対する補間方法を選択し、その選択結果を示す補間方法指定情報を生成する。制御部23は、このようにして生成した補間方法指定情報を記録部22に供給する。
 ステップS134において記録部22は、制御部23から供給された補間方法指定情報をオーディオコンテンツのデータの一部として記録する。
 また、補間方法指定情報が生成されると、表示制御部42は表示部24を制御し、編集画面の表示を更新させる。これにより、例えば図21に示したように処理対象となっている区間のライン、つまり2つの編集点を結ぶラインが補間方法指定情報により示される補間方法に対応する形状および色で表示される。
 また、オーディオコンテンツのレンダリング時など、適切なタイミングでオブジェクト位置情報、より詳細にはオブジェクト位置情報を構成する水平角度、垂直角度、および半径の各成分の補間処理が行われる。
 すなわち、ステップS135において位置決定部41は、オブジェクト位置情報が保持されていない各時刻について補間処理を行い、全オブジェクトのオブジェクト位置情報を生成する。
 このとき位置決定部41は、保持されている他の時刻のオブジェクト位置情報に基づいて、記録部22に記録されている補間方法指定情報により示される補間方法によりオブジェクト位置情報の成分ごとの補間処理を行う。
 補間処理により各時刻のオブジェクト位置情報が得られると、補間方法選択処理は終了する。そしてその後、適宜、オーディオコンテンツのデータが出力されたり、オーディオコンテンツのデータに基づいてレンダリングが行われたりする。
 以上のようにして情報処理装置11は、オブジェクト位置情報を構成する各成分について区間ごとに指定された補間方法を示す補間方法指定情報を生成して記録する。そして、情報処理装置11は、補間方法指定情報により示される補間方法により補間処理を行い、各時刻のオブジェクト位置情報を求める。このようにすることで、オブジェクトの移動(動き)をより正確に表現することができるようになる。すなわち、オブジェクトの移動の表現の自由度を高めることができ、様々な音像表現が可能となる。
〈トラックカラーでの表示について〉
 ところで、図5に示した例では、編集画面ED21のトラック領域には各トラックのトラックカラー表示領域が設けられていると説明した。
 このトラックカラー表示領域内にはトラックカラー番号が表示されており、各トラックカラー表示領域は、それらのトラックカラー番号に対して予め定められたトラックカラーで表示される。
 また、上述したように情報処理装置11では、POV画像上のオブジェクトボールをグループカラーで表示させるか、またはトラックカラーで表示させるかを選択することができるようになっている。
 例えばPOV画像上のオブジェクトボールをトラックカラーで表示させる設定とされた場合、図4のステップS13や図8のステップS44など、POV画像の表示を更新するタイミングにおいて、表示制御部42はトラックカラーでオブジェクトボールが表示されるように表示部24による表示を制御する。
 このようにオブジェクト、すなわちトラックに対して個別にトラックカラーを指定することができれば、ユーザはトラックカラーを見ることで、各トラックを容易に判別することができるようになる。特に、オーディオコンテンツを構成するオブジェクトの数が多い場合でも、ユーザはどのオブジェクトボールがどのトラックに対応するものであるかを容易に判別することができる。
 また、図5では、各トラック領域にトラックカラー表示領域とグループ表示領域とが表示される例について説明した。しかし、オブジェクトボールをトラックカラーで表示させる設定とされている場合には、トラック領域にトラックカラー表示領域は表示されるが、グループ表示領域は表示されないようにしてもよい。
 そのような場合、例えば図23に示す編集画面ED61が表示部24に表示される。
 図23に示す例では、編集画面ED61には11個のトラックのトラック領域と、それらのトラックのタイムライン領域とが表示されている。
 特に、ここではオブジェクト名が「Kick」、「OH_L」、「OH_R」、「Snare」、「Vo」、「EG」、「Cho」、「AG1」、「AG2」、「Amb_L」、および「Amb_R」である11個の各オブジェクトのトラック領域とタイムライン領域とが表示されている。
 各オブジェクトのトラック領域には、トラックカラー表示領域が設けられており、そのトラックカラー表示領域内にはトラックカラー番号が表示されている。また、各トラックカラー表示領域は、それらのトラックカラー番号に対して予め定められたトラックカラーで表示されている。
 具体的には、例えば領域TR61は、オブジェクト「Kick」のトラックのトラック領域となっている。そして領域TR61内にはオブジェクト名表示領域である領域OB61と、トラックカラー表示領域TP61とが設けられている。領域OB61にはオブジェクト名「Kick」が表示されており、トラックカラー表示領域TP61にはトラックカラー番号「1」が表示されている。そして、トラックカラー表示領域TP61を含む領域TR61全体が、トラックカラー番号「1」に対して定められたトラックカラーで表示されている。
 図23では、ドラムを構成するオブジェクト名が「Kick」、「OH_L」、「OH_R」、および「Snare」である4つのオブジェクト、より詳細には4つのオブジェクトのトラックに対してトラックカラー番号「1」が指定されている。また、エレキギターの演奏者によるボーカルに対応するオブジェクト「Vo」、およびそのエレキギターのオブジェクト「EG」に対してトラックカラー番号「3」が指定されている。
 アコースティックギターの演奏者によるコーラスに対応するオブジェクト「Cho」、およびそのアコースティックギターのオブジェクト「AG1」に対してトラックカラー番号「6」が指定されている。
 同様に他のアコースティックギターのオブジェクト「AG2」に対してトラックカラー番号「22」が指定されている。さらにアンビエンスに対応するオブジェクト「Amb_L」およびオブジェクト「Amb_R」に対してトラックカラー番号「9」が指定されている。
 図23に示すような編集画面ED61が表示されている場合、表示部24には、例えば図24に示すPOV画像P61が表示される。なお、図24において図3または図10における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図24ではオブジェクト名が「Kick」、「OH_L」、「OH_R」、および「Snare」である、ドラムを構成する各オブジェクトのオブジェクトボールBL11乃至オブジェクトボールBL14が、トラックカラー番号「1」に対応するトラックカラー「青」で表示されている。
 また、オブジェクト「EG」のオブジェクトボールBL15およびオブジェクト「Vo」のオブジェクトボールBL16が、トラックカラー番号「3」に対応するトラックカラー「橙」で表示されている。
 オブジェクト「AG1」のオブジェクトボールBL17およびオブジェクト「Cho」のオブジェクトボールBL18が、トラックカラー番号「6」に対応するトラックカラー「緑」で表示されており、オブジェクト「AG2」のオブジェクトボールBL19が、トラックカラー番号「22」に対応するトラックカラー「紺」で表示されている。
 さらにオブジェクト「Amb_L」のオブジェクトボールBL31およびオブジェクト「Amb_R」のオブジェクトボールBL32が、トラックカラー番号「9」に対応するトラックカラー「紫」で表示されている。
 表示制御部42はPOV画像P61を表示させる場合、各オブジェクトのトラックに対して指定(選択)されたトラックカラー番号に基づいて、各オブジェクトのオブジェクトボールをトラックカラー番号に対して定められているトラックカラーで表示させる。
 このように各オブジェクトのオブジェクトボールをトラックカラーで表示することで、オブジェクト数が多い場合であっても、どのオブジェクトボールがどのオブジェクト(トラック)に対応するものであるかを容易に判別することができる。
 なお、以上においてはオブジェクトボールがグループカラーまたはトラックカラーで表示される例について説明したが、オブジェクトボールがグループカラーとトラックカラーで表示されるようにしてもよい。
 そのような場合、例えば表示制御部42は、オブジェクトボールの中心部分をトラックカラーで表示させ、残りの部分、つまりオブジェクトボールにおけるトラックカラーで表示された部分の外側にある部分をグループカラーで表示させる。これにより、ユーザは各オブジェクトボールに対応するオブジェクトがどのトラックのオブジェクトであり、またそのオブジェクトがどのグループに属しているかを瞬時に判別することができる。
 その他、グループカラーやトラックカラー等の色に限らず、グループ、トラックカラー番号に対応するトラックを識別する情報、またはそれらの組み合わせに対して定まる表示形式でオブジェクトボールが表示されるようにしてもよい。具体的には、例えばオブジェクトボールがグループに対して定められた形状で表示されるようにしてもよい。
〈ミュート設定およびソロ設定について〉
 また、図5に示したように編集画面にはミュート設定を行うためのミュートボタンと、ソロ設定を行うためのソロボタンとが設けられている。
 ミュート設定とは、オーディオコンテンツの編集時において、オーディオコンテンツを再生するときに、指定したオブジェクトの音をミュートさせる、つまりオブジェクトの音を再生(出力)しないようにすることである。以下では、特にミュートするオブジェクトとして指定することをミュート設定をオンするとも称し、ミュート設定がオンとされた状態をミュート状態とも称することとする。
 情報処理装置11では、ミュート状態とされたオブジェクトについては、そのオブジェクトのオブジェクトボールがPOV画像上において非表示とされる。すなわち、オブジェクトに対するミュート設定がPOV画像上のオブジェクトボールにも反映される。なお、オーディオコンテンツのデータの出力時には、ミュート状態とされたオブジェクトのオブジェクトデータはオーディオコンテンツのデータに含まれないようにしてもよい。
 これに対して、ソロ設定とはオーディオコンテンツの編集時において、オーディオコンテンツを再生するときに、指定したオブジェクトの音のみが再生(出力)され、他のオブジェクトの音をミュートさせるようにすることである。以下では、特に音を再生するオブジェクトとして指定することをソロ設定をオンするとも称し、ソロ設定がオンとされた状態をソロ状態とも称することとする。
 情報処理装置11では、ソロ状態とされたオブジェクトについては、そのオブジェクトのオブジェクトボールがPOV画像上に表示され、それ以外のソロ状態となっていないオブジェクトは非表示とされる。すなわち、オブジェクトに対するソロ設定がPOV画像上のオブジェクトボールにも反映される。なお、オーディオコンテンツのデータの出力時には、ソロ状態とされたオブジェクトのオブジェクトデータのみがオーディオコンテンツのデータに含まれるようにしてもよい。
 また、ミュート設定とソロ設定は、一方の設定が行われているときには他方の設定は無効とされるようになされている。すなわち、例えばミュート設定が行われるとソロ設定は解除され、逆にソロ設定が行われるとミュート設定は解除される。
 このようにミュート設定やソロ設定を行い、音が再生されないミュートされたオブジェクトのオブジェクトボールについては非表示とし、音が再生されるオブジェクトのオブジェクトボールのみをPOV画像上に表示させることで使い勝手を向上させることができる。
 すなわち、ミュートされているオブジェクトは、現時点ではユーザが注目していないオブジェクトであり、ミュートされていないオブジェクトがユーザにより注目されているオブジェクトであるはずである。
 したがって、POV画像上にミュートされていないオブジェクトのオブジェクトボールのみを表示させることで、ユーザは注目するオブジェクトの位置の遷移等を容易に把握することができるようになる。これによりコンテンツ制作ツールの使い勝手を向上させることができる。
 ここで、図25乃至図27を参照して、ミュート設定とソロ設定の具体例について説明する。なお、図25乃至図27において図5または図24における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。また、図25乃至図27において互いに対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 例えばソロ設定もミュート設定も行われていない状態では、図25に示すように全てのトラックに対応するオブジェクトボールがPOV画像P71に表示される。なお、図25では編集画面ED21の一部のみが表示されている。
 図25に示す例では、オブジェクト「Vo」のトラックについてのミュートボタンMU21や、オブジェクト「EG」のトラックについてのミュートボタンMU22を含む、全てのオブジェクトのトラックのミュートボタンは操作されていない状態となっている。すなわち、何れのオブジェクトもミュート状態とされていない状態となっている。
 同時に、オブジェクト「Vo」のトラックについてのソロボタンSL21や、オブジェクト「EG」のトラックについてのソロボタンSL22を含む、全てのオブジェクトのトラックのソロボタンは操作されていない状態となっている。すなわち、何れのオブジェクトに対してもソロ状態の設定は行われていない。
 このような状態では、POV画像P71には全てのオブジェクトのオブジェクトボールが表示されている。
 ここではPOV画像P71にはオブジェクト名が「Kick」、「OH_L」、「OH_R」、「Snare」、「EG」、「Vo」、「AG1」、「Cho」、「AG2」、「Amb_L」、および「Amb_R」である各オブジェクトのオブジェクトボールBL11乃至オブジェクトボールBL19、オブジェクトボールBL31、およびオブジェクトボールBL32が表示されている。
 このような状態でユーザが入力部21を操作し、編集画面ED21上におけるミュートボタンMU21およびミュートボタンMU22をクリック等により操作することで、オブジェクト「Vo」とオブジェクト「EG」のミュート設定をオンとしたとする。すなわち、オブジェクト「Vo」とオブジェクト「EG」がミュート状態とされたとする。
 すると、編集画面ED21では例えば図26に示すように、操作されたミュートボタンMU21およびミュートボタンMU22が、操作前とは異なる色で表示される。
 例えばミュート設定が行われると、ミュート設定がオンされていないオブジェクトのミュートボタンはミュート設定が行われる前と同じ色で表示され、ミュート設定がオンされたオブジェクトのミュートボタンはミュート設定が行われる前と異なる色で表示される。
 図26の例ではオブジェクト「Vo」とオブジェクト「EG」のミュート設定がオンとされ、他のオブジェクトのミュート設定はオンとされていない。そのため、表示制御部42は図26の図中、右側に示すPOV画像P71が表示部24に表示されるように、表示部24を制御してPOV画像P71の表示を更新する。
 すなわち、図26の例ではPOV画像P71では、これまで表示されていたが、ミュート状態とされたオブジェクト「EG」のオブジェクトボールBL15とオブジェクト「Vo」のオブジェクトボールBL16とが表示されない状態、つまり非表示とされている。
 これに対して、ミュート状態とされていない他のオブジェクトのオブジェクトボール、すなわちオブジェクトボールBL11乃至オブジェクトボールBL14、オブジェクトボールBL17乃至オブジェクトボールBL19、オブジェクトボールBL31、およびオブジェクトボールBL32はPOV画像P71に表示されたままとなっている。
 また、例えば図25に示した状態においてユーザが入力部21を操作し、編集画面ED21上におけるソロボタンSL21およびソロボタンSL22をクリック等により操作することで、オブジェクト「Vo」とオブジェクト「EG」のソロ設定をオンとしたとする。すなわち、オブジェクト「Vo」とオブジェクト「EG」がソロ状態とされたとする。
 すると、編集画面ED21では例えば図27に示すように、操作されたソロボタンSL21およびソロボタンSL22が操作前とは異なる色で表示される。
 例えばソロ設定が行われると、ソロ設定がオンされていないオブジェクトのソロボタンはソロ設定が行われる前と同じ色で表示され、ソロ設定がオンされたオブジェクトのミュートボタンはソロ設定が行われる前と異なる色で表示される。
 図27の例ではオブジェクト「Vo」とオブジェクト「EG」のソロ設定がオンとされ、他のオブジェクトのソロ設定はオンとされていない。そのため、表示制御部42は図27の図中、右側に示すPOV画像P71が表示部24に表示されるように、表示部24を制御してPOV画像P71の表示を更新する。
 すなわち、図27の例ではPOV画像P71では、ソロ設定がオンとされ、ソロ状態とされたオブジェクト「EG」およびオブジェクト「Vo」に対応するオブジェクトボールBL15およびオブジェクトボールBL16のみが表示された状態とされている。
 したがって、これまで表示されていたがソロ状態となっていない他のオブジェクトのオブジェクトボールは表示が消去され、非表示状態となっている。すなわち、図27のPOV画像P71では、オブジェクトボールBL11乃至オブジェクトボールBL14、オブジェクトボールBL17乃至オブジェクトボールBL19、オブジェクトボールBL31、およびオブジェクトボールBL32は表示されていない状態となっている。
 このようにミュート設定やソロ設定と連動させてPOV画像上のオブジェクトボールを表示状態または非表示状態とすることで、ユーザはどのオブジェクトに対応するトラックがミュート状態やソロ状態となっているかを視覚的に容易に理解することができる。これにより使い勝手を向上させることができる。
〈設定処理の説明〉
 次に、ユーザがミュート設定やソロ設定を行うときの情報処理装置11の動作について説明する。すなわち、以下、図28のフローチャートを参照して、情報処理装置11により行われる設定処理について説明する。なお、この設定処理が開始されるときには、表示部24に編集画面が表示された状態となっている。
 ステップS161において制御部23は、入力部21から供給された信号に基づいて、編集画面上のミュートボタンが操作されたか否かを判定する。
 例えば制御部23は、図25に示したミュートボタンMU21やミュートボタンMU22に対してクリック等の操作が行われた場合、ミュートボタンが操作されたと判定する。
 ステップS161においてミュートボタンが操作されていないと判定された場合、ステップS162の処理は行われず、その後、処理はステップS163に進む。
 これに対してステップS161においてミュートボタンが操作されたと判定された場合、ステップS162において制御部23は、ユーザのミュートボタンに対する操作により指定されたオブジェクト(トラック)をミュート状態とする。
 具体的には、例えば図25に示したようにオブジェクト「Vo」がミュート状態となっていない状態でミュートボタンMU21が操作された場合、制御部23はオブジェクト「Vo」をミュート状態とする。なお、例えばオブジェクト「Vo」がミュート状態であるときにミュートボタンMU21が操作された場合には、制御部23はオブジェクト「Vo」のミュート状態を解除する。
 このようにミュートボタンに対する操作に応じたミュート設定が行われると、その後、処理はステップS163に進む。
 ステップS161においてミュートボタンが操作されていないと判定されたか、またはステップS162の処理が行われると、ステップS163の処理が行われる。
 ステップS163において制御部23は、入力部21から供給された信号に基づいて、編集画面上のソロボタンが操作されたか否かを判定する。例えば制御部23は、図25に示したソロボタンSL21やソロボタンSL22に対してクリック等の操作が行われた場合、ソロボタンが操作されたと判定する。
 ステップS163においてソロボタンが操作されていないと判定された場合、ステップS164の処理は行われず、その後、処理はステップS165に進む。
 これに対してステップS163においてソロボタンが操作されたと判定された場合、ステップS164において制御部23は、ユーザのソロボタンに対する操作により指定されたオブジェクト(トラック)をソロ状態とする。
 具体的には、例えば図25に示したようにオブジェクト「Vo」がソロ状態となっていない状態でソロボタンSL21が操作された場合、制御部23はオブジェクト「Vo」をソロ状態とする。なお、例えばオブジェクト「Vo」がソロ状態であるときにソロボタンSL21が操作された場合には、制御部23はオブジェクト「Vo」のソロ状態を解除する。
 このようにソロボタンに対する操作に応じたソロ設定が行われると、その後、処理はステップS165に進む。
 なお、ミュート状態またはソロ状態とするオブジェクトがグループに属している場合には、制御部23が、そのオブジェクトと同じグループに属す他の全てのオブジェクトもミュート状態またはソロ状態とするようにしてもよい。この場合、制御部23は、グループ情報を参照して処理対象のオブジェクトがグループに属しているか否かを特定し、その特定結果に応じてオブジェクト単位とグループ単位の何れでミュート設定やソロ設定を行うかを決定する。
 ステップS163においてソロボタンが操作されていないと判定されたか、またはステップS164の処理が行われると、ステップS165において表示制御部42は、制御部23によるミュート設定やソロ設定に応じて表示部24を制御し、編集画面およびPOV画像の表示を更新する。
 具体的には、例えばミュートボタンに対する操作によりオブジェクトがミュート状態とされたとする。そのような場合、表示制御部42は編集画面上のミュート状態とされたオブジェクトのトラック領域内のミュートボタンの表示形式を変更させるとともに、POV画像上のミュート状態とされたオブジェクトのオブジェクトボールを非表示とさせる。
 このようにしてミュート設定やソロ設定が編集画面やPOV画像の表示に反映されると、設定処理は終了する。
 以上のようにして情報処理装置11は、ミュートボタンやソロボタンに対する操作に応じてミュート設定やソロ設定を行い、その設定内容を編集画面やPOV画像の表示に反映させる。このようにすることで、ユーザはどのオブジェクト(トラック)がミュート状態やソロ状態であるかを容易に把握することができ、使い勝手を向上させることができる。
〈トラックのインポートについて〉
 ところで情報処理装置11では、任意のオーディオ信号のファイル、つまり任意のオーディオファイルを、オーディオコンテンツを構成するオブジェクトデータやチャンネルオーディオデータとしてインポート(取り込む)ことが可能である。
 例えばインポート対象とされるオーディオファイルは、記録部22に記録されているオーディオファイルや、通信部25により受信されたオーディオファイル、外部のリムーバブル記録媒体から読み込まれたオーディオファイルなどとすることができる。
 具体的には、例えば記録部22に記録されているオーディオファイルをオーディオコンテンツを構成するデータとしてインポートする場合、図29に示すようにドラッグアンドドロップ操作等によりインポートを実行することができる。
 図29に示す例では、編集画面ED81と、記録部22に記録されているオーディオファイルの一覧が表示されたウィンドウWD81とが表示部24に表示されている。
 例えばユーザは、入力部21を操作することで矢印Q11に示すように、ウィンドウWD81内の任意のオーディオファイルをドラッグするとともに、そのオーディオファイルを編集画面ED81にドロップすることで、オーディオファイルのインポートを指示することができる。なお、インポートするオーディオファイルの指定およびインポートの指示のための操作は、ドラッグアンドドロップ操作に限らず、ファイルメニューから所望のオーディオファイルを選択(指定)するなど、他のどのような操作であってもよい。
 このようなドラッグアンドドロップ操作が行われると、制御部23は、記録部22からユーザにより指定されたオーディオファイルを取得し、その取得したオーディオファイルを、編集中のオーディオコンテンツを構成するデータとして取り込む。
 この例では、ファイル名が「Congas.wav」であるWAV形式のオーディオファイルがオーディオコンテンツのデータとして取り込まれる。
 例えば制御部23は、指定されたオーディオファイルがモノラルのオーディオ信号、つまり1チャンネルのオーディオ信号のファイルである場合、そのオーディオファイルをオブジェクトデータを構成するオーディオ信号として編集画面ED81上に展開すればよい。すなわち、制御部23は、オーディオファイルをオブジェクトデータのオーディオ信号として、オーディオコンテンツのデータに加えればよい。
 しかし、指定されたオーディオファイルが2チャンネルのオーディオ信号など、複数チャンネルのオーディオ信号のファイル、つまりマルチチャンネルファイルであることもある。そのような場合には、指定されたオーディオファイルをチャンネル数分のオブジェクトデータとしてインポートするのか、またはチャンネルオーディオデータとしてインポートするのかの指定が必要となる。
 そのため、指定されたオーディオファイルがマルチチャンネルファイルであった場合、表示制御部42は表示部24を制御し、表示部24に例えば図30に示すトラック種別選択画面CO81を表示させる。
 図30に示す例では、トラック種別選択画面CO81には、3つのボタンBT81乃至ボタンBT83が設けられている。
 ボタンBT81は、指定したオーディオファイルをオブジェクトデータ、つまりオブジェクトトラックとしてインポートするときに操作されるボタンである。
 ボタンBT82は、指定したオーディオファイルをチャンネルオーディオデータ、つまりチャンネルトラックとしてインポートするときに操作されるボタンである。また、ボタンBT83は、指定したオーディオファイルのインポートをキャンセルするときに操作されるボタンである。
 さらにトラック種別選択画面CO81には、指定したオーディオファイルをオブジェクトデータとしてインポートする場合に、特定の位置を示すオブジェクト位置情報を付与してインポートするときに操作されるチェックボックスCB81も表示されている。
 この例では、指定されたマルチチャンネルファイルが2チャンネルのオーディオ信号のファイルであるため、チェックボックスCB81の図中、右側には文字メッセージ「set 2ch WAV(s) with L/R position (Azimuth +30/-30)」が表示されている。この文字メッセージにおける「L/R position (Azimuth +30/-30)」は、オブジェクト位置情報として水平角度「30」と「-30」が付与されることを示している。このような表示を見ることで、ユーザはインポートにより新たに追加されたオブジェクトに対して、どのようなオブジェクト位置情報が付与されるかを簡単に把握することができる。
 その他、例えば指定されたオーディオファイル、つまりマルチチャンネルファイルを構成する複数のチャンネルのオーディオ信号を、同じグループに属す複数のオブジェクトのオブジェクトデータとしてインポートするかを指定可能なチェックボックス等もトラック種別選択画面CO81に表示されるようにしてもよい。
 また、例えば指定されたオーディオファイルが、2チャンネルのオーディオ信号からなるマルチチャンネルファイルである場合には、それらの2チャンネルのオーディオ信号を、L/Rペアのオブジェクトデータとしてインポートするかを指定可能なチェックボックスもトラック種別選択画面CO81に表示されるようにしてもよい。
 例えばユーザが入力部21を操作して、チェックボックスCB81にチェックマークが表示されていない状態で、トラック種別選択画面CO81上のボタンBT81を操作(選択)したとする。
 すると制御部23は、指定されたオーディオファイルのチャンネル数に合わせて、そのオーディオファイルを複数のオブジェクトのトラックとして展開する。
 具体的には制御部23は、入力部21から供給された信号に基づいて、指定されたマルチチャンネルファイルを構成する各チャンネルのオーディオ信号を記録部22等から読み出して、各オブジェクトのオブジェクトデータとして取り込む。すなわち、複数のチャンネルのオーディオ信号のそれぞれが、複数のオブジェクトのオーディオ信号のそれぞれとされる。これにより、マルチチャンネルファイルのチャンネル数分の新たなオブジェクトが生成されたことになる。
 このようにしてオーディオファイルがインポートされると、表示制御部42はインポートの実行に応じて表示部24を制御し、編集画面やPOV画像の表示を更新する。
 図29および図30に示した例では、ボタンBT81が操作されて2チャンネルのオーディオファイルのインポートが行われると、更新後の編集画面ED81は例えば図31に示すようになる。なお、図31において図29における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 ここでは、インポートが指示された、ファイル名が「Congas.wav」であるオーディオファイルは2チャンネルのファイルであるため、制御部23ではインポートによりオブジェクト「Congas-0」とオブジェクト「Congas-1」の2つのオブジェクトが生成されている。
 そして、それらのオブジェクトに対応するトラックごとにトラック領域とタイムライン領域とが設けられるように編集画面ED81の表示が更新されている。
 すなわち、図31に示す例においては、編集画面ED81の領域TR81および領域TM81がオブジェクト「Congas-0」のトラックのトラック領域およびタイムライン領域となっている。同様に、領域TR82および領域TM82がオブジェクト「Congas-1」のトラックのトラック領域およびタイムライン領域となっている。
 なお、指定されたオーディオファイルに音像定位位置等の位置情報が含まれている場合には、その位置情報がオブジェクト位置情報として用いられてオブジェクトのメタ情報が生成されるようにすればよい。
 これに対して、指定されたオーディオファイルが位置情報、つまり再生空間内の位置を有していない場合、聴取位置Oの正面の位置など、予め定められた位置がオブジェクトの再生空間内の位置として付与されるようにすることができる。この場合、複数の各オブジェクトに対して同じオブジェクト位置情報が付与されることになる。
 また、指定されたオーディオファイルが、2チャンネルや6チャンネル、8チャンネルなど、特定のチャンネル数のマルチチャンネルファイルであることがある。
 そのような場合には、指定されたオーディオファイルを複数のオブジェクトのトラックとして展開するときに、複数の各オブジェクトに対して、オブジェクトごとに特定の位置を初期値として付与することで編集の手間を省くことができるようにしてもよい。
 例えばオーディオファイルが2チャンネルのファイルである場合、一般的に、そのオーディオファイルを構成する2チャンネルのオーディオ信号は、左右のチャンネル、つまりLチャンネルのオーディオ信号とRチャンネルのオーディオ信号であることが多い。
 そこで、それらの2つのチャンネルに対応するオブジェクトに対して、再生空間内の位置を示すオブジェクト位置情報として、一般的な左右(LR)のチャンネル配置の位置である座標(Azimuth,Elevation,Radius)=(30,0,1)と(-30,0,1)を付与するようにしてもよい。これらの座標(30,0,1)により示される位置と、座標(-30,0,1)により示される位置とは、再生空間内において上述した基準面に対して左右対称となる位置である。
 このように特定の位置を付与すれば、ユーザはインポートにより新たに追加されたオブジェクトに対して、いちいち各時刻のオブジェクト位置情報を入力しなくて済む。
 なお、ここでは2チャンネルのオーディオファイルのインポートにより追加された2つのオブジェクトに対して、それぞれ座標(30,0,1)および(-30,0,1)により示される位置を付与する例について説明するが、他のどのような位置が付与されてもよい。
 また、2チャンネルにおける場合と同様に、オーディオファイルが6チャンネルであるときには、それらのチャンネルに対応する6個のオブジェクトのオブジェクト位置情報として、例えば座標(Azimuth,Elevation,Radius)=(30,0,1)、(-30,0,1)、(0,0,1)、(0,-30,0)、(110,0,1)、および(-110,0,1)を付与することが考えられる。
 さらにオーディオファイルが8チャンネルであるときには、それらのチャンネルに対応する8個のオブジェクトのオブジェクト位置情報として、例えば座標(30,0,1)、(-30,0,1)、(0,0,1)、(0,-30,0)、(110,0,1)、(-110,0,1)、(30,30,1)、(-30,30,1)を付与することが考えられる。
 このようにインポートにより新たに追加されたオブジェクトに対して、初期値として再生空間内の特定の位置を示すオブジェクト位置情報を付与することができるように、トラック種別選択画面CO81にはチェックボックスCB81が設けられている。
 例えば図29に示したようにファイル名が「Congas.wav」である2チャンネルのオーディオファイルをインポートする操作が行われたとする。そして、その操作に応じて表示部24にトラック種別選択画面CO81が表示されたときに、ユーザが入力部21を操作して、図32に示すようにチェックボックスCB81にチェックマークを表示させた後、ボタンBT81を操作(選択)したとする。なお、図32において図30における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図32に示すようにチェックボックスCB81にチェックマークを表示させた後、ボタンBT81が操作されると、制御部23は、指定されたオーディオファイルのチャンネル数に合わせて、そのオーディオファイルを複数のオブジェクトのトラックとして展開する。
 すなわち、上述したチェックボックスCB81にチェックマークが表示されていない場合と同様に、制御部23は指定された2チャンネルのオーディオファイルを構成する各チャンネルのオーディオ信号を、新たに追加する各オブジェクトのオーディオ信号として取り込む。
 さらに位置決定部41は、新たに追加された2つのオブジェクトのうちのLチャンネルに対応するオブジェクトに対して、座標(30,0,1)をオブジェクト位置情報として付与する。同様に位置決定部41は、新たに追加された2つのオブジェクトのうちのRチャンネルに対応するオブジェクトに対して、座標(-30,0,1)をオブジェクト位置情報として付与する。
 このようにしてオーディオファイルがインポートされると、表示制御部42はインポートの実行に応じて表示部24を制御し、編集画面やPOV画像の表示を更新する。
 図29および図32に示した例では、ボタンBT81が操作されて2チャンネルのオーディオファイルのインポートが行われると、更新後の編集画面およびPOV画像は、それぞれ例えば図33および図34に示すようになる。なお、図33において図29における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図33では、インポートが指示されたファイル名が「Congas.wav」であるオーディオファイルは2チャンネルのファイルであるため、制御部23ではインポートによりオブジェクト「Congas-L」とオブジェクト「Congas-R」の2つのオブジェクトが生成されている。
 そして、それらのオブジェクトに対応するトラックごとにトラック領域とタイムライン領域とが設けられるように編集画面ED81の表示が更新されている。
 すなわち、図33では編集画面ED81の領域TR91および領域TM91がオブジェクト「Congas-L」のトラックのトラック領域およびタイムライン領域となっており、特にオブジェクト「Congas-L」の各時刻のオブジェクト位置情報は座標(30,0,1)となっている。
 同様に、領域TR92および領域TM92がオブジェクト「Congas-R」のトラックのトラック領域およびタイムライン領域となっており、特にオブジェクト「Congas-R」の各時刻のオブジェクト位置情報は座標(-30,0,1)となっている。
 さらに、表示制御部42は、図33に示した編集画面ED81に対応するPOV画像として、図34に示すPOV画像P91を表示部24に表示させる。
 図34では、聴取位置Oから見て図中、前方左側にオブジェクト「Congas-L」の位置を示すオブジェクトボールBL91が配置されており、聴取位置Oから見て図中、前方右側にオブジェクト「Congas-R」の位置を示すオブジェクトボールBL92が配置されている。
 インポートするオーディオファイルが特定のチャンネル数のファイルである場合には、ユーザの指示に応じて、インポートにより新たに追加するオブジェクトに対して特定の位置を初期値として付与すれば、ユーザによるオブジェクト位置情報の入力作業の手間を削減することができる。これにより、より効率よく簡単に編集を行うことができる。
 なお、上述したようにオーディオファイルのインポート時に、オブジェクトのグループ化を行ったり、L/Rペアとしたりしてもよい。
〈インポート処理の説明〉
 続いて、以上において説明した所望のオーディオファイルのインポート、特に再生空間内における位置を有さないオーディオ信号からなるオーディオファイルのインポートを行うときの情報処理装置11の動作について説明する。
 すなわち、以下、図35のフローチャートを参照して、情報処理装置11によるインポート処理について説明する。このインポート処理は、例えば図29に示したように所望のオーディオファイルに対するドラッグアンドドロップなどの操作により、インポートが指示されると開始される。
 ステップS191において制御部23は、入力部21から供給された信号に基づいて、インポートが指示されたオーディオファイルがマルチチャンネルファイルであるか否かを判定する。
 ステップS191においてマルチチャンネルファイルでないと判定された場合、すなわちモノラルのオーディオファイルのインポートが指示された場合、ステップS192の処理が行われる。
 ステップS192において制御部23は、指示されたオーディオファイルを1つのオブジェクトデータとしてインポートする。
 例えば制御部23は、インポートが指示されたモノラルのオーディオファイルを構成する1つのオーディオ信号を、新たに追加する1つのオブジェクトのオブジェクトデータ、すなわちオブジェクトのオーディオ信号として取り込む。このとき制御部23は、適宜、オーディオ信号に対して、予め定められた所定の位置のオブジェクト位置情報やゲイン情報、優先度情報などを付与してメタ情報とし、メタ情報およびオーディオ信号からなるオブジェクトデータを生成する。
 このようにしてオブジェクトデータが追加されると、その後、処理はステップS199に進む。
 これに対して、ステップS191においてマルチチャンネルファイルであると判定された場合、ステップS193において表示制御部42は、表示部24にトラック種別選択画面を表示させる。
 これにより、例えば図30に示したトラック種別選択画面CO81が表示される。すると、ユーザは、入力部21を操作することで、適宜、トラック種別選択画面CO81におけるチェックボックスCB81やボタンBT81などに対する操作を行う。
 ステップS194において制御部23は、ユーザのトラック種別選択画面に対する操作に応じて入力部21から供給された信号に基づいて、オブジェクトデータとしてインポートするか否かを判定する。
 例えば制御部23は、図30に示したトラック種別選択画面CO81のボタンBT81が操作された場合、ステップS194においてオブジェクトデータとしてインポートすると判定する。
 ステップS194においてオブジェクトデータとしてインポートしないと判定された場合、すなわちユーザによりチャンネルオーディオデータとしてのインポートが指示された場合、処理はステップS195に進む。
 ステップS195において制御部23は、指定されたオーディオファイルを1つのチャンネルオーディオデータとしてインポートする。この場合、複数の各チャンネルのオーディオ信号が1つのチャンネルオーディオデータ、つまり1つのトラックのデータとして取り込まれる。このようにしてチャンネルオーディオデータが追加されると、その後、処理はステップS199に進む。
 これに対して、ステップS194においてオブジェクトデータとしてインポートすると判定された場合、ステップS196の処理が行われる。
 ステップS196において制御部23は、指定されたオーディオファイルを、そのオーディオファイルのチャンネル数に応じた数のオブジェクトのオブジェクトデータとしてインポートする。
 例えば制御部23は、インポートが指示されたオーディオファイルを構成する複数のチャンネルのオーディオ信号を、それらのチャンネルに対応する複数のオブジェクトのオブジェクトデータを構成するオーディオ信号として取り込む。すなわち、オーディオファイルのチャンネル数分のオブジェクトが生成され、オーディオコンテンツに対してそれらのオブジェクトが追加される。
 ステップS197において位置決定部41は、ステップS196で生成されたオブジェクトに対して、再生空間内の特定の位置を付与するか否かを判定する。
 例えば図32に示したようにトラック種別選択画面CO81のチェックボックスCB81にチェックマークが表示されている状態でボタンBT81が操作された場合、ステップS197において特定の位置を付与すると判定される。
 ステップS197において特定の位置を付与しないと判定された場合、ステップS198の処理は行われず、その後、処理はステップS199に進む。
 この場合、位置決定部41は、ステップS196の処理で新たに追加されたオブジェクトに対して、再生空間内の正面の位置などの予め定められた位置を付与する。
 すなわち、位置決定部41は新たに追加された複数の各オブジェクトに対して、予め定められた位置を示すオブジェクト位置情報を含むメタ情報を生成し、メタ情報とオーディオ信号とからなるオブジェクトデータとする。特にこの場合、新たに追加された複数の全オブジェクトに対して同じ位置が付与される。
 これに対して、ステップS197において特定の位置を付与すると判定された場合、ステップS198において位置決定部41は、ステップS196の処理で新たに追加されたオブジェクトに対して、それらのオブジェクトごとに再生空間内の特定の位置を付与する。
 すなわち、例えば位置決定部41は新たに追加された複数の各オブジェクトに対して、オブジェクトごとに異なる特定の位置を示すオブジェクト位置情報を含むメタ情報を生成し、メタ情報とオーディオ信号とからなるオブジェクトデータとする。
 具体的には、例えば新たに追加されるオブジェクトが2つである場合、上述した例のように一方のオブジェクトに対しては座標(30,0,1)により示される位置が付与され、他方のオブジェクトに対しては座標(-30,0,1)により示される位置が付与される。特に、ここでは各オブジェクトに対して、左右対称となる位置など、オブジェクトごとに異なる位置が付与される。各オブジェクトに対して付与される特定の位置は、インポートが指示されたオーディオファイルの各チャンネルに対して定められた位置である。すなわち、インポートするオーディオファイルのチャンネル数に応じた特定の位置がオブジェクトに対して付与される。
 このように特定の位置を付与することで、ユーザは新たに追加したオブジェクトのオブジェクト位置情報をいちいち入力しなくても済むので、オブジェクト位置情報の設定が容易になる。すなわち、編集効率を向上させることができる。
 なお、インポートにより新たにオブジェクトが追加された場合、制御部23がそれらのオブジェクトをグループ化するようにしてもよい。この場合、ユーザの指示に応じてグループ化が行われるようにしてもよいし、特にユーザの指示がなくても新たに複数のオブジェクトが同時に追加されるときには、無条件にそれらのオブジェクトがグループ化されるようにしてもよい。さらに、新たに追加されたオブジェクトが2つである場合には、ユーザの指示等に応じて、それらの2つのオブジェクトをL/Rペアとしてもよい。
 グループ化が行われる場合、再生空間内の位置を有さない複数のオブジェクトをグループ化するとともに、それらのグループ化した複数のオブジェクトに対して再生空間内における位置を付与する処理が制御部23により行われるともいうことができる。
 特に、グループ化されるオブジェクトが2つである場合には、2つのオブジェクトが再生空間において所定の基準面に対して左右対称となる位置関係を有するように、それらの2つのオブジェクトに対して再生空間内における位置を付与することができる。
 ステップS198においてオブジェクトに対して特定の位置が付与されると、その後、処理はステップS199に進む。
 ステップS192、ステップS195、若しくはステップS198の処理が行われたか、またはステップS197において特定の位置を付与しないと判定された場合、ステップS199の処理が行われる。
 ステップS199において表示制御部42は、オーディオファイルのインポートに応じて表示部24を制御し、表示部24に表示されている編集画面およびPOV画像の表示を更新し、インポート処理は終了する。
 例えばステップS199では、図31や図33、図34に示したように編集画面やPOV画像の表示が更新される。
 以上のようにして情報処理装置11は、オーディオファイルのチャンネル数やトラック種別選択画面に対するユーザの操作に応じてオーディオファイルをインポートし、新たなオブジェクトデータ等を追加する。
 このようにオーディオファイルのチャンネル数やユーザの操作に応じて適切にインポートを行うことで、ユーザによるオブジェクト位置情報の入力等の手間を削減し、より効率よく簡単に編集を行うことができるようになる。
〈コンピュータの構成例〉
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図36は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
 入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、本技術は、以下の構成とすることも可能である。
(1)
 所定の空間内に存在する複数のオブジェクトを選択してグループ化し、グループ化された前記複数の前記オブジェクトの前記空間内における相対的な位置関係を維持したまま前記複数の前記オブジェクトの位置を変更する制御部を備える
 情報処理装置。
(2)
 前記制御部は、前記空間内の位置を有さない複数の前記オブジェクトをグループ化し、グループ化した前記複数の前記オブジェクトに対して前記空間内における位置を付与する
 (1)に記載の情報処理装置。
(3)
 前記制御部は、2つの前記オブジェクトをグループ化した場合、前記空間内において前記2つの前記オブジェクトが所定の面に対して左右対称となる関係を維持したまま前記2つの前記オブジェクトの位置を変更する
 (1)に記載の情報処理装置。
(4)
 前記制御部は、前記空間内の位置を有さない2つの前記オブジェクトをグループ化し、グループ化した前記2つの前記オブジェクトが前記空間内において所定の面に対して左右対称となる位置関係を有するように、前記2つの前記オブジェクトに対して前記空間内における位置を付与する
 (1)に記載の情報処理装置。
(5)
 前記制御部は、前記空間内における位置を有する複数の前記オブジェクトをグループ化する
 (1)に記載の情報処理装置。
(6)
 前記制御部は、所定時刻における前記オブジェクトの位置と、前記所定時刻とは異なる他の時刻における前記オブジェクトの位置とに基づいて、前記所定時刻と前記他の時刻との間の時刻における前記オブジェクトの位置を補間処理により求める
 (1)乃至(5)の何れか一項に記載の情報処理装置。
(7)
 前記制御部は、複数の補間方法のなかから選択された補間方法により前記補間処理を行う
 (6)に記載の情報処理装置。
(8)
 前記制御部は、前記オブジェクトの互いに異なる複数の時刻の位置が選択されて位置の変更が指示された場合、選択された前記複数の時刻の位置を指定された変更量だけ同時に変更する
 (1)乃至(7)の何れか一項に記載の情報処理装置。
(9)
 前記空間内の所定の位置を視点位置とする、前記オブジェクトが配置された前記空間の画像の表示を制御する表示制御部をさらに備える
 (1)乃至(8)の何れか一項に記載の情報処理装置。
(10)
 前記表示制御部は、前記画像上において同じグループに属す前記オブジェクトを同じ色で表示させる
 (9)に記載の情報処理装置。
(11)
 前記表示制御部は、前記画像上において前記オブジェクトを、前記オブジェクトに対応するオーディオトラックに対して選択された色で表示させる
 (9)に記載の情報処理装置。
(12)
 前記表示制御部は、前記画像上において前記オブジェクトを、前記オブジェクトに対応するオーディオトラックに対して選択された色と、前記オブジェクトが属すグループに対して定められた色とで表示させる
 (9)に記載の情報処理装置。
(13)
 前記表示制御部は、前記空間内に存在する前記複数の前記オブジェクトのうち、指定された前記オブジェクトのみを前記画像上に表示させる
 (9)乃至(12)の何れか一項に記載の情報処理装置。
(14)
 前記オブジェクトはオーディオオブジェクトである
 (1)乃至(13)の何れか一項に記載の情報処理装置。
(15)
 情報処理装置が、
 所定の空間内に存在する複数のオブジェクトを選択してグループ化し、グループ化された前記複数の前記オブジェクトの前記空間内における相対的な位置関係を維持したまま前記複数の前記オブジェクトの位置を変更する
 情報処理方法。
(16)
 所定の空間内に存在する複数のオブジェクトを選択してグループ化し、グループ化された前記複数の前記オブジェクトの前記空間内における相対的な位置関係を維持したまま前記複数の前記オブジェクトの位置を変更する
 ステップを含む処理をコンピュータに実行させるプログラム。
 11 情報処理装置, 21 入力部, 23 制御部, 24 表示部, 41 位置決定部, 42 表示制御部

Claims (16)

  1.  所定の空間内に存在する複数のオブジェクトを選択してグループ化し、グループ化された前記複数の前記オブジェクトの前記空間内における相対的な位置関係を維持したまま前記複数の前記オブジェクトの位置を変更する制御部を備える
     情報処理装置。
  2.  前記制御部は、前記空間内の位置を有さない複数の前記オブジェクトをグループ化し、グループ化した前記複数の前記オブジェクトに対して前記空間内における位置を付与する
     請求項1に記載の情報処理装置。
  3.  前記制御部は、2つの前記オブジェクトをグループ化した場合、前記空間内において前記2つの前記オブジェクトが所定の面に対して左右対称となる関係を維持したまま前記2つの前記オブジェクトの位置を変更する
     請求項1に記載の情報処理装置。
  4.  前記制御部は、前記空間内の位置を有さない2つの前記オブジェクトをグループ化し、グループ化した前記2つの前記オブジェクトが前記空間内において所定の面に対して左右対称となる位置関係を有するように、前記2つの前記オブジェクトに対して前記空間内における位置を付与する
     請求項1に記載の情報処理装置。
  5.  前記制御部は、前記空間内における位置を有する複数の前記オブジェクトをグループ化する
     請求項1に記載の情報処理装置。
  6.  前記制御部は、所定時刻における前記オブジェクトの位置と、前記所定時刻とは異なる他の時刻における前記オブジェクトの位置とに基づいて、前記所定時刻と前記他の時刻との間の時刻における前記オブジェクトの位置を補間処理により求める
     請求項1に記載の情報処理装置。
  7.  前記制御部は、複数の補間方法のなかから選択された補間方法により前記補間処理を行う
     請求項6に記載の情報処理装置。
  8.  前記制御部は、前記オブジェクトの互いに異なる複数の時刻の位置が選択されて位置の変更が指示された場合、選択された前記複数の時刻の位置を指定された変更量だけ同時に変更する
     請求項1に記載の情報処理装置。
  9.  前記空間内の所定の位置を視点位置とする、前記オブジェクトが配置された前記空間の画像の表示を制御する表示制御部をさらに備える
     請求項1に記載の情報処理装置。
  10.  前記表示制御部は、前記画像上において同じグループに属す前記オブジェクトを同じ色で表示させる
     請求項9に記載の情報処理装置。
  11.  前記表示制御部は、前記画像上において前記オブジェクトを、前記オブジェクトに対応するオーディオトラックに対して選択された色で表示させる
     請求項9に記載の情報処理装置。
  12.  前記表示制御部は、前記画像上において前記オブジェクトを、前記オブジェクトに対応するオーディオトラックに対して選択された色と、前記オブジェクトが属すグループに対して定められた色とで表示させる
     請求項9に記載の情報処理装置。
  13.  前記表示制御部は、前記空間内に存在する前記複数の前記オブジェクトのうち、指定された前記オブジェクトのみを前記画像上に表示させる
     請求項9に記載の情報処理装置。
  14.  前記オブジェクトはオーディオオブジェクトである
     請求項1に記載の情報処理装置。
  15.  情報処理装置が、
     所定の空間内に存在する複数のオブジェクトを選択してグループ化し、グループ化された前記複数の前記オブジェクトの前記空間内における相対的な位置関係を維持したまま前記複数の前記オブジェクトの位置を変更する
     情報処理方法。
  16.  所定の空間内に存在する複数のオブジェクトを選択してグループ化し、グループ化された前記複数の前記オブジェクトの前記空間内における相対的な位置関係を維持したまま前記複数の前記オブジェクトの位置を変更する
     ステップを含む処理をコンピュータに実行させるプログラム。
PCT/JP2019/032132 2018-08-30 2019-08-16 情報処理装置および方法、並びにプログラム WO2020045126A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
US17/269,242 US11368806B2 (en) 2018-08-30 2019-08-16 Information processing apparatus and method, and program
JP2020539355A JP7491216B2 (ja) 2018-08-30 2019-08-16 情報処理装置および方法、並びにプログラム
EP19856267.0A EP3846501A4 (en) 2018-08-30 2019-08-16 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
CN201980054349.4A CN112585999A (zh) 2018-08-30 2019-08-16 信息处理设备、信息处理方法和程序
BR112021003091-3A BR112021003091A2 (pt) 2018-08-30 2019-08-16 aparelho e método de processamento de informações, e, programa
KR1020217003812A KR102680422B1 (ko) 2018-08-30 2019-08-16 정보 처리 장치 및 방법, 그리고 프로그램
US17/844,483 US11849301B2 (en) 2018-08-30 2022-06-20 Information processing apparatus and method, and program
US18/505,985 US20240073639A1 (en) 2018-08-30 2023-11-09 Information processing apparatus and method, and program
JP2024010939A JP2024042045A (ja) 2018-08-30 2024-01-29 情報処理装置および方法、プログラム、並びに情報処理システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018160969 2018-08-30
JP2018-160969 2018-08-30

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/269,242 A-371-Of-International US11368806B2 (en) 2018-08-30 2019-08-16 Information processing apparatus and method, and program
US17/844,483 Continuation US11849301B2 (en) 2018-08-30 2022-06-20 Information processing apparatus and method, and program

Publications (1)

Publication Number Publication Date
WO2020045126A1 true WO2020045126A1 (ja) 2020-03-05

Family

ID=69643222

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/032132 WO2020045126A1 (ja) 2018-08-30 2019-08-16 情報処理装置および方法、並びにプログラム

Country Status (7)

Country Link
US (3) US11368806B2 (ja)
EP (1) EP3846501A4 (ja)
JP (2) JP7491216B2 (ja)
KR (1) KR102680422B1 (ja)
CN (1) CN112585999A (ja)
BR (1) BR112021003091A2 (ja)
WO (1) WO2020045126A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112021003091A2 (pt) 2018-08-30 2021-05-11 Sony Corporation aparelho e método de processamento de informações, e, programa
US20220400352A1 (en) * 2021-06-11 2022-12-15 Sound Particles S.A. System and method for 3d sound placement

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07184300A (ja) * 1993-12-24 1995-07-21 Roland Corp 音響効果装置
JPH08140199A (ja) * 1994-11-08 1996-05-31 Roland Corp 音像定位設定装置
JP2002051399A (ja) * 2000-08-03 2002-02-15 Sony Corp 音声信号処理方法及び音声信号処理装置
US8068105B1 (en) * 2008-07-18 2011-11-29 Adobe Systems Incorporated Visualizing audio properties
JP2015531078A (ja) * 2012-07-31 2015-10-29 インテレクチュアル ディスカバリー シーオー エルティディIntellectual Discovery Co.,Ltd. オーディオ信号処理方法および装置
JP2016518067A (ja) * 2013-04-05 2016-06-20 トムソン ライセンシングThomson Licensing 没入型オーディオの残響音場を管理する方法
WO2017220852A1 (en) * 2016-06-21 2017-12-28 Nokia Technologies Oy Improving perception of sound objects in mediated reality

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1134724B1 (en) * 2000-03-17 2008-07-23 Sony France S.A. Real time audio spatialisation system with high level control
EP2770498A1 (en) * 2013-02-26 2014-08-27 Harman International Industries Ltd. Method of retrieving processing properties and audio processing system
AU2014241011B2 (en) * 2013-03-28 2016-01-28 Dolby International Ab Rendering of audio objects with apparent size to arbitrary loudspeaker layouts
EP3336834A1 (en) * 2016-12-14 2018-06-20 Nokia Technologies OY Controlling a sound object
BR112021003091A2 (pt) 2018-08-30 2021-05-11 Sony Corporation aparelho e método de processamento de informações, e, programa

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07184300A (ja) * 1993-12-24 1995-07-21 Roland Corp 音響効果装置
JPH08140199A (ja) * 1994-11-08 1996-05-31 Roland Corp 音像定位設定装置
JP2002051399A (ja) * 2000-08-03 2002-02-15 Sony Corp 音声信号処理方法及び音声信号処理装置
US8068105B1 (en) * 2008-07-18 2011-11-29 Adobe Systems Incorporated Visualizing audio properties
JP2015531078A (ja) * 2012-07-31 2015-10-29 インテレクチュアル ディスカバリー シーオー エルティディIntellectual Discovery Co.,Ltd. オーディオ信号処理方法および装置
JP2016518067A (ja) * 2013-04-05 2016-06-20 トムソン ライセンシングThomson Licensing 没入型オーディオの残響音場を管理する方法
WO2017220852A1 (en) * 2016-06-21 2017-12-28 Nokia Technologies Oy Improving perception of sound objects in mediated reality

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"High efficiency coding and media delivery in heterogeneous environments", ISO/IEC 23008-3 INFORMATION TECHNOLOGY
DOLBY LABORATORIES, INC., AUTHORING FOR DOLBY ATMOS(R) CINEMA SOUND MANUAL, 1 August 2018 (2018-08-01), Retrieved from the Internet <URL:https://www.dolby.com/us/en/technologies/dolby-atmos/authoring-for-dolby-atmos-cinema-sound-manual.pdf>
See also references of EP3846501A4
VILLE PULKKI: "Virtual Sound Source Positioning Using Vector Base Amplitude Panning", JOURNAL OF AES, vol. 45, no. 6, 1997, pages 456 - 466

Also Published As

Publication number Publication date
EP3846501A4 (en) 2021-10-06
KR20210049785A (ko) 2021-05-06
CN112585999A (zh) 2021-03-30
US20220394415A1 (en) 2022-12-08
US20240073639A1 (en) 2024-02-29
KR102680422B1 (ko) 2024-07-03
JP2024042045A (ja) 2024-03-27
JPWO2020045126A1 (ja) 2021-08-10
US11849301B2 (en) 2023-12-19
US11368806B2 (en) 2022-06-21
EP3846501A1 (en) 2021-07-07
BR112021003091A2 (pt) 2021-05-11
US20210329397A1 (en) 2021-10-21
JP7491216B2 (ja) 2024-05-28

Similar Documents

Publication Publication Date Title
US9924289B2 (en) System and method for forming and rendering 3D MIDI messages
EP1866742B1 (en) System and method for forming and rendering 3d midi messages
Emmerson et al. Electro-acoustic music
JP2024042045A (ja) 情報処理装置および方法、プログラム、並びに情報処理システム
JP2005538589A (ja) スマートスピーカ
JP7192786B2 (ja) 信号処理装置および方法、並びにプログラム
EP3313101B1 (en) Distributed spatial audio mixing
US20220386062A1 (en) Stereophonic audio rearrangement based on decomposed tracks
KR102508815B1 (ko) 오디오와 관련하여 사용자 맞춤형 현장감 실현을 위한 컴퓨터 시스템 및 그의 방법
JP2022083443A (ja) オーディオと関連してユーザカスタム型臨場感を実現するためのコンピュータシステムおよびその方法
CN113821190B (zh) 音频播放方法、装置、设备及存储介质
EP3255905A1 (en) Distributed audio mixing
JP2005080265A (ja) 複数チャンネルのミュート設定装置およびそのプログラム
EP3337066B1 (en) Distributed audio mixing
JP2016109971A (ja) 信号処理装置および信号処理装置の制御方法
WO2023085140A1 (ja) 情報処理装置および方法、並びにプログラム
WO2024004651A1 (ja) 音声再生装置、音声再生方法及び音声再生プログラム
JP2022090748A (ja) 録音装置、音再生装置、録音方法、および音再生方法
CN115103293A (zh) 一种面向目标的声重放方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19856267

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020539355

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112021003091

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 2019856267

Country of ref document: EP

Effective date: 20210330

ENP Entry into the national phase

Ref document number: 112021003091

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20210219