WO2021005757A1 - コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム - Google Patents

コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム Download PDF

Info

Publication number
WO2021005757A1
WO2021005757A1 PCT/JP2019/027389 JP2019027389W WO2021005757A1 WO 2021005757 A1 WO2021005757 A1 WO 2021005757A1 JP 2019027389 W JP2019027389 W JP 2019027389W WO 2021005757 A1 WO2021005757 A1 WO 2021005757A1
Authority
WO
WIPO (PCT)
Prior art keywords
media data
mapping
media
format
evaluation scale
Prior art date
Application number
PCT/JP2019/027389
Other languages
English (en)
French (fr)
Inventor
綜太朗 前島
康弘 持田
山口 高弘
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US17/625,368 priority Critical patent/US11805294B2/en
Priority to PCT/JP2019/027389 priority patent/WO2021005757A1/ja
Priority to JP2021530432A priority patent/JP7211514B2/ja
Publication of WO2021005757A1 publication Critical patent/WO2021005757A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • H04N21/4358Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen for generating different versions, e.g. for different peripheral devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors

Definitions

  • the present invention relates to a content playback device and a playback method composed of one or more media data.
  • the present invention relates to a content reproduction device and a reproduction method composed of a plurality of types of media data.
  • mapping evaluation scale consists of parameters that affect the physical reproduction result of media data.
  • Non-Patent Document 1 discloses a method of mapping a 3DCG image to a projector group by inputting a mapping evaluation scale by a content creator.
  • the system of Non-Patent Document 1 is based on an indoor 3D map, a projector, the position of the viewer, and the like.
  • the content creator sets a desired value of a group of physical parameters indicating the relationship between the relative three-dimensional coordinates, orientation, and volume between 3DCG objects as a mapping evaluation scale.
  • the system of Non-Patent Document 1 determines an appropriate mapping and supplies video data to the projector.
  • the purpose of this disclosure is to enable the reproduction of media data according to a preset sensitivity effect.
  • the content playback device of the present disclosure is A device table creation unit that holds a device table that defines the format of playable media data and the device parameters used when playing media data for each device.
  • a mapping evaluation scale that acquires metadata including media data format and sensitivity effect label, and is a device parameter according to the sensitivity effect label according to a conversion table in which device parameter values are defined for each combination of sensitivity effect label and format.
  • a media table creation unit that creates a media table in which the mapping evaluation scale and format are defined for each media data.
  • a combination pattern of a device capable of reproducing the media data included in the media table and the media data included in the media table is based on the device table and the format included in the media table.
  • the combination pattern that minimizes the relative error between the device parameters included in the device table and the mapping evaluation scale included in the media table is selected from the extracted combination patterns, and is the output destination of the media data.
  • the mapping decision unit that selects the device, To be equipped.
  • the content reproduction method of the present disclosure is
  • the device table creation unit holds a device table that defines the format of playable media data and the device parameters used when playing media for each device.
  • the media table creation unit acquires metadata including the format of the media data and the sensitivity effect label, and the device corresponding to the sensitivity effect label according to the conversion table in which the value of the device parameter is determined for each combination of the sensitivity effect label and the format.
  • a mapping evaluation scale which is a parameter, is defined, and a media table in which the mapping evaluation scale and format are defined for each media data is created.
  • the mapping determination unit applies a combination pattern of a device capable of reproducing the media data included in the media table among the devices included in the device table and the media data included in the media table to the device table and the media table. Extracted based on the included format, select the combination pattern that minimizes the relative error between the device parameters included in the device table and the mapping evaluation scale included in the media table from the extracted combination patterns, and media data. Select the device to output to.
  • the content reproduction program of the present disclosure is a program that causes the computer to function as each functional unit provided in the content reproduction device according to the present disclosure, and is a program that causes the computer to execute each procedure provided in the content reproduction method according to the present disclosure.
  • An example of the system configuration according to the present disclosure is shown. It is a block block diagram of the device table creation part. An example of device information is shown. An example of the device table is shown. An example of the parameters sent to the mapping determination unit is shown. An example of network parameters transmitted to the output unit is shown. It is a block block diagram of the media table creation part. An example of metadata is shown. An example of the conversion table of the Kansei effect and the mapping evaluation scale is shown. An example of a media table is shown. It is a flow chart which shows an example of the operation of a mapping determination part. An example of the mapping combination of media data and device is shown. It is a block block diagram of an output part. The first example of the format conversion table is shown. A second example of the format conversion table is shown.
  • An extraction example of the device is shown.
  • An example of the device information of the third embodiment is shown.
  • An example of the media table of the third embodiment is shown.
  • An example of the metadata of the fourth embodiment is shown.
  • An example of the Kansei effect and the conversion table of the mapping evaluation scale of the fourth embodiment is shown.
  • An example of the media table of the fourth embodiment is shown.
  • An example of a table that defines the calculation method of the mapping evaluation scale is shown.
  • An example of the device parameters included in the device table of the fourth embodiment is shown.
  • An example of the system configuration according to the fifth embodiment is shown.
  • An example of spatial parameters is shown. It is explanatory drawing of a spatial parameter.
  • An example of the device parameters included in the device table of the fifth embodiment is shown.
  • An example of the media table of the fifth embodiment is shown.
  • An example of the hardware configuration of the system of the present disclosure is shown.
  • FIG. 1 shows an example of the system configuration according to the present disclosure.
  • the content reproduction system according to the present disclosure includes a plurality of devices D 1 to D 4 and an orchestrator 91 that distributes the input media data to any of the plurality of devices and outputs the data.
  • Devices D 1 to D 4 are arbitrary devices capable of reproducing media data.
  • the orchestrator 91 distributes and outputs a plurality of received media data (video, audio, or sound effects, effect lighting, etc.) to a plurality of devices (display, speaker, lighting, etc.).
  • the media data refers to data in which information such as video and audio is electronically encoded.
  • the content is composed of one or more media data groups and metadata about the media data groups.
  • the orchestrator 91 includes a device table creation unit 10 that executes a device table creation procedure, a media table creation unit 20 that executes a media table creation procedure, a mapping determination unit 30 that executes a mapping determination procedure, and an output unit 40 that executes an output procedure. , Equipped with.
  • the device table creation unit 10 acquires device information from each device D 1 to D 4 and creates a device table using the device information.
  • the media table creation procedure the media table creation unit 20 acquires the media data and the metadata of each media data, and creates the media table.
  • the mapping determination unit 30 determines the combination of the media data and the devices D 1 to D 4 for reproducing the media data by using the device table and the media table.
  • the output unit 40 distributes the media data to the devices D 1 to D 4 according to the mapping result of the mapping determination unit 30.
  • FIG. 2 is a block configuration diagram of the device table creation unit 10.
  • the device table creation unit 10 includes a device information receiving unit 11 and a device table saving / updating unit 12.
  • Step 1 The device information receiving unit 11 acquires device information from each of the devices D 1 to D 4 .
  • the device information includes device identification information, supported formats, device parameters and network parameters.
  • a "supported format” is a format of media data that can be played by the device.
  • the “device parameter” is an arbitrary parameter used by the device when playing back media data.
  • the “network parameter” is information for transmitting and receiving media data, and includes an IP address, a port number, and a corresponding protocol.
  • FIG. 3 shows an example of device information when the device D 1 is a video display.
  • the supported formats are H. It is 264.
  • Device parameters include frame rate and projected area. The frame rate is 30 and the projected area is 2.0.
  • the method by which the device information receiving unit 11 acquires the device information is arbitrary.
  • the transmission timing is, for example, when the media table creation unit 20 receives the media data.
  • Step 2 Device information receiving unit 11 transfers the new device information received from the devices D 1 ⁇ D 4 in the device table storage / update section 12.
  • Step 3 When the device table save / update unit 12 receives the new device information, the device table adds new device information to the held device table, updates the device table, and saves the device table.
  • a JSON Javascript (registered trademark) Object Notification) format can be considered.
  • FIG. 4 shows an example of the updated device table.
  • the device information of the devices D 3 and D 4 which are lighting fixtures and the device information of the device D 2 which is a video display is added.
  • Step 4 The device table creation unit 10 transmits the parameters necessary for mapping excluding the network parameters from the device table held in the device table save / update unit 12 to the mapping determination unit 30. Further, the device table creation unit 10 sends the network parameters of each playback device to the output unit 40 from the device table held in the device table save / update unit 12.
  • FIG. 5 shows an example of parameters transmitted to the mapping determination unit 30.
  • FIG. 6 shows an example of parameters transmitted to the output unit 40.
  • FIG. 7 is a block configuration diagram of the media table creation unit 20.
  • the media table creation unit 20 includes a reception unit 21 and a conversion unit 22.
  • Step 1 The receiving unit 21 receives media data and metadata from the outside of the orchestrator 91.
  • the method of adding the metadata to the media data is described in, for example, H.
  • video data in 264 format and its metadata are stored together in an MP4 container.
  • FIG. 8 shows an example of metadata.
  • the metadata includes format information and Kansei effect labels for each media data.
  • the media data M 1 is video data
  • the "sensitivity effect” is an effect that appeals to the sensibilities such as the emotions and tastes of the person who sees it from the physical result of reproducing the media data. For example, when playing back video data, the viewer feels “lively and well-understood” according to the physical values related to the playback, such as the frame rate and the video area occupied in the field of view, in addition to the video content itself. It is generally said that the degree of strength of the emotional effect of "or atmosphere, that is, action” changes. In addition, there are a wide variety of types such as authenticity and drama. "Authenticity” is, for example, the sensibility effect that something that should not be there really feels there. "Drama” is an emotional effect that makes emotional expressions such as emotions rich.
  • the "Kansei effect label” is a concise character string, code, or identifier representing the Kansei effect.
  • the Kansei effect label corresponds to a character string such as "action”, “intrinsic”, and "drama”.
  • Step 2 The receiving unit 21 sends the received media data to the output unit 40, and sends the metadata to the conversion unit 22 of the mapping evaluation scale.
  • Step 3 The conversion unit 22 maps the Kansei effect label portion of the received metadata according to the format, based on the “Kansei effect label and mapping evaluation scale conversion table” that is stored in advance. Convert to a rating scale. Add this converted metadata to the media table. The conversion unit 22 transmits the created media table to the mapping determination unit 30.
  • FIG. 9 shows an example of the conversion table of the Kansei effect label and the mapping evaluation scale.
  • H.I. whose Kansei effect label is actionable.
  • the evaluation scale of the projected area is 1.8 with a weight of 1.0
  • the evaluation scale of the frame rate is 60 with a weight of 0.5
  • the overall weight is 0.7.
  • H.S. whose Kansei effect label is authentic.
  • the frame rate evaluation scale is 60 with a weight of 1.0
  • the bit depth evaluation scale is 16 with a weight of 0.5
  • the overall weight is 0.6.
  • FIG. 10 shows an example of a media table.
  • the format of the media data M 1 is H. It is 264 and the Kansei effect label is actionable.
  • mapping evaluation scale E prp the media data M p, r p pieces of mapping rating scale is set.
  • the device in which the value of each mapping evaluation scale of the media data and the value of the corresponding device parameter are close to each other obtains the most expected Kansei effect. be able to.
  • the device whose "projected area" value having the maximum weight is closest to the device parameter is assigned to the reproduction of the media data.
  • the device parameters d 12 or d 22 relating to the projected area are to be reproduced. but, by selecting and reproducing device closest to the mapping evaluation measure E 11 for the projection area, it is realized to obtain an action of sensibility effects that are most expected in the reproduction of the media data M 1.
  • the overall weight is a numerical value that determines the priority of mapping a plurality of media data.
  • the entire weight G 1 of the media data M 1 video is 0.7
  • the overall weight G 2 media data M 2 of the illumination is 0.3.
  • the objective function of the video media data M 1 having a larger overall weight becomes dominant in the final mapping evaluation, and the mapping that reduces the objective function of the video media data M 1 becomes easier to be selected.
  • FIG. 11 is a flow chart showing an example of the operation of the mapping determination unit 30.
  • the mapping determination unit 30 executes steps S311 to S316.
  • Step S311 The mapping determination unit 30 receives the device table from the device table creation unit 10 and the media table from the media table creation unit 20. Then, the mapping determination unit 30 derives a combination of devices for reproducing the media data M 1 and M 2 from the devices D 1 to D 4 .
  • mapping determining section 30 compares the corresponding format of each media data and the device, format leads to a combination pattern only to a subject a combination of matching media data M p and device D r is.
  • FIG. 12 shows an example of a mapping combination of media data and a device.
  • the media data M 1 is H. It is video data in 264 format
  • media data M 2 is 8-bit HSV lighting data.
  • Devices D 1 and D 2 are H.I. It is a video display capable of reproducing 264 formats
  • devices D 3 and D 4 are lighting fixtures capable of reproducing 8-bit HSV. In this case, there are the following four combination patterns.
  • x 1 to X
  • Step S313 the combination of the media data M p and device D r, calculates the objective function L p r using each type 2.
  • r p is the total number of mapping evaluation scales set in the media data M p .
  • p is an identifier of media data
  • P is the total number of media data to be reproduced.
  • r is a device identifier
  • r a natural number from 1 to R
  • R is the total number of devices.
  • e pi represents the relative error between the output value E pi 'corresponding to the i-th mapping Rating Scale E pi mapping Rating Scale E pi of media data M p, it is expressed by the following equation.
  • the output value E pi' is the value of the device parameter corresponding to the mapping evaluation scale E pi .
  • the output value E 11 ' is a device parameter corresponding to the projected area
  • the device parameter d 12 is the output value E 11 if device D 1' of the mapping evaluation measure E 11 corresponds to.
  • Objective function L p r of the formula 2 calculated by multiplying the weight g pi according to the mapping evaluation measure E pi of the relative error e pi, they are summed, and performs a calculation that.
  • Step S314 Using the calculated objective function L p r, and calculate the mapping evaluation function S x in combination pattern as follows, are recorded.
  • mapping evaluation function S x When the mapping evaluation function S x is the smallest, it is considered that the overall sensibility effect generated by a plurality of media data is realized in the most expected state. That is, the mapping determination unit 30 searches for the mapping combination pattern x having the smallest mapping evaluation function S x according to the flow of FIG.
  • Step S315 x is updated and the process returns to step S313.
  • x X
  • the process proceeds to step S316.
  • mapping the evaluation function S x A description will be given of a specific method of calculating the objective function L p r, and mapping the evaluation function S x.
  • the device D 1 which is a video display capable of outputting a value close to the desired value of the projected area is better.
  • L p r is small.
  • the influence of the objective function of (lighting) is relatively small. In other words, can be calculated as in preference for the media overall weight G p is greater evaluate the mapping.
  • the media M 1 is assigned to the device D 1 and the media data M 2 is assigned to the device D 4 .
  • FIG. 13 is a block configuration diagram of the output unit 40.
  • the output unit 40 includes a transmission / reception instruction unit 41, a media data storage unit 42, and a transmission unit 43.
  • Step 1 The transmission / reception instruction unit 41 receives the network parameters of each device from the device table creation unit 10.
  • Step 2 The output unit 40 receives the media data from the media table creation unit 20 and stores it in the media data storage unit 42.
  • Step 3 The transmission / reception instruction unit 41 receives the mapping result from the mapping determination unit 30.
  • the mapping result includes devices D 1 and D 4 that reproduce the respective media data M 1 and M 2 .
  • the transmission / reception instruction unit 41 uses the network parameters of each device to generate information necessary for transmission / reception of media data.
  • the information required for transmitting and receiving media data is, for example, an SDP (Session Description Protocol) file or the like.
  • Step 4 The transmission / reception instruction unit 41 transmits information necessary for transmission / reception of media data and a transmission instruction of media data to the transmission unit 43.
  • the information required for transmitting and receiving media data is the network parameters of each device acquired from the device table creation unit 10.
  • the media data storage unit 42 transmits the media data to the transmission unit 43.
  • the transmission unit 43 transmits the mapped media data to each of the devices D 1 to D 4 .
  • RTP Real-time Transport Protocol
  • the present disclosure can obtain the following effects. -The work of setting multiple parameters included in the mapping evaluation scale can be simplified only by selecting the Kansei effect label. -The overall sensibility effect generated by playing back multiple media data can be automatically maximized.
  • the transmission / reception instruction unit 41 provided in the output unit 40 has a function of converting the format F p of the media data M p .
  • step S311 shown in FIG. 11 the mapping determining section 30 from among the devices D 1 ⁇ D 4, only the devices that format F p and devices corresponding format of the media data M p matches , It is extracted as a combination target of mapping.
  • the output unit 40 can convert the format F p of the media data M p . Therefore, the mapping determination unit 30 of the present embodiment can increase the variation of the combination pattern within the range in which the format can be converted.
  • the mapping determination unit 30 refers to a format conversion table in which the format that can be converted is determined by the transmission / reception instruction unit 41, and extracts a device that can be used by performing format conversion as a mapping combination target.
  • the present embodiment even with different formats F p and device format of the media data M p, if it is possible to convert the format F p of the media data M p to the corresponding format of the device, that Devices are also added to the mapping combination target.
  • FIG. 14 shows a first example of the format conversion table.
  • the formats that can be converted to each other are arranged in each row.
  • prepare in advance a table that describes the conversion source and conversion destination of the format that can be converted in one direction in each row.
  • FIG. 15 shows a second example of the format conversion table.
  • the second example of the format conversion table is an arrangement of formats that can be converted in one direction.
  • FIG. 16 shows an extraction example of the device according to the present embodiment.
  • the media data M 1 is H. It is media data of 265 format video, and it is a combination that can be converted to each other in the format conversion table. 264 and H. 265 is described.
  • the device D 2 is the only device that supports the format of the media data M 1 .
  • the devices D 1 and D 2 are extracted as the devices corresponding to the format of the media data M 1 .
  • Mapping determining section 30 as a mapping result, the device D 1 and D 2 for reproducing the media data M 1 and M 2, the format to be reproduced at each device D 1 and D 2, and transmits to the transmitting and receiving instruction unit 41.
  • Receiving instruction unit 41, H. a format of media data M 1 From 265 to H. It is converted to 264, and the converted media data M 1 is transmitted to the transmission unit 43 to the device D 1 .
  • the media data M 1 can be reproduced on the device D 1 .
  • the present embodiment provides the possibility of finding a highly evaluated mapping combination in which the minimum value of the mapping evaluation function S x can be made smaller by increasing the total number X of the mapping combination patterns.
  • a device parameter is a fixed value.
  • the device parameters may be variable within a predetermined range. The system of the present embodiment will be described a case where the device D 1 has a device parameters can vary.
  • FIG. 17 shows an example of device information of the present embodiment.
  • the device information receiving unit 11 of the present embodiment also acquires a range in which the device parameters fluctuate from each of the devices D 1 to D 4 .
  • the device information receiving unit 11 can change or select the device parameter d 13 of the brightness in the range of 1.0 to 3.0 with a step size of 0.5. , 1.5 and 2.0 can be output as device parameters.
  • the mapping determination unit 30 When selecting the combination pattern x, the mapping determination unit 30 considers the fluctuating range of the device parameters. For example, as shown in FIG. 18, it is described in the mapping evaluation scale column of the media data M 1 of the media table that the brightness evaluation scale E 13 is 2.2 and the weight g 13 is 0.3. If so, in step S313, the mapping determination unit 30 calculates the relative error e 13 using the brightness evaluation scale E 13 .
  • the output value E 13 rating scale E 13 brightness' according to the device information shown in FIG. 17, corresponding to the device parameters d 13 brightness.
  • the desired value of the brightness evaluation scale E 13 is 2.2.
  • the mapping determination unit 30 sets the value of the step size 0.5 in the variable range of 1.0 to 3.0, which is the closest to 2.2, that is, 2.0, as the device parameter d of the brightness. Select as the output value of 13 .
  • the relative error e 13 can be calculated as follows.
  • Mapping determining section 30 as a mapping result, the device D 1 and D 2 for reproducing the media data M 1 and M 2, the device parameters used in the devices D 1 and D 2, and transmits to the transmitting and receiving instruction unit 41.
  • the transmission / reception instruction unit 41 transmits to the transmission unit 43 to the device D 1 that 2.0 is used for the device parameter d 13 of the brightness.
  • the device D 1 reproduces the media data M 1 by using 2.0 for the device parameter d 13 of the brightness.
  • the device D 1 can realize a more desired sensitivity effect in the reproduction of the media data M 1 .
  • the media table creation unit 20 assigns an absolute mapping evaluation scale that is not affected by the mapping evaluation scale of other media data.
  • the media table creation unit 20 of the present embodiment considers a relative mapping evaluation scale influenced by other media data.
  • the metadata of the media data acquired by the media table creation unit 20 includes information on "relationship with other media data" as shown in FIG. 19 in addition to the items of FIG.
  • the information regarding "relationship with other media data” includes, for example, that when both media data M 1 and M 2 are reproduced, the media data M 1 is the main and the media data M 2 is the sub.
  • the conversion table of the sensitivity effect label and the mapping evaluation scale referred to by the media table creation unit 20 includes information on "relationship of media data" and main media data as shown in FIG. 20 in addition to the items of FIG. Includes a mapping rating scale that shows the relationship with submedia data.
  • the media table creation unit 20 reads out that the relative distance to the main media data defined by the mapping evaluation scale is 2.0, and reflects it in the mapping evaluation scale of the sub media data M 2 .
  • the main media data is M 1
  • the relative distance to the media data M 1 is 2.0
  • the weight is 0.5.
  • the media data M 2 can have a mapping evaluation scale relative to the media data M 1 .
  • the output value of mapping rating scale had a name is equivalent to the corresponding device parameters.
  • the output value of the mapping evaluation scale "projected area" of the video media data was equivalent to the device parameter "projected area” of the video display.
  • the output value of the relative mapping evaluation scale requires a plurality of device parameters. Therefore, in the present embodiment, a table for defining the calculation method of the mapping evaluation scale as shown in FIG. 22 showing the device parameters and the calculation method is prepared in advance.
  • the device parameters included in the device table include three-dimensional coordinates.
  • the three-dimensional coordinates are information indicating the position where the device is arranged.
  • the three-dimensional coordinates of the device D 1 are (0,1, 2) and the three-dimensional coordinates of the device D 2 are (0,2,1) is shown.
  • the mapping determination unit 30 obtains the mapping combination pattern x using the media table, the device table, and the table that defines the calculation method of the output value of the mapping evaluation scale.
  • mapping evaluation scale is the relative distance between the main media data and the sub-media data
  • calculation method of the output value of the mapping evaluation scale is
  • Mapping determination unit 30 may read out the three-dimensional coordinates d 13 and d 23 from the device table to determine the output value E 22 'and the relative error e 22 in the relative distance E 22 for media data M 1.
  • the sensation effect label of actionability is the interaction between the main media data and the sub-media data by presenting the main media data and adding the sub-media data at an appropriate relative distance. Will occur, and the action will be enhanced.
  • FIG. 24 shows an example of the system configuration according to the present embodiment.
  • the orchestrator 91 according to the present embodiment further includes a spatial parameter acquisition unit 50.
  • the objective function L p r of the mapping determining section 30 it has utilized only the mapping evaluation measure E pi and device parameters d.
  • the present embodiment uses spatial parameters for calculation.
  • the spatial parameter acquisition unit 50 is an arbitrary means for acquiring spatial parameters, and examples thereof include a sensor, a communication means for receiving data from the sensor, and an input means such as a keyboard and a mouse.
  • Spatial parameters are parameters that affect the mapping evaluation scale of the space itself.
  • spatial parameters include spatial brightness, wall light reflection characteristics, spatial acoustic characteristics, and spatial 3D maps.
  • FIG. 25 shows an example of spatial parameters.
  • the spatial parameter shown in FIG. 25 is a 3D map of the space, and the range of the wall surface in the X-axis, Y-axis, and Z-axis directions as shown in FIG. 26 is defined.
  • FIG. 27 shows an example of the device table of this embodiment.
  • Device table of the present embodiment reproducing device D 1 is Purojakuta, corresponding format H. 264, the device parameters include frame rate, screen size, 3D coordinates, unit direction vector and center normal direct illuminance. Three-dimensional coordinates and unit direction vectors are elements of spatial parameters.
  • a calculation formula using spatial parameters or other device parameters instead of fixed values may be described as device parameters.
  • the screen size is calculated using 3D coordinates and spatial parameters rather than fixed values.
  • FIG. 28 shows an example of the media table of the present embodiment.
  • the media data M 1 is video media data
  • the format is H.I. 264
  • the mapping evaluation scale includes projected area, frame rate and direct illuminance at the center normal.
  • the mapping determination unit 30 considers the following when extracting the combination pattern x.
  • the mapping determination unit 30 reads out the element of the spatial parameter.
  • the mapping determination unit 30 refers to the spatial parameters and performs a geometric calculation using the equations of each wall surface.
  • the mapping determination unit 30, the device D 1 in FIG. 26 judges that a situation such as to project an image on the wall W5.
  • the effect of increasing the sensitivity effect can be obtained.
  • the central normal direct illuminance which can be calculated only in consideration of spatial parameters, is a parameter related to the brightness of media data such as images and lighting, and contributes to the drama of the Kansei effect label. By making this possible, mapping that further enhances drama can be realized.
  • FIG. 29 shows an example of the hardware configuration of the system of the present disclosure.
  • the system of the present disclosure includes a computer 96 which functions as a content reproducing apparatus according to the present disclosure, the device D 1.
  • the computer 96 may be connected to the network 95.
  • the network 95 is a data communication network. Communication is carried out by electronic signals and optical signals via the network 95.
  • the computer 96 includes a processor 110 and a memory 120 connected to the processor 110.
  • the processor 110 is an electronic device composed of logic circuits that respond to and execute instructions.
  • the memory 120 is a readable storage medium for the tangible computer 96 in which the computer program is encoded.
  • the memory 120 stores data and instructions, i.e. program code, that can be read and executed by the processor 110 to control the operation of the processor 110.
  • One of the components of the memory 120 is the program module 121.
  • the program module 121 includes a module for realizing an arbitrary functional unit provided in the present embodiment.
  • the program module 121 includes a module for realizing the device table creation unit 10, the media table creation unit 20, the mapping determination unit 30, and the output unit 40.
  • the program module 121 includes instructions for controlling the processor 110 to perform the processes described herein. Although the program module 121 is shown to have already been loaded into memory 120, it may be configured to be located on storage device 140 for later loading into memory 120.
  • the storage device 140 is a readable storage medium for a tangible computer that stores the program module 121. Alternatively, the storage device 140 may be another type of electronic storage device connected to the computer 96 via the network 95.
  • This disclosure can be applied to the information and communication industry.
  • Device table creation unit 11 Device information reception unit 12: Device table save / update unit 20: Media table creation unit 21: Reception unit 22: Conversion unit 30: Mapping determination unit 40: Output unit 41: Transmission / reception instruction unit 42: Media data storage unit 43: Transmission unit 91: Orchestrator 95: Network 96: Computer 110: Processor 120: Memory 121: Program module 140: Storage device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本開示は、予め設定された感性効果に応じたメディアデータの再生を可能にすることを目的とする。 本開示のコンテンツ再生装置(91)は、再生可能なメディアデータのフォーマット及びデバイスパラメータをデバイスごとに定めたデバイステーブルを保持するデバイステーブル作成部(10)と、メディアデータのフォーマット及び感性効果ラベルを含むメタデータを取得し、感性効果ラベルに応じたデバイスパラメータであるマッピング評価尺度を定め、マッピング評価尺度及びフォーマットがメディアデータごとに定められたメディアテーブルを作成する、メディアテーブル作成部(20)と、メディアデータを再生可能なデバイスとメディアデータとの組み合わせパターンをフォーマットに基づいて抽出し、抽出した組み合わせパターンのなかからデバイスパラメータとマッピング評価尺度との相対誤差が最も小さくなる組み合わせパターンを選択し、メディアデータの出力先であるデバイスを選択する、マッピング決定部(30)と、を備える。

Description

コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム
 本発明は、一つ以上のメディアデータから構成されるコンテンツ再生装置および再生方法に関する。特に、複数種類のメディアデータから構成されるコンテンツ再生装置および再生方法に関する。
 映像データや音声データ等のメディアデータで構成されるコンテンツの視聴が普及し、さらに高臨場なコンテンツが登場しつつある。その様な高臨場コンテンツは、特定の再生環境を前提として作成されており、符号化方式や制御方法などが違うため、他の再生環境で同様に再生することは出来ないことが多い。
 しかし、メディアデータを何かしらの評価尺度に基づき、再生環境中のデバイスに対して適切にマッピングすることで、特定の再生環境における再生に最大限近づけることが出来る。以降、この際に利用する評価尺度を「マッピング評価尺度」と呼ぶ。マッピング評価尺度は、メディアデータの物理的な再生結果に影響を及ぼすパラメータで構成される。
 非特許文献1には、コンテンツ作成者がマッピング評価尺度を入力することで、プロジェクター群に3DCG映像をマッピングする方法が開示されている。プロジェクター群が設置された所与の再生環境において3DCGコンテンツが視聴者に対して適切に見えるように再生するために、非特許文献1のシステムは、室内の3Dマップとプロジェクター、視聴者の位置や姿勢といった再生環境情報を取得することに加え、3DCGオブジェクト間の相対的な3次元座標と向き、体積の関係性を示す物理パラメータ群の所望値を、マッピング評価尺度としてコンテンツ作成者が設定する。これにより、非特許文献1のシステムは、適切なマッピングを決定し、プロジェクターに映像データを供給する。
 今後高臨場コンテンツを構成するメディアデータの種類や数が増大する傾向にある。従来はマッピング評価尺度を人手で設定する必要があるが、メディアデータの種類や数が増大するとその作業自体も複雑になってしまう。そのため、コンテンツのマッピング評価尺度の設定作業を削減する必要がある。
 本開示は、予め設定された感性効果に応じたメディアデータの再生を可能にすることを目的とする。
 本開示のコンテンツ再生装置は、
 再生可能なメディアデータのフォーマット及びメディアデータの再生時に用いるデバイスパラメータをデバイスごとに定めたデバイステーブルを保持するデバイステーブル作成部と、
 メディアデータのフォーマット及び感性効果ラベルを含むメタデータを取得し、感性効果ラベル及びフォーマットの組み合わせごとにデバイスパラメータの値が定められた変換テーブルに従って、感性効果ラベルに応じたデバイスパラメータであるマッピング評価尺度を定め、前記マッピング評価尺度及びフォーマットがメディアデータごとに定められたメディアテーブルを作成する、メディアテーブル作成部と、
 前記デバイステーブルに含まれるデバイスのうちの前記メディアテーブルに含まれるメディアデータを再生可能なデバイスと前記メディアテーブルに含まれるメディアデータとの組み合わせパターンを前記デバイステーブル及び前記メディアテーブルに含まれるフォーマットに基づいて抽出し、抽出した組み合わせパターンのなかから前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差が最も小さくなる組み合わせパターンを選択し、メディアデータの出力先であるデバイスを選択する、マッピング決定部と、
 を備える。
 本開示のコンテンツ再生方法は、
 デバイステーブル作成部が、再生可能なメディアデータのフォーマット及びメディアの再生時に用いるデバイスパラメータをデバイスごとに定めたデバイステーブルを保持し、
 メディアテーブル作成部が、メディアデータのフォーマット及び感性効果ラベルを含むメタデータを取得し、感性効果ラベル及びフォーマットの組み合わせごとにデバイスパラメータの値が定められた変換テーブルに従って、感性効果ラベルに応じたデバイスパラメータであるマッピング評価尺度を定め、前記マッピング評価尺度及びフォーマットがメディアデータごとに定められたメディアテーブルを作成し、
 マッピング決定部が、前記デバイステーブルに含まれるデバイスのうちの前記メディアテーブルに含まれるメディアデータを再生可能なデバイスと前記メディアテーブルに含まれるメディアデータとの組み合わせパターンを前記デバイステーブル及び前記メディアテーブルに含まれるフォーマットに基づいて抽出し、抽出した組み合わせパターンのなかから前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差が最も小さくなる組み合わせパターンを選択し、メディアデータの出力先であるデバイスを選択する。
 本開示のコンテンツ再生プログラムは、本開示に係るコンテンツ再生装置に備わる各機能部としてコンピュータを機能させるプログラムであり、本開示に係るコンテンツ再生方法に備わる各手順をコンピュータに実行させるプログラムである。
 本開示によれば、予め設定された感性効果に応じたメディアデータの再生を可能にすることができる。
本開示に係るシステム構成の一例を示す。 デバイステーブル作成部のブロック構成図である。 デバイス情報の一例を示す。 デバイステーブルの一例を示す。 マッピング決定部に送信されるパラメータの一例を示す。 出力部に送信されるネットワークパラメータの一例を示す。 メディアテーブル作成部のブロック構成図である。 メタデータの一例を示す。 感性効果とマッピング評価尺度の変換テーブルの一例を示す。 メディアテーブルの一例を示す。 マッピング決定部の動作の一例を示すフロー図である。 メディアデータとデバイスのマッピング組み合わせの一例を示す。 出力部のブロック構成図である。 フォーマット変換テーブルの第1例を示す。 フォーマット変換テーブルの第2例を示す。 本実施形態に係るデバイスの抽出例を示す。 第3の実施形態のデバイス情報の一例を示す。 第3の実施形態のメディアテーブルの一例を示す。 第4の実施形態のメタデータの一例を示す。 第4の実施形態の感性効果とマッピング評価尺度の変換テーブルの一例を示す。 第4の実施形態のメディアテーブルの一例を示す。 マッピング評価尺度の計算方法を定めるテーブルの一例を示す。 第4の実施形態のデバイステーブルに含まれるデバイスパラメータの一例を示す。 第5の実施形態に係るシステム構成の一例を示す。 空間パラメータの一例を示す。 空間パラメータの説明図である。 第5の実施形態のデバイステーブルに含まれるデバイスパラメータの一例を示す。 第5の実施形態のメディアテーブルの一例を示す。 本開示のシステムのハードウェア構成の一例を示す。
 以下、本開示の実施形態について、図面を参照しながら詳細に説明する。なお、本開示は、以下に示す実施形態に限定されるものではない。これらの実施の例は例示に過ぎず、本開示は当業者の知識に基づいて種々の変更、改良を施した形態で実施することができる。なお、本明細書及び図面において符号が同じ構成要素は、相互に同一のものを示すものとする。
(第1の実施形態)
 図1に、本開示に係るシステム構成の一例を示す。本開示に係るコンテンツ再生システムは、複数のデバイスD~Dと、入力されたメディアデータを複数のデバイスのいずれかに振り分けて出力するオーケストレータ91と、を備える。デバイスD~Dは、メディアデータを再生可能な任意の装置である。オーケストレータ91は、受信した複数のメディアデータ(映像・音声・あるいは効果音や効果照明など)を、複数のデバイス(ディスプレイ・スピーカ・照明など)に振り分けて出力する。ここで、メディアデータとは、映像や音声などの情報を電子的に符号化したデータをいう。コンテンツは、1つ以上のメディアデータ群と、メディアデータ群に関するメタデータで構成されるものである。
 オーケストレータ91は、デバイステーブル作成手順を実行するデバイステーブル作成部10、メディアテーブル作成手順を実行するメディアテーブル作成部20、マッピング決定手順を実行するマッピング決定部30、出力手順を実行する出力部40、を備える。
 デバイステーブル作成手順では、デバイステーブル作成部10が、各デバイスD~Dからデバイス情報を取得し、これを用いてデバイステーブルを作成する。
 メディアテーブル作成手順では、メディアテーブル作成部20が、メディアデータ及び各メディアデータのメタデータを取得し、メディアテーブルを作成する。
 マッピング決定手順では、マッピング決定部30が、デバイステーブル及びメディアテーブルを用いて、メディアデータと当該メディアデータを再生するデバイスD~Dの組み合わせを決定する。
 出力手順では、出力部40が、マッピング決定部30のマッピング結果に従って、メディアデータをデバイスD~Dに振り分ける。
<デバイステーブル作成部10>
 図2は、デバイステーブル作成部10のブロック構成図である。デバイステーブル作成部10は、デバイス情報受信部11及びデバイステーブル保存/更新部12を備える。
 手順1:デバイス情報受信部11は、各デバイスD~Dからデバイス情報を取得する。デバイス情報は、デバイスの識別情報、対応フォーマット、デバイスパラメータ及びネットワークパラメータを含む。「対応フォーマット」はデバイスが再生可能なメディアデータのフォーマットである。「デバイスパラメータ」はメディアデータを再生する際にデバイスが用いる任意のパラメータである。「ネットワークパラメータ」は、メディアデータを送受信するための情報であり、IPアドレスやポート番号、対応プロトコルを含む。
 図3に、デバイスDが映像ディスプレイの場合のデバイス情報の一例を示す。対応フォーマットはH.264である。デバイスパラメータは、フレームレート及び投影面積を含む。フレームレートは30であり、投影面積は2.0である。ネットワークパラメータは、IPアドレス=192.168.2.10、ポート番号=8118、対応プロトコルRTPである。
 デバイス情報受信部11がデバイス情報を取得する方法は任意である。送信のタイミングは、例えば、メディアテーブル作成部20がメディアデータを受け取った時である。
 手順2:デバイス情報受信部11は、各デバイスD~Dから受信した新しいデバイス情報をデバイステーブル保存/更新部12に渡す。
 手順3:デバイステーブル保存/更新部12は、新しいデバイス情報を受信すると、保持しているデバイステーブルに対し、新しいデバイス情報を追加し、デバイステーブルを更新し、保存する。デバイステーブルの記述形式としては、例えばJSON(JavaScript(登録商標) Object Notation)形式が考えられる。
 図4に、更新されたデバイステーブルの一例を示す。更新されたデバイステーブルでは、照明器具であるデバイスD及びDのデバイス情報並びに映像ディスプレイであるデバイスDのデバイス情報に加え、映像ディスプレイであるデバイスDのデバイス情報が追加されている。
 手順4:デバイステーブル作成部10は、デバイステーブル保存/更新部12に保持しているデバイステーブルから、ネットワークパラメータを除いたマッピングに必要なパラメータを、マッピング決定部30に送信する。またデバイステーブル作成部10は、デバイステーブル保存/更新部12に保持しているデバイステーブルから、各再生デバイスのネットワークパラメータを出力部40に送る。図5に、マッピング決定部30に送信されるパラメータの一例を示す。図6に、出力部40に送信されるパラメータの一例を示す。
<メディアテーブル作成部20>
 図7は、メディアテーブル作成部20のブロック構成図である。メディアテーブル作成部20は、受信部21、変換部22を備える。
 手順1:受信部21は、オーケストレータ91の外部から、メディアデータと、メタデータを受け取る。メタデータをメディアデータに付与する方法は、例えばH.264フォーマットの映像データとそのメタデータをMP4のコンテナに一緒に格納することが例示できる。
 図8に、メタデータの一例を示す。メタデータは、各メディアデータのフォーマット情報及び感性効果ラベルを含む。例えば、メディアデータMは映像データであり、フォーマット情報=H.264、感性効果ラベル=アクション性が紐付けられている。メディアデータMは、照明データであり、フォーマット情報=8bit HSV、感性効果ラベル=アクション性が紐付けられている。
 ここで、「感性効果」は、メディアデータを再生した物理的な結果から、それを見た人間の情緒や嗜好といった感性に訴えかける効果である。例えば、映像データの再生においては、映像の内容そのものに加え、フレームレートや視野に占める映像面積といった再生に関する物理的な数値に応じて、視聴者が感じる「生き生きとしていて動きがよく分かるような様子や雰囲気、すなわちアクション性」という感性効果の強さの度合いが変化すると、一般的に言われている。その他にも迫真性やドラマ性などその種類は多岐にわたる。「迫真性」は、例えば、そこにあるはずのないものが、本当にそこにあるように感じるという感性効果である。「ドラマ性」は、喜怒哀楽などの感情表現が豊かに感じるという感性効果である。「感性効果ラベル」は、感性効果を表す簡潔な文字列、符号あるいは識別子である。上述の例では、感性効果ラベルは「アクション性」、「迫真性」、「ドラマ性」といった文字列に相当する。
 手順2:受信部21は、受信したメディアデータを出力部40に送り、メタデータをマッピング評価尺度の変換部22に送る。
 手順3:変換部22は、内部にあらかじめ持っている「感性効果ラベルとマッピング評価尺度の変換テーブル」に基づき、受信したメタデータの感性効果ラベル部分を、フォーマットに応じて、重みづけされたマッピング評価尺度に変換する。この変換したメタデータをメディアテーブルに追加する。変換部22は、作成したメディアテーブルをマッピング決定部30に送信する。
 図9に、感性効果ラベルとマッピング評価尺度の変換テーブルの一例を示す。例えば、感性効果ラベルがアクション性であるH.264フォーマットのメディアデータの場合、投影面積の評価尺度は重み1.0の1.8であり、フレームレートの評価尺度は重み0.5の60であり、全体重みは0.7である。感性効果ラベルが迫真性であるH.264フォーマットのメディアデータの場合、フレームレートの評価尺度が重み1.0の60であり、ビット深度の評価尺度が重み0.5の16であり、全体重みは0.6である。
 図10に、メディアテーブルの一例を示す。メディアデータMは、図8に示したように、フォーマットがH.264でありかつ感性効果ラベルがアクション性である。この場合、メディアデータMに紐付けられるマッピング評価尺度は、図9の変換テーブルに照らして、投影面積E11=1.8(重みg11=1.0)、フレームレートE12=60(重みg12=0.5)、全体重みG=0.7となる。
 ここで、「マッピング評価尺度Eprp」について説明する。pが1以上の任意の整数である場合、メディアデータMには、r個のマッピング評価尺度が設定される。複数のデバイスのうちいずれか1つのデバイスでメディアデータを再生しようとするとき、メディアデータの各マッピング評価尺度の値と対応するデバイスパラメータの値とが近いデバイスほど、最も期待される感性効果を得ることができる。また、各マッピング評価尺度には、値(例えば、図10における「投影面積E11=1.8」)と、重要度を示す重み(例えば、図10における「重みg11=1.0」)が設定されている。この場合、重みが最大である「投影面積」の値がデバイスパラメータに最も近くなるようなデバイスを、メディアデータの再生に割り当てる。図10に記載された映像のメディアデータMを、図4のデバイステーブルに記載された映像ディスプレイDあるいはDのいずれかで再生しようとする場合、投影面積に関するデバイスパラメータd12またはd22が、投影面積に関するマッピング評価尺度E11に最も近いデバイスを選択して再生させることで、メディアデータMの再生において最も期待されるアクション性の感性効果を得ることが実現される。
 ここで、マッピング評価尺度に含まれる「全体重み(G)」について説明する。全体重みは、複数のメディアデータのマッピングの優先度を決める数値である。図10に示す具体例の場合、映像のメディアデータMの全体重みGは0.7であり、照明のメディアデータMの全体重みGは0.3である。この場合、全体重みがより大きい映像のメディアデータMの目的関数が最終的なマッピング評価において支配的になり、映像のメディアデータMの目的関数を小さくするマッピングがより選択されやすくなる。
<マッピング決定部30>
 図11は、マッピング決定部30の動作の一例を示すフロー図である。マッピング決定部30は、ステップS311~S316を実行する。
 ステップS311:マッピング決定部30は、デバイステーブル作成部10からデバイステーブルを、メディアテーブル作成部20からメディアテーブルを、受信する。そして、マッピング決定部30は、デバイスD~DのなかからメディアデータM及びMを再生させるデバイスの組み合わせを導く。
 例えば、P個のメディアデータ(M~M)とR個のデバイス(D~D)が存在する際、それらをマッピングする組み合わせをすべて導く。所与の全メディアデータが所与の全デバイスで再生可能な場合、組み合わせの総数をX個とすると、次式が成立する。
Figure JPOXMLDOC01-appb-M000001
 例えば、本実施形態では、図4に示すような4種類のデバイスD~Dと、図8に示すような2種類のメディアデータM及びMが存在する。この場合、X==4×3=12個の組み合わせが存在することになる。しかし、必ずしも全デバイスが全メディアデータを再生可能とは限らず、その際には組み合わせの総数Xは減少する。このとき、マッピング決定部30は、各メディアデータと各デバイスの対応フォーマットを比較し、フォーマットが一致するメディアデータMとデバイスDの組み合わせのみを対象に組み合わせパターンを導く。
 図12に、メディアデータとデバイスのマッピング組み合わせの一例を示す。本実施形態では、メディアデータMはH.264フォーマットの映像データであり、メディアデータMは8bit HSVの照明データである。デバイスD及びDはH.264フォーマットを再生可能な映像ディスプレイであり、デバイスD及びDは8bit HSVを再生可能な照明器具である。この場合、組み合わせパターンは以下の4通りとなる。
 ・組み合わせパターンx=1:MとDの組み合わせ、MとDの組み合わせ
 ・組み合わせパターンx=2:MとD組み合わせ、MとDの組み合わせ
 ・組み合わせパターンx=3:MとD組み合わせ、MとDの組み合わせ
 ・組み合わせパターンx=4:MとD組み合わせ、MとDの組み合わせ
 ステップS312:組み合わせパターンをx(x=1~X)とし、x=1から処理を開始する。本実施形態では、p=1とr=1の組合せ、p=1とr=2の組合せ、p=2とr=3の組合せ、p=2とr=4の組合せ、が存在する。
 ステップS313:メディアデータMとデバイスDの組合せに対して、それぞれ式2を用いて目的関数L を計算する。
Figure JPOXMLDOC01-appb-M000002
 ここで、rは、メディアデータMに設定されたマッピング評価尺度の総数である。pはメディアデータの識別子であり、p=1~Pの自然数、Pは再生しようとするメディアデータの総数である。rはデバイスの識別子であり、r=1~Rの自然数、Rはデバイスの総数である。epiは、メディアデータMのi番目のマッピング評価尺度Epiとマッピング評価尺度Epiに対応する出力値Epi’との相対誤差を表し、次式で表される。
Figure JPOXMLDOC01-appb-M000003
 出力値Epi’は、マッピング評価尺度Epiに対応するデバイスパラメータの値である。例えば、マッピング評価尺度E11の出力値E11’は、投影面積に対応するデバイスパラメータであり、デバイスDであればデバイスパラメータd12が出力値E11’に相当する。
 式2で表される目的関数L は、相対誤差epiにそのマッピング評価尺度Epiに係る重みgpiを積算して算出し、それらを合算する、という計算を行うものである。目的関数L が小さいほど、各マッピング評価尺度に対する出力値の相対誤差が小さいことを意味している。すなわち、目的関数L が小さいほど、期待される感性効果をより忠実に実現することができる。そこで、メディアデータM(p=1~P)とデバイスD(r=1~R)の全ての組み合わせについて目的関数L を計算する。そして、ステップS316において、目的関数L が最も小さくなるデバイスDとメディアデータMの組み合わせを有する組み合わせパターンを、メディアデータとその再生のためのデバイスの対応付け(マッピング)として決定する。
 ステップS314:計算された目的関数L を用いて、下記のように組み合わせパターンにおけるマッピング評価関数Sを計算し、記録する。
Figure JPOXMLDOC01-appb-M000004
 マッピング評価関数Sが最も小さい場合、複数のメディアデータによって発生する総合的な感性効果が最も期待される状態で実現される、と考える。すなわち、マッピング決定部30は、図11のフローに則り、マッピング評価関数Sが最も小さくなるマッピングの組み合わせパターンxを探す。
 ステップS315:xを更新し、ステップS313に戻る。x=XになったらステップS316に移行する。
 ステップS316:x=1~Xのすべての組み合わせパターンで計算したマッピング評価関数Sを比較し、Sが最小になるときの組み合わせパターンxを最良のマッピング結果として出力する。
 目的関数L 及びマッピング評価関数Sの具体的な計算方法について説明する。本実施形態では、例えば下記の図10に示すメディアテーブル、図4に示すデバイステーブルの場合、再生デバイスは映像2種類×照明2種類でマッピングの組み合わせパターンは4パターンある。このため、本実施形態では、X=4であり、x=1~4の場合のマッピング評価関数Sを導出する。
 x=1:M/Dの組み合わせとM/Dの組み合わせ
 x=2:M/Dの組み合わせとM/Dの組み合わせ
 x=3:M/Dの組み合わせとM/Dの組み合わせ
 x=4:M/Dの組み合わせとM/Dの組み合わせ
 まず、メディアデータMの目的関数L 及びL の導出例について説明する。
 p=1かつr=1の場合、マッピング評価尺度E11(投影面積)の出力値E11’は、デバイスDのデバイスパラメータd12(投影面積)と等価である。このとき、マッピング評価尺度E11に対する出力値E11’の相対誤差e11
Figure JPOXMLDOC01-appb-M000005
と計算できる。
 e11が小さいほどメディアデータに対応付けられた感性効果をより忠実に実現できている、と評価する。フレームレートの相対誤差e12についても同様に計算できる。このように各マッピング評価尺度について相対誤差を計算し、重みgpiをかけて和を取ると、下記のような式で表せる。
Figure JPOXMLDOC01-appb-M000006
 重みが大きいマッピング評価尺度ほど目的関数L への影響が大きくなる。つまり、重みが大きいマッピング評価尺度Eと出力値E’が近いデバイスはL が小さくなり、マッピングされやすくなる。p=1かつr=1,2の組み合わせで、L とL を計算してみると下記のようになる。
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
 このように、p=1の場合、映像メディアデータMは投影面積が最も重みが大きいすなわち支配的なため、投影面積の所望値に近い値を出力できる映像ディスプレイであるデバイスDの方がL は小さくなる。
 このような計算を、p=2かつr=3,4すなわちメディアデータMの目的関数L 及びL も同様に計算すると以下のようになる。
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000010
 これらをもとに、x=1~4のマッピング評価関数S~Sが算出できる。
Figure JPOXMLDOC01-appb-M000011
Figure JPOXMLDOC01-appb-M000012
Figure JPOXMLDOC01-appb-M000013
Figure JPOXMLDOC01-appb-M000014
 本実施形態は、Sの導出に全体重みGを用いているため、映像のメディアデータMの目的関数の方がSの大小に対する影響が大きく(=支配的に)なり、M(照明)の目的関数の影響は相対的に小さくなっている。すなわち、全体重みGが大きいメディアについて優先してマッピングの評価を行うように計算することができる。
 本実施形態では、x=3の組み合わせパターンにおけるマッピング評価関数Sが最小である。マッピング評価関数S~Sのなかから最も小さいSをマッピングの組み合わせパターンとして採用する。この場合、マッピング決定部30は、x=3の組み合わせパターンをマッピング結果として出力する。これにより、本実施形態では、メディアMはデバイスDに割り当てられ、メディアデータMはデバイスDに割り当てられる。
<出力部40>
 図13は、出力部40のブロック構成図である。出力部40は、送受信指示部41、メディアデータ保存部42、送信部43を備える。
 手順1:送受信指示部41は、デバイステーブル作成部10から各デバイスのネットワークパラメータを受信する。
 手順2:出力部40は、メディアテーブル作成部20からメディアデータを受信し、メディアデータ保存部42に保存する。
 手順3:送受信指示部41は、マッピング決定部30からマッピング結果を受け取る。マッピング結果は、各メディアデータM及びMを再生するデバイスD及びDを含む。その後、送受信指示部41は、各デバイスのネットワークパラメータを用いて、メディアデータの送受信に必要な情報を生成する。メディアデータの送受信に必要な情報は、例えばSDP(Session Description Protocol)ファイル等である。
 手順4:送受信指示部41は、送信部43に対し、メディアデータの送受信に必要な情報とメディアデータの送信指示を送信する。メディアデータの送受信に必要な情報は、デバイステーブル作成部10から取得した各デバイスのネットワークパラメータである。メディアデータ保存部42は、メディアデータを送信部43に送信する。送信部43は、各デバイスD~Dに対して、マッピングされたメディアデータを送信する。メディアデータの送信方法は、例えばRTP(Real-time Transport Protocol)を用いることができる。
(発明の効果)
 本開示は、以下の効果を得ることができる。
 ・マッピング評価尺度に含まれる複数のパラメータの設定作業を、感性効果ラベルの選択のみに簡略化出来る。
 ・複数のメディアデータの再生によって発生する総合的な感性効果を自動で最大化できる。
(第2の実施形態)
 本実施形態では、出力部40に備わる送受信指示部41が、メディアデータMのフォーマットFを変換する機能を有する。
 第1の実施形態では、図11に示すステップS311において、マッピング決定部30は、デバイスD~Dのなかから、メディアデータMのフォーマットFとデバイスの対応フォーマットが一致するデバイスのみを、マッピングの組み合わせ対象として抽出している。本実施形態では、出力部40においてメディアデータMのフォーマットFを変換することができる。このため、本実施形態のマッピング決定部30は、フォーマットの変換が可能な範囲で組み合わせパターンのバリエーションを増やすことができる。
 マッピング決定部30は、送受信指示部41において変換可能なフォーマットを定めたフォーマット変換テーブルを参照し、フォーマット変換を行うことで使用可能なデバイスであれば、マッピングの組み合わせ対象として抽出する。これにより、本実施形態は、メディアデータMのフォーマットFとデバイスのフォーマットが異なっていても、メディアデータMのフォーマットFをデバイスの対応フォーマットに変換することが可能であれば、そのデバイスもマッピングの組み合わせ対象に追加する。
 図14にフォーマット変換テーブルの第1例を示す。フォーマット変換テーブルの第1例は、各行に相互変換可能なフォーマットを並べたものである。この場合、各行に片方向に変換可能なフォーマットの変換元と変換先を記述するテーブルをあらかじめ用意する。
 図15に、フォーマット変換テーブルの第2例を示す。フォーマット変換テーブルの第2例は、フォーマットの片方向変換が可能なフォーマットを並べたものである。
 本実施形態では、マッピング決定部30においてフォーマット変換テーブルを用意することで、メディアデータにフォーマットが対応する再生デバイスの抽出を以下の手順で行うことができる。
 図16に、本実施形態に係るデバイスの抽出例を示す。例えば、メディアデータMがH.265フォーマットの映像のメディアデータであり、フォーマット変換テーブルにおいて相互変換可能な組み合わせにH.264及びH.265が記載されている。この場合、フォーマット変換ができなければ、メディアデータMのフォーマットに対応するデバイスはデバイスDのみである。これに対し、本実施形態は、フォーマット変換を用いるため、メディアデータMのフォーマットに対応するデバイスとして、デバイスD及びDを抽出する。
 マッピング決定部30は、マッピング結果として、各メディアデータM及びMを再生するデバイスD及びDと共に、各デバイスD及びDにおいて再生するフォーマットを、送受信指示部41へ送信する。送受信指示部41は、メディアデータMのフォーマットをH.265からH.264に変換し、変換後のメディアデータMをデバイスDへの送信部43に送信する。これにより、デバイスDにおけるメディアデータMの再生が可能になる。
 フォーマット変換ができなければ、組み合わせパターンの総数Xは、2×1=2通りである。これに対し、本実施形態は、メディアフォーマットの相互変換テーブルを利用することで、組み合わせパターンの総数Xは、2×2=4通りまで増大することができる。
 本実施形態は、マッピングの組み合わせパターンの総数Xを増大することで、マッピング評価関数Sの最小値をより小さくできる、より評価の高いマッピング組み合わせを発見できる可能性を与える
(第3の実施形態)
 第1の実施形態では、マッピング決定部30の目的関数L を計算する際、デバイスパラメータは固定値であるとしていた。デバイスD~Dによっては、デバイスパラメータが所定の範囲内で変動可能な場合がある。本実施形態のシステムは、デバイスDが変動可能なデバイスパラメータを有する場合について説明する。
 図17に、本実施形態のデバイス情報の一例を示す。本実施形態のデバイス情報受信部11は、各デバイスD~Dから、デバイスパラメータの変動する範囲も取得する。例えば、映像ディスプレイであるデバイスDの場合、デバイス情報受信部11は、明るさのデバイスパラメータd13が1.0~3.0の範囲で、0.5の刻み幅で変動ないし選択可能で、1.5や2.0といった数値が出力可能である旨を、デバイスパラメータとして取得する。
 マッピング決定部30は、組み合わせパターンxを選択する際に、デバイスパラメータの変動する範囲を考慮する。例えば、図18に示すように、メディアテーブルのメディアデータMのマッピング評価尺度欄に、明るさの評価尺度E13が2.2であり、この重みg13が0.3である旨が記載されている場合、ステップS313において、マッピング決定部30は、明るさの評価尺度E13を用いて相対誤差e13を算出する。
 具体的には、明るさの評価尺度E13の出力値E13’は、図17に示すデバイス情報によれば、明るさのデバイスパラメータd13に対応する。明るさの評価尺度E13の所望値が2.2である。この場合、マッピング決定部30は、変動可能な1.0~3.0の範囲の刻み幅0.5の値で最も2.2に近い数値、すなわち2.0を、明るさのデバイスパラメータd13の出力値として選択する。この場合、相対誤差e13は、以下のように計算できる。
Figure JPOXMLDOC01-appb-M000015
 マッピング決定部30は、マッピング結果として、各メディアデータM及びMを再生するデバイスD及びDと共に、各デバイスD及びDにおいて用いるデバイスパラメータを、送受信指示部41へ送信する。送受信指示部41は、明るさのデバイスパラメータd13に2.0を用いる旨をデバイスDへの送信部43に送信する。これにより、デバイスDは、明るさのデバイスパラメータd13に2.0を用いて、メディアデータMの再生を行う。
 本実施形態は、マッピング評価尺度の所望値により近い値をデバイスパラメータに用いる。このため、デバイスDは、メディアデータMの再生において、より所望に近い感性効果を実現することができる。
(第4の実施形態)
 第1の実施形態では、メディアテーブル作成部20は、ほかのメディアデータのマッピング評価尺度に影響されない絶対的なマッピング評価尺度を割り当てる。これに対し、本実施形態のメディアテーブル作成部20は、他のメディアデータに影響される相対的なマッピング評価尺度を考慮する。
 まず、メディアテーブル作成部20の取得するメディアデータのメタデータは、図8の項目に加えて、図19のように、「他メディアデータとの関係」に関する情報を含む。「他メディアデータとの関係」に関する情報は、例えば、メディアデータM及びMの両方を再生する場合、メディアデータMがメインになり、メディアデータMがサブである旨を含む。
 また、メディアテーブル作成部20の参照する感性効果ラベルとマッピング評価尺度の変換テーブルは、図9の項目に加えて、図20のように「メディアデータの関係性」に関する情報、及びメインメディアデータとサブメディアデータとの関係を示すマッピング評価尺度を含む。
 図19のメタデータには、メディアデータMがメインになり、メディアデータMがサブである旨が記載されている。この場合、メディアテーブル作成部20は、マッピング評価尺度で定められているメインメディアデータに対する相対距離が2.0である旨を読み出し、サブのメディアデータMのマッピング評価尺度に反映させる。例えば、メインメディアデータがMであり、メディアデータMに対する相対距離が2.0であり、重みが0.5である旨を設定する。これにより、図21に示すようなメディアテーブルに変換する。上記のように、メディアデータMはメディアデータMに対する相対的なマッピング評価尺度を持つことができる。
 第1の実施形態では、マッピング決定部30が目的関数L を計算する際、マッピング評価尺度の出力値は、名称が対応するデバイスパラメータと等価であるとしていた。例えば、映像メディアデータの「投影面積」というマッピング評価尺度の出力値は、映像ディスプレイの「投影面積」というデバイスパラメータと等価であった。本実施形態では、相対的なマッピング評価尺度の出力値は複数のデバイスパラメータが必要である。そこで、本実施形態は、デバイスパラメータと計算方法を示す図22のようなマッピング評価尺度の計算方法を定めるテーブルを予め作成しておく。
 また、本実施形態では、図23に示すように、デバイステーブルに含まれるデバイスパラメータが、3次元座標を含む。3次元座標は、デバイスの配置されている位置を示す情報である。本実施形態では、簡単な例として、デバイスDの3次元座標が(0,1,2)であり、デバイスDの3次元座標が(0,2,1)である例を示す。
 マッピング決定部30は、メディアテーブル、デバイステーブル及びマッピング評価尺度の出力値の計算方法を定めるテーブルを用いて、マッピングの組み合わせパターンxを求める。
 例えば、マッピング評価尺度がメインメディアデータとサブメディアデータの相対距離の場合、マッピング評価尺度の出力値の計算方法は、
Figure JPOXMLDOC01-appb-M000016
 マッピング決定部30は、3次元座標d13及びd23をデバイステーブルから読み出し、メディアデータMに対する相対距離E22の出力値E22’及び相対誤差e22を求めることができる。
Figure JPOXMLDOC01-appb-M000017
Figure JPOXMLDOC01-appb-M000018
 本実施形態は、メディアデータの関係性を考慮したマッピング評価尺度を取り扱うことで、より感性効果の高い組み合わせパターンを選択することができる。例えば、アクション性という感性効果ラベルは、メインメディアデータを提示することに加え、サブメディアデータを適切な相対的な距離で追加して提示することで、メインメディアデータとサブメディアデータ間の相互作用が起こり、アクション性が高まる、などである。
(第5の実施形態)
 図24に、本実施形態に係るシステム構成の一例を示す。本実施形態に係るオーケストレータ91は空間パラメータ取得部50をさらに備える。マッピング決定部30の目的関数L の計算においては、マッピング評価尺度Epiとデバイスパラメータdのみを利用していた。本実施形態は、これに加え、空間パラメータを計算に利用する。
 空間パラメータ取得部50は、空間パラメータを取得する任意の手段であり、例えば、センサ、センサからデータを受信する通信手段、キーボードやマウスなどの入力手段が例示できる。
 空間パラメータは、空間自体が持つ、マッピング評価尺度に影響するパラメータである。例えば、空間パラメータは、空間の明るさ、壁面の光の反射特性、空間の音響特性、空間の3Dマップを含む。
 図25に、空間パラメータの一例を示す。図25に示す空間パラメータは、空間の3Dマップであり、図26に示すような、X軸、Y軸、Z軸方向における壁面の範囲が定められている。
 図27に本実施形態のデバイステーブルの一例を示す。本実施形態のデバイステーブルは、再生デバイスDがプロジャクタであり、対応フォーマットがH.264であり、デバイスパラメータがフレームレート、画面サイズ、3次元座標、単位方向ベクトル及び中心法線直接照度を含む。3次元座標及び単位方向ベクトルは、空間パラメータの要素である。
 また本実施形態においては、デバイスパラメータとして固定値ではなく、空間パラメータや他のデバイスパラメータを用いる計算式を記述してよい。例えばこの場合、画面サイズは固定値ではなく、3次元座標と空間パラメータで計算される。このように構成することで、空間パラメータを用いて計算するデバイスパラメータを取り扱うことが出来る。
 図28に本実施形態のメディアテーブルの一例を示す。本実施形態のメディアテーブルは、メディアデータMが映像メディアデータであり、フォーマットがH.264であり、マッピング評価尺度が投影面積、フレームレート及び中心法線直接照度を含む。
 マッピング決定部30は、組み合わせパターンxを抽出する際に、以下を考慮する。
デバイスパラメータの中に空間パラメータの要素が存在する場合、マッピング決定部30は、空間パラメータの要素を読み出す。例えば、デバイスDの場合、マッピング決定部30は、3次元座標d13=(f,g,h)と単位方向ベクトルd14=(i,j,k)を読み出す。そして、マッピング決定部30は、空間パラメータを参照し、各壁面の方程式を利用した幾何的計算を行う。これにより、マッピング決定部30は、図26においてデバイスDは壁面W5に映像を投影するような状況になっていると判定する。
 このとき、デバイスDとY=bの壁面W5のY座標の関係は、空間パラメータより、b=A×j+gとなる。よってA=(b-g)/jと計算できる。これにより、画面サイズの出力値E11’(=d12)や中心法線直接照度の出力値E13’(=d15)が計算可能になる。
 本実施形態は、感性効果の増大の効果が得られる。例えば、空間パラメータを考慮して初めて計算可能な中心法線直接照度は、映像や照明といったメディアデータの明るさに関するパラメータであり、感性効果ラベルのドラマ性に寄与する。これを考慮可能にすることで、さらにドラマ性を高めるマッピングが実現できる。
(第6の実施形態)
 図29は、本開示のシステムのハードウェア構成の一例を示している。本開示のシステムは、本開示に係るコンテンツ再生装置として機能するコンピュータ96と、デバイスDを含む。コンピュータ96は、ネットワーク95へと接続されていてもよい。ネットワーク95は、データ通信ネットワークである。通信は、ネットワーク95を介して電子信号及び光信号によって行われる。
 コンピュータ96は、プロセッサ110、及びプロセッサ110に接続されたメモリ120を含む。プロセッサ110は、命令に応答し且つ命令を実行する論理回路で構成される電子デバイスである。メモリ120は、コンピュータプログラムがエンコードされた有形のコンピュータ96にとって読み取り可能な記憶媒体である。この点に関し、メモリ120は、プロセッサ110の動作を制御するためにプロセッサ110によって読み取り可能及び実行可能なデータ及び命令、すなわちプログラムコードを記憶する。メモリ120の構成要素の1つは、プログラムモジュール121である。
 プログラムモジュール121は、本実施形態に備わる任意の機能部を実現させるためのモジュールを含む。例えば、プログラムモジュール121は、デバイステーブル作成部10、メディアテーブル作成部20、マッピング決定部30、出力部40を実現させるためのモジュールを含む。
 プログラムモジュール121は、本明細書に記載のプロセスを実行するようにプロセッサ110を制御するための命令を含む。プログラムモジュール121は、すでにメモリ120へとロードされているものとして示されているが、メモリ120へと後にロードされるように記憶装置140上に位置するように構成されてもよい。記憶装置140は、プログラムモジュール121を記憶する有形のコンピュータにとって読み取り可能な記憶媒体である。あるいは、記憶装置140は、ネットワーク95を介してコンピュータ96へと接続される他の種類の電子記憶デバイスであってよい。
 本開示は情報通信産業に適用することができる。
10:デバイステーブル作成部
11:デバイス情報受信部
12:デバイステーブル保存/更新部
20:メディアテーブル作成部
21:受信部
22:変換部
30:マッピング決定部
40:出力部
41:送受信指示部
42:メディアデータ保存部
43:送信部
91:オーケストレータ
95:ネットワーク
96:コンピュータ
110:プロセッサ
120:メモリ
121:プログラムモジュール
140:記憶装置

Claims (7)

  1.  再生可能なメディアデータのフォーマット及びメディアデータの再生時に用いるデバイスパラメータをデバイスごとに定めたデバイステーブルを保持するデバイステーブル作成部と、
     メディアデータのフォーマット及び感性効果ラベルを含むメタデータを取得し、感性効果ラベル及びフォーマットの組み合わせごとにデバイスパラメータの値が定められた変換テーブルに従って、感性効果ラベルに応じたデバイスパラメータであるマッピング評価尺度を定め、前記マッピング評価尺度及びフォーマットがメディアデータごとに定められたメディアテーブルを作成する、メディアテーブル作成部と、
     前記デバイステーブルに含まれるデバイスのうちの前記メディアテーブルに含まれるメディアデータを再生可能なデバイスと前記メディアテーブルに含まれるメディアデータとの組み合わせパターンを前記デバイステーブル及び前記メディアテーブルに含まれるフォーマットに基づいて抽出し、抽出した組み合わせパターンのなかから前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差が最も小さくなる組み合わせパターンを選択し、メディアデータの出力先であるデバイスを選択する、マッピング決定部と、
     を備える、
     コンテンツ再生装置。
  2.  前記マッピング評価尺度は、メディアデータの優先順位を定める全体重みを含み、
     前記マッピング決定部は、前記デバイステーブルに含まれるデバイスパラメータを用いて各マッピング評価尺度との相対誤差を求め、各マッピング評価尺度の相対誤差に全体重みを乗算した相対誤差の総和を求めることで、前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差を求める、
     請求項1に記載のコンテンツ再生装置。
  3.  前記マッピング決定部の選択したデバイスとメディアデータとの組み合わせパターンに対応するメディアデータを、前記マッピング決定部の選択したデバイスに出力する、出力部をさらに備え、
     前記出力部は、メディアデータのフォーマットを変換する送受信指示部を備え、
     前記マッピング決定部は、前記送受信指示部において変換可能なフォーマットを前記デバイステーブルに含まれるフォーマットに含め、前記組み合わせパターンを抽出する、
     請求項1又は2に記載のコンテンツ再生装置。
  4.  前記デバイステーブルに含まれるデバイスパラメータは、デバイスで変動可能な範囲を含み、
     前記マッピング決定部は、前記デバイステーブルに含まれるデバイスパラメータの変動可能な範囲から、前記メディアテーブルに含まれるマッピング評価尺度に最も近いデバイスパラメータを用いて、前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差を求める、
     請求項1から3のいずれかに記載のコンテンツ再生装置。
  5.  前記メタデータは、メディアデータ同士の相対関係を含み、
     前記感性効果ラベル及びフォーマットの組み合わせごとにデバイスパラメータの値が定められた変換テーブルは、相対関係を有するメディアデータとの相対関係を示すマッピング評価尺度を含み、
     前記マッピング決定部は、相対関係を有するメディアデータとの相対関係を示すマッピング評価尺度を用いて、前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差を求める、
     請求項1から4のいずれかに記載のコンテンツ再生装置。
  6.  デバイステーブル作成部が、再生可能なメディアデータのフォーマット及びメディアの再生時に用いるデバイスパラメータをデバイスごとに定めたデバイステーブルを保持し、
     メディアテーブル作成部が、メディアデータのフォーマット及び感性効果ラベルを含むメタデータを取得し、感性効果ラベル及びフォーマットの組み合わせごとにデバイスパラメータの値が定められた変換テーブルに従って、感性効果ラベルに応じたデバイスパラメータであるマッピング評価尺度を定め、前記マッピング評価尺度及びフォーマットがメディアデータごとに定められたメディアテーブルを作成し、
     マッピング決定部が、前記デバイステーブルに含まれるデバイスのうちの前記メディアテーブルに含まれるメディアデータを再生可能なデバイスと前記メディアテーブルに含まれるメディアデータとの組み合わせパターンを前記デバイステーブル及び前記メディアテーブルに含まれるフォーマットに基づいて抽出し、抽出した組み合わせパターンのなかから前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差が最も小さくなる組み合わせパターンを選択し、メディアデータの出力先であるデバイスを選択する、
     コンテンツ再生方法。
  7.  請求項1から5のいずれかに記載のコンテンツ再生装置に備わる各機能部としてコンピュータを機能させる、コンテンツ再生プログラム。
PCT/JP2019/027389 2019-07-10 2019-07-10 コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム WO2021005757A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/625,368 US11805294B2 (en) 2019-07-10 2019-07-10 Content playback device, content playback method and content playback program
PCT/JP2019/027389 WO2021005757A1 (ja) 2019-07-10 2019-07-10 コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム
JP2021530432A JP7211514B2 (ja) 2019-07-10 2019-07-10 コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/027389 WO2021005757A1 (ja) 2019-07-10 2019-07-10 コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム

Publications (1)

Publication Number Publication Date
WO2021005757A1 true WO2021005757A1 (ja) 2021-01-14

Family

ID=74114452

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/027389 WO2021005757A1 (ja) 2019-07-10 2019-07-10 コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム

Country Status (3)

Country Link
US (1) US11805294B2 (ja)
JP (1) JP7211514B2 (ja)
WO (1) WO2021005757A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012511837A (ja) * 2008-07-14 2012-05-24 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 感覚再生装置に係るメタデータを用いるマルチメディアアプリケーションシステム及びその方法
US20180164655A1 (en) * 2016-12-12 2018-06-14 Gracenote, Inc. Systems and methods to transform events and/or mood associated with playing media into lighting effects

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI278238B (en) * 2005-10-07 2007-04-01 Via Tech Inc Format converting method
CN102090058A (zh) 2008-07-15 2011-06-08 夏普株式会社 数据发送装置、数据接收装置、数据发送方法、数据接收方法及视听环境控制方法
US9282337B2 (en) * 2009-02-27 2016-03-08 Vixs Systems, Inc. Media source device with digital format conversion and methods for use therewith
JP2012524452A (ja) 2009-04-15 2012-10-11 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 感覚効果のためのメタデータ提供方法及び装置、感覚効果のためのメタデータが記録されたコンピュータ読み取り可能な記録媒体、感覚再生方法及び装置
US20110126104A1 (en) * 2009-11-20 2011-05-26 Rovi Technologies Corporation User interface for managing different formats for media files and media playback devices
US20120151006A1 (en) * 2010-12-13 2012-06-14 Motorola Mobility, Inc. Content sharing between a universal plug and play device and a wide area network device
US9628842B2 (en) * 2011-02-11 2017-04-18 Sony Corporation Method and apparatus for identifying content using IPTV devices
JP2012175149A (ja) * 2011-02-17 2012-09-10 Panasonic Corp 通信システム、通信装置、通信方法、およびプログラム
US9137281B2 (en) * 2012-06-22 2015-09-15 Guest Tek Interactive Entertainment Ltd. Dynamically enabling guest device supporting network-based media sharing protocol to share media content over local area computer network of lodging establishment with subset of in-room media devices connected thereto
US9049470B2 (en) * 2012-07-31 2015-06-02 Google Technology Holdings LLC Display aware transcoder source selection system
US9544662B2 (en) * 2013-12-30 2017-01-10 Google Technology Holdings LLC Distributing metadata to peer devices
CN107251565B (zh) * 2014-07-11 2021-04-27 惠普发展公司,有限责任合伙企业 云服务器、控制设备、输出设备、用于配对设备的方法和包括它们的云***
US10298876B2 (en) * 2014-11-07 2019-05-21 Sony Corporation Information processing system, control method, and storage medium
US20160173937A1 (en) * 2014-12-11 2016-06-16 Mediatek Inc. Methods and devices for media casting management among multiple media casting devices supporting different media casting protocols
US20170131863A1 (en) * 2015-11-06 2017-05-11 Logitech Program generation for a universal control system
US10038941B2 (en) * 2015-12-07 2018-07-31 Caavo Inc Network-based control of a media device
KR20170106793A (ko) * 2016-03-14 2017-09-22 한국전자통신연구원 디바이스 제어 장치 및 방법
WO2017160924A1 (en) * 2016-03-15 2017-09-21 Sonifi Solutions, Inc. Systems and methods for associating communication devices with output devices
US10382806B2 (en) * 2016-11-14 2019-08-13 DISH Technologies L.L.C. Apparatus, systems and methods for controlling presentation of content using a multi-media table
EP3545661B1 (en) * 2016-11-23 2023-01-04 Fasetto, Inc. Systems and methods for streaming media
BR102018074626A2 (pt) * 2018-11-28 2020-06-09 Samsung Eletronica Da Amazonia Ltda método para controle de dispositivos com internet das coisas através de receptores de tv digital usando transmissão a partir de um radiodifusor em um fluxo de transporte
WO2022208241A1 (en) * 2021-03-31 2022-10-06 Jio Platforms Limited System and method for sharing media resources for network based communication

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012511837A (ja) * 2008-07-14 2012-05-24 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 感覚再生装置に係るメタデータを用いるマルチメディアアプリケーションシステム及びその方法
US20180164655A1 (en) * 2016-12-12 2018-06-14 Gracenote, Inc. Systems and methods to transform events and/or mood associated with playing media into lighting effects

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
D' ABREU NORONHA, S.: "Context-Sensitive Display Adaptation", TECHNICAL DISCLOSURE COMMONS, 17 April 2018 (2018-04-17), pages 1 - 10, XP055788718, Retrieved from the Internet <URL:https://www.tdcommons.org/dpubs_series/1170> [retrieved on 20191120] *

Also Published As

Publication number Publication date
US11805294B2 (en) 2023-10-31
JPWO2021005757A1 (ja) 2021-01-14
US20220256240A1 (en) 2022-08-11
JP7211514B2 (ja) 2023-01-24

Similar Documents

Publication Publication Date Title
KR102210541B1 (ko) 실제 장면의 재현에 가상 이미지 및 오디오 데이터를 오버레이하는 방법 및 장치, 그리고 모바일 디바이스
US10991349B2 (en) Method and system for musical synthesis using hand-drawn patterns/text on digital and non-digital surfaces
US10885718B2 (en) Methods and systems for representing a pre-modeled object within virtual reality data
US20210248788A1 (en) Virtual and real composite image data generation method, virtual and real images compositing system, trained model generation method, virtual and real composite image data generation device
US11393228B2 (en) Methods, systems, articles of manufacture and apparatus to generate digital scenes
US10970932B2 (en) Provision of virtual reality content
CN113316078B (zh) 数据处理方法、装置、计算机设备及存储介质
JP6656382B2 (ja) マルチメディア情報を処理する方法及び装置
CN114270877A (zh) 非重合视听捕获***
WO2021005757A1 (ja) コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム
CN116755590A (zh) 虚拟图像的处理方法、装置、增强实现设备及存储介质
US20230031587A1 (en) System and method of controlling image processing devices
JP2023518882A (ja) 拡張現実コンテンツ提供のための装置および方法
KR20210025324A (ko) 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법
KR20210020636A (ko) 음악 교육 서비스 제공 방법 및 장치
US20240212306A1 (en) Performance Recording System, Performance Recording Method, and Recording Medium
KR102430914B1 (ko) 가상현실 및 증강현실 컨텐츠 제공 시스템, 방법 그리고 컴퓨터 프로그램
US20230326357A1 (en) Information processing system and computer system implemented method of processing information
WO2023053249A1 (ja) 学習装置、推定装置、学習方法、推定方法及びプログラム
CN113825018B (zh) 一种基于图像处理的视频处理管理平台
WO2020166352A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN116339675A (zh) 一种调整音频信息的方法、装置、设备及存储介质
Vijila et al. Air xylophone Using OpenCV
CN118250627A (zh) 车辆投影方法、装置、车辆及存储介质
KR20220129746A (ko) 예술작품 관련 음원 제공 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19936780

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021530432

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19936780

Country of ref document: EP

Kind code of ref document: A1