WO2021005757A1 - コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム - Google Patents
コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム Download PDFInfo
- Publication number
- WO2021005757A1 WO2021005757A1 PCT/JP2019/027389 JP2019027389W WO2021005757A1 WO 2021005757 A1 WO2021005757 A1 WO 2021005757A1 JP 2019027389 W JP2019027389 W JP 2019027389W WO 2021005757 A1 WO2021005757 A1 WO 2021005757A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- media data
- mapping
- media
- format
- evaluation scale
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000013507 mapping Methods 0.000 claims abstract description 167
- 238000011156 evaluation Methods 0.000 claims abstract description 88
- 230000000694 effects Effects 0.000 claims abstract description 53
- 239000000284 extract Substances 0.000 claims abstract description 3
- 238000006243 chemical reaction Methods 0.000 claims description 32
- 230000005540 biological transmission Effects 0.000 claims description 22
- 230000035945 sensitivity Effects 0.000 claims description 20
- 230000006870 function Effects 0.000 description 31
- 238000004364 calculation method Methods 0.000 description 11
- 230000009471 action Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000002996 emotional effect Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000008451 emotion Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 235000019615 sensations Nutrition 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
- H04N21/4355—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
- H04N21/4358—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen for generating different versions, e.g. for different peripheral devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/43615—Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/4363—Adapting the video stream to a specific local network, e.g. a Bluetooth® network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440218—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
Definitions
- the present invention relates to a content playback device and a playback method composed of one or more media data.
- the present invention relates to a content reproduction device and a reproduction method composed of a plurality of types of media data.
- mapping evaluation scale consists of parameters that affect the physical reproduction result of media data.
- Non-Patent Document 1 discloses a method of mapping a 3DCG image to a projector group by inputting a mapping evaluation scale by a content creator.
- the system of Non-Patent Document 1 is based on an indoor 3D map, a projector, the position of the viewer, and the like.
- the content creator sets a desired value of a group of physical parameters indicating the relationship between the relative three-dimensional coordinates, orientation, and volume between 3DCG objects as a mapping evaluation scale.
- the system of Non-Patent Document 1 determines an appropriate mapping and supplies video data to the projector.
- the purpose of this disclosure is to enable the reproduction of media data according to a preset sensitivity effect.
- the content playback device of the present disclosure is A device table creation unit that holds a device table that defines the format of playable media data and the device parameters used when playing media data for each device.
- a mapping evaluation scale that acquires metadata including media data format and sensitivity effect label, and is a device parameter according to the sensitivity effect label according to a conversion table in which device parameter values are defined for each combination of sensitivity effect label and format.
- a media table creation unit that creates a media table in which the mapping evaluation scale and format are defined for each media data.
- a combination pattern of a device capable of reproducing the media data included in the media table and the media data included in the media table is based on the device table and the format included in the media table.
- the combination pattern that minimizes the relative error between the device parameters included in the device table and the mapping evaluation scale included in the media table is selected from the extracted combination patterns, and is the output destination of the media data.
- the mapping decision unit that selects the device, To be equipped.
- the content reproduction method of the present disclosure is
- the device table creation unit holds a device table that defines the format of playable media data and the device parameters used when playing media for each device.
- the media table creation unit acquires metadata including the format of the media data and the sensitivity effect label, and the device corresponding to the sensitivity effect label according to the conversion table in which the value of the device parameter is determined for each combination of the sensitivity effect label and the format.
- a mapping evaluation scale which is a parameter, is defined, and a media table in which the mapping evaluation scale and format are defined for each media data is created.
- the mapping determination unit applies a combination pattern of a device capable of reproducing the media data included in the media table among the devices included in the device table and the media data included in the media table to the device table and the media table. Extracted based on the included format, select the combination pattern that minimizes the relative error between the device parameters included in the device table and the mapping evaluation scale included in the media table from the extracted combination patterns, and media data. Select the device to output to.
- the content reproduction program of the present disclosure is a program that causes the computer to function as each functional unit provided in the content reproduction device according to the present disclosure, and is a program that causes the computer to execute each procedure provided in the content reproduction method according to the present disclosure.
- An example of the system configuration according to the present disclosure is shown. It is a block block diagram of the device table creation part. An example of device information is shown. An example of the device table is shown. An example of the parameters sent to the mapping determination unit is shown. An example of network parameters transmitted to the output unit is shown. It is a block block diagram of the media table creation part. An example of metadata is shown. An example of the conversion table of the Kansei effect and the mapping evaluation scale is shown. An example of a media table is shown. It is a flow chart which shows an example of the operation of a mapping determination part. An example of the mapping combination of media data and device is shown. It is a block block diagram of an output part. The first example of the format conversion table is shown. A second example of the format conversion table is shown.
- An extraction example of the device is shown.
- An example of the device information of the third embodiment is shown.
- An example of the media table of the third embodiment is shown.
- An example of the metadata of the fourth embodiment is shown.
- An example of the Kansei effect and the conversion table of the mapping evaluation scale of the fourth embodiment is shown.
- An example of the media table of the fourth embodiment is shown.
- An example of a table that defines the calculation method of the mapping evaluation scale is shown.
- An example of the device parameters included in the device table of the fourth embodiment is shown.
- An example of the system configuration according to the fifth embodiment is shown.
- An example of spatial parameters is shown. It is explanatory drawing of a spatial parameter.
- An example of the device parameters included in the device table of the fifth embodiment is shown.
- An example of the media table of the fifth embodiment is shown.
- An example of the hardware configuration of the system of the present disclosure is shown.
- FIG. 1 shows an example of the system configuration according to the present disclosure.
- the content reproduction system according to the present disclosure includes a plurality of devices D 1 to D 4 and an orchestrator 91 that distributes the input media data to any of the plurality of devices and outputs the data.
- Devices D 1 to D 4 are arbitrary devices capable of reproducing media data.
- the orchestrator 91 distributes and outputs a plurality of received media data (video, audio, or sound effects, effect lighting, etc.) to a plurality of devices (display, speaker, lighting, etc.).
- the media data refers to data in which information such as video and audio is electronically encoded.
- the content is composed of one or more media data groups and metadata about the media data groups.
- the orchestrator 91 includes a device table creation unit 10 that executes a device table creation procedure, a media table creation unit 20 that executes a media table creation procedure, a mapping determination unit 30 that executes a mapping determination procedure, and an output unit 40 that executes an output procedure. , Equipped with.
- the device table creation unit 10 acquires device information from each device D 1 to D 4 and creates a device table using the device information.
- the media table creation procedure the media table creation unit 20 acquires the media data and the metadata of each media data, and creates the media table.
- the mapping determination unit 30 determines the combination of the media data and the devices D 1 to D 4 for reproducing the media data by using the device table and the media table.
- the output unit 40 distributes the media data to the devices D 1 to D 4 according to the mapping result of the mapping determination unit 30.
- FIG. 2 is a block configuration diagram of the device table creation unit 10.
- the device table creation unit 10 includes a device information receiving unit 11 and a device table saving / updating unit 12.
- Step 1 The device information receiving unit 11 acquires device information from each of the devices D 1 to D 4 .
- the device information includes device identification information, supported formats, device parameters and network parameters.
- a "supported format” is a format of media data that can be played by the device.
- the “device parameter” is an arbitrary parameter used by the device when playing back media data.
- the “network parameter” is information for transmitting and receiving media data, and includes an IP address, a port number, and a corresponding protocol.
- FIG. 3 shows an example of device information when the device D 1 is a video display.
- the supported formats are H. It is 264.
- Device parameters include frame rate and projected area. The frame rate is 30 and the projected area is 2.0.
- the method by which the device information receiving unit 11 acquires the device information is arbitrary.
- the transmission timing is, for example, when the media table creation unit 20 receives the media data.
- Step 2 Device information receiving unit 11 transfers the new device information received from the devices D 1 ⁇ D 4 in the device table storage / update section 12.
- Step 3 When the device table save / update unit 12 receives the new device information, the device table adds new device information to the held device table, updates the device table, and saves the device table.
- a JSON Javascript (registered trademark) Object Notification) format can be considered.
- FIG. 4 shows an example of the updated device table.
- the device information of the devices D 3 and D 4 which are lighting fixtures and the device information of the device D 2 which is a video display is added.
- Step 4 The device table creation unit 10 transmits the parameters necessary for mapping excluding the network parameters from the device table held in the device table save / update unit 12 to the mapping determination unit 30. Further, the device table creation unit 10 sends the network parameters of each playback device to the output unit 40 from the device table held in the device table save / update unit 12.
- FIG. 5 shows an example of parameters transmitted to the mapping determination unit 30.
- FIG. 6 shows an example of parameters transmitted to the output unit 40.
- FIG. 7 is a block configuration diagram of the media table creation unit 20.
- the media table creation unit 20 includes a reception unit 21 and a conversion unit 22.
- Step 1 The receiving unit 21 receives media data and metadata from the outside of the orchestrator 91.
- the method of adding the metadata to the media data is described in, for example, H.
- video data in 264 format and its metadata are stored together in an MP4 container.
- FIG. 8 shows an example of metadata.
- the metadata includes format information and Kansei effect labels for each media data.
- the media data M 1 is video data
- the "sensitivity effect” is an effect that appeals to the sensibilities such as the emotions and tastes of the person who sees it from the physical result of reproducing the media data. For example, when playing back video data, the viewer feels “lively and well-understood” according to the physical values related to the playback, such as the frame rate and the video area occupied in the field of view, in addition to the video content itself. It is generally said that the degree of strength of the emotional effect of "or atmosphere, that is, action” changes. In addition, there are a wide variety of types such as authenticity and drama. "Authenticity” is, for example, the sensibility effect that something that should not be there really feels there. "Drama” is an emotional effect that makes emotional expressions such as emotions rich.
- the "Kansei effect label” is a concise character string, code, or identifier representing the Kansei effect.
- the Kansei effect label corresponds to a character string such as "action”, “intrinsic”, and "drama”.
- Step 2 The receiving unit 21 sends the received media data to the output unit 40, and sends the metadata to the conversion unit 22 of the mapping evaluation scale.
- Step 3 The conversion unit 22 maps the Kansei effect label portion of the received metadata according to the format, based on the “Kansei effect label and mapping evaluation scale conversion table” that is stored in advance. Convert to a rating scale. Add this converted metadata to the media table. The conversion unit 22 transmits the created media table to the mapping determination unit 30.
- FIG. 9 shows an example of the conversion table of the Kansei effect label and the mapping evaluation scale.
- H.I. whose Kansei effect label is actionable.
- the evaluation scale of the projected area is 1.8 with a weight of 1.0
- the evaluation scale of the frame rate is 60 with a weight of 0.5
- the overall weight is 0.7.
- H.S. whose Kansei effect label is authentic.
- the frame rate evaluation scale is 60 with a weight of 1.0
- the bit depth evaluation scale is 16 with a weight of 0.5
- the overall weight is 0.6.
- FIG. 10 shows an example of a media table.
- the format of the media data M 1 is H. It is 264 and the Kansei effect label is actionable.
- mapping evaluation scale E prp the media data M p, r p pieces of mapping rating scale is set.
- the device in which the value of each mapping evaluation scale of the media data and the value of the corresponding device parameter are close to each other obtains the most expected Kansei effect. be able to.
- the device whose "projected area" value having the maximum weight is closest to the device parameter is assigned to the reproduction of the media data.
- the device parameters d 12 or d 22 relating to the projected area are to be reproduced. but, by selecting and reproducing device closest to the mapping evaluation measure E 11 for the projection area, it is realized to obtain an action of sensibility effects that are most expected in the reproduction of the media data M 1.
- the overall weight is a numerical value that determines the priority of mapping a plurality of media data.
- the entire weight G 1 of the media data M 1 video is 0.7
- the overall weight G 2 media data M 2 of the illumination is 0.3.
- the objective function of the video media data M 1 having a larger overall weight becomes dominant in the final mapping evaluation, and the mapping that reduces the objective function of the video media data M 1 becomes easier to be selected.
- FIG. 11 is a flow chart showing an example of the operation of the mapping determination unit 30.
- the mapping determination unit 30 executes steps S311 to S316.
- Step S311 The mapping determination unit 30 receives the device table from the device table creation unit 10 and the media table from the media table creation unit 20. Then, the mapping determination unit 30 derives a combination of devices for reproducing the media data M 1 and M 2 from the devices D 1 to D 4 .
- mapping determining section 30 compares the corresponding format of each media data and the device, format leads to a combination pattern only to a subject a combination of matching media data M p and device D r is.
- FIG. 12 shows an example of a mapping combination of media data and a device.
- the media data M 1 is H. It is video data in 264 format
- media data M 2 is 8-bit HSV lighting data.
- Devices D 1 and D 2 are H.I. It is a video display capable of reproducing 264 formats
- devices D 3 and D 4 are lighting fixtures capable of reproducing 8-bit HSV. In this case, there are the following four combination patterns.
- x 1 to X
- Step S313 the combination of the media data M p and device D r, calculates the objective function L p r using each type 2.
- r p is the total number of mapping evaluation scales set in the media data M p .
- p is an identifier of media data
- P is the total number of media data to be reproduced.
- r is a device identifier
- r a natural number from 1 to R
- R is the total number of devices.
- e pi represents the relative error between the output value E pi 'corresponding to the i-th mapping Rating Scale E pi mapping Rating Scale E pi of media data M p, it is expressed by the following equation.
- the output value E pi' is the value of the device parameter corresponding to the mapping evaluation scale E pi .
- the output value E 11 ' is a device parameter corresponding to the projected area
- the device parameter d 12 is the output value E 11 if device D 1' of the mapping evaluation measure E 11 corresponds to.
- Objective function L p r of the formula 2 calculated by multiplying the weight g pi according to the mapping evaluation measure E pi of the relative error e pi, they are summed, and performs a calculation that.
- Step S314 Using the calculated objective function L p r, and calculate the mapping evaluation function S x in combination pattern as follows, are recorded.
- mapping evaluation function S x When the mapping evaluation function S x is the smallest, it is considered that the overall sensibility effect generated by a plurality of media data is realized in the most expected state. That is, the mapping determination unit 30 searches for the mapping combination pattern x having the smallest mapping evaluation function S x according to the flow of FIG.
- Step S315 x is updated and the process returns to step S313.
- x X
- the process proceeds to step S316.
- mapping the evaluation function S x A description will be given of a specific method of calculating the objective function L p r, and mapping the evaluation function S x.
- the device D 1 which is a video display capable of outputting a value close to the desired value of the projected area is better.
- L p r is small.
- the influence of the objective function of (lighting) is relatively small. In other words, can be calculated as in preference for the media overall weight G p is greater evaluate the mapping.
- the media M 1 is assigned to the device D 1 and the media data M 2 is assigned to the device D 4 .
- FIG. 13 is a block configuration diagram of the output unit 40.
- the output unit 40 includes a transmission / reception instruction unit 41, a media data storage unit 42, and a transmission unit 43.
- Step 1 The transmission / reception instruction unit 41 receives the network parameters of each device from the device table creation unit 10.
- Step 2 The output unit 40 receives the media data from the media table creation unit 20 and stores it in the media data storage unit 42.
- Step 3 The transmission / reception instruction unit 41 receives the mapping result from the mapping determination unit 30.
- the mapping result includes devices D 1 and D 4 that reproduce the respective media data M 1 and M 2 .
- the transmission / reception instruction unit 41 uses the network parameters of each device to generate information necessary for transmission / reception of media data.
- the information required for transmitting and receiving media data is, for example, an SDP (Session Description Protocol) file or the like.
- Step 4 The transmission / reception instruction unit 41 transmits information necessary for transmission / reception of media data and a transmission instruction of media data to the transmission unit 43.
- the information required for transmitting and receiving media data is the network parameters of each device acquired from the device table creation unit 10.
- the media data storage unit 42 transmits the media data to the transmission unit 43.
- the transmission unit 43 transmits the mapped media data to each of the devices D 1 to D 4 .
- RTP Real-time Transport Protocol
- the present disclosure can obtain the following effects. -The work of setting multiple parameters included in the mapping evaluation scale can be simplified only by selecting the Kansei effect label. -The overall sensibility effect generated by playing back multiple media data can be automatically maximized.
- the transmission / reception instruction unit 41 provided in the output unit 40 has a function of converting the format F p of the media data M p .
- step S311 shown in FIG. 11 the mapping determining section 30 from among the devices D 1 ⁇ D 4, only the devices that format F p and devices corresponding format of the media data M p matches , It is extracted as a combination target of mapping.
- the output unit 40 can convert the format F p of the media data M p . Therefore, the mapping determination unit 30 of the present embodiment can increase the variation of the combination pattern within the range in which the format can be converted.
- the mapping determination unit 30 refers to a format conversion table in which the format that can be converted is determined by the transmission / reception instruction unit 41, and extracts a device that can be used by performing format conversion as a mapping combination target.
- the present embodiment even with different formats F p and device format of the media data M p, if it is possible to convert the format F p of the media data M p to the corresponding format of the device, that Devices are also added to the mapping combination target.
- FIG. 14 shows a first example of the format conversion table.
- the formats that can be converted to each other are arranged in each row.
- prepare in advance a table that describes the conversion source and conversion destination of the format that can be converted in one direction in each row.
- FIG. 15 shows a second example of the format conversion table.
- the second example of the format conversion table is an arrangement of formats that can be converted in one direction.
- FIG. 16 shows an extraction example of the device according to the present embodiment.
- the media data M 1 is H. It is media data of 265 format video, and it is a combination that can be converted to each other in the format conversion table. 264 and H. 265 is described.
- the device D 2 is the only device that supports the format of the media data M 1 .
- the devices D 1 and D 2 are extracted as the devices corresponding to the format of the media data M 1 .
- Mapping determining section 30 as a mapping result, the device D 1 and D 2 for reproducing the media data M 1 and M 2, the format to be reproduced at each device D 1 and D 2, and transmits to the transmitting and receiving instruction unit 41.
- Receiving instruction unit 41, H. a format of media data M 1 From 265 to H. It is converted to 264, and the converted media data M 1 is transmitted to the transmission unit 43 to the device D 1 .
- the media data M 1 can be reproduced on the device D 1 .
- the present embodiment provides the possibility of finding a highly evaluated mapping combination in which the minimum value of the mapping evaluation function S x can be made smaller by increasing the total number X of the mapping combination patterns.
- a device parameter is a fixed value.
- the device parameters may be variable within a predetermined range. The system of the present embodiment will be described a case where the device D 1 has a device parameters can vary.
- FIG. 17 shows an example of device information of the present embodiment.
- the device information receiving unit 11 of the present embodiment also acquires a range in which the device parameters fluctuate from each of the devices D 1 to D 4 .
- the device information receiving unit 11 can change or select the device parameter d 13 of the brightness in the range of 1.0 to 3.0 with a step size of 0.5. , 1.5 and 2.0 can be output as device parameters.
- the mapping determination unit 30 When selecting the combination pattern x, the mapping determination unit 30 considers the fluctuating range of the device parameters. For example, as shown in FIG. 18, it is described in the mapping evaluation scale column of the media data M 1 of the media table that the brightness evaluation scale E 13 is 2.2 and the weight g 13 is 0.3. If so, in step S313, the mapping determination unit 30 calculates the relative error e 13 using the brightness evaluation scale E 13 .
- the output value E 13 rating scale E 13 brightness' according to the device information shown in FIG. 17, corresponding to the device parameters d 13 brightness.
- the desired value of the brightness evaluation scale E 13 is 2.2.
- the mapping determination unit 30 sets the value of the step size 0.5 in the variable range of 1.0 to 3.0, which is the closest to 2.2, that is, 2.0, as the device parameter d of the brightness. Select as the output value of 13 .
- the relative error e 13 can be calculated as follows.
- Mapping determining section 30 as a mapping result, the device D 1 and D 2 for reproducing the media data M 1 and M 2, the device parameters used in the devices D 1 and D 2, and transmits to the transmitting and receiving instruction unit 41.
- the transmission / reception instruction unit 41 transmits to the transmission unit 43 to the device D 1 that 2.0 is used for the device parameter d 13 of the brightness.
- the device D 1 reproduces the media data M 1 by using 2.0 for the device parameter d 13 of the brightness.
- the device D 1 can realize a more desired sensitivity effect in the reproduction of the media data M 1 .
- the media table creation unit 20 assigns an absolute mapping evaluation scale that is not affected by the mapping evaluation scale of other media data.
- the media table creation unit 20 of the present embodiment considers a relative mapping evaluation scale influenced by other media data.
- the metadata of the media data acquired by the media table creation unit 20 includes information on "relationship with other media data" as shown in FIG. 19 in addition to the items of FIG.
- the information regarding "relationship with other media data” includes, for example, that when both media data M 1 and M 2 are reproduced, the media data M 1 is the main and the media data M 2 is the sub.
- the conversion table of the sensitivity effect label and the mapping evaluation scale referred to by the media table creation unit 20 includes information on "relationship of media data" and main media data as shown in FIG. 20 in addition to the items of FIG. Includes a mapping rating scale that shows the relationship with submedia data.
- the media table creation unit 20 reads out that the relative distance to the main media data defined by the mapping evaluation scale is 2.0, and reflects it in the mapping evaluation scale of the sub media data M 2 .
- the main media data is M 1
- the relative distance to the media data M 1 is 2.0
- the weight is 0.5.
- the media data M 2 can have a mapping evaluation scale relative to the media data M 1 .
- the output value of mapping rating scale had a name is equivalent to the corresponding device parameters.
- the output value of the mapping evaluation scale "projected area" of the video media data was equivalent to the device parameter "projected area” of the video display.
- the output value of the relative mapping evaluation scale requires a plurality of device parameters. Therefore, in the present embodiment, a table for defining the calculation method of the mapping evaluation scale as shown in FIG. 22 showing the device parameters and the calculation method is prepared in advance.
- the device parameters included in the device table include three-dimensional coordinates.
- the three-dimensional coordinates are information indicating the position where the device is arranged.
- the three-dimensional coordinates of the device D 1 are (0,1, 2) and the three-dimensional coordinates of the device D 2 are (0,2,1) is shown.
- the mapping determination unit 30 obtains the mapping combination pattern x using the media table, the device table, and the table that defines the calculation method of the output value of the mapping evaluation scale.
- mapping evaluation scale is the relative distance between the main media data and the sub-media data
- calculation method of the output value of the mapping evaluation scale is
- Mapping determination unit 30 may read out the three-dimensional coordinates d 13 and d 23 from the device table to determine the output value E 22 'and the relative error e 22 in the relative distance E 22 for media data M 1.
- the sensation effect label of actionability is the interaction between the main media data and the sub-media data by presenting the main media data and adding the sub-media data at an appropriate relative distance. Will occur, and the action will be enhanced.
- FIG. 24 shows an example of the system configuration according to the present embodiment.
- the orchestrator 91 according to the present embodiment further includes a spatial parameter acquisition unit 50.
- the objective function L p r of the mapping determining section 30 it has utilized only the mapping evaluation measure E pi and device parameters d.
- the present embodiment uses spatial parameters for calculation.
- the spatial parameter acquisition unit 50 is an arbitrary means for acquiring spatial parameters, and examples thereof include a sensor, a communication means for receiving data from the sensor, and an input means such as a keyboard and a mouse.
- Spatial parameters are parameters that affect the mapping evaluation scale of the space itself.
- spatial parameters include spatial brightness, wall light reflection characteristics, spatial acoustic characteristics, and spatial 3D maps.
- FIG. 25 shows an example of spatial parameters.
- the spatial parameter shown in FIG. 25 is a 3D map of the space, and the range of the wall surface in the X-axis, Y-axis, and Z-axis directions as shown in FIG. 26 is defined.
- FIG. 27 shows an example of the device table of this embodiment.
- Device table of the present embodiment reproducing device D 1 is Purojakuta, corresponding format H. 264, the device parameters include frame rate, screen size, 3D coordinates, unit direction vector and center normal direct illuminance. Three-dimensional coordinates and unit direction vectors are elements of spatial parameters.
- a calculation formula using spatial parameters or other device parameters instead of fixed values may be described as device parameters.
- the screen size is calculated using 3D coordinates and spatial parameters rather than fixed values.
- FIG. 28 shows an example of the media table of the present embodiment.
- the media data M 1 is video media data
- the format is H.I. 264
- the mapping evaluation scale includes projected area, frame rate and direct illuminance at the center normal.
- the mapping determination unit 30 considers the following when extracting the combination pattern x.
- the mapping determination unit 30 reads out the element of the spatial parameter.
- the mapping determination unit 30 refers to the spatial parameters and performs a geometric calculation using the equations of each wall surface.
- the mapping determination unit 30, the device D 1 in FIG. 26 judges that a situation such as to project an image on the wall W5.
- the effect of increasing the sensitivity effect can be obtained.
- the central normal direct illuminance which can be calculated only in consideration of spatial parameters, is a parameter related to the brightness of media data such as images and lighting, and contributes to the drama of the Kansei effect label. By making this possible, mapping that further enhances drama can be realized.
- FIG. 29 shows an example of the hardware configuration of the system of the present disclosure.
- the system of the present disclosure includes a computer 96 which functions as a content reproducing apparatus according to the present disclosure, the device D 1.
- the computer 96 may be connected to the network 95.
- the network 95 is a data communication network. Communication is carried out by electronic signals and optical signals via the network 95.
- the computer 96 includes a processor 110 and a memory 120 connected to the processor 110.
- the processor 110 is an electronic device composed of logic circuits that respond to and execute instructions.
- the memory 120 is a readable storage medium for the tangible computer 96 in which the computer program is encoded.
- the memory 120 stores data and instructions, i.e. program code, that can be read and executed by the processor 110 to control the operation of the processor 110.
- One of the components of the memory 120 is the program module 121.
- the program module 121 includes a module for realizing an arbitrary functional unit provided in the present embodiment.
- the program module 121 includes a module for realizing the device table creation unit 10, the media table creation unit 20, the mapping determination unit 30, and the output unit 40.
- the program module 121 includes instructions for controlling the processor 110 to perform the processes described herein. Although the program module 121 is shown to have already been loaded into memory 120, it may be configured to be located on storage device 140 for later loading into memory 120.
- the storage device 140 is a readable storage medium for a tangible computer that stores the program module 121. Alternatively, the storage device 140 may be another type of electronic storage device connected to the computer 96 via the network 95.
- This disclosure can be applied to the information and communication industry.
- Device table creation unit 11 Device information reception unit 12: Device table save / update unit 20: Media table creation unit 21: Reception unit 22: Conversion unit 30: Mapping determination unit 40: Output unit 41: Transmission / reception instruction unit 42: Media data storage unit 43: Transmission unit 91: Orchestrator 95: Network 96: Computer 110: Processor 120: Memory 121: Program module 140: Storage device
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本開示は、予め設定された感性効果に応じたメディアデータの再生を可能にすることを目的とする。 本開示のコンテンツ再生装置(91)は、再生可能なメディアデータのフォーマット及びデバイスパラメータをデバイスごとに定めたデバイステーブルを保持するデバイステーブル作成部(10)と、メディアデータのフォーマット及び感性効果ラベルを含むメタデータを取得し、感性効果ラベルに応じたデバイスパラメータであるマッピング評価尺度を定め、マッピング評価尺度及びフォーマットがメディアデータごとに定められたメディアテーブルを作成する、メディアテーブル作成部(20)と、メディアデータを再生可能なデバイスとメディアデータとの組み合わせパターンをフォーマットに基づいて抽出し、抽出した組み合わせパターンのなかからデバイスパラメータとマッピング評価尺度との相対誤差が最も小さくなる組み合わせパターンを選択し、メディアデータの出力先であるデバイスを選択する、マッピング決定部(30)と、を備える。
Description
本発明は、一つ以上のメディアデータから構成されるコンテンツ再生装置および再生方法に関する。特に、複数種類のメディアデータから構成されるコンテンツ再生装置および再生方法に関する。
映像データや音声データ等のメディアデータで構成されるコンテンツの視聴が普及し、さらに高臨場なコンテンツが登場しつつある。その様な高臨場コンテンツは、特定の再生環境を前提として作成されており、符号化方式や制御方法などが違うため、他の再生環境で同様に再生することは出来ないことが多い。
しかし、メディアデータを何かしらの評価尺度に基づき、再生環境中のデバイスに対して適切にマッピングすることで、特定の再生環境における再生に最大限近づけることが出来る。以降、この際に利用する評価尺度を「マッピング評価尺度」と呼ぶ。マッピング評価尺度は、メディアデータの物理的な再生結果に影響を及ぼすパラメータで構成される。
非特許文献1には、コンテンツ作成者がマッピング評価尺度を入力することで、プロジェクター群に3DCG映像をマッピングする方法が開示されている。プロジェクター群が設置された所与の再生環境において3DCGコンテンツが視聴者に対して適切に見えるように再生するために、非特許文献1のシステムは、室内の3Dマップとプロジェクター、視聴者の位置や姿勢といった再生環境情報を取得することに加え、3DCGオブジェクト間の相対的な3次元座標と向き、体積の関係性を示す物理パラメータ群の所望値を、マッピング評価尺度としてコンテンツ作成者が設定する。これにより、非特許文献1のシステムは、適切なマッピングを決定し、プロジェクターに映像データを供給する。
今後高臨場コンテンツを構成するメディアデータの種類や数が増大する傾向にある。従来はマッピング評価尺度を人手で設定する必要があるが、メディアデータの種類や数が増大するとその作業自体も複雑になってしまう。そのため、コンテンツのマッピング評価尺度の設定作業を削減する必要がある。
Andreas Fender et al: "OptiSpace: Automated Placement of Interactive 3D Projection Mapping Content," CHI, 2018)
本開示は、予め設定された感性効果に応じたメディアデータの再生を可能にすることを目的とする。
本開示のコンテンツ再生装置は、
再生可能なメディアデータのフォーマット及びメディアデータの再生時に用いるデバイスパラメータをデバイスごとに定めたデバイステーブルを保持するデバイステーブル作成部と、
メディアデータのフォーマット及び感性効果ラベルを含むメタデータを取得し、感性効果ラベル及びフォーマットの組み合わせごとにデバイスパラメータの値が定められた変換テーブルに従って、感性効果ラベルに応じたデバイスパラメータであるマッピング評価尺度を定め、前記マッピング評価尺度及びフォーマットがメディアデータごとに定められたメディアテーブルを作成する、メディアテーブル作成部と、
前記デバイステーブルに含まれるデバイスのうちの前記メディアテーブルに含まれるメディアデータを再生可能なデバイスと前記メディアテーブルに含まれるメディアデータとの組み合わせパターンを前記デバイステーブル及び前記メディアテーブルに含まれるフォーマットに基づいて抽出し、抽出した組み合わせパターンのなかから前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差が最も小さくなる組み合わせパターンを選択し、メディアデータの出力先であるデバイスを選択する、マッピング決定部と、
を備える。
再生可能なメディアデータのフォーマット及びメディアデータの再生時に用いるデバイスパラメータをデバイスごとに定めたデバイステーブルを保持するデバイステーブル作成部と、
メディアデータのフォーマット及び感性効果ラベルを含むメタデータを取得し、感性効果ラベル及びフォーマットの組み合わせごとにデバイスパラメータの値が定められた変換テーブルに従って、感性効果ラベルに応じたデバイスパラメータであるマッピング評価尺度を定め、前記マッピング評価尺度及びフォーマットがメディアデータごとに定められたメディアテーブルを作成する、メディアテーブル作成部と、
前記デバイステーブルに含まれるデバイスのうちの前記メディアテーブルに含まれるメディアデータを再生可能なデバイスと前記メディアテーブルに含まれるメディアデータとの組み合わせパターンを前記デバイステーブル及び前記メディアテーブルに含まれるフォーマットに基づいて抽出し、抽出した組み合わせパターンのなかから前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差が最も小さくなる組み合わせパターンを選択し、メディアデータの出力先であるデバイスを選択する、マッピング決定部と、
を備える。
本開示のコンテンツ再生方法は、
デバイステーブル作成部が、再生可能なメディアデータのフォーマット及びメディアの再生時に用いるデバイスパラメータをデバイスごとに定めたデバイステーブルを保持し、
メディアテーブル作成部が、メディアデータのフォーマット及び感性効果ラベルを含むメタデータを取得し、感性効果ラベル及びフォーマットの組み合わせごとにデバイスパラメータの値が定められた変換テーブルに従って、感性効果ラベルに応じたデバイスパラメータであるマッピング評価尺度を定め、前記マッピング評価尺度及びフォーマットがメディアデータごとに定められたメディアテーブルを作成し、
マッピング決定部が、前記デバイステーブルに含まれるデバイスのうちの前記メディアテーブルに含まれるメディアデータを再生可能なデバイスと前記メディアテーブルに含まれるメディアデータとの組み合わせパターンを前記デバイステーブル及び前記メディアテーブルに含まれるフォーマットに基づいて抽出し、抽出した組み合わせパターンのなかから前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差が最も小さくなる組み合わせパターンを選択し、メディアデータの出力先であるデバイスを選択する。
デバイステーブル作成部が、再生可能なメディアデータのフォーマット及びメディアの再生時に用いるデバイスパラメータをデバイスごとに定めたデバイステーブルを保持し、
メディアテーブル作成部が、メディアデータのフォーマット及び感性効果ラベルを含むメタデータを取得し、感性効果ラベル及びフォーマットの組み合わせごとにデバイスパラメータの値が定められた変換テーブルに従って、感性効果ラベルに応じたデバイスパラメータであるマッピング評価尺度を定め、前記マッピング評価尺度及びフォーマットがメディアデータごとに定められたメディアテーブルを作成し、
マッピング決定部が、前記デバイステーブルに含まれるデバイスのうちの前記メディアテーブルに含まれるメディアデータを再生可能なデバイスと前記メディアテーブルに含まれるメディアデータとの組み合わせパターンを前記デバイステーブル及び前記メディアテーブルに含まれるフォーマットに基づいて抽出し、抽出した組み合わせパターンのなかから前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差が最も小さくなる組み合わせパターンを選択し、メディアデータの出力先であるデバイスを選択する。
本開示のコンテンツ再生プログラムは、本開示に係るコンテンツ再生装置に備わる各機能部としてコンピュータを機能させるプログラムであり、本開示に係るコンテンツ再生方法に備わる各手順をコンピュータに実行させるプログラムである。
本開示によれば、予め設定された感性効果に応じたメディアデータの再生を可能にすることができる。
以下、本開示の実施形態について、図面を参照しながら詳細に説明する。なお、本開示は、以下に示す実施形態に限定されるものではない。これらの実施の例は例示に過ぎず、本開示は当業者の知識に基づいて種々の変更、改良を施した形態で実施することができる。なお、本明細書及び図面において符号が同じ構成要素は、相互に同一のものを示すものとする。
(第1の実施形態)
図1に、本開示に係るシステム構成の一例を示す。本開示に係るコンテンツ再生システムは、複数のデバイスD1~D4と、入力されたメディアデータを複数のデバイスのいずれかに振り分けて出力するオーケストレータ91と、を備える。デバイスD1~D4は、メディアデータを再生可能な任意の装置である。オーケストレータ91は、受信した複数のメディアデータ(映像・音声・あるいは効果音や効果照明など)を、複数のデバイス(ディスプレイ・スピーカ・照明など)に振り分けて出力する。ここで、メディアデータとは、映像や音声などの情報を電子的に符号化したデータをいう。コンテンツは、1つ以上のメディアデータ群と、メディアデータ群に関するメタデータで構成されるものである。
図1に、本開示に係るシステム構成の一例を示す。本開示に係るコンテンツ再生システムは、複数のデバイスD1~D4と、入力されたメディアデータを複数のデバイスのいずれかに振り分けて出力するオーケストレータ91と、を備える。デバイスD1~D4は、メディアデータを再生可能な任意の装置である。オーケストレータ91は、受信した複数のメディアデータ(映像・音声・あるいは効果音や効果照明など)を、複数のデバイス(ディスプレイ・スピーカ・照明など)に振り分けて出力する。ここで、メディアデータとは、映像や音声などの情報を電子的に符号化したデータをいう。コンテンツは、1つ以上のメディアデータ群と、メディアデータ群に関するメタデータで構成されるものである。
オーケストレータ91は、デバイステーブル作成手順を実行するデバイステーブル作成部10、メディアテーブル作成手順を実行するメディアテーブル作成部20、マッピング決定手順を実行するマッピング決定部30、出力手順を実行する出力部40、を備える。
デバイステーブル作成手順では、デバイステーブル作成部10が、各デバイスD1~D4からデバイス情報を取得し、これを用いてデバイステーブルを作成する。
メディアテーブル作成手順では、メディアテーブル作成部20が、メディアデータ及び各メディアデータのメタデータを取得し、メディアテーブルを作成する。
マッピング決定手順では、マッピング決定部30が、デバイステーブル及びメディアテーブルを用いて、メディアデータと当該メディアデータを再生するデバイスD1~D4の組み合わせを決定する。
出力手順では、出力部40が、マッピング決定部30のマッピング結果に従って、メディアデータをデバイスD1~D4に振り分ける。
メディアテーブル作成手順では、メディアテーブル作成部20が、メディアデータ及び各メディアデータのメタデータを取得し、メディアテーブルを作成する。
マッピング決定手順では、マッピング決定部30が、デバイステーブル及びメディアテーブルを用いて、メディアデータと当該メディアデータを再生するデバイスD1~D4の組み合わせを決定する。
出力手順では、出力部40が、マッピング決定部30のマッピング結果に従って、メディアデータをデバイスD1~D4に振り分ける。
<デバイステーブル作成部10>
図2は、デバイステーブル作成部10のブロック構成図である。デバイステーブル作成部10は、デバイス情報受信部11及びデバイステーブル保存/更新部12を備える。
図2は、デバイステーブル作成部10のブロック構成図である。デバイステーブル作成部10は、デバイス情報受信部11及びデバイステーブル保存/更新部12を備える。
手順1:デバイス情報受信部11は、各デバイスD1~D4からデバイス情報を取得する。デバイス情報は、デバイスの識別情報、対応フォーマット、デバイスパラメータ及びネットワークパラメータを含む。「対応フォーマット」はデバイスが再生可能なメディアデータのフォーマットである。「デバイスパラメータ」はメディアデータを再生する際にデバイスが用いる任意のパラメータである。「ネットワークパラメータ」は、メディアデータを送受信するための情報であり、IPアドレスやポート番号、対応プロトコルを含む。
図3に、デバイスD1が映像ディスプレイの場合のデバイス情報の一例を示す。対応フォーマットはH.264である。デバイスパラメータは、フレームレート及び投影面積を含む。フレームレートは30であり、投影面積は2.0である。ネットワークパラメータは、IPアドレス=192.168.2.10、ポート番号=8118、対応プロトコルRTPである。
デバイス情報受信部11がデバイス情報を取得する方法は任意である。送信のタイミングは、例えば、メディアテーブル作成部20がメディアデータを受け取った時である。
手順2:デバイス情報受信部11は、各デバイスD1~D4から受信した新しいデバイス情報をデバイステーブル保存/更新部12に渡す。
手順3:デバイステーブル保存/更新部12は、新しいデバイス情報を受信すると、保持しているデバイステーブルに対し、新しいデバイス情報を追加し、デバイステーブルを更新し、保存する。デバイステーブルの記述形式としては、例えばJSON(JavaScript(登録商標) Object Notation)形式が考えられる。
手順3:デバイステーブル保存/更新部12は、新しいデバイス情報を受信すると、保持しているデバイステーブルに対し、新しいデバイス情報を追加し、デバイステーブルを更新し、保存する。デバイステーブルの記述形式としては、例えばJSON(JavaScript(登録商標) Object Notation)形式が考えられる。
図4に、更新されたデバイステーブルの一例を示す。更新されたデバイステーブルでは、照明器具であるデバイスD3及びD4のデバイス情報並びに映像ディスプレイであるデバイスD2のデバイス情報に加え、映像ディスプレイであるデバイスD1のデバイス情報が追加されている。
手順4:デバイステーブル作成部10は、デバイステーブル保存/更新部12に保持しているデバイステーブルから、ネットワークパラメータを除いたマッピングに必要なパラメータを、マッピング決定部30に送信する。またデバイステーブル作成部10は、デバイステーブル保存/更新部12に保持しているデバイステーブルから、各再生デバイスのネットワークパラメータを出力部40に送る。図5に、マッピング決定部30に送信されるパラメータの一例を示す。図6に、出力部40に送信されるパラメータの一例を示す。
<メディアテーブル作成部20>
図7は、メディアテーブル作成部20のブロック構成図である。メディアテーブル作成部20は、受信部21、変換部22を備える。
図7は、メディアテーブル作成部20のブロック構成図である。メディアテーブル作成部20は、受信部21、変換部22を備える。
手順1:受信部21は、オーケストレータ91の外部から、メディアデータと、メタデータを受け取る。メタデータをメディアデータに付与する方法は、例えばH.264フォーマットの映像データとそのメタデータをMP4のコンテナに一緒に格納することが例示できる。
図8に、メタデータの一例を示す。メタデータは、各メディアデータのフォーマット情報及び感性効果ラベルを含む。例えば、メディアデータM1は映像データであり、フォーマット情報=H.264、感性効果ラベル=アクション性が紐付けられている。メディアデータM2は、照明データであり、フォーマット情報=8bit HSV、感性効果ラベル=アクション性が紐付けられている。
ここで、「感性効果」は、メディアデータを再生した物理的な結果から、それを見た人間の情緒や嗜好といった感性に訴えかける効果である。例えば、映像データの再生においては、映像の内容そのものに加え、フレームレートや視野に占める映像面積といった再生に関する物理的な数値に応じて、視聴者が感じる「生き生きとしていて動きがよく分かるような様子や雰囲気、すなわちアクション性」という感性効果の強さの度合いが変化すると、一般的に言われている。その他にも迫真性やドラマ性などその種類は多岐にわたる。「迫真性」は、例えば、そこにあるはずのないものが、本当にそこにあるように感じるという感性効果である。「ドラマ性」は、喜怒哀楽などの感情表現が豊かに感じるという感性効果である。「感性効果ラベル」は、感性効果を表す簡潔な文字列、符号あるいは識別子である。上述の例では、感性効果ラベルは「アクション性」、「迫真性」、「ドラマ性」といった文字列に相当する。
手順2:受信部21は、受信したメディアデータを出力部40に送り、メタデータをマッピング評価尺度の変換部22に送る。
手順3:変換部22は、内部にあらかじめ持っている「感性効果ラベルとマッピング評価尺度の変換テーブル」に基づき、受信したメタデータの感性効果ラベル部分を、フォーマットに応じて、重みづけされたマッピング評価尺度に変換する。この変換したメタデータをメディアテーブルに追加する。変換部22は、作成したメディアテーブルをマッピング決定部30に送信する。
手順3:変換部22は、内部にあらかじめ持っている「感性効果ラベルとマッピング評価尺度の変換テーブル」に基づき、受信したメタデータの感性効果ラベル部分を、フォーマットに応じて、重みづけされたマッピング評価尺度に変換する。この変換したメタデータをメディアテーブルに追加する。変換部22は、作成したメディアテーブルをマッピング決定部30に送信する。
図9に、感性効果ラベルとマッピング評価尺度の変換テーブルの一例を示す。例えば、感性効果ラベルがアクション性であるH.264フォーマットのメディアデータの場合、投影面積の評価尺度は重み1.0の1.8であり、フレームレートの評価尺度は重み0.5の60であり、全体重みは0.7である。感性効果ラベルが迫真性であるH.264フォーマットのメディアデータの場合、フレームレートの評価尺度が重み1.0の60であり、ビット深度の評価尺度が重み0.5の16であり、全体重みは0.6である。
図10に、メディアテーブルの一例を示す。メディアデータM1は、図8に示したように、フォーマットがH.264でありかつ感性効果ラベルがアクション性である。この場合、メディアデータM1に紐付けられるマッピング評価尺度は、図9の変換テーブルに照らして、投影面積E11=1.8(重みg11=1.0)、フレームレートE12=60(重みg12=0.5)、全体重みG1=0.7となる。
ここで、「マッピング評価尺度Eprp」について説明する。pが1以上の任意の整数である場合、メディアデータMpには、rp個のマッピング評価尺度が設定される。複数のデバイスのうちいずれか1つのデバイスでメディアデータを再生しようとするとき、メディアデータの各マッピング評価尺度の値と対応するデバイスパラメータの値とが近いデバイスほど、最も期待される感性効果を得ることができる。また、各マッピング評価尺度には、値(例えば、図10における「投影面積E11=1.8」)と、重要度を示す重み(例えば、図10における「重みg11=1.0」)が設定されている。この場合、重みが最大である「投影面積」の値がデバイスパラメータに最も近くなるようなデバイスを、メディアデータの再生に割り当てる。図10に記載された映像のメディアデータM1を、図4のデバイステーブルに記載された映像ディスプレイD1あるいはD2のいずれかで再生しようとする場合、投影面積に関するデバイスパラメータd12またはd22が、投影面積に関するマッピング評価尺度E11に最も近いデバイスを選択して再生させることで、メディアデータM1の再生において最も期待されるアクション性の感性効果を得ることが実現される。
ここで、マッピング評価尺度に含まれる「全体重み(G)」について説明する。全体重みは、複数のメディアデータのマッピングの優先度を決める数値である。図10に示す具体例の場合、映像のメディアデータM1の全体重みG1は0.7であり、照明のメディアデータM2の全体重みG2は0.3である。この場合、全体重みがより大きい映像のメディアデータM1の目的関数が最終的なマッピング評価において支配的になり、映像のメディアデータM1の目的関数を小さくするマッピングがより選択されやすくなる。
<マッピング決定部30>
図11は、マッピング決定部30の動作の一例を示すフロー図である。マッピング決定部30は、ステップS311~S316を実行する。
図11は、マッピング決定部30の動作の一例を示すフロー図である。マッピング決定部30は、ステップS311~S316を実行する。
ステップS311:マッピング決定部30は、デバイステーブル作成部10からデバイステーブルを、メディアテーブル作成部20からメディアテーブルを、受信する。そして、マッピング決定部30は、デバイスD1~D4のなかからメディアデータM1及びM2を再生させるデバイスの組み合わせを導く。
例えば、P個のメディアデータ(M1~MP)とR個のデバイス(D1~DR)が存在する際、それらをマッピングする組み合わせをすべて導く。所与の全メディアデータが所与の全デバイスで再生可能な場合、組み合わせの総数をX個とすると、次式が成立する。
例えば、本実施形態では、図4に示すような4種類のデバイスD1~D4と、図8に示すような2種類のメディアデータM1及びM2が存在する。この場合、X=4P2=4×3=12個の組み合わせが存在することになる。しかし、必ずしも全デバイスが全メディアデータを再生可能とは限らず、その際には組み合わせの総数Xは減少する。このとき、マッピング決定部30は、各メディアデータと各デバイスの対応フォーマットを比較し、フォーマットが一致するメディアデータMpとデバイスDrの組み合わせのみを対象に組み合わせパターンを導く。
図12に、メディアデータとデバイスのマッピング組み合わせの一例を示す。本実施形態では、メディアデータM1はH.264フォーマットの映像データであり、メディアデータM2は8bit HSVの照明データである。デバイスD1及びD2はH.264フォーマットを再生可能な映像ディスプレイであり、デバイスD3及びD4は8bit HSVを再生可能な照明器具である。この場合、組み合わせパターンは以下の4通りとなる。
・組み合わせパターンx=1:M1とD1の組み合わせ、M2とD3の組み合わせ
・組み合わせパターンx=2:M1とD2組み合わせ、M2とD3の組み合わせ
・組み合わせパターンx=3:M1とD1組み合わせ、M2とD4の組み合わせ
・組み合わせパターンx=4:M1とD2組み合わせ、M2とD4の組み合わせ
・組み合わせパターンx=1:M1とD1の組み合わせ、M2とD3の組み合わせ
・組み合わせパターンx=2:M1とD2組み合わせ、M2とD3の組み合わせ
・組み合わせパターンx=3:M1とD1組み合わせ、M2とD4の組み合わせ
・組み合わせパターンx=4:M1とD2組み合わせ、M2とD4の組み合わせ
ステップS312:組み合わせパターンをx(x=1~X)とし、x=1から処理を開始する。本実施形態では、p=1とr=1の組合せ、p=1とr=2の組合せ、p=2とr=3の組合せ、p=2とr=4の組合せ、が存在する。
ステップS313:メディアデータMpとデバイスDrの組合せに対して、それぞれ式2を用いて目的関数Lp rを計算する。
ステップS313:メディアデータMpとデバイスDrの組合せに対して、それぞれ式2を用いて目的関数Lp rを計算する。
ここで、rpは、メディアデータMpに設定されたマッピング評価尺度の総数である。pはメディアデータの識別子であり、p=1~Pの自然数、Pは再生しようとするメディアデータの総数である。rはデバイスの識別子であり、r=1~Rの自然数、Rはデバイスの総数である。epiは、メディアデータMpのi番目のマッピング評価尺度Epiとマッピング評価尺度Epiに対応する出力値Epi’との相対誤差を表し、次式で表される。
出力値Epi’は、マッピング評価尺度Epiに対応するデバイスパラメータの値である。例えば、マッピング評価尺度E11の出力値E11’は、投影面積に対応するデバイスパラメータであり、デバイスD1であればデバイスパラメータd12が出力値E11’に相当する。
式2で表される目的関数Lp
rは、相対誤差epiにそのマッピング評価尺度Epiに係る重みgpiを積算して算出し、それらを合算する、という計算を行うものである。目的関数Lp
rが小さいほど、各マッピング評価尺度に対する出力値の相対誤差が小さいことを意味している。すなわち、目的関数Lp
rが小さいほど、期待される感性効果をより忠実に実現することができる。そこで、メディアデータMp(p=1~P)とデバイスDr(r=1~R)の全ての組み合わせについて目的関数Lp
rを計算する。そして、ステップS316において、目的関数Lp
rが最も小さくなるデバイスDrとメディアデータMpの組み合わせを有する組み合わせパターンを、メディアデータとその再生のためのデバイスの対応付け(マッピング)として決定する。
マッピング評価関数Sxが最も小さい場合、複数のメディアデータによって発生する総合的な感性効果が最も期待される状態で実現される、と考える。すなわち、マッピング決定部30は、図11のフローに則り、マッピング評価関数Sxが最も小さくなるマッピングの組み合わせパターンxを探す。
ステップS315:xを更新し、ステップS313に戻る。x=XになったらステップS316に移行する。
ステップS316:x=1~Xのすべての組み合わせパターンで計算したマッピング評価関数Sxを比較し、Sxが最小になるときの組み合わせパターンxを最良のマッピング結果として出力する。
目的関数Lp
r及びマッピング評価関数Sxの具体的な計算方法について説明する。本実施形態では、例えば下記の図10に示すメディアテーブル、図4に示すデバイステーブルの場合、再生デバイスは映像2種類×照明2種類でマッピングの組み合わせパターンは4パターンある。このため、本実施形態では、X=4であり、x=1~4の場合のマッピング評価関数Sxを導出する。
x=1:M1/D1の組み合わせとM2/D3の組み合わせ
x=2:M1/D2の組み合わせとM2/D3の組み合わせ
x=3:M1/D1の組み合わせとM2/D4の組み合わせ
x=4:M1/D2の組み合わせとM2/D4の組み合わせ
x=1:M1/D1の組み合わせとM2/D3の組み合わせ
x=2:M1/D2の組み合わせとM2/D3の組み合わせ
x=3:M1/D1の組み合わせとM2/D4の組み合わせ
x=4:M1/D2の組み合わせとM2/D4の組み合わせ
まず、メディアデータM1の目的関数L1
1及びL1
2の導出例について説明する。
p=1かつr=1の場合、マッピング評価尺度E11(投影面積)の出力値E11’は、デバイスD1のデバイスパラメータd12(投影面積)と等価である。このとき、マッピング評価尺度E11に対する出力値E11’の相対誤差e11は
と計算できる。
p=1かつr=1の場合、マッピング評価尺度E11(投影面積)の出力値E11’は、デバイスD1のデバイスパラメータd12(投影面積)と等価である。このとき、マッピング評価尺度E11に対する出力値E11’の相対誤差e11は
e11が小さいほどメディアデータに対応付けられた感性効果をより忠実に実現できている、と評価する。フレームレートの相対誤差e12についても同様に計算できる。このように各マッピング評価尺度について相対誤差を計算し、重みgpiをかけて和を取ると、下記のような式で表せる。
重みが大きいマッピング評価尺度ほど目的関数Lp
rへの影響が大きくなる。つまり、重みが大きいマッピング評価尺度Eと出力値E’が近いデバイスはLp
rが小さくなり、マッピングされやすくなる。p=1かつr=1,2の組み合わせで、L1
1とL1
2を計算してみると下記のようになる。
このように、p=1の場合、映像メディアデータM1は投影面積が最も重みが大きいすなわち支配的なため、投影面積の所望値に近い値を出力できる映像ディスプレイであるデバイスD1の方がLp
rは小さくなる。
本実施形態は、Sxの導出に全体重みGpを用いているため、映像のメディアデータM1の目的関数の方がSxの大小に対する影響が大きく(=支配的に)なり、M2(照明)の目的関数の影響は相対的に小さくなっている。すなわち、全体重みGpが大きいメディアについて優先してマッピングの評価を行うように計算することができる。
本実施形態では、x=3の組み合わせパターンにおけるマッピング評価関数S3が最小である。マッピング評価関数S1~S4のなかから最も小さいS3をマッピングの組み合わせパターンとして採用する。この場合、マッピング決定部30は、x=3の組み合わせパターンをマッピング結果として出力する。これにより、本実施形態では、メディアM1はデバイスD1に割り当てられ、メディアデータM2はデバイスD4に割り当てられる。
<出力部40>
図13は、出力部40のブロック構成図である。出力部40は、送受信指示部41、メディアデータ保存部42、送信部43を備える。
図13は、出力部40のブロック構成図である。出力部40は、送受信指示部41、メディアデータ保存部42、送信部43を備える。
手順1:送受信指示部41は、デバイステーブル作成部10から各デバイスのネットワークパラメータを受信する。
手順2:出力部40は、メディアテーブル作成部20からメディアデータを受信し、メディアデータ保存部42に保存する。
手順3:送受信指示部41は、マッピング決定部30からマッピング結果を受け取る。マッピング結果は、各メディアデータM1及びM2を再生するデバイスD1及びD4を含む。その後、送受信指示部41は、各デバイスのネットワークパラメータを用いて、メディアデータの送受信に必要な情報を生成する。メディアデータの送受信に必要な情報は、例えばSDP(Session Description Protocol)ファイル等である。
手順4:送受信指示部41は、送信部43に対し、メディアデータの送受信に必要な情報とメディアデータの送信指示を送信する。メディアデータの送受信に必要な情報は、デバイステーブル作成部10から取得した各デバイスのネットワークパラメータである。メディアデータ保存部42は、メディアデータを送信部43に送信する。送信部43は、各デバイスD1~D4に対して、マッピングされたメディアデータを送信する。メディアデータの送信方法は、例えばRTP(Real-time Transport Protocol)を用いることができる。
手順2:出力部40は、メディアテーブル作成部20からメディアデータを受信し、メディアデータ保存部42に保存する。
手順3:送受信指示部41は、マッピング決定部30からマッピング結果を受け取る。マッピング結果は、各メディアデータM1及びM2を再生するデバイスD1及びD4を含む。その後、送受信指示部41は、各デバイスのネットワークパラメータを用いて、メディアデータの送受信に必要な情報を生成する。メディアデータの送受信に必要な情報は、例えばSDP(Session Description Protocol)ファイル等である。
手順4:送受信指示部41は、送信部43に対し、メディアデータの送受信に必要な情報とメディアデータの送信指示を送信する。メディアデータの送受信に必要な情報は、デバイステーブル作成部10から取得した各デバイスのネットワークパラメータである。メディアデータ保存部42は、メディアデータを送信部43に送信する。送信部43は、各デバイスD1~D4に対して、マッピングされたメディアデータを送信する。メディアデータの送信方法は、例えばRTP(Real-time Transport Protocol)を用いることができる。
(発明の効果)
本開示は、以下の効果を得ることができる。
・マッピング評価尺度に含まれる複数のパラメータの設定作業を、感性効果ラベルの選択のみに簡略化出来る。
・複数のメディアデータの再生によって発生する総合的な感性効果を自動で最大化できる。
本開示は、以下の効果を得ることができる。
・マッピング評価尺度に含まれる複数のパラメータの設定作業を、感性効果ラベルの選択のみに簡略化出来る。
・複数のメディアデータの再生によって発生する総合的な感性効果を自動で最大化できる。
(第2の実施形態)
本実施形態では、出力部40に備わる送受信指示部41が、メディアデータMpのフォーマットFpを変換する機能を有する。
本実施形態では、出力部40に備わる送受信指示部41が、メディアデータMpのフォーマットFpを変換する機能を有する。
第1の実施形態では、図11に示すステップS311において、マッピング決定部30は、デバイスD1~D4のなかから、メディアデータMpのフォーマットFpとデバイスの対応フォーマットが一致するデバイスのみを、マッピングの組み合わせ対象として抽出している。本実施形態では、出力部40においてメディアデータMpのフォーマットFpを変換することができる。このため、本実施形態のマッピング決定部30は、フォーマットの変換が可能な範囲で組み合わせパターンのバリエーションを増やすことができる。
マッピング決定部30は、送受信指示部41において変換可能なフォーマットを定めたフォーマット変換テーブルを参照し、フォーマット変換を行うことで使用可能なデバイスであれば、マッピングの組み合わせ対象として抽出する。これにより、本実施形態は、メディアデータMpのフォーマットFpとデバイスのフォーマットが異なっていても、メディアデータMpのフォーマットFpをデバイスの対応フォーマットに変換することが可能であれば、そのデバイスもマッピングの組み合わせ対象に追加する。
図14にフォーマット変換テーブルの第1例を示す。フォーマット変換テーブルの第1例は、各行に相互変換可能なフォーマットを並べたものである。この場合、各行に片方向に変換可能なフォーマットの変換元と変換先を記述するテーブルをあらかじめ用意する。
図15に、フォーマット変換テーブルの第2例を示す。フォーマット変換テーブルの第2例は、フォーマットの片方向変換が可能なフォーマットを並べたものである。
本実施形態では、マッピング決定部30においてフォーマット変換テーブルを用意することで、メディアデータにフォーマットが対応する再生デバイスの抽出を以下の手順で行うことができる。
図16に、本実施形態に係るデバイスの抽出例を示す。例えば、メディアデータM1がH.265フォーマットの映像のメディアデータであり、フォーマット変換テーブルにおいて相互変換可能な組み合わせにH.264及びH.265が記載されている。この場合、フォーマット変換ができなければ、メディアデータM1のフォーマットに対応するデバイスはデバイスD2のみである。これに対し、本実施形態は、フォーマット変換を用いるため、メディアデータM1のフォーマットに対応するデバイスとして、デバイスD1及びD2を抽出する。
マッピング決定部30は、マッピング結果として、各メディアデータM1及びM2を再生するデバイスD1及びD2と共に、各デバイスD1及びD2において再生するフォーマットを、送受信指示部41へ送信する。送受信指示部41は、メディアデータM1のフォーマットをH.265からH.264に変換し、変換後のメディアデータM1をデバイスD1への送信部43に送信する。これにより、デバイスD1におけるメディアデータM1の再生が可能になる。
フォーマット変換ができなければ、組み合わせパターンの総数Xは、2×1=2通りである。これに対し、本実施形態は、メディアフォーマットの相互変換テーブルを利用することで、組み合わせパターンの総数Xは、2×2=4通りまで増大することができる。
本実施形態は、マッピングの組み合わせパターンの総数Xを増大することで、マッピング評価関数Sxの最小値をより小さくできる、より評価の高いマッピング組み合わせを発見できる可能性を与える
(第3の実施形態)
第1の実施形態では、マッピング決定部30の目的関数Lp rを計算する際、デバイスパラメータは固定値であるとしていた。デバイスD1~D4によっては、デバイスパラメータが所定の範囲内で変動可能な場合がある。本実施形態のシステムは、デバイスD1が変動可能なデバイスパラメータを有する場合について説明する。
第1の実施形態では、マッピング決定部30の目的関数Lp rを計算する際、デバイスパラメータは固定値であるとしていた。デバイスD1~D4によっては、デバイスパラメータが所定の範囲内で変動可能な場合がある。本実施形態のシステムは、デバイスD1が変動可能なデバイスパラメータを有する場合について説明する。
図17に、本実施形態のデバイス情報の一例を示す。本実施形態のデバイス情報受信部11は、各デバイスD1~D4から、デバイスパラメータの変動する範囲も取得する。例えば、映像ディスプレイであるデバイスD1の場合、デバイス情報受信部11は、明るさのデバイスパラメータd13が1.0~3.0の範囲で、0.5の刻み幅で変動ないし選択可能で、1.5や2.0といった数値が出力可能である旨を、デバイスパラメータとして取得する。
マッピング決定部30は、組み合わせパターンxを選択する際に、デバイスパラメータの変動する範囲を考慮する。例えば、図18に示すように、メディアテーブルのメディアデータM1のマッピング評価尺度欄に、明るさの評価尺度E13が2.2であり、この重みg13が0.3である旨が記載されている場合、ステップS313において、マッピング決定部30は、明るさの評価尺度E13を用いて相対誤差e13を算出する。
具体的には、明るさの評価尺度E13の出力値E13’は、図17に示すデバイス情報によれば、明るさのデバイスパラメータd13に対応する。明るさの評価尺度E13の所望値が2.2である。この場合、マッピング決定部30は、変動可能な1.0~3.0の範囲の刻み幅0.5の値で最も2.2に近い数値、すなわち2.0を、明るさのデバイスパラメータd13の出力値として選択する。この場合、相対誤差e13は、以下のように計算できる。
マッピング決定部30は、マッピング結果として、各メディアデータM1及びM2を再生するデバイスD1及びD2と共に、各デバイスD1及びD2において用いるデバイスパラメータを、送受信指示部41へ送信する。送受信指示部41は、明るさのデバイスパラメータd13に2.0を用いる旨をデバイスD1への送信部43に送信する。これにより、デバイスD1は、明るさのデバイスパラメータd13に2.0を用いて、メディアデータM1の再生を行う。
本実施形態は、マッピング評価尺度の所望値により近い値をデバイスパラメータに用いる。このため、デバイスD1は、メディアデータM1の再生において、より所望に近い感性効果を実現することができる。
(第4の実施形態)
第1の実施形態では、メディアテーブル作成部20は、ほかのメディアデータのマッピング評価尺度に影響されない絶対的なマッピング評価尺度を割り当てる。これに対し、本実施形態のメディアテーブル作成部20は、他のメディアデータに影響される相対的なマッピング評価尺度を考慮する。
第1の実施形態では、メディアテーブル作成部20は、ほかのメディアデータのマッピング評価尺度に影響されない絶対的なマッピング評価尺度を割り当てる。これに対し、本実施形態のメディアテーブル作成部20は、他のメディアデータに影響される相対的なマッピング評価尺度を考慮する。
まず、メディアテーブル作成部20の取得するメディアデータのメタデータは、図8の項目に加えて、図19のように、「他メディアデータとの関係」に関する情報を含む。「他メディアデータとの関係」に関する情報は、例えば、メディアデータM1及びM2の両方を再生する場合、メディアデータM1がメインになり、メディアデータM2がサブである旨を含む。
また、メディアテーブル作成部20の参照する感性効果ラベルとマッピング評価尺度の変換テーブルは、図9の項目に加えて、図20のように「メディアデータの関係性」に関する情報、及びメインメディアデータとサブメディアデータとの関係を示すマッピング評価尺度を含む。
図19のメタデータには、メディアデータM1がメインになり、メディアデータM2がサブである旨が記載されている。この場合、メディアテーブル作成部20は、マッピング評価尺度で定められているメインメディアデータに対する相対距離が2.0である旨を読み出し、サブのメディアデータM2のマッピング評価尺度に反映させる。例えば、メインメディアデータがM1であり、メディアデータM1に対する相対距離が2.0であり、重みが0.5である旨を設定する。これにより、図21に示すようなメディアテーブルに変換する。上記のように、メディアデータM2はメディアデータM1に対する相対的なマッピング評価尺度を持つことができる。
第1の実施形態では、マッピング決定部30が目的関数Lp
rを計算する際、マッピング評価尺度の出力値は、名称が対応するデバイスパラメータと等価であるとしていた。例えば、映像メディアデータの「投影面積」というマッピング評価尺度の出力値は、映像ディスプレイの「投影面積」というデバイスパラメータと等価であった。本実施形態では、相対的なマッピング評価尺度の出力値は複数のデバイスパラメータが必要である。そこで、本実施形態は、デバイスパラメータと計算方法を示す図22のようなマッピング評価尺度の計算方法を定めるテーブルを予め作成しておく。
また、本実施形態では、図23に示すように、デバイステーブルに含まれるデバイスパラメータが、3次元座標を含む。3次元座標は、デバイスの配置されている位置を示す情報である。本実施形態では、簡単な例として、デバイスD1の3次元座標が(0,1,2)であり、デバイスD2の3次元座標が(0,2,1)である例を示す。
マッピング決定部30は、メディアテーブル、デバイステーブル及びマッピング評価尺度の出力値の計算方法を定めるテーブルを用いて、マッピングの組み合わせパターンxを求める。
本実施形態は、メディアデータの関係性を考慮したマッピング評価尺度を取り扱うことで、より感性効果の高い組み合わせパターンを選択することができる。例えば、アクション性という感性効果ラベルは、メインメディアデータを提示することに加え、サブメディアデータを適切な相対的な距離で追加して提示することで、メインメディアデータとサブメディアデータ間の相互作用が起こり、アクション性が高まる、などである。
(第5の実施形態)
図24に、本実施形態に係るシステム構成の一例を示す。本実施形態に係るオーケストレータ91は空間パラメータ取得部50をさらに備える。マッピング決定部30の目的関数Lp rの計算においては、マッピング評価尺度Epiとデバイスパラメータdのみを利用していた。本実施形態は、これに加え、空間パラメータを計算に利用する。
図24に、本実施形態に係るシステム構成の一例を示す。本実施形態に係るオーケストレータ91は空間パラメータ取得部50をさらに備える。マッピング決定部30の目的関数Lp rの計算においては、マッピング評価尺度Epiとデバイスパラメータdのみを利用していた。本実施形態は、これに加え、空間パラメータを計算に利用する。
空間パラメータ取得部50は、空間パラメータを取得する任意の手段であり、例えば、センサ、センサからデータを受信する通信手段、キーボードやマウスなどの入力手段が例示できる。
空間パラメータは、空間自体が持つ、マッピング評価尺度に影響するパラメータである。例えば、空間パラメータは、空間の明るさ、壁面の光の反射特性、空間の音響特性、空間の3Dマップを含む。
図25に、空間パラメータの一例を示す。図25に示す空間パラメータは、空間の3Dマップであり、図26に示すような、X軸、Y軸、Z軸方向における壁面の範囲が定められている。
図27に本実施形態のデバイステーブルの一例を示す。本実施形態のデバイステーブルは、再生デバイスD1がプロジャクタであり、対応フォーマットがH.264であり、デバイスパラメータがフレームレート、画面サイズ、3次元座標、単位方向ベクトル及び中心法線直接照度を含む。3次元座標及び単位方向ベクトルは、空間パラメータの要素である。
また本実施形態においては、デバイスパラメータとして固定値ではなく、空間パラメータや他のデバイスパラメータを用いる計算式を記述してよい。例えばこの場合、画面サイズは固定値ではなく、3次元座標と空間パラメータで計算される。このように構成することで、空間パラメータを用いて計算するデバイスパラメータを取り扱うことが出来る。
図28に本実施形態のメディアテーブルの一例を示す。本実施形態のメディアテーブルは、メディアデータM1が映像メディアデータであり、フォーマットがH.264であり、マッピング評価尺度が投影面積、フレームレート及び中心法線直接照度を含む。
マッピング決定部30は、組み合わせパターンxを抽出する際に、以下を考慮する。
デバイスパラメータの中に空間パラメータの要素が存在する場合、マッピング決定部30は、空間パラメータの要素を読み出す。例えば、デバイスD1の場合、マッピング決定部30は、3次元座標d13=(f,g,h)と単位方向ベクトルd14=(i,j,k)を読み出す。そして、マッピング決定部30は、空間パラメータを参照し、各壁面の方程式を利用した幾何的計算を行う。これにより、マッピング決定部30は、図26においてデバイスD1は壁面W5に映像を投影するような状況になっていると判定する。
デバイスパラメータの中に空間パラメータの要素が存在する場合、マッピング決定部30は、空間パラメータの要素を読み出す。例えば、デバイスD1の場合、マッピング決定部30は、3次元座標d13=(f,g,h)と単位方向ベクトルd14=(i,j,k)を読み出す。そして、マッピング決定部30は、空間パラメータを参照し、各壁面の方程式を利用した幾何的計算を行う。これにより、マッピング決定部30は、図26においてデバイスD1は壁面W5に映像を投影するような状況になっていると判定する。
このとき、デバイスD1とY=bの壁面W5のY座標の関係は、空間パラメータより、b=A×j+gとなる。よってA=(b-g)/jと計算できる。これにより、画面サイズの出力値E11’(=d12)や中心法線直接照度の出力値E13’(=d15)が計算可能になる。
本実施形態は、感性効果の増大の効果が得られる。例えば、空間パラメータを考慮して初めて計算可能な中心法線直接照度は、映像や照明といったメディアデータの明るさに関するパラメータであり、感性効果ラベルのドラマ性に寄与する。これを考慮可能にすることで、さらにドラマ性を高めるマッピングが実現できる。
(第6の実施形態)
図29は、本開示のシステムのハードウェア構成の一例を示している。本開示のシステムは、本開示に係るコンテンツ再生装置として機能するコンピュータ96と、デバイスD1を含む。コンピュータ96は、ネットワーク95へと接続されていてもよい。ネットワーク95は、データ通信ネットワークである。通信は、ネットワーク95を介して電子信号及び光信号によって行われる。
図29は、本開示のシステムのハードウェア構成の一例を示している。本開示のシステムは、本開示に係るコンテンツ再生装置として機能するコンピュータ96と、デバイスD1を含む。コンピュータ96は、ネットワーク95へと接続されていてもよい。ネットワーク95は、データ通信ネットワークである。通信は、ネットワーク95を介して電子信号及び光信号によって行われる。
コンピュータ96は、プロセッサ110、及びプロセッサ110に接続されたメモリ120を含む。プロセッサ110は、命令に応答し且つ命令を実行する論理回路で構成される電子デバイスである。メモリ120は、コンピュータプログラムがエンコードされた有形のコンピュータ96にとって読み取り可能な記憶媒体である。この点に関し、メモリ120は、プロセッサ110の動作を制御するためにプロセッサ110によって読み取り可能及び実行可能なデータ及び命令、すなわちプログラムコードを記憶する。メモリ120の構成要素の1つは、プログラムモジュール121である。
プログラムモジュール121は、本実施形態に備わる任意の機能部を実現させるためのモジュールを含む。例えば、プログラムモジュール121は、デバイステーブル作成部10、メディアテーブル作成部20、マッピング決定部30、出力部40を実現させるためのモジュールを含む。
プログラムモジュール121は、本明細書に記載のプロセスを実行するようにプロセッサ110を制御するための命令を含む。プログラムモジュール121は、すでにメモリ120へとロードされているものとして示されているが、メモリ120へと後にロードされるように記憶装置140上に位置するように構成されてもよい。記憶装置140は、プログラムモジュール121を記憶する有形のコンピュータにとって読み取り可能な記憶媒体である。あるいは、記憶装置140は、ネットワーク95を介してコンピュータ96へと接続される他の種類の電子記憶デバイスであってよい。
本開示は情報通信産業に適用することができる。
10:デバイステーブル作成部
11:デバイス情報受信部
12:デバイステーブル保存/更新部
20:メディアテーブル作成部
21:受信部
22:変換部
30:マッピング決定部
40:出力部
41:送受信指示部
42:メディアデータ保存部
43:送信部
91:オーケストレータ
95:ネットワーク
96:コンピュータ
110:プロセッサ
120:メモリ
121:プログラムモジュール
140:記憶装置
11:デバイス情報受信部
12:デバイステーブル保存/更新部
20:メディアテーブル作成部
21:受信部
22:変換部
30:マッピング決定部
40:出力部
41:送受信指示部
42:メディアデータ保存部
43:送信部
91:オーケストレータ
95:ネットワーク
96:コンピュータ
110:プロセッサ
120:メモリ
121:プログラムモジュール
140:記憶装置
Claims (7)
- 再生可能なメディアデータのフォーマット及びメディアデータの再生時に用いるデバイスパラメータをデバイスごとに定めたデバイステーブルを保持するデバイステーブル作成部と、
メディアデータのフォーマット及び感性効果ラベルを含むメタデータを取得し、感性効果ラベル及びフォーマットの組み合わせごとにデバイスパラメータの値が定められた変換テーブルに従って、感性効果ラベルに応じたデバイスパラメータであるマッピング評価尺度を定め、前記マッピング評価尺度及びフォーマットがメディアデータごとに定められたメディアテーブルを作成する、メディアテーブル作成部と、
前記デバイステーブルに含まれるデバイスのうちの前記メディアテーブルに含まれるメディアデータを再生可能なデバイスと前記メディアテーブルに含まれるメディアデータとの組み合わせパターンを前記デバイステーブル及び前記メディアテーブルに含まれるフォーマットに基づいて抽出し、抽出した組み合わせパターンのなかから前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差が最も小さくなる組み合わせパターンを選択し、メディアデータの出力先であるデバイスを選択する、マッピング決定部と、
を備える、
コンテンツ再生装置。 - 前記マッピング評価尺度は、メディアデータの優先順位を定める全体重みを含み、
前記マッピング決定部は、前記デバイステーブルに含まれるデバイスパラメータを用いて各マッピング評価尺度との相対誤差を求め、各マッピング評価尺度の相対誤差に全体重みを乗算した相対誤差の総和を求めることで、前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差を求める、
請求項1に記載のコンテンツ再生装置。 - 前記マッピング決定部の選択したデバイスとメディアデータとの組み合わせパターンに対応するメディアデータを、前記マッピング決定部の選択したデバイスに出力する、出力部をさらに備え、
前記出力部は、メディアデータのフォーマットを変換する送受信指示部を備え、
前記マッピング決定部は、前記送受信指示部において変換可能なフォーマットを前記デバイステーブルに含まれるフォーマットに含め、前記組み合わせパターンを抽出する、
請求項1又は2に記載のコンテンツ再生装置。 - 前記デバイステーブルに含まれるデバイスパラメータは、デバイスで変動可能な範囲を含み、
前記マッピング決定部は、前記デバイステーブルに含まれるデバイスパラメータの変動可能な範囲から、前記メディアテーブルに含まれるマッピング評価尺度に最も近いデバイスパラメータを用いて、前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差を求める、
請求項1から3のいずれかに記載のコンテンツ再生装置。 - 前記メタデータは、メディアデータ同士の相対関係を含み、
前記感性効果ラベル及びフォーマットの組み合わせごとにデバイスパラメータの値が定められた変換テーブルは、相対関係を有するメディアデータとの相対関係を示すマッピング評価尺度を含み、
前記マッピング決定部は、相対関係を有するメディアデータとの相対関係を示すマッピング評価尺度を用いて、前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差を求める、
請求項1から4のいずれかに記載のコンテンツ再生装置。 - デバイステーブル作成部が、再生可能なメディアデータのフォーマット及びメディアの再生時に用いるデバイスパラメータをデバイスごとに定めたデバイステーブルを保持し、
メディアテーブル作成部が、メディアデータのフォーマット及び感性効果ラベルを含むメタデータを取得し、感性効果ラベル及びフォーマットの組み合わせごとにデバイスパラメータの値が定められた変換テーブルに従って、感性効果ラベルに応じたデバイスパラメータであるマッピング評価尺度を定め、前記マッピング評価尺度及びフォーマットがメディアデータごとに定められたメディアテーブルを作成し、
マッピング決定部が、前記デバイステーブルに含まれるデバイスのうちの前記メディアテーブルに含まれるメディアデータを再生可能なデバイスと前記メディアテーブルに含まれるメディアデータとの組み合わせパターンを前記デバイステーブル及び前記メディアテーブルに含まれるフォーマットに基づいて抽出し、抽出した組み合わせパターンのなかから前記デバイステーブルに含まれるデバイスパラメータと前記メディアテーブルに含まれるマッピング評価尺度との相対誤差が最も小さくなる組み合わせパターンを選択し、メディアデータの出力先であるデバイスを選択する、
コンテンツ再生方法。 - 請求項1から5のいずれかに記載のコンテンツ再生装置に備わる各機能部としてコンピュータを機能させる、コンテンツ再生プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/625,368 US11805294B2 (en) | 2019-07-10 | 2019-07-10 | Content playback device, content playback method and content playback program |
PCT/JP2019/027389 WO2021005757A1 (ja) | 2019-07-10 | 2019-07-10 | コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム |
JP2021530432A JP7211514B2 (ja) | 2019-07-10 | 2019-07-10 | コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/027389 WO2021005757A1 (ja) | 2019-07-10 | 2019-07-10 | コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021005757A1 true WO2021005757A1 (ja) | 2021-01-14 |
Family
ID=74114452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/027389 WO2021005757A1 (ja) | 2019-07-10 | 2019-07-10 | コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11805294B2 (ja) |
JP (1) | JP7211514B2 (ja) |
WO (1) | WO2021005757A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012511837A (ja) * | 2008-07-14 | 2012-05-24 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | 感覚再生装置に係るメタデータを用いるマルチメディアアプリケーションシステム及びその方法 |
US20180164655A1 (en) * | 2016-12-12 | 2018-06-14 | Gracenote, Inc. | Systems and methods to transform events and/or mood associated with playing media into lighting effects |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI278238B (en) * | 2005-10-07 | 2007-04-01 | Via Tech Inc | Format converting method |
CN102090058A (zh) | 2008-07-15 | 2011-06-08 | 夏普株式会社 | 数据发送装置、数据接收装置、数据发送方法、数据接收方法及视听环境控制方法 |
US9282337B2 (en) * | 2009-02-27 | 2016-03-08 | Vixs Systems, Inc. | Media source device with digital format conversion and methods for use therewith |
JP2012524452A (ja) | 2009-04-15 | 2012-10-11 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | 感覚効果のためのメタデータ提供方法及び装置、感覚効果のためのメタデータが記録されたコンピュータ読み取り可能な記録媒体、感覚再生方法及び装置 |
US20110126104A1 (en) * | 2009-11-20 | 2011-05-26 | Rovi Technologies Corporation | User interface for managing different formats for media files and media playback devices |
US20120151006A1 (en) * | 2010-12-13 | 2012-06-14 | Motorola Mobility, Inc. | Content sharing between a universal plug and play device and a wide area network device |
US9628842B2 (en) * | 2011-02-11 | 2017-04-18 | Sony Corporation | Method and apparatus for identifying content using IPTV devices |
JP2012175149A (ja) * | 2011-02-17 | 2012-09-10 | Panasonic Corp | 通信システム、通信装置、通信方法、およびプログラム |
US9137281B2 (en) * | 2012-06-22 | 2015-09-15 | Guest Tek Interactive Entertainment Ltd. | Dynamically enabling guest device supporting network-based media sharing protocol to share media content over local area computer network of lodging establishment with subset of in-room media devices connected thereto |
US9049470B2 (en) * | 2012-07-31 | 2015-06-02 | Google Technology Holdings LLC | Display aware transcoder source selection system |
US9544662B2 (en) * | 2013-12-30 | 2017-01-10 | Google Technology Holdings LLC | Distributing metadata to peer devices |
CN107251565B (zh) * | 2014-07-11 | 2021-04-27 | 惠普发展公司,有限责任合伙企业 | 云服务器、控制设备、输出设备、用于配对设备的方法和包括它们的云*** |
US10298876B2 (en) * | 2014-11-07 | 2019-05-21 | Sony Corporation | Information processing system, control method, and storage medium |
US20160173937A1 (en) * | 2014-12-11 | 2016-06-16 | Mediatek Inc. | Methods and devices for media casting management among multiple media casting devices supporting different media casting protocols |
US20170131863A1 (en) * | 2015-11-06 | 2017-05-11 | Logitech | Program generation for a universal control system |
US10038941B2 (en) * | 2015-12-07 | 2018-07-31 | Caavo Inc | Network-based control of a media device |
KR20170106793A (ko) * | 2016-03-14 | 2017-09-22 | 한국전자통신연구원 | 디바이스 제어 장치 및 방법 |
WO2017160924A1 (en) * | 2016-03-15 | 2017-09-21 | Sonifi Solutions, Inc. | Systems and methods for associating communication devices with output devices |
US10382806B2 (en) * | 2016-11-14 | 2019-08-13 | DISH Technologies L.L.C. | Apparatus, systems and methods for controlling presentation of content using a multi-media table |
EP3545661B1 (en) * | 2016-11-23 | 2023-01-04 | Fasetto, Inc. | Systems and methods for streaming media |
BR102018074626A2 (pt) * | 2018-11-28 | 2020-06-09 | Samsung Eletronica Da Amazonia Ltda | método para controle de dispositivos com internet das coisas através de receptores de tv digital usando transmissão a partir de um radiodifusor em um fluxo de transporte |
WO2022208241A1 (en) * | 2021-03-31 | 2022-10-06 | Jio Platforms Limited | System and method for sharing media resources for network based communication |
-
2019
- 2019-07-10 WO PCT/JP2019/027389 patent/WO2021005757A1/ja active Application Filing
- 2019-07-10 JP JP2021530432A patent/JP7211514B2/ja active Active
- 2019-07-10 US US17/625,368 patent/US11805294B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012511837A (ja) * | 2008-07-14 | 2012-05-24 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | 感覚再生装置に係るメタデータを用いるマルチメディアアプリケーションシステム及びその方法 |
US20180164655A1 (en) * | 2016-12-12 | 2018-06-14 | Gracenote, Inc. | Systems and methods to transform events and/or mood associated with playing media into lighting effects |
Non-Patent Citations (1)
Title |
---|
D' ABREU NORONHA, S.: "Context-Sensitive Display Adaptation", TECHNICAL DISCLOSURE COMMONS, 17 April 2018 (2018-04-17), pages 1 - 10, XP055788718, Retrieved from the Internet <URL:https://www.tdcommons.org/dpubs_series/1170> [retrieved on 20191120] * |
Also Published As
Publication number | Publication date |
---|---|
US11805294B2 (en) | 2023-10-31 |
JPWO2021005757A1 (ja) | 2021-01-14 |
US20220256240A1 (en) | 2022-08-11 |
JP7211514B2 (ja) | 2023-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102210541B1 (ko) | 실제 장면의 재현에 가상 이미지 및 오디오 데이터를 오버레이하는 방법 및 장치, 그리고 모바일 디바이스 | |
US10991349B2 (en) | Method and system for musical synthesis using hand-drawn patterns/text on digital and non-digital surfaces | |
US10885718B2 (en) | Methods and systems for representing a pre-modeled object within virtual reality data | |
US20210248788A1 (en) | Virtual and real composite image data generation method, virtual and real images compositing system, trained model generation method, virtual and real composite image data generation device | |
US11393228B2 (en) | Methods, systems, articles of manufacture and apparatus to generate digital scenes | |
US10970932B2 (en) | Provision of virtual reality content | |
CN113316078B (zh) | 数据处理方法、装置、计算机设备及存储介质 | |
JP6656382B2 (ja) | マルチメディア情報を処理する方法及び装置 | |
CN114270877A (zh) | 非重合视听捕获*** | |
WO2021005757A1 (ja) | コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム | |
CN116755590A (zh) | 虚拟图像的处理方法、装置、增强实现设备及存储介质 | |
US20230031587A1 (en) | System and method of controlling image processing devices | |
JP2023518882A (ja) | 拡張現実コンテンツ提供のための装置および方法 | |
KR20210025324A (ko) | 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법 | |
KR20210020636A (ko) | 음악 교육 서비스 제공 방법 및 장치 | |
US20240212306A1 (en) | Performance Recording System, Performance Recording Method, and Recording Medium | |
KR102430914B1 (ko) | 가상현실 및 증강현실 컨텐츠 제공 시스템, 방법 그리고 컴퓨터 프로그램 | |
US20230326357A1 (en) | Information processing system and computer system implemented method of processing information | |
WO2023053249A1 (ja) | 学習装置、推定装置、学習方法、推定方法及びプログラム | |
CN113825018B (zh) | 一种基于图像处理的视频处理管理平台 | |
WO2020166352A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN116339675A (zh) | 一种调整音频信息的方法、装置、设备及存储介质 | |
Vijila et al. | Air xylophone Using OpenCV | |
CN118250627A (zh) | 车辆投影方法、装置、车辆及存储介质 | |
KR20220129746A (ko) | 예술작품 관련 음원 제공 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19936780 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2021530432 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19936780 Country of ref document: EP Kind code of ref document: A1 |